Karty graficzne

Architektura, GPU Boost 2.0

przeczytasz w 3 min.

TitanGeForce GTX Titan – najważniejsze dane
  • 5 segmentów GPC
  • 15 bloków SMX
  • 2688 rdzeni CUDA
  • 224 jednostki teksturujące
  • 48 jednostek rasteryzujących
  • Taktowanie rdzenia: 836 MHz (Boost: 876 MHz); pamięci: 1502 MHz
  • 6 GB pamięci 384-bit. GDDR5 / przepustowość 288,4 GB/s
  • Złącza: 2x DVI, HDMI, Display Port
  • Zalecany zasilacz o mocy 600 W


Diagram przedstawia silnik graficzny GK110 znajdujący się w GeForce GTX Titan


Tak oto przedstawia się blok SMX ze 192 rdzeniami CUDA

Architektura rdzenia graficznego GK110 w porównaniu do tego znajdujące się w GTX 680 różni się i to dość znacznie. Przede wszystkim wrażenie robi liczba zawartych w Titanie zunifikowanych procesorów – aż 2688 (GTX 680 – 1536). Nie obyło się zatem bez zwiększenia liczby tranzystorów w GPU. O ile GK104 ma ich 3,54 mld, o tyle GK110 zawiera ich dwukrotnie więcej – 7,1 mld. Więcej jest także pozostałych jednostek, jak teksturujących – 224, czy rasteryzujących – 48.

Nvidia zastosowała stosunkowo niskie zegary taktujące układ graficzny. Do tej pory seria GTX 600 pracowała z prędkością od 900 MHz wzwyż. Producent stwierdził, że nie ma powodu, aby Titana „gnać” na dużej częstotliwości taktowania i w zupełności wystarczy 836 MHz. Zresztą, dzięki opcji GPU Boost, karta dostosowuje się do warunków pracy i w razie potrzeby podnosi częstotliwość taktowania.

Cały GK110 składa się z pięciu segmentów GPC, w których zawarto po trzy bloki multiprocesorów SMX. Całość współpracuje z 6 GB pamięci GDDR5 o 384-bitowym interfejsie.

GPU Boost 2.0

Podobnie, jak inne karty graficzne z serii GeForce GTX 600, Titan został wyposażony w technologię GPU Boost, która teraz doczekała się rozwinięcia. W poprzednikach funkcja ta brała pod uwagę wiele czynników pracy akceleratora, jak m.in. temperaturę, napięcie, obciążenie, czy pobór mocy. Tym razem inżynierowie doszli do wniosku, że karta marnowała potencjał, skoro wydajne systemy chłodzące w zupełności wystarczały do utrzymania akceptowalnej temperatury.


Zasada działania Boost 2.0


Boost 2.0, to również zmiana parametru zasilania

Nvidia ustaliła więc górny limit temperatury na 80 stopni Celsjusza i jest to główny wyznacznik w pracy funkcji GPU Boost 2.0. Pozwala to bardziej efektywnie wykorzystać moc układu graficznego, który w odpowiedniej warunkach osiągnie wyższe taktowanie, co znów będzie miało swoje odzwierciedlenie w wydajności. Pozostał co prawda limit poboru mocy wynoszący 250 W, ale z możliwością manualnej zmiany przez użytkownika na 265 W. Wraz z Boost 2.0 doszła też możliwość zmiany napięcia zasilającego. Tu też zastosowano górny próg graniczny, którego przekroczenie mogłoby zaszkodzić pracy karty graficznej.

Podkręcanie monitora – Display Overclocking

Ciekawostką zastosowaną w GeForce GTX Titan, to możliwość podniesienie odświeżania monitora przy włączonej synchronizacji pionowej. Już tłumaczymy o co chodzi. Synchronizacja (v-sync) ma za zadanie zniwelowania przeskoków w animacji obrazu (mówimy tu o grach). Jej włączenie ogranicza liczbę wyświetlanych kl./s na ekranie do 60 (pomimo, że karta może generować znacznie więcej), czyli do tylu, przy ilu pracują współczesne monitory LCD. Na Titanie natomiast jest możliwość podniesienia progu do 80 Hz. Trzeba jednak wziąć pod uwagę dwa fakty: po pierwsze nie na każdym monitorze da się podnieść częstotliwość, a po drugie już od dawna można ręcznie zwiększyć odświeżanie w opcjach sterownika graficznego. I to zarówno w kartach z rdzeniem GeForce, jak i w Radeonach.

Pozostałe

GeForce GTX Titan obsługuje wszystkie inne technologie, jakimi szczyci się seria GeForce GTX 600. Mamy tu więc obsługę DirectX 11, technologię PhysX, jak również wsparcie dla SLI, czy też autorskie wygładzanie krawędzi TXAA.