GeForce GTX Titan w SLI – i nie ma mocnych!
Karty graficzne

GeForce GTX Titan w SLI – i nie ma mocnych!

przeczytasz w 3 min.

GeForce GTX Titan imponuje wydajnością, ale dla nas to było za mało i postanowiliśmy sprawdzić ile można wycisnąć z dwóch takich kart jednocześnie.

Ocena benchmark.pl
  • 4/5
Plusy

super wydajność w każdym trybie , relacja poboru mocy do wydajności , akceptowalne temperatury pod obciążeniem , zmodernizowana technologia Boost 2.0 , cicha praca chłodzenia w spoczynku

Minusy

bardzo wysoka cena

GeForce GTX Titan jest najmocniejszą jednordzeniową kartą graficzną do gier – taki werdykt wydaliśmy w naszym teście GTX Titan o tym układzie. Generuje najwięcej kl./s, oferuje świetną wydajność w rozdzielczościach zarezerwowanych dla monitorów o przekątnej 27-30 cali. Jednak nawet tak potężny akcelerator w niektórych sytuacjach nie zapewniał odpowiedniej mocy obliczeniowej. Od razu zaczęsliśmy się więc zastanawiać co by się stało gdyby dwie takie karty połączyć w trybie SLI. Też jesteście ciekawi? Nie musicie zgadywać, wystarczy że przeczytacie niniejszy test – zapraszamy!

GeForce Titan 2x

Pomysł opracowania testów dwóch Titanów połączonych ze sobą padł w naszej redakcji chwilę po jego premierze. Jednak znaleźć dwa takie wolne akceleratory, gdy rodzime redakcje czekały na jedynego dostępnego sampla od firmy Nvidia, było niemożliwe. Do czasu, gdy do Polski dotarł Zotac, o którym mogliście już przeczytać na naszych łamach.

Zdajemy sobie sprawę, że wielce mało prawdopodobne jest, aby ktokolwiek z domowych użytkowników, w tym graczy, już dziś mógł sobie pozwolić na aż dwa Titany. Musiałby wydać blisko 8 tys. złotych. Za tyle można spokojnie kupić całkiem niezłe, rodzinne auto, albo pojechać na wypasione wakacje i to w miłym towarzystwie :D. Którz jednak o tym nie marzy – o dwóch Titanach oczywiście! Niemniej jednak chcemy wam pokazać: co by było, gdyby było…

GeForce Titan SLI - Crysis 3 to nie problem
Za moment przekonacie się, jak dwa Titany radzą sobie w super wymagającym Crysis 3.

Pozwoliliśmy sobie pominąć testy w rozdzielczości Full HD. W takich warunkach topowe modele kart zazwyczaj oferują super płynny obraz w maksymalnych ustawieniach graficznych. Schody zaczynają się w trybie 2560x1600, gdzie tylko najdroższe lub wysoko podkręcone przez producenta akceleratory oferują dobrą płynność obrazu. Minimum, to Radeon HD 7970 GE lub GeForce GTX 680. Ostatnio dołączył do nich tytułowy GeForce GTX Titan. Tym bardziej, że potencjalny nabywca dwóch Titanów z pewnością nie będzie się „męczył” na 24 calowym monitorze :).

Przedstawiliśmy zatem wyniki tylko i wyłącznie w rozdzielczości obrazu 2560x1600. Przekonacie się, jak dwa akceleratory GeForce GTX Titan kosztujące prawie 8 tys. złotych dadzą sobie radę.

Kilka słów przypomnienia, czym jest GeForce GTX Titan.

GeForce GTX Titan – najważniejsze dane

  • 5 segmentów GPC
  • 15 bloków SMX
  • 2688 rdzeni CUDA
  • 224 jednostki teksturujące
  • 48 jednostek rasteryzujących
  • Taktowanie rdzenia: 836 MHz (Boost: 876 MHz); pamięci: 1502 MHz
  • 6 GB pamięci 384-bit. GDDR5 / przepustowość 288,4 GB/s
  • Złącza: 2x DVI, HDMI, Display Port
  • Zalecany zasilacz o mocy 600 W


Diagram przedstawia silnik graficzny GK110 znajdujący się w GeForce GTX Titan

GeForce GTX Titan, to potężny karta graficzna mająca korzenie w bardzo wydajnych układach Tesla stosowanych w super komputerach i stacjach roboczych.

Architektura rdzenia graficznego GK110 w porównaniu do tego znajdujące się w GTX 680 różni się i to dość znacznie. Przede wszystkim wrażenie robi liczba zawartych w Titanie zunifikowanych procesorów – aż 2688 (GTX 680 – 1536). Nie obyło się zatem bez zwiększenia liczby tranzystorów w GPU. O ile GK104 ma ich 3,54 mld, o tyle GK110 zawiera ich dwukrotnie więcej – 7,1 mld. Więcej jest także pozostałych jednostek, jak teksturujących – 224, czy rasteryzujących – 48.

Nvidia zastosowała stosunkowo niskie częstotliwości zegarów taktujących układ graficzny. Do tej pory seria GTX 600 pracowała z prędkością od 900 MHz wzwyż. Producent stwierdził, że nie ma powodu, aby Titana „gnać” na dużej częstotliwości taktowania i w zupełności wystarczy 836 MHz. Zresztą, dzięki opcji GPU Boost, karta dostosowuje się do warunków pracy i w razie potrzeby sama podnosi częstotliwość taktowania.

Cały GK110 składa się z pięciu segmentów GPC, w których zawarto po trzy bloki multiprocesorów SMX. Całość współpracuje z 6 GB pamięci GDDR5 o 384-bitowym interfejsie.

W przypadku tandemu dwóch układów GeForce GTX Titan, wszystko mnożymy x2, choć gry niestety nie przyspieszą dwukrotnie. Można będzie jednak liczyć na spory przyrost wydajności, o czym za chwilę.

Nowinki technologiczne

Boost 2.0

Titan został wyposażony w technologię GPU Boost drugiej generacji. W poprzednikach funkcja ta brała pod uwagę wiele czynników pracy akceleratora, jak m.in. temperaturę, napięcie, obciążenie, czy pobór mocy. Tym razem inżynierowie doszli do wniosku, że karta marnowała potencjał, skoro wydajne systemy chłodzące w zupełności wystarczały do utrzymania akceptowalnej temperatury.

Podkręcanie monitora – Display Overclocking

Ciekawostką zastosowaną w GeForce GTX Titan jest możliwość podniesienie odświeżania monitora przy włączonej synchronizacji pionowej. Już tłumaczymy o co chodzi. Synchronizacja (v-sync) ma za zadanie zniwelowania przeskoków w animacji obrazu (mówimy tu o grach). Jej włączenie ogranicza liczbę wyświetlanych kl./s na ekranie do 60 (pomimo, że karta może generować znacznie więcej), czyli do tylu, przy ilu pracują współczesne monitory LCD. W Titanie możliwe jest podniesienie progu do 80 Hz. Trzeba jednak wziąć pod uwagę dwa fakty: po pierwsze – nie każdy monitor pozwoli na takie modyfikacje, a po drugie już od dawna można ręcznie zwiększyć odświeżanie w opcjach sterownika graficznego. I to zarówno w kartach z rdzeniem GeForce, jak i w Radeonach.