Karty graficzne

Dwuprocesorowy Radeon HD 3870 X2

przeczytasz w 2 min.

Ostrożny optymizm - tak podsumowałbym świetne wyniki nowego Radeona 3870 X2. Karta jest faktycznie diabelnie szybka, a do tego kosztuje całkiem przyzwoite pieniądze, ale ostatecznie wszystko zależy od

Przez ostatnie kilka miesięcy ATi dostawało ostro po dupsku od nVidii. Pod koniec roku 2007, nowa seria GeForce 8800GT i GTS z procesorami G92, bez dwóch zdań zmiażdżyła to, co ATi miała na swoim 'straganiku' z kartami graficznymi. Ale w ciągu ostatnich tygodni, za sprawą mocnych obniżek cen kart HD 3870 i 3850, sytuacja nabrała rumieńców. Jednak tylko w segmencie średnim. W kartach High-End, powyżej 1000 zł, ATi nadał miało straszne tyły. Aż do tej chwili. Obiecywana od pewnego czasu dwuprocesorowa karta Radeon HD 3870 X2 właśnie ujrzała światło dzienne.

Na początek może kilka faktów historycznych. Firma ATi jako jedna z pierwszych na rynku oferowała dwuprocesorową kartę graficzną. W marcu 2000 roku wypuściła na rynek Rage Fury MAXX, wyposażoną w dwa 128-bitowe układy graficzne ATI Rage 128 Pro. Więcej na jej temat możecie przeczytać w artykule który pojawił się w tym czasie na benchmark. Projekt wydawał się dobry, ale ostatecznie karta umarła z powodu kiepskiego wsparcia i braku sterowników dla Windows 2000.

W tym samym roku 3dfx wyskoczył ze swoim Voodoo 5500, który również nie przetrwał z powodu nie zoptymalizowanych sterowników.
W 2006 roku na dwuprocesorową kartę ochoty nabrała również nVidia, wydając bardziej 'kanapkę z dwóch kart połączonych mostkiem SLI, niż prawdziwą, wyposażoną w dwa GPU kartę. Tej projekt również okazał się niewypałem i o GeForce 7950 GX2 szybko zapomniano.

Przez ostatnie dwa lata obie firmy oferowały nam możliwość łączenia dwóch kart w celu zwiększenia wydajności - nVidia wykupiony razem z 3dfx'em tryb SLI, natomiast firma ATi - będąca już częścią AMD - Crossfire. Techniki w tym wypadku wydają się mniej istotne, generalnie w obu przypadkach zasada jest tak sama: operacje tworzenia trójwymiarowej grafiki mają być rozłożone pomiędzy dwie karty tak, aby uzyskać wzrosty wydajności. Programiści i twórcy sterowników w obu firmach mieli roboty po łokcie, bo głównie to od nich zależało czy dana gra będzie działać na dwóch kartach czy nie, a także jaki będzie wzrost wydajności. Twórcy gier bynajmniej nie pomagali producentom procesorów (a przynajmniej nie bezinteresownie ;).
Większość użytkowników logicznie zakładała, że wydając kasę podwójnie, otrzymają taki sam wzrost wydajności. Niestety, różnie z tym bywało. Czasami było świetnie, prawie 50-60% wyższa wydajność, czasami słabiej, żadnego wzrostu osiągów i na dodatek błędy w renderingu.
Podsumowując zaangażowanie obu producentów i listę gier wspierających tryb "multi-GPU', można chyba powiedzieć, że nVidia odnosiła na tym polu większe sukcesy.

Można też odnieść wrażenie, że popularyzację trybów 'multi-GPU', na własne życzenie zabijali sami producenci, przez zachłanne strzeżenie swoich patentów. nVidia umożliwia łączenie kart GeForce w tryb SLI tylko na płytach ze swoimi chipsetami nForce. W lepszej sytuacji jest ATi, którego CrossFire obsługują chipsety AMD oraz Intela.

Przypominam o tym nie bez powodu, bo ma to swoją puentę: otóż nowe, dwuprocesorowe karty Radeon 3870 X2 działają także na płytach z chipsetem nForce nVidii. Tak więc AMD, w białych rękawiczkach, frontowymi drzwiami weszła na podwórko nVidii, nie łamiąc żadnych patentów, a nVidia nie może nic na to poradzić. Cały jej wysiłek przechowywania patentów chyba wziął w łeb.

AMD/ATi ma więc o dwa powody do radości więcej: ma bardzo wydajną 'jedną' kartę graficzną, która może przyćmić highendowe karty GeForce 8800 GTS i GTX, oraz zastąpić nie dającego już sobie z nimi rady Radeona 2900XT. Drugi, na dziś jest jedyną oferującą tryb multi GPU na wszystkich platformach, od nVidii, przez Intela, po swoje własne chipsety.

I wszystko byłoby różowo, gdyby nie fakt, że niezależnie czy jest to jedna karta czy dwie, twórcy sterowników nadal nie będą spać spokojnie, bo to od nich zależy, czy karta zamontowana w komputerze będzie śmigać jaka szalona, czy działać niewiele szybciej od zwykłego Radeona HD 3870.