Karty graficzne

Era DirectX 10 i pierwsze benchmarkowe skandale

Obaj wiodący producenci procesorów graficznych, czyli Nvidia oraz ATI, funkcjonujące obecnie jako dział rozwiązań graficznych AMD - wydali oświadczenia, w których zarzucają nieprawidłowości dwóm udostępnionym niedawno testom prezentującym wydajność kart graficznych działających w trybie DirectX 10. Przedstawiciele obu firm są zdania, że benchmarki te zaniżają wyniki kart oraz faworyzują rozwiązania konkurencji.

Lost Planet a ATI

Dyskusję rozpoczęła firma AMD, która zarzuciła nierzetelność testowi porównawczemu opartemu na grze "Lost Planet: Extreme Condition". Ich zdaniem fakt, iż tytuł ten jest częścią sygnowanego logo Nvidii programu "The way it's meant to be played" (TWIMTBP) spowodował, że specjaliści ATI nie mieli okazji wprowadzić do sterowników odpowiednich poprawek, które poprawiłyby wydajność ich kart. Co za tym idzie, wyniki uzyskane podczas testów dema "Lost Planet" na PC nie są miarodajne.

AMD oświadcza: "'Lost Planet' jest tytułem sponsorowanym przez Nvidię, a ich technicy mieli okazję przeanalizować i zoptymalizować sterowniki pod jego kątem. Twórcy gry nie poinformowali nas, że powstaje tego rodzaju test, więc zespół zajmujący się sterownikami dla kart ATI Radeon nie mógł wprowadzić podobnych poprawek. AMD dołoży starań, by odpowiednie zmiany wprowadzono w najbliższej przyszłości. Póki co chcielibyśmy zwrócić uwagę, że wyniki uzyskiwane w benchmarkach opartych na demie Lost Planet będą się różnić od tych, których gracze doświadczą w ostatecznej wersji gry".

Firma Capcom, twórca Lost Planet, postanowiła nie reagować na zarzuty AMD mimo iż gra dostępna jest również w wersji na Xboxa 360 (konsolę wyposażoną w produkowany przez ATI procesor graficzny Xenos) oraz bierze udział w programie Games for Windows.

Call of Juarez a Nvidia

Nvidia wydała podobne do AMD oświadczenie krótko po ukazaniu się wersji demo gry "Call of Juarez", która wykorzystuje efekty DirectX 10. Ich zdaniem test oparty na tej grze zaniża wydajność kart GeForce serii 8, a na dodatek zastosowanie w nim DX 10 w żaden sposób nie poprawiło szybkości ani jakości wyświetlanej grafiki, tak na procesorach ATI, jak i Nvidii.

"Test zawiera fragmenty kodu, które poważnie ograniczają wydajność naszych kart. Co więcej, nie daje się zauważyć żadnej poprawy jakości obrazu. Sprawa ma się podobnie również w przypadku produktów ATI/AMD. [...] Chcielibyśmy, by osoby testujące karty graficzne poważnie zastanowiły się przed skorzystaniem w tym celu z nowego benchmarku "Call of Juarez", ponieważ nie oddaje on możliwości kart GeForce serii 8 w środowisku DirectX 10", twierdzi przedstawicielstwo prasowe Nvidii.
Co ciekawe, "Call of Juarez" również należy do programu TWIMTPB, mimo iż już od pewnego czasu wiadomo, że karty GeForce mają problemy z pewnymi elementami engine'u tej gry. Nvidia dotychczas nie tylko w żaden sposób nie komentowała tych kłopotów, ale też nie wprowadziła do swoich sterowników jakichkolwiek zmian mających na celu poprawę wydajności.

Nvidia i Techland wymieniają się opiniami

Firma Techland, która napisała "Call of Juarez", postanowiła odpowiedzieć na atak Nvidii. Co więcej, sama postawiła producentowi kart graficznych zarzut udzielania mylących informacji.

DirectX 10 a  FSAA

Pierwszy zarzut Nvidii dotyczył wykorzystania przez Techland programowego zamiast sprzętowo wspomaganego antyaliasingu, co automatycznie obniżyło wyniki kart GeForce 8. Nvidia nie podaje jednak, o jak dużym spadku wydajności jest mowa.
"Ten test nie korzysta z oferowanego przez nasze karty DirectX 10 sprzętowego multi-samplingu. Nasze jednostki graficzne są zmuszane do pracy z programowym rozwiązaniem podobnym do tego wykorzystywanego przez karty ATI, które nie posiadają sprzętowego wspomagania efektu wygładzania krawędzi. Takie podejście w sztuczny sposób zaniża wyniki procesorów Nvidii i uniemożliwia użytkownikom korzystanie z jednej z kluczowych zalet naszych produktów", twierdzi Nvidia.

Twórcy gry odpierają atak, twierdząc iż wykorzystanie zawartego w kodzie programu antyaliasingu opartego na cieniowaniu pikseli daje dużo lepszą kontrolę nad wyglądem obrazu wykorzystującego oświetlenie HDR. Zdaniem Techlandu, sprzętowo wspomagany multisampling może nie mieć zastosowania w nowoczesnych grach.

"Zanim pojawił się DirectX10, jedynym rozwiązaniem tego rodzaju, które można było stosować w grach, było automatyczne wygładzanie krawędzi oparte na multisamplingu. Proces ten polegał na tworzeniu obrazu o wygładzonych krawędziach poprzez uśrednienie kilku próbek każdego piksela. Metoda ta sprawdzała się w większości engine'ów graficznych poprzednich generacji, ale wykorzystywane obecnie techniki tworzenia obrazu o dużej rozpiętości tonalnej (HDR) i inne nowoczesne rozwiązania, jak deferred rendering (DR) albo anty-aliasowane bufory cieni, wymagają pełnej kontroli nad procesem wygładzania krawędzi ze względu na złożoność zachodzących podczas nich operacji matematycznych. Oznacza to, że dawne uśredniające rozwiązania dają matematycznie i wizualnie niepoprawne wyniki. Zdarza się nawet, że powodują powstawanie rażących artefaktów"
, wyjaśnia rzecznik Techlandu.

"Od obsługujących MSAA kart graficznych zgodnych ze standardem DirectX 10 wymaga się obsługi funkcji 'shader-assisted MSAA resolves' (MSAA wspomaganego przez jednostki cieniujące), gdzie jednostkę pixel shader można wykorzystać, by uzyskać dostęp do wszystkich próbek danego piksela. Pozwala to engine'owi graficznemu na wygenerowanie wyższej jakości obrazu wykorzystującego MSAA w odpowiedni dla danej sceny sposób. Wersja "Call of Juarez" pod DirectX 10 wykorzystuje tę funkcję, by w ostatecznym renderze sceny nałożyć MSAA na obraz o wysokiej rozpiętości tonalnej, dzięki czemu uzyskujemy gładkie krawędzie mimo ostrego kontrastu obecnego w grafice tworzonej z użyciem HDR. Możliwość wykonywania takiego zabiegu została dodana do specyfikacji DX 10 na wyraźne życzenie twórców sprzętu i gier. Jesteśmy dumni, że nie poszliśmy na kompromis i postawiliśmy w najnowszej wersji naszej gry na maksymalną jakość obrazu", wyjaśnia twórca "Call of Juarez".

Ukryty parametr zaniża wyniki kart GeForce

Nvidia stwierdziła również, że "ukryty" parametr w wersji "Call of Juarez" pod DirectX 10 obniża wydajność kart graficznych, wcale nie poprawiając jakości obrazu.

"Ukryta opcja 'ExtraQuality', dostępna wyłącznie z poziomu pliku konfiguracyjnego, jest automatycznie włączana podczas uruchamiania benchmarku niezależnie jaką wartość jej przypisano. To ustawienie nie podnosi jakości grafiki w dający się zauważyć sposób, natomiast pogarsza wyniki procesorów graficznych Nvidia", głosi oświadczenie producenta kart.

Techland podaje jednak, że ustawienie "ExtraQuality" jest domyślnym dla wersji DirectX 10 ich gry. W omawianym benchmarku ten poziom jakości obrazu wprowadza dwie zmiany:

  • Po pierwsze, nakłada cieniowanie na obiekty znajdujące się dalej od kamery. Większa część pikseli na ekranie objęta jest przez to działaniem różnych efektów, a co za tym idzie, zwiększa się również ogólna jakość obrazu.
  • Po drugie, zwiększa ilość renderowanych efektów cząsteczkowych, co daje bardziej realistyczne efekty w przypadku pojawiającego się w grze wodospadu, dymu albo opadających liści.

"Tryb 'ExtraQuality' został pomyślany jako ustawienie, które ma na celu ukazanie postępu w grafice, jaki dokonał się za sprawą kart obsługujących DirectX 10, więc wyłączanie go nie ma sensu", twierdzi przestawiciel Techlandu.

Zmiany w shaderach jako źródło wszelkiego zła

Nvidia oskarżyła również Techland o dokonanie zmian w procesach cieniowania obecnych w "Call of Juarez", co spowodowało spadek wydajności kart GeForce o, w najgorszych przypadkach, 14%.

"Odkryliśmy zmiany w shaderach, które obniżają wyniki kart GeForce o około 10-14%, nie powodując jednocześnie poprawy jakości obrazu ani na naszych procesorach graficznych, ani na kartach ATI", można przeczytać w oświadczeniu działu marketingu Nvidii.

Mimo to, twórcy gry twierdzą, że zmiany w efektach graficznych, które wykorzystano w ostatecznej wersji benchmarku "Call of Juarez", zostały dokonane w celu poprawy wydajności engine'u, jakości obrazu bądź obu tych parametrów naraz. Jedna z wprowadzonych poprawek pozwala wykorzystać filtrowanie anizotropowe na większej niż dotychczas ilości powierzchni.

"Mowa tu między innymi o odwzorowaniu większego wachlarza materiałów poprzez bardziej wymagające tekstury. Jednocześnie zaimplementowaliśmy kod pozwalający na poprawę wydajności przy trudnych obliczeniach związanych z pikselami znajdującymi się z punktu widzenia gracza w dużej odległości. Wygląd niektórych materiałów został delikatnie zmieniony w celu poprawy ogólnej jakości obrazu. Jako że bardzo sprawne filtrowanie anizotropowe jest jednym z mocnych punktów kart Nvidii, trudno nam zrozumieć zarzuty z ich strony. Przecież zmiany, które wprowadziliśmy, podkreślają zalety ich sprzętu", opowiada rzecznik Techlandu.

Nvidia chce lepszych cieni

Kolejny zarzut producenta kart graficznych dotyczy celowego niedoceniania przez Techland możliwości procesorów GeForce.

"Ten nowy benchmark ma jakość cieni domyślnie ustawioną na "Niską". Chcielibyśmy zwrócić uwagę, że karty Nvidii radzą sobie z cieniowaniem dużo lepiej niż konkurencja", twierdzi producent chipów graficznych.

Jednak zdaniem Techlandu mimo tego, iż test działa przy ogólnym poziomie detali "ExtraQuality", ustawienie jakości cieni na "Niską" było podyktowane koniecznością zapewnienia użytkownikom "przyjemnego w odbiorze przeżycia".

"Wybraliśmy domyślne ustawienia kierując się chęcią dostarczenia pozytywnych wrażeń większości użytkowników. Zachęcamy jednak do zabawy opcjami dostępnymi w aplikacji służącej do uruchamiania testu (CoJDX10Launcher). Mamy tu na myśli zwłaszcza eksperymentowanie z cieniami o większej rozdzielczości, których uruchamianie - zauważyliśmy - nie powoduje zbyt dużego spadku wydajności na kartach Nvidii".

Jeden wielki zawód

"Podsumowując, zmiany wprowadzone do kodu nowego testu porównawczego 'Call of Juarez' powodują poważne obniżenie płynności grafiki generowanej przez karty GeForce, nie poprawiając w żaden zauważalny sposób jakości obrazu tak na naszym sprzęcie, jak i kartach ATI", twierdzi rozczarowany przedstawiciel Nvidii.

Poirytowany rzecznik Techlandu odpowiada: "Jest nam przykro, że Nvidia doszukała się powodów, by przyczepić się do naszego testu. Jesteśmy dumni z gry, którą napisaliśmy, i wydaje nam się, że Nvidia powinna być dumna ze swoich kart graficznych. Mimo wszystko uważamy, że decyzje związane z artystyczną wizją świata gry leżą w gestii jej twórców, a nie producentów sprzętu".

Testy porównawcze a gry

Nvidia, która obecnie prowadzi na rynku pod względem ilości sprzedanych procesorów graficznych, zachowywała się podobnie na początku ery DirectX 9. Wtedy zastrzeżenia potentata graficznego dotyczyły popularnego benchmarku 3DMark03, który rzekomo bezpodstawnie ukazywał karty serii GeForce FX w złym świetle. Twórca programu nie zgodził się z zarzutami. Poza tym ATI w tamtym czasie poprawiło swoje wyniki o raptem 1,9%.

Niestety, obaj producenci kart graficznych najchętniej komentują wyniki testów i pracują nad podniesieniem ilości punktów uzyskiwanych w powszechnie znanych benchmarkach. Dużo gorzej idzie im rzetelna współpraca z twórcami oprogramowania, która miałaby na celu zapewnienie stabilnego działania gier i wykorzystanie pełni możliwości nowoczesnych procesorów graficznych.

Radeon HD 2900XT ze stajni ATI ma kiepskie osiągi w wielu popularnych grach, jak "S.T.A.L.K.E.R.: Cień Czarnobyla", "Supreme Commander" i kilka innych. Co więcej, w momencie wypuszczenia kart na rynek, żaden z oferowanych przez producenta sterowników nie pozwalał na odtwarzanie płyt HD DVD wykorzystujących kodek VC-1, która to możliwość była jednym z ważniejszych punktów reklamowych nowego sprzętu. AMD nie komentuje jednak powolnego działania swoich kart we wspomnianych tytułach, ani nie tłumaczy się z niezadowalającego odtwarzania filmów HD przez Radeony poprzedniej generacji X1000. Mimo to, firma postanowiła wyrazić swoje oburzenie wynikami dema "Lost Planet".

Podobnie sprzęt z Nvidiowskiej serii GeForce 8 nie radzi sobie z "Call of Juarez", "Splinter Cell: Double Agent" i paroma innymi grami, w tym z "F.E.A.R." i "Prey", w których GeForce 8800GTS 640MB prezentuje wydajność podobną, bądź niższą od należącego do poprzedniej generacji Radeona X1950XTX. Niestety, do wystąpienia na forum publicznym Nvidię przekonał dopiero feralny benchmark, który miał w zamierzeniu objawić światu moc kart GeForce 8 i Radeon HD 2000. Trudno też nie wspomnieć tu faktu, iż sterownik ForceWare dla Windowsów XP od pół roku nie był uaktualniany, a użytkownicy rozreklamowanych kart GeForce 7950GX2 i technologii SLI coraz bardziej martwią się tym brakiem wsparcia ze strony producenta. Najwyraźniej Nvidia postanowiła nie "stresować" klientów nadmierną dbałością o posiadaczy sprzętu starszej daty. Nie wiadomo też co firma zaplanowała w kwestii użytkowników wysokiej klasy maszyn wykorzystujących będącą przedmiotem zaciekłych dyskusji technolgię "quad SLI", którzy chcieliby się przesiąść na system operacyjny Windows Vista.

Z trudnych do zrozumienia powodów Nvidia nadal zaleca uruchamianie testu "Lost Planet: Extreme Condition" na niecertyfikowanych (non-WHQL) sterownikach. Podobnie poczyna sobie ATI, które oferuje niecertyfikowaną wersję RC2, na której można przetestować swojego nowo nabytego Radeona serii HD 2400 i HD 2600. Honor ATI ratuje jednak fakt, iż sterownik WHQL do tych kart będzie dostępny już w lipcu, podczas gdy Nvidia nie zdołała wydać certyfikowanej wersji odpowiedniego drivera (158.43) na przestrzeni miesiąca z okładem, który minął już od premiery dema "Lost Planet" na serwisie nZone.

Oczywistym jest, że wyniki benchmarków i zwycięstwa w recenzjach napędzają popyt na obłożone najwyższymi marżami modele kart Nvidii i ATI, ale być może nadszedł już czas, by potentaci zwrócili większą uwagę na stabilność działania, jakość obrazu, ogólną wydajność i komfort użytkowania, bo z tymi aspektami ich produktów my, użytkownicy, mamy do czynienia na co dzień?

Komentarze

0
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.

    Nie dodano jeszcze komentarzy. Bądź pierwszy!