Karty graficzne

Układy graficzne Intel przyłapane na dopingu

przeczytasz w 2 min.

Odkąd pojawiły się programy dokonujące pomiaru wydajności w grafice 3D, jak choćby 3DMark, producenci kart graficznych co jakiś czas uraczają nas "optymalizacjami" zwiększającymi wydajność w tego typu aplikacjach. Często taka "optymalizacja" polega na obniżeniu jakości obrazu - jeśli sterowniki karty graficznej wykryją uruchomienie pliku wykonywalnego 3DMarka - a co za tym idzie podwyższenie ogólnego wyniku testu. Cel? Większa ilości punktów to zysk dla producenta - produkt "staje się wydajniejszy" w oczach przyszłych klientów.

Tym razem negatywnym bohaterem nie są "zieloni" czy "czerwoni", a król rynku kart zintegrowanych - firma Intel. Być może firma doszła do wniosku, że dzięki 'sztuczkom' zwiększającym wyniki w najpopularniejszym programie do pomiaru wydajności, przekona do swoich rozwiązań osoby grające okazjonalnie czy użytkowników wykorzystujących swoje komputery głównie do oglądania filmów. Jak wiemy wiele testów podaje rozwiązania ATi czy nVidia jako wiele lepsze nawet do takich zastosowań.

Mechanizm działania sztuczki przedstawia się następująco: gdy sterowniki wykryją uruchomienie pliku wykonywalnego 3DMarka całkowicie zmieniają swój sposób działania, wymuszając na procesorze przekierowanie swojej mocy obliczeniowej do współpracy z kartą graficzną.

Redaktorzy serwisu Tech Report postanowili zdemaskować trik Intela. W tym celu zmienili nazwę pliku wykonywalnego z "3DMarkVantage.exe" na "3DMarkVintage.exe". Następnie uruchomili 3DMark Vantage w wersji 1.0.1. na komputerze wyposażonym w płytę główną z chipsetem G41 i z zainstalowanym pakietem sterowników 15.15.4.1872 Graphics Media Accelerator. Testy przeprowadzono na konfiguracji: Windows 7 x64 RTM, procesor Core 2 Duo E6300, pamięć 4GB of DDR2-800, dysk twardy Raptor WD1500ADFD.

Efekt widać na wykresach przedstawiających wynik całkowity, GPU score i CPU score. Warto zwrócić uwagę jak zmieniają się wyniki dla GPU i CPU w zależności od testu. Z wykresów jednoznacznie wynika jak zachodzi przerzucenie mocy obliczeniowych na poszczególne komponenty.

Sam zainteresowany w odpowiedzi na zarzuty nieuczciwej walki mówi, że sterowniki są tak projektowane, aby maksymalnie wykorzystać procesor w niektórych operacjach jak rendering obiektów 3D, kiedy IGP zajmuje się obliczeniami cieniowania wierzchołków i pikseli. Oprócz 3DMark Vantage sterowniki zmieniają współpracę IGP i procesora w takich tytułach jak Call of Juarez, Crysis, Lost Planet: Extreme Conditions i Company of Heroes.

Ktoś mógłby powiedzieć, że nie ma w tym nic złego, skoro dzięki zabiegowi zwiększa się wydajność komputera w grach. Problem polega na tym, że taka optymalizacja została opracowana tylko dla kilku najbardziej opiniotwórczych tytułów i działa tylko wtedy, gdy sterowniki wykryją uruchomienie plików wykonywalnych o konkretnych nazwach. Takie posunięcia zamiast działać na korzyść klienta, mogą mieć jedynie wpływ na kształtowanie pozytywnej opinii na temat produktów producenta.

Ciekawe zmiany w Crysis (rozdz. 800x600, min. detal., wynik: FRAPS)

Poza tym takie zagrania są zabronione przez producenta oprogramowania 3DMark, firmę Futuremark. Producent oprogramowania do benchmarków wytyczna ścisłe reguły dot. sterowników dopuszczanych do działania z 3DMark Vantage. Wcześniejsze tego typu przypadki i próba uchronienia się przed zarzutami stronniczości, zmusiły producenta do ustalenia konkretnych reguł. O tym jak one wyglądają możecie przekonać się w dokumencie wypuszczanym przez Futuremark: "3DMark Vantage Driver Approval Policy" (PDF).

Warto też dodać, że redaktorzy Techreport.com wykonali jeszcze jeden pomiar przy użyciu platformy AMD 785G (Gigabyte GA-MA785GPMT-UD2H) wraz z procesorem AMD Athlon II X2 250, tym samym dyskiem i pamięciami. Użyte sterowniki to Catalyst 9.9, które znajdują się na liście dopuszczonych przez Futuremark. Wyniki w 3DMark dla platformy to 2161 punktów (prawidłowe dla Intela to 2132 pkt). Wyniki "podkręcone" już znacie z wykresów - 2931 pkt. Co ciekawe, AMD uzyskał znacznie lepsze wyniki w Crysis Warhead -  30fps. Ten wynik po raz kolejny pokazuje, że testy syntetyczne faktycznie mogą być dalekie od wyników praktycznych.

Na razie testowane sterowniki Intela dla Windows 7 (15.15.4.1872) nie znalazły się na liście dopuszczonych sterowników przez Futuremark.

Źródło: Techreport.com, Techpowerup.com

Autorzy: HemaN, Marcin Sieradzki

Komentarze

29
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Terrorek
    2
    No to mamy ich na gorącym uczynku, ciekawi mnie ile jeszcze firm stosuje takie przekrety ;( a znajac intel na pewno niezle namieszali ;D
    • avatar
      Konto usunięte
      2
      Szkoda sobie strzępić sobie języka .... :) Dobrze ze ich złapali.
      • avatar
        Damian Szymański
        1
        Ciekawe, a nawet bardzo ;)
        A może intel pakuje sterydy również w swoje procki ? ;)
        • avatar
          Konto usunięte
          1
          dajcie spokoj z tym ukladem graficznym; rozdz. 800x600, min. detal. i 15 klatek w crysisie, o co tu kruszyc kopie? afera czy nie, jesli ja moglbym poprzez wgranie jakichs sterownikow zyskac +15 klatek w jakiejs grze [nadchodzace modern warfare 2] bez wyraznej straty jakosci grafiki wyswietlanej na monitorze , to jak najbardziej - poprosze.
          • avatar
            Qpers
            -1
            Gnoje... Żenada. Przez długi czas nie kupię niczego graficznego od Intela.
            • avatar
              Qjanusz
              0
              No i sprawa się rypła.
              Cholerne pismaki połapali się i teraz premiera Larabi będzie musiała być przesunięta o kolejne miesiące, bo okazało się że myk ze sterydami w sterach nie przejdzie i trzeba dozbroić GPU tak, żeby jego moc była prawdziwa a nie pompowana.

              I jak tu uczciwie korporacje mają kasę zarabiać...
              • avatar
                dawid_dj
                0
                Zawsze sportowcy są o jeden krok przed kontrolą antydopingową. :(
                • avatar
                  Konto usunięte
                  0
                  Genialne odkrycie :D wiadomo bylo ze gigant z Redmont nie mogl uczciwie grac :P jak nie praktyki monopolistyczne to "dofinansowania" jak nie badziew na sterydach to coz innego :P tak ja knowe rodziny procesorow ja mam t2600 wiec segmenty t3200 czy t4200 po co powstaja ? niech nikt nie wspomina o procesie technologicznym bo to jedyna zmiana :P intel ma dobre produkty ale ogarnela juz ich dawno mania pieniadza i monopolisty.
                  • avatar
                    Konto usunięte
                    0
                    Jeśli chodzi o same testy, to takie zmiany są jak najbardziej złe.
                    Jednak ta w Crysis... te karty nie będą tak wydajne,żeby płynnie pozwoliły grać, kupujący o tym wiedzą (powinni się spodziewać). Czyli taki trik jest ciekawy, chociaż fajnie było by mieć go w postaci opcji sterownika czy coś...
                    • avatar
                      Konto usunięte
                      0
                      Intel królem kart zintegrowanych !!! Tekst miesiąca !!! Chyba nie muszę wspominać o serii HD3200 która biję HD3300 i Hd4200 i to przy podkręceniu jej o ponad 100%. To jest król
                      • avatar
                        Konto usunięte
                        0
                        @ipiechu - chyba Ci sie giganci pomylili :P
                        • avatar
                          shamoth
                          0
                          Chyba każda firma coś grzebie w sterach, ATI jakiś czas temu mnie zaskoczyła jeśli chodzi o serie 48X0.
                          Tam sterowniki zaniżały w kilku aplikacjach wydajność w celu obniżenia temperatury rdzenia.
                          Np. zmiana nazwy FurMark.exe na cokolwiek.exe powodowała wzrost FPS na 4850 ale i temperatura mocno rosła powodując często na stockowym chłodzeniu/biosie BSoD...
                          Zmiana układu chłodzenia i wgranie biosu ze zmienioną krzywą sterującą wentylatorem rozwiązywała ten problem a dodatkowo można było bez grzebania w sterach wyciągnąć kilka FPS więcej tylko po przez zmianę nazwy pliku wykonywalnego ;]
                          • avatar
                            Konto usunięte
                            0
                            Szkoda, że jest coraz mniej na tym świecie uczciwych ludzi a co za tym idzie, uczciwych firm i wielkich korporacji, które to staraj się ludziom wmówić że ich produkty są najlepsze, ekologiczne itd... Tak naprawdę to puste słowa a cel jest jeden oszukać i okraść jak najwięcej nieświadomych ludzi !! Jeśli to rzeczywiście prawda i jakiś inny niezależny serwis również przeprowadzi podobne testy a wynik będzie taki sam, to moim zdaniem takim skur$%#@w powinno się zapakować kulkę w łeb ! To jest zaraza, która trzeba tępić !
                            Nienawidzę oszustów pod każda postacią !!

                            Pytam się no i gdzie są te wszystkie komisje, które wszystko nadzorują ?? Nvidi już dawno powinni dowalić surową kare za świadome i celowe wprowadzanie konsumentów jak również opinie publiczna w błąd ! Teraz do grona oszustów dołączył Intel... Kto następny ?? ATI ? AMD ??
                            Firmy poczuły się bezkarne, wiec wcale się nie zdziwię gdy tego syfu będzie przybywać...
                            • avatar
                              Konto usunięte
                              0
                              wszystkie testy syntetyczne są do du... :P syntetyki pokazują jedno a w praktyce wychodzi zupełnie co innego. Tak na marginesie redakcja benchmark całkiem sporo ich zamieszcza np podczas testowania kart graficznych :) tylko po co? dla cyferek? która karta więcej wyciągnie? dla grafiki liczy się fps w grach a nie w "3D smarkach" pozdrawiam wszystkich fanboyów "3D smarków" ;)
                              • avatar
                                jeomax.co.uk
                                0
                                I o co tyle krzyku, nastepnym razem Intel umiesci w swoich sterownikach wyrywkowo wziete 10 bajtow z kodu kazdego benchmarka/gry i bedzie sprawdzal po ich obecnosci po zaladowaniu, a nie po nazwie. W ten sposob panowie z 3DM juz tego nie wykryja i nikt nie bedzie wiedzial, ze swiat uzywa niecnych sterownikow ;-)
                                Oczywiscie jestem przeciwny takim dzialaniom: zarowno Intela, jak i AMD, czy nV.
                                • avatar
                                  crazeey
                                  0
                                  Właśnie w ramach protestu przeciwko takim praktykom (nie tylko Intela) wyrzuciłem przez okno swojego Asusa M50VM z Duo P8400 i GeForce 9600M GS. Zainteresowanych proszę o kontakt na privie - może jeszcze leży :D
                                  • avatar
                                    Konto usunięte
                                    0
                                    3dmarki sa dla dzieci co sie bawia wtakie bzdety co ztego ze masz kompa wychodzi ci taki wynik a jakis patch do nie towjego kompa atylko do 3dmarka i masz wiecej ptk bezens zal
                                    • avatar
                                      Konto usunięte
                                      0
                                      Z jednej strony hehehe, prawo murphiego mówi:
                                      "Istnieją trzy rodzaje kłamstw - kłamstwa odruchowe, powszechne oraz testy komputerowe"

                                      Z drugiej strony jednak, 50% wzrostu wydajności ale nie w benchmarku, ale w grze, jest zastnawiające. Bo teraz jest pytanie, czy sterowniki mogą czy nie mogą korzystać z mocy CPU. Jeśli daje to wymierny efekt, taka opcja powina być nawet w zakładkach, albo nawet powinna być uwzględniona przez API i dostępna z menu uruchamianej gry. Przecież GPU jest tylko akceleratorem grafiki, nigdzie nie jest powiedziane że grafika nie może się wspomagać przez moc CPU, ale opcja ta powinna być do użytku.

                                      Poza tym myśle że jeśli takie zjawsko zachodzi, to znaczy, że albo gra nie jest zbyt dobrze napisana, albo samo API jest bezndziejne, albo jego implementacja jest jakaś lewa. Kiedyś kiedy moc CPU była słaba, grafika była potrzeba jak na lekarstwo, teraz jednak moce CPU i to przy wielordzeniowych 64-bit jednostkach, nie są już jakieś nędzne. To jest kawał mocy do wykorzystania. A więc dobrym pomysłem jest ich wykorzystanie. Warto jednak by opcja taka była w sterownikach, nie każdy ma cztery wolne rdzenie.
                                      • avatar
                                        Konto usunięte
                                        0
                                        A dodam jeszcze że twórcy gier korystający z API (direct, OpenGL), nie musza wiedzieć nic więcej na ten temat, w końcu kto jak kto ale producenci kart oraz piszący sterowniki do nich wiedzą co jest dla nich najlepsze.