Na topie

Układy graficzne Intel przyłapane na dopingu

Autor:
HemaN

więcej artykułów ze strefy:
Karty graficzne

Kategoria: Karty graficzne Producenci: intel

Odkąd pojawiły się programy dokonujące pomiaru wydajności w grafice 3D, jak choćby 3DMark, producenci kart graficznych co jakiś czas uraczają nas "optymalizacjami" zwiększającymi wydajność w tego typu aplikacjach. Często taka "optymalizacja" polega na obniżeniu jakości obrazu - jeśli sterowniki karty graficznej wykryją uruchomienie pliku wykonywalnego 3DMarka - a co za tym idzie podwyższenie ogólnego wyniku testu. Cel? Większa ilości punktów to zysk dla producenta - produkt "staje się wydajniejszy" w oczach przyszłych klientów.

AA

Tym razem negatywnym bohaterem nie są "zieloni" czy "czerwoni", a król rynku kart zintegrowanych - firma Intel. Być może firma doszła do wniosku, że dzięki 'sztuczkom' zwiększającym wyniki w najpopularniejszym programie do pomiaru wydajności, przekona do swoich rozwiązań osoby grające okazjonalnie czy użytkowników wykorzystujących swoje komputery głównie do oglądania filmów. Jak wiemy wiele testów podaje rozwiązania ATi czy nVidia jako wiele lepsze nawet do takich zastosowań.

Mechanizm działania sztuczki przedstawia się następująco: gdy sterowniki wykryją uruchomienie pliku wykonywalnego 3DMarka całkowicie zmieniają swój sposób działania, wymuszając na procesorze przekierowanie swojej mocy obliczeniowej do współpracy z kartą graficzną.

Redaktorzy serwisu Tech Report postanowili zdemaskować trik Intela. W tym celu zmienili nazwę pliku wykonywalnego z "3DMarkVantage.exe" na "3DMarkVintage.exe". Następnie uruchomili 3DMark Vantage w wersji 1.0.1. na komputerze wyposażonym w płytę główną z chipsetem G41 i z zainstalowanym pakietem sterowników 15.15.4.1872 Graphics Media Accelerator. Testy przeprowadzono na konfiguracji: Windows 7 x64 RTM, procesor Core 2 Duo E6300, pamięć 4GB of DDR2-800, dysk twardy Raptor WD1500ADFD.

Efekt widać na wykresach przedstawiających wynik całkowity, GPU score i CPU score. Warto zwrócić uwagę jak zmieniają się wyniki dla GPU i CPU w zależności od testu. Z wykresów jednoznacznie wynika jak zachodzi przerzucenie mocy obliczeniowych na poszczególne komponenty.

Sam zainteresowany w odpowiedzi na zarzuty nieuczciwej walki mówi, że sterowniki są tak projektowane, aby maksymalnie wykorzystać procesor w niektórych operacjach jak rendering obiektów 3D, kiedy IGP zajmuje się obliczeniami cieniowania wierzchołków i pikseli. Oprócz 3DMark Vantage sterowniki zmieniają współpracę IGP i procesora w takich tytułach jak Call of Juarez, Crysis, Lost Planet: Extreme Conditions i Company of Heroes.

Ktoś mógłby powiedzieć, że nie ma w tym nic złego, skoro dzięki zabiegowi zwiększa się wydajność komputera w grach. Problem polega na tym, że taka optymalizacja została opracowana tylko dla kilku najbardziej opiniotwórczych tytułów i działa tylko wtedy, gdy sterowniki wykryją uruchomienie plików wykonywalnych o konkretnych nazwach. Takie posunięcia zamiast działać na korzyść klienta, mogą mieć jedynie wpływ na kształtowanie pozytywnej opinii na temat produktów producenta.

Ciekawe zmiany w Crysis (rozdz. 800x600, min. detal., wynik: FRAPS)

Poza tym takie zagrania są zabronione przez producenta oprogramowania 3DMark, firmę Futuremark. Producent oprogramowania do benchmarków wytyczna ścisłe reguły dot. sterowników dopuszczanych do działania z 3DMark Vantage. Wcześniejsze tego typu przypadki i próba uchronienia się przed zarzutami stronniczości, zmusiły producenta do ustalenia konkretnych reguł. O tym jak one wyglądają możecie przekonać się w dokumencie wypuszczanym przez Futuremark: "3DMark Vantage Driver Approval Policy" (PDF).

Warto też dodać, że redaktorzy Techreport.com wykonali jeszcze jeden pomiar przy użyciu platformy AMD 785G (Gigabyte GA-MA785GPMT-UD2H) wraz z procesorem AMD Athlon II X2 250, tym samym dyskiem i pamięciami. Użyte sterowniki to Catalyst 9.9, które znajdują się na liście dopuszczonych przez Futuremark. Wyniki w 3DMark dla platformy to 2161 punktów (prawidłowe dla Intela to 2132 pkt). Wyniki "podkręcone" już znacie z wykresów - 2931 pkt. Co ciekawe, AMD uzyskał znacznie lepsze wyniki w Crysis Warhead -  30fps. Ten wynik po raz kolejny pokazuje, że testy syntetyczne faktycznie mogą być dalekie od wyników praktycznych.

Na razie testowane sterowniki Intela dla Windows 7 (15.15.4.1872) nie znalazły się na liście dopuszczonych sterowników przez Futuremark.

Źródło: Techreport.com, Techpowerup.com

Autorzy: HemaN, Marcin Sieradzki

Odsłon: 12427 Skomentuj newsa
Komentarze

29

Udostępnij
  1. Terrorek
    Oceń komentarz:

    2    

    Opublikowano: 2009-10-14 12:25

    No to mamy ich na gorącym uczynku, ciekawi mnie ile jeszcze firm stosuje takie przekrety ;( a znajac intel na pewno niezle namieszali ;D

    Skomentuj

  2. lukasz271zaq
    Oceń komentarz:

    2    

    Opublikowano: 2009-10-14 12:26

    Szkoda sobie strzępić sobie języka .... :) Dobrze ze ich złapali.

    Skomentuj

  3. Qjanusz
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-14 12:39

    No i sprawa się rypła.
    Cholerne pismaki połapali się i teraz premiera Larabi będzie musiała być przesunięta o kolejne miesiące, bo okazało się że myk ze sterydami w sterach nie przejdzie i trzeba dozbroić GPU tak, żeby jego moc była prawdziwa a nie pompowana.

    I jak tu uczciwie korporacje mają kasę zarabiać...

    Skomentuj

  4. Damian Szymański
    Oceń komentarz:

    1    

    Opublikowano: 2009-10-14 12:44

    Ciekawe, a nawet bardzo ;)
    A może intel pakuje sterydy również w swoje procki ? ;)

    Skomentuj

  5. dawid_dj
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-14 12:52

    Zawsze sportowcy są o jeden krok przed kontrolą antydopingową. :(

    Skomentuj

  6. ipiechu
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-14 12:53

    Genialne odkrycie :D wiadomo bylo ze gigant z Redmont nie mogl uczciwie grac :P jak nie praktyki monopolistyczne to "dofinansowania" jak nie badziew na sterydach to coz innego :P tak ja knowe rodziny procesorow ja mam t2600 wiec segmenty t3200 czy t4200 po co powstaja ? niech nikt nie wspomina o procesie technologicznym bo to jedyna zmiana :P intel ma dobre produkty ale ogarnela juz ich dawno mania pieniadza i monopolisty.

    Skomentuj

    1. xerion
      Oceń komentarz:

      0    

      Opublikowano: 2009-10-14 15:57

      Gigant z Redmond to - Microsoft :), a nie Intel.

      Skomentuj

  7. Krakers
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-14 13:09

    Jeśli chodzi o same testy, to takie zmiany są jak najbardziej złe.
    Jednak ta w Crysis... te karty nie będą tak wydajne,żeby płynnie pozwoliły grać, kupujący o tym wiedzą (powinni się spodziewać). Czyli taki trik jest ciekawy, chociaż fajnie było by mieć go w postaci opcji sterownika czy coś...

    Skomentuj

  8. Zen...
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-14 14:13

    Intel królem kart zintegrowanych !!! Tekst miesiąca !!! Chyba nie muszę wspominać o serii HD3200 która biję HD3300 i Hd4200 i to przy podkręceniu jej o ponad 100%. To jest król

    Skomentuj

    1. HemaN
      Oceń komentarz:

      0    

      Opublikowano: 2009-10-14 14:17

      Nie chodzi wydajność, ale o ilość sprzedanych kart :) .

      Skomentuj

    2. aello
      Oceń komentarz:

      0    

      Opublikowano: 2009-10-14 18:58

      Te 3 karty to prawie ten sam układ, hd 3200 i 3300 różnią sie standardowym taktowaniem, a hd4200 dodanym uvd2 i dx 10.1.

      hd4200 i hd3300 też sie podkręcają w okolice 1 GHz jak hd3200.

      A jeżeli chodzi o króla integr, to intel naprawde nim jest. Nie wiem ile teraz ma udziału w rynku zintegrowanych GPU, ale jest to na pewno powyżej 50%.

      Skomentuj

  9. Jerzyn
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-14 14:15

    @ipiechu - chyba Ci sie giganci pomylili :P

    Skomentuj

    1. ipiechu
      Oceń komentarz:

      0    

      Opublikowano: 2009-10-20 00:25

      :P lol pewnie i tak :P ale jeszcze nie tak dawno jeden ten sam :D

      Skomentuj

  10. shamoth
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-14 14:20

    Chyba każda firma coś grzebie w sterach, ATI jakiś czas temu mnie zaskoczyła jeśli chodzi o serie 48X0.
    Tam sterowniki zaniżały w kilku aplikacjach wydajność w celu obniżenia temperatury rdzenia.
    Np. zmiana nazwy FurMark.exe na cokolwiek.exe powodowała wzrost FPS na 4850 ale i temperatura mocno rosła powodując często na stockowym chłodzeniu/biosie BSoD...
    Zmiana układu chłodzenia i wgranie biosu ze zmienioną krzywą sterującą wentylatorem rozwiązywała ten problem a dodatkowo można było bez grzebania w sterach wyciągnąć kilka FPS więcej tylko po przez zmianę nazwy pliku wykonywalnego ;]

    Skomentuj

    1. Promilus
      Oceń komentarz:

      0    

      Opublikowano: 2009-10-14 15:42

      U NV z GTX było to samo, obie firmy miały produkty osiągające 105st. C :)
      http://www.pcworld.pl/news/164468/FurMark.daje.w.kosc.takze.Nvidii.html

      Skomentuj

  11. R2rrO
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-14 14:22

    Szkoda, że jest coraz mniej na tym świecie uczciwych ludzi a co za tym idzie, uczciwych firm i wielkich korporacji, które to staraj się ludziom wmówić że ich produkty są najlepsze, ekologiczne itd... Tak naprawdę to puste słowa a cel jest jeden oszukać i okraść jak najwięcej nieświadomych ludzi !! Jeśli to rzeczywiście prawda i jakiś inny niezależny serwis również przeprowadzi podobne testy a wynik będzie taki sam, to moim zdaniem takim skur$%#@w powinno się zapakować kulkę w łeb ! To jest zaraza, która trzeba tępić !
    Nienawidzę oszustów pod każda postacią !!

    Pytam się no i gdzie są te wszystkie komisje, które wszystko nadzorują ?? Nvidi już dawno powinni dowalić surową kare za świadome i celowe wprowadzanie konsumentów jak również opinie publiczna w błąd ! Teraz do grona oszustów dołączył Intel... Kto następny ?? ATI ? AMD ??
    Firmy poczuły się bezkarne, wiec wcale się nie zdziwię gdy tego syfu będzie przybywać...

    Skomentuj

  12. czesio
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-14 15:49

    wszystkie testy syntetyczne są do du... :P syntetyki pokazują jedno a w praktyce wychodzi zupełnie co innego. Tak na marginesie redakcja benchmark całkiem sporo ich zamieszcza np podczas testowania kart graficznych :) tylko po co? dla cyferek? która karta więcej wyciągnie? dla grafiki liczy się fps w grach a nie w "3D smarkach" pozdrawiam wszystkich fanboyów "3D smarków" ;)

    Skomentuj

  13. serdelkofil
    Oceń komentarz:

    1    

    Opublikowano: 2009-10-14 16:06

    dajcie spokoj z tym ukladem graficznym; rozdz. 800x600, min. detal. i 15 klatek w crysisie, o co tu kruszyc kopie? afera czy nie, jesli ja moglbym poprzez wgranie jakichs sterownikow zyskac +15 klatek w jakiejs grze [nadchodzace modern warfare 2] bez wyraznej straty jakosci grafiki wyswietlanej na monitorze , to jak najbardziej - poprosze.

    Skomentuj

  14. jeomax.co.uk
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-14 16:34

    I o co tyle krzyku, nastepnym razem Intel umiesci w swoich sterownikach wyrywkowo wziete 10 bajtow z kodu kazdego benchmarka/gry i bedzie sprawdzal po ich obecnosci po zaladowaniu, a nie po nazwie. W ten sposob panowie z 3DM juz tego nie wykryja i nikt nie bedzie wiedzial, ze swiat uzywa niecnych sterownikow ;-)
    Oczywiscie jestem przeciwny takim dzialaniom: zarowno Intela, jak i AMD, czy nV.

    Skomentuj

    1. Ripper
      Oceń komentarz:

      0    

      Opublikowano: 2009-10-14 17:20

      To nie takie proste. Pobranie nazwy modułu Win32 jest proste, są standardowe funkcje do tego. Pobranie jego kodu wykonywalnego to już naruszenie zasad ochrony. A drivery zazwtyczaj nie mają odpowiednich uprawnień.

      Skomentuj

      1. humandxp
        Oceń komentarz:

        0    

        Opublikowano: 2009-10-15 00:22

        o kolejny "znafca"! ciekawe jak driver'y chodza w ring0 czyli jak kernel,bo przeciez sa jego czescia, to jak nie moga robic wszystkiego.
        ciekawe tez,ze defaultowo kazdy plik da sie odczytac,co najwyzej nie mozna usunac,zmodyfikowac plikow innego user'a.
        ale przeciez kazda gra defaultowo instaluje sie w "all user"

        Skomentuj

  15. Qpers
    Oceń komentarz:

    -1    

    Opublikowano: 2009-10-14 17:34

    Gnoje... Żenada. Przez długi czas nie kupię niczego graficznego od Intela.

    Skomentuj

    1. wolfikx
      Oceń komentarz:

      0    

      Opublikowano: 2009-10-15 07:26

      Ale procek też oszukuje, NIE KUPUJ GO TEŻ ;P

      Skomentuj

  16. crazeey
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-14 20:54

    Właśnie w ramach protestu przeciwko takim praktykom (nie tylko Intela) wyrzuciłem przez okno swojego Asusa M50VM z Duo P8400 i GeForce 9600M GS. Zainteresowanych proszę o kontakt na privie - może jeszcze leży :D

    Skomentuj

    1. Gasek
      Oceń komentarz:

      0    

      Opublikowano: 2009-10-14 23:14

      ja bym prosił tego laptopa!

      Skomentuj

    2. cubess
      Oceń komentarz:

      0    

      Opublikowano: 2009-10-15 10:17

      szkoda ze zdjec nie zrobiles

      Skomentuj

  17. dziasti59
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-15 15:09

    3dmarki sa dla dzieci co sie bawia wtakie bzdety co ztego ze masz kompa wychodzi ci taki wynik a jakis patch do nie towjego kompa atylko do 3dmarka i masz wiecej ptk bezens zal

    Skomentuj

  18. terkad
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-18 13:27

    Z jednej strony hehehe, prawo murphiego mówi:
    "Istnieją trzy rodzaje kłamstw - kłamstwa odruchowe, powszechne oraz testy komputerowe"

    Z drugiej strony jednak, 50% wzrostu wydajności ale nie w benchmarku, ale w grze, jest zastnawiające. Bo teraz jest pytanie, czy sterowniki mogą czy nie mogą korzystać z mocy CPU. Jeśli daje to wymierny efekt, taka opcja powina być nawet w zakładkach, albo nawet powinna być uwzględniona przez API i dostępna z menu uruchamianej gry. Przecież GPU jest tylko akceleratorem grafiki, nigdzie nie jest powiedziane że grafika nie może się wspomagać przez moc CPU, ale opcja ta powinna być do użytku.

    Poza tym myśle że jeśli takie zjawsko zachodzi, to znaczy, że albo gra nie jest zbyt dobrze napisana, albo samo API jest bezndziejne, albo jego implementacja jest jakaś lewa. Kiedyś kiedy moc CPU była słaba, grafika była potrzeba jak na lekarstwo, teraz jednak moce CPU i to przy wielordzeniowych 64-bit jednostkach, nie są już jakieś nędzne. To jest kawał mocy do wykorzystania. A więc dobrym pomysłem jest ich wykorzystanie. Warto jednak by opcja taka była w sterownikach, nie każdy ma cztery wolne rdzenie.

    Skomentuj

  19. terkad
    Oceń komentarz:

    0    

    Opublikowano: 2009-10-18 13:33

    A dodam jeszcze że twórcy gier korystający z API (direct, OpenGL), nie musza wiedzieć nic więcej na ten temat, w końcu kto jak kto ale producenci kart oraz piszący sterowniki do nich wiedzą co jest dla nich najlepsze.

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!