Karty graficzne

Podsumowanie

opublikowano przez tomasz.niechaj w dniu 2011-11-04

Na całe szczęście problem dotyczy tylko w niewielkim stopniu jednostki 2-rdzeniowe i 4-wątkowe, a tych jest całkiem sporo na rynku, bo są to wszystkie Core i3 i Core i5 (2-rdzeniowe serie poprzedniej generacji). Niestety posiadacze słabszych jednostek z rodziny Pentium, jak i 2- oraz 3-rdzeniowych Phenomów, no i oczywiście bardzo duża grupa właścicieli Core 2 Duo - mają problem. Na ich procesorach GeForce będzie, a właściwie to robi to już od ponad roku, zaniżał wydajność w miejscach zależnych od wydajności CPU. Na dobrą sprawę to przy modernizacji tego typu sprzętu (bądź zakupu nowego z niższej półki wydajnościowej) chyba jednak lepiej polecić teoretycznie słabszego Radeona, bo ten i tak finalnie zapewni wyższą wydajność.

AMD vs nVidia

Niestety nie wiemy, jak relacje wydajności wyglądają na procesorach AMD z nowej serii FX (architektura Bulldozer). W chwili przygotowywania tego artykułu, jednostek tych nie było jeszcze na rynku.

Nie jesteśmy programistami by wskazać przyczynę problemu. Jesteśmy w stanie zaobserwować skutki i je udokumentować – i tych jesteśmy pewni. W przypadku jednostek przynajmniej 4-wątkowych problem, nawet jeśli wystąpi, to nie będzie na tyle uciążliwy, by rezygnować z wybranej przez siebie karty graficznej. Problem w pewnym sensie jest już marginalny, gdyż dotyczy tylko niskiej półki wydajnościowej, ale wciąż bardzo dużo osób ma procesory Core 2 Duo, czy 2-rdzeniowe Athlony, jak i Phenomy. Z drugiej jednak strony trudno jest tą marginalnością tłumaczyć tak źle napisane sterowniki do karty graficznej. Mamy nadzieję, że NVIDIA wreszcie zrobi coś w kierunku poprawy tej sytuacji.

Autorzy artykułu:

 

Przeczytaj także:
Zalman VF3000F - test systemu chłodzenia na GTX 580 Karta graficzna - poradnik jak wybrać Nvidia GeForce GTX 560 - nowa grafa klasy średniej
Zalman VF3000F - test systemu chłodzenia na GTX 580 Karta graficzna - poradnik jak wybrać Najlepsze karty graficzne do gier - porównanie, wydajność, ranking

 

marketplace

Komentarze

180
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Wyślijcie ten artykuł do polskiego PR nVidii a nie dostajecie już żadnego dżiforsa do testów. Chętnie bym przeczytał oficjalne stanowisko w tej kwestii.

    Kiedyś THG zrobili art o jakichś anomiach w działaniu sterownika 2D w przypadku radeonów, wysłali swoje wnioski do AMD i rozwiązanie pojawiło się w kolejnej wersji sterowników.
    Zaloguj się
  • avatar
    JEZU CHRYSTE ! patrząc na wykresy bad company 2 jestem wprost zdumiony tym że daliście nie którym przejrzeć na oczy !

    powiem szczerze że lepszego artykułu w życiu nie czytałem i mam nadzieję że w przyszłości już taki problemów z mocą procesora nie będzie .

    wielkie dzięki :] długo czekałem na ten artykuł a teraz lecę pochwalić się kolegom ^^
  • avatar
    "kudosy" za wnikliwe podejście do tematu
    Zaloguj się
  • avatar
    Widzę Tomasz, że zawitałeś na nasze łamy :)
    Zaloguj się
  • avatar
    @ Lightning
    Nie ma czegoś takiego jak dostosowywanie kart graficznych pod serię procesorów. Radeon będzie równie dobrze/źle działał na jednym czy drugim procesorze. Z całą pewnością nie ma czegoś takiego jak szybsze działanie na procesorze X. Oczywiście są wyjątki jak wadliwie działający sterownik w przypadku określonej serii procesorów (czy tym podobne) - co jest tematem tego artykułu. Na czym miałaby taka optymalizacja polegać, podczas gdy wszystko działa na warstwach systemu operacyjnego? :) Karta graficzna "nie wie" jaki jest procesor - jedyne co może być detektowane to właśnie ta liczba rdzeni, czy ewentualnie taktowanie. Ale grafika "nie wie" czy siedzi tam 4-rdzeniowy Core i5 czy 4-rdzeniowy Phenom II X4.

    Co do uwagi na temat ceny grafik. Nie w tym rzecz: nawet jeśli wzięlibyśmy grafiki pokroju HD 6770, GTS 450 to wyszłoby to samo. Dla ujednolicenia testu użyliśmy relatywnie mocnych kart graficznych.
    Zaloguj się
  • avatar
    Ciekawy test udowodnił jeszcze jedną rzecz - mianowicie wygląda na to że procesory i3 są miejscami znacznie szybsze od 4 rdzeniowych phenonów ?!

    Dotąd wydawało mi się że kupno 2 rdzeniowego phenona i odblokowanie rdzeni jest najlepszym pomysłem, a tu się okazuje że nie koniecznie - bo nawet mając te 4 rdzenie, i tak i3 z "realnymi" 2 jest nieraz o 50% szybszy względem 4 rdzeniowego (akurat tak wysoki wynik był w 2, ale w reszcie też był zawsze szybszy chociażby minimalnie)... A i3 można przecież wyłapać za mniej niż 400 zł w tym momencie... dodając do tego podkręcanie - gdzie raczej na AMD nie osiągnie się więcej jak 3,7 ghz powiedzmy, a na Intelu jak najbardziej powyżej 4, można wysnuć interesujące wnioski... Może bardziej zaznajomione z tematem osoby wiedziały to już wcześniej - ja się dowiedziałem dopiero teraz :P
    Zaloguj się
  • avatar
    No nie, wierzyć mi się nie chce... Dobry art na benchmarku od... ile to już, takie padaki wychodzą? :]
  • avatar
    @ Lighting
    A, rzeczywiście - szczerze mówiąc, to uleciał mi ten 740 z głowy. Praktycznie o nim nie było słychać. Poprawka w drodze. Dzięki za uwagę.
    Zaloguj się
  • avatar
    @ sivy20
    Dławił, nie dławił - Twój procesor będzie miał dużo więcej pracy niż przy Radeonie - o to chodzi. A tym samym będzie wolniej niż nawet na wolniejszym Radeonie.
  • avatar
    @szejkxx
    Gdyby to był test procesorów, to oczywiście takie porównanie byłoby ciekawe i jak najbardziej pożądane. Ale chcieliśmy w teście zawrzeć popularne jednostki, bo i tak kluczem są relacje między różnicami na Radeonie i GeForce.
  • avatar
    @suntzu
    To nie jest tak, że GENERALNIE nvidia bardziej obciąża procesor, bo jak widzisz po wynikach assassina więcej FPS jest na GeForce - choć jest to wyjątek. Nie potrafię powiedzieć dlaczego jest tak, że w jednej grze lepiej raz lepiej jest na karcie A, a w innej grze na karcie B (jeśli chodzi o obciążenie CPU przez sterownik grafiki), ale taki jest fakt. To co można zgeneralizować, to większy narzut na 2-rdzeniowy procesor przez sterownik grafiki nvidii. Niestety nie wiadomo co by było gdyby nvidia napisała lepiej sterowniki - może wtedy w każdej grze byłoby lepiej, a może nie... Nie wiadomo.
    Zaloguj się
  • avatar
    Miał być taki spokojny weekend a tutaj dwie spore niespodzianki za jednym zamachem ;) Tomaszu jaki będzie następny test? :)
    Zaloguj się
  • avatar
    świetny artykuł !!! szacunek dla autora :)
  • avatar
    @ Coyot. Często do testów karty graficzne dostarcza sama NVIDIA (podobnie jak AMD) - szczególnie w przypadku premier.

    @ Marcin. A witam, witam - miło mi :)
  • avatar
    Artykuł bardzo ładnie szczegółowo i czytalnie napisany, takie powinny być, GJ wiecej takich ciekawych i dobrych artykułów
  • avatar
    Porządny artykuł. Sprawa rozpracowana do granicy pojmowania normalnego usera. Prosiłbym więcej takich na benchmarku. Dla takiej jakości można odwdzięczyć się wyłączeniem adblocka ;P
  • avatar
    Super artykuł.
  • avatar
    @amb00
    Nie ma potrzeby by 6-rdzeniowca, którego praktycznie nikt nie ma zamieszczać w tym teście.
  • avatar
    I o to chodziło! W końcu ktoś podszedł do tematu tak jak trzeba. Szkoda, że tak późno. Osobiście znam ten problem już od co najmniej 2 lat. Nawet kiedyś chciałem zrobić na ten temat mały teścik, ale niestety zabrakło czasu :/

    Jeśli chodzi o optymalizacje sterowników przez nVidia to wątpię aby kiedykolwiek mieli poprawić sterowniki. Sądzę, że dadzą sobie z tym spokój, choćby ze względu na fakt, że dwurdzeniowe jednostki są w tej chwili bardzo szybko wypierane prze czterordzeniowe procesory. Te z kolei dużo lepiej radzą sobie nawet ze słabo zoptymalizowanymi sterownikami.
    Natomiast osoby kupujące dwurdzeniowe CPU, najczęściej kupują karty graficzne, których cena rzadko przekracza cenę samego procesora lub zadowalają się zintegrowanym GPU. A takie karty graficzne nie są przeznaczone do wysokich rozdzielczości i i maksymalnych detali, a więc znaczenie sterowników jest mniejsze bo grafika nie potrzebuje tak dużego udziału CPU w swoich zadaniach. Choć mogę się mylić i to jest kolejny ciekawy temat na test :)

    pozdrawiam
  • avatar
    Świetny artykuł! Sam dostaję białej gorączki od kiedy kupiłem GTX 460 do platformy na E6750. Wcześniej miałem GTS8800 640mb i wiadomym było że z czasem karta przestała się wyrabiać teraz natomiast nawet w starych grach są problemy a karta ciągnie je na full.

    Mam pytanie czy ktoś miał problem z Falloutem 3 i GTX 460 (wiem że na win 7 jest masa problemów z ta grą) u mnie działa stabilnie jednak występuje zjawisko mikroprzycięć choć FPS jest stabilny i wysoki to podczas poruszania się obraz nie jest "smooth" jak to mówią. Podobno na starych sterach serii 186 jest ok tylko jak wymusić instalację sterów nie obsługujących sprzętu? Będę wdzięczny za odpowiedź jeśli ktoś zna sposób.
  • avatar
    Nie żałuję żadnej złotówki zainwestowanej w 2600K. Ten artykuł utwierdził mnie w przekonaniu, że to był dobry wybór :)

    Gratuluję udanego artykułu (po poprawkach) i pozdrawiam ;)
  • avatar
    Hej.

    Absolutnie nie znam się na procesorach, aa chcę zrobić upgrade kompa. Czy Core 2 Duo Q9550 jest wystarczająco wydajny? Zamierzam kupić kartę HD 6850 (ew. 6870), czy procek nie będzie utrudniał jej pracy?


    Pozdrawiam.
    Zaloguj się
  • avatar
    Artykuł fajny - dobrze się czytało, fajnie omówione no i czuć pewną nutkę Focusa ;D
  • avatar
    Toż to poczciwy Focus :D z wielu innych poprzednich portali... Tylko zauważyłem, że gdzie się nie pojawił to po pewnym czasie portale były "dead" oby ta reguła nie powtórzyła się i tutaj, w końcu musi być wyjątek od reguły :)
    Zaloguj się
  • avatar
    O tym problemie słyszałem już dwa lata temu, a nV nadal nie poprawiła sterowników?! Co gorsza, sterowniki whql od nV wychodzą obecnie bardzo rzadko (średnio raz na trzy miechy). A szkoda, bo gdyby stery miały mniejszy narzut na CPU, to i na 4+ rdzeniowych procach wydajność mogła by trochę podskoczyć w górę...
    Zaloguj się
  • avatar
    co za debilny artyków, nic nie wiadomo o co chodzi i robienie wody z głowy. nie wiadomo jakie wartości są porównywane, widocznie sie trzeba domyślać i zgadywać
  • avatar
    haha! gęba hepi :) czym dalej czytałem tym bardziej upewniałem się jak dobrym zakupem był mój tani Phenom II X4 którego mam od ponad półtora roku i nadal świetnie służy do gier tak dobra wydajność w tak niskiej cenie :D a to że nowe SB i3 są szybkie mnie nie dziwi w końcu to 32nm sandy a phenoomy to stare 45nm, ale gdyby dać poprzednie 45nm i3 to ich wynik byłby słaby, ogólnie świetny art
  • avatar
    wszystko fajnie ale gdzie jest najfajniejszy procek na swiecie czyli q6600:)
  • avatar
    Na reszcie ta recenzja została zrobiona tak jak zrobiona powinna być od początku. Rzetelnie, treściwie, z masą informacji.

    Dzięki Ci wielkie redakcjo i liczę na więcej takiego profesjonalnego podejścia.
    Pozdrawiam.
  • avatar
    Sam posiadam C2D E8400 @3,72 ale mam wrażenie, że już nadszedł czas na zmianę - Uważacie że zakup Amd 955 BE jest jeszcze dobrym rozwiązaniem czy nie warto ?
    Zaloguj się
  • avatar
    Bulldozer byłby wtopą to prawda. Najmocniej obstawiałem w I5 2500K ;) + jakieś wydajniejsze chłodzenie rzecz jasna :)
  • avatar
    "AMD Phenom II X3 720 – najszybszy 3-rdzeniowy procesor AMD z poprzedniej generacji o częstotliwości 2,8 GHz" tak na prawdę jest jeszcze Phenom II X3 740 BE o zegarze 3,0 GHz.

    Nawet nieźle sie podkręca.
    http://valid.canardpc.com/cache/screenshot/1013177.png
    Zaloguj się
    -1
  • avatar
    jestem przed kupnem karty moj GF8800GTS512 sie sfajczyl.. mam DualCore E2160 1,8GHz (oc na 3,0) chce kupic MSI GTX 560Ti 2GB RAM:) co o tym myslicie?? mocno bedzie sie dlawil przy tym procku ??:(
    Zaloguj się
    -1
  • avatar
    szkoda, że brak porównania zegar w zegar - różnica między x3 720 a x4 965 to nie tylko 1 rdzeń, ale także 600MHz.
    Zaloguj się
    -1
  • avatar
    w końcu ktoś sie za to zabral, zobacznie jak spamowalem poprzedni artykuł, ze dali kiche i link do do testu nvision...
    Ile temu dali taka recke? rok, dwa lata temu?
  • avatar
    Kiedyś dyskutowałem o tym z ludźmi akurat w wątku o grach i konsolach i PC. Jak mówiłem że CPU tak naprawdę steruję praca GPU i ograniczeniem jest głównie magistrala 8GB/s (a w konsolach dochodzi do 20GB/s) to się ze mnie śmiali. Skoro można przpuścić max 8GB/s do GPU z CPU to instrukcje nigdy nie pójdą szybciej.
    Zaloguj się
    -1
  • avatar
    A ciekawy jestem jakby się przedstawiały wyniki w DIRT i w Battlefield BC3 na C2Duo@4GHz vs C2Quad@2GHz?
    Można by zrobić małe addendum?
  • avatar
    A teraz runda III z oc, taki E8300@4GHz mógłby nieźle namieszać.
    Zaloguj się
    -1
  • avatar
    Dobra... mały błąd.

    Druga strona pierwszy "fragment", jest trochę z d... wzięty. Zbyt ogólnikowo piszecie.

    Przecięż na starym benchmarku był świerny art.. podajże z 98 roku?... Lol nie pamiętam....

    Wartałoby tu wkleić. Bo to co piszecie to ehmmm... DirectX to generalnie wszystko. Rage natomiast korzysta z inputa DX, a grafika OpenGL...

    Do czego zmierzam to jaką CPU ma interakcję z GPU to dość skomplikowany proces, który wymaga szerszego opisu i przedstawienia ewolucji GPU, dla dogłębnego zrozumienia....
    Zaloguj się
    -2
  • avatar
    Procesor wąskim gardłem przy wielu przeciwnikach i skomplikowanych zjawiskach fizycznych? Bzdura. Wąskim gardłem jest pamięć RAM, do której procesor nie może się odpowiednio szybko dostać. Zawsze to dostęp do pamięci był ograniczeniem w złożonych algorytmach, a programiści musieli optymalizować je pod tym względem. Nowoczesne procesory mają naprawdę imponujące możliwości obliczeniowe i dopóki są pozostawione samym sobie, działają świetnie. Zwalniają dopiero, gdy obsługiwane na raz dane przestają się mieścić w pamięci cache - bo muszą je doczytywać z RAMu.
    Oczywiście jest to zjawisko rzadkie i w normalnych grach raczej nie zachodzi. Bo twórcy ograniczają AI i fizykę w ten sposób, aby zawsze działały płynnie. Strategie czasu rzeczywistego są z kolei silnie optymalizowane pod tym względem.

    Czepiam się tylko tego jednego stwierdzenia, na resztę artykułu nie ma ono specjalnie wpływu. W zasadzie to jest wtrącone bez sensu.
    Zaloguj się
    -2
  • avatar
    Czemu nie ma testów z i7 990X ?
  • avatar
    Czemu nie ma testów z i7 990X ?
  • avatar
    niech AMD dopracuje Catalyst albo najlepiej od nowa napisze bo karty AMD są wydajniejsze i mniej prądowpieprzające :D ale w grach wypadają gorzej przez stery
  • avatar
    Jedyne co w tym teście mnie na prawdę zdziwiło był fakt, że na 4-rdzeniowym Phenomie GTX 570 potrafił wygrywać z HD 6970.
    Ogólnie AMD dostosowuje swoje karty do procesorów.

    BTW chyba nie ma gracza, który gra na dwu-rdzeniowym procesorze i kartą za co najmniej 1200 zł.
    Zaloguj się
    -6
  • avatar
    Po prostu ATi jest wielkim g nic na to nie poradze
    Zaloguj się
    -29
  • avatar
    Szkoda że nie ma testów starszych phenomów64 X4 od AMD..

    Dla przykładu u mnie GTX260 pożerał Phenoma X4 9550 w dragon age i w crysis1, m. in gdy się dużo na ekranie działo, płynność w grze potrafiła czasem spaść do 5 fpsów! :) a przecież to procesor 4 rdzeniowy, według testów powinno być OK, ale było jak te 2 rdzenie nawet gorzej... Co dziwne jak miałem wcześniej słabszego 8800GT takich JAJ nie było, widocznie nowsza seria kart GeForce bardziej polega na procesorze.

    Dowód na to że stara nie dopracowana architektura AMD 4 rdzeni również potrafi słabo współpracować z GeForsem.
    Zaloguj się
  • avatar
    Czasami mam pewien problem znaczy to nie jest problem ale wydaje mi sie ze na pewno wina sterownika. Sterownik NVIDII często pada wyskakuje komunikat ze sterownik przestał działać ale to nie wszystko wtedy karta graficzna bardzo się rozgrzewa jak przy maksymalnym obciążeniu a jak to sprawdzam? wentylator stopniowo zaczyna wyć jak huragan a temperatura zbliża się do 75 stopni (mam GTX560 1gb Golden sample Gainwarda - nie jest uszkodzona) co w przypadku gier jeszcze nigdy tej karcie na moim sprzęcie nie towarzyszyło macie podobnie?
  • avatar
    Wie ktoś jak nazywa się ta pani w rękawicach na ostatniej stronie??
  • avatar
    Czyli jak mam E8400 i karte GTX 460 to źle? Lepiej jakbym miał Radeona jakiegoś? Na razie wszystko mi hula 1920x1080 na maxa, nawet batllefield na wysokich, także chyba jest dobrze? A jak kupie 4 rdzenie core i5 to rozumiem ze bedzie lepiej:D
    Zaloguj się
  • avatar
    zamienie 9800gt na hd4850, jacs chetni? :>
  • avatar
    Co za genialne połączenie :D Kolego, mi GTX460 zasypiał przy PDC@4,0 :P
  • avatar
    Ciekaw jestem, jaki byłby ufekt, gdybym został na C2D ale zmienił słabszego 3870 na nieco mocniejsze 9800GT Okaże się, że nie zyskam w grach ani klatki?
  • avatar
    A podobno to AMD/ATI robi skopane sterowniki, łahahhahah.
    Dzięki boku jestem ateistą i kupiłem jednak radka.
  • avatar
    Mały błąd stylistyczny "sytuacja ma występować przede na kartach"
    Zaloguj się
  • avatar
    Proszę Państwa, proszę pomyśleć inaczej. Dobry przykład - wszystkim znana gra Metro 2033. Gra ta w pełni wykorzystuje moc najlepszych GPU. Natomiast praktycznie ilość klatek na sekundę jest niezależna czy jest zamontowany procesor dwu- czy czterordzeniowy. Fizyka na sprzęcie pewnej cenionej firmy jest liczona przy pomocy technologii NVIDIA PhysX, czyli to GPU liczy fizykę. Tak więc podsumowując, nie jakość grafiki w grach zależy w 100 procentach od kart , a nie od procesorów !
    Zaloguj się
  • avatar
    Powiedz jeszcze na jakim sprzęcie grałeś, to będę więcej wiedział. Ciekawi mnie bowiem co to masz za sprzęt, bowiem ja na HD 6950/GTX 560 Ti w 1920x1080 bez AA (!!!) miałem często poniżej 30, a zdarzało się że spadało poniżej 15 (z AA-x4 w tym samym miejscu było jakieś 10).
    Zaloguj się
  • avatar
    Zapachniało mi tu sound blasterem gdzie pod marketingową papką o wbudowanej obsłudze tego czy tamtego tak naprawdę wszystko robił CPU. Kto wie czy nvidia żeby pomóc karcie nie zrzuca częściowo zadań np tych z fizyką na cpu.
  • avatar
    Do tej pory wciskano nam kit, że to Nvidia ma lepsze stery.
    Zaloguj się
  • avatar
    takiej ilości komentarzy pod artykułem dawno nie widziałem gdyby tylko wnosiły coś nowego poza standardowymi bezsensownymi kłótniami byłoby fajnie a tak to każdy gada swoje i broni swojego zdania na wszelkie sposoby a tak naprawde każdy ma troche racji a wybór sprzętu i tak należy do każdego osobno i dalej główną wytyczną są ceny sprzętu ,dlatego uważam że takie dyskusje są delikatnie mówiąc bez sensu
  • avatar
    Bardzo ciekawy artykuł. Mam starszy zestaw, i siłą rzeczy gram w starsze gry. Gdybym miał kasę na nową kartę, to musiałby znaleźć środki na Core Quad.
  • avatar
    bardzo ciekawy artykuł i oby poprawili ten problem w sterownikach
  • avatar
    fajnie że można czytać artykuły focusa:) a na jakim portalu to nie ma znaczenia...
    widzę, że sytuacja się troszkę poprawiła względem Twojego poprzedniego artykułu na nvision, mimo to nv nadal ma problem.
  • avatar
    Odwieczne zabawy ze sterownikami coś jak windows xp wiecznie łatany:F
  • avatar
    Czyli mimo tego, że w poprzednim teście zrobiliście masę błędów wyszło prawie dokładnie to samo? Aha.