Karty graficzne

Czy warto inwestować w nową kartę?

z dnia

miniRecenzja
wyróżniona!


Na benchmark.pl od kilku lat obserwuję pewną walkę pomiędzy zwolennikami dwóch różnych tez dotyczących powiązania procesora z kartą graficzną. Jeden z obozów upiera się przy twierdzeniu, że do wydajnej karty graficznej bez żadnych wątpliwości potrzeba wydajnego procesora. Zakup szybkiej karty do starego CPU nie ma sensu, ponieważ karta będzie „ograniczana” przez wąskie gardło, jaki stanowi CPU.

Drugi obóz reprezentuje zgoła różną teorię: To czy procesor będzie ograniczał kartę graficzną w grach zależy głównie od wymagań danej gry. Jeżeli potrzebuje ona wydajnego, wielo-rdzeniowego procesora taki też wypadałoby mieć. Jeżeli dany tytuł głównie wymaga potężnej karty nie wymagając specjalnie dużo od procesora to nie ma potrzeby inwestowania w procesory kosztujące krocie.

Jak jest więc w praktyce? Czy występuje coś takiego jak „ograniczenie” karty graficznej przez procesor? Czy wymiana karty graficznej na nowy, szybszy model ma sens, jeżeli nadal pozostajemy przy starym i raczej już wolniejszym procesorze? Postaram się tą recenzją odpowiedzieć na to pytanie.

W ostatnim czasie maiłem bardzo dużo szczęścia. Dzięki redakcji Benchmark.pl w moje ręce trafiła najszybsza jednoprocesorowa karta graficzna na świecie. GTX580 Lightning Extreme Edition. Niestety okazało się, że przyszła uszkodzona. Praktycznie nie chciała wyświetlać obrazu powodując wręcz restarty systemu. Kartę musiałem wysłać na gwarancję. Przyszła prawie dwa miesiące później, ale już nie w wersji Extreme Edition. Różnica polegała tylko i wyłącznie na ilości zainstalowanej pamięci; 1.5GB zamiast 3GB oraz kolorze wentylatorów. W między czasie swoją premierę miał AMD Radeon HD 7970 przejmując pałeczkę wśród najszybszych kart graficznych z jednym GPU. 

Nie jestem posiadaczem najszybszego komputera na świecie. Serce mojej maszyny napędza dokładnie 4 letni procesor C2D E8200. Seria E8xxx charakteryzowała się ogromnym potencjałem na overclocking. Mnie trafiła się przeciętna sztuka, którą podkręcić da się maksymalnie do 3.9GHz, przy czym stabilne taktowanie przy względnie niskim napięciu wynosi „zaledwie” 3.7GHz. Tak wykręcony procesor był można powiedzieć przyzwoitym minimum do współpracy z wydajną kartą, jaką jest Radeon HD5850. Większość gier chodziła bardzo dobrze jednak pojawiły się tytuły gdzie płynność animacji była wyjątkowo zła. Czy na taki stan rzeczy ma wpływ zbyt wolny procesor? Czy zmiana karty graficznej poprawi płynność gier?

PLATFORMA TESTOWA

Procesor: Core 2 Duo E8200 2.66GHz @ 3,7GHz
Płyta główna: Gigabyte X48 DS4
Pamięć RAM: Kington 4GB 1066MHz
Dyski twarde: OCZ Vertex2 60GB +2xHDD
Zasilacz: Enermax Platmax 750W
System operacyjny: Microsoft Windows Vista 64bit
Sterowniki:
nVidia: 285.62
Radeon Catalyst: 12.1

 

 


Jako że GTX580 dodarł do mnie prosto z Holandii fabrycznie nowy i nieotwierany prezentuję Wam popularnie zwany unboxing karty mojego autorstwa.

GTX580 charakteryzuje się naprawdę dużymi gabarytami. Od kilku dobrych lat podczas wymiany karty graficznej na wydajniejszą liczyć się trzeba z faktem, że karta będzie także większa. Przynajmniej w odniesieniu do segmentu hi-end.  Długość Lightninga to aż 297 mm. Do mojego Cooler Mastera 690 II mieści się karta o maksymalnej długości 304 mm. Czyli w zapasie pozostaje teoretycznie tylko 7 mm przestrzeni. Takie rozmiary sprawiają, że by kartę umieścić w slocie trzeba ją włożyć do obudowy pod kątem a dopiero później obrócić do pozycji poziomej.



GTX 580 Lightning to karta fabrycznie podkręcona. Standardowe zegary (775MHz dla rdzenia oraz 1002MHz dla pamięci) zostały podniesione do odpowiednio 832MHz oraz 1050MHz. Taki zastrzyk mocy zapewne odbiłby się pozytywnie na wynikach testów, ja jednak postanowiłem przywrócić karcie zegary do wartości charakterystycznych dla zwykłego GTXa.  Na wykresach wydajności znajdować się będą trzy słupki. Pierwszy dla Standardowego HD 5850 (GPU 725MHz, Pamięci 1000MHz) Wersja podkręcona tej karty (950MHz, 1100MHz) oraz wersja standardowa GTX580.
 



Prócz benchmarków gdzie ustawienia graficzne są zdefiniowane przez program, w każdej grze ustawiłem najwyższą możliwą jakość obrazu. Zawsze włączony był Anti Aliasing x4 oraz Filtrowanie Anizotropowe x16. Dodatkowo zarówno w sterownikach nVidii jak i w Catalystach włączone były wszystkie „polepszacze” obrazu. Testy przeprowadzane były w dwóch różnych rozdzielczościach: 1920x1080 oraz 1366x768. Pierwszy powinien uwidocznić różnice między wydajnością kart, drugi powinien je „spłaszczyć” poprzez większy wpływ procesora na płynność w danej grze.

 

 
 



Testy rozpocząłem od syntetyków. Na pierwszy ogień poszedł leciwy już 3D Mark Vantage. Benchmark ten nie obsługuje najnowszych efektów graficznych takich jak teselacja. Teoretycznie zdecydowanie wydajniejszy GTX580 nie ma tu zbyt dużego pola do popisu. Wyniki na wykresie to ilość pkt. dla GPU score:


Przewaga GTX580 nad Radeonem to zaledwie 5000 pkt. Jeszcze gorzej wygląda wynik porównania podkręconego Radeona do GTXa, różnica zmniejsza się do zaledwie trzech tysięcy punktów. Jeżeli ktoś jest fanem suchych liczb to może się zawieść na takich wynikach. Różnica w wydajności między niepodkręconymi kartami wynosi 37%. To z jednej strony dużo, jednak z drugiej mało biorąc pod uwagę ceny obu kart. Radeon HD5850 około 600zł, GTX580 około 2000zł.


Następnym benchmarkiem jest obecnie najbardziej zaawansowany program testowy firmy Futuremark. 3D Mark11 bo o nim mowa. Wprawdzie nie prezentuje oszałamiającej jakości grafiki, ale potrafi obciążyć najmocniejszą nawet kartę graficzną. Ponownie na wykresie zamieszczam wyniki dotyczące tylko karty graficznej.

Widać nareszcie, że GTX580 rozwija skrzydła. Masa teselatorów i jednostek wykonawczych nareszcie mają pełne ręce roboty. Różnica między kartami jest ogromna, wynosi ponad 75%. To widać w płynności wyświetlanego obrazu (poza żałosnym testem CPU) Nadal czwarty test nie jest całkowicie płynny, ale da się go już obejrzeć. Zwrócić uwagę trzeba na całkiem spory zastrzyk mocy, jaki osiągnął Radeon po OC. Blisko tysiąc pkt. więcej i to całkowicie za darmo.

 
 

 


Crysis 2 to dosyć nowa gra typu FPS. Nie da się ukryć, że na chwilę obecną jedna z najładniejszych dostępnych na komputery osobiste. Gra jednak w podstawce nie robi takiego wrażenia jak pierwsza część Crysisa. Dopiero dodanie ogromnej łatki zawierającej tekstury wysokiej rozdzielczości oraz uruchomienie trybu DX11 sprawiają, że gra potrafi zachwycić widokami. Tytuł ten przeszedłem na Radeonie bez większych problemów w rozdzielczości Full HD. Jednak tylko w trybie DX9. Włączenie efektów DX11 powodowało drastyczny spadek ilości klatek generowanych na sekundę. Dodatkowo pojawiały się mikro przycięcia, które nie tylko denerwowały, ale utrudniały rozgrywkę.

Poniżej zamieszczam filmik z miejsca gdzie dokonałem pomiaru ilości FPS. Za każdym razem starałem się przejść ten moment tak samo.
 

 

Test był powtarzany dwukrotnie a wyniki uśrednione.



 


Jak widać w rozdzielczości trochę wyższej niż HD Ready Różnica między kartami się pojawia jednak raczej nie jest zbyt duża. Siedem klatek więcej to nadal odrobinę za mało by mówić o całkowicie płynnej rozgrywce. Zdumiewa jednak właściwie znikoma różnica w płynności między podkręconym Radeonem a wersją na zegarach standardowych. Co jest tego przyczyną trudno określić. Jednak gra była raczej trudna i mało komfortowa.


Ten sam moment w rozdzielczości Full HD okazał się zabójczy dla wydajnego przecież Radeona HD5850. Nawet po mocnym podkręceniu karta osiągała średnio zaledwie 19.5 FPS. Mikro przycięcia stały się jeszcze bardziej uciążliwe a szybka akcja stała się… za szybka. GTX580 wyświetla obraz z ilością klatek o 63% większą jednak tylko na granicy płynności. Widać w tym miejscu duża liczba wrogów musi bardzo obciążać procesor, który nie jest w stanie dostarczyć odpowiedniej ilości danych na czas takiemu potworowi, jakim jest GTX580. Zaznaczę jednak, że w zdecydowanej większości miejsc średni FPS wynosił około 40-45 klatek na sekundę i to w rozdzielczości Full HD oraz DX11.


Przy okazji testów w Crysis 2 postanowiłem sprawdzić pewien od dawna interesujący mnie szczegół. Ile pamięci graficznej potrzebuje Crysis 2 po uruchomieniu go z teksturami wysokiej rozdzielczości i w najwyższym możliwym trybie graficznym. Jako że sterowniki nVidii umożliwiają monitorowanie tego parametru nie omieszkałem tego sprawdzić. Wynik był zdumiewający


Gra średnio zajmuje ponad 1400MB pamięci graficznej. Odnotowałem podczas gry wartości sięgające 1498MB. Myślałem, że 1.5GB pamięci na karcie graficznej to dużo, że to, iż zamieniono mi Lightninga z wersji 3GB na wersję z pojemnością o połowę mniejszą nie będzie miało znaczenia. Jak się okazuje już teraz gry bez problemu potrafią załadować całą dostępną pamięć nawet w najszybszych kartach. Stąd właśnie mogą brać się mikro przycięcia na HD5850. Być może tekstury, które nie mieszczą się w 1GB pamięci zrzucane są do pamięci RAM komputera skąd muszą być w razie potrzeby dostarczone z powrotem do karty. Jako że w C2D kontroler pamięci nie jest zawarty w CPU a w układzie znajdującej się na płycie głównej gra dostaje jedno extra opóźnienie i FPS drastycznie spada. Myślałem, że GTX580 to karta z potencjałem na przyszłość. Jak widać nie w wersji z 1.5GB pamięci.


 
 


Battlefield 3 jest to gra teoretycznie najbardziej zaawansowana technologicznie. Świadczyć może o tym choćby fakt, że obsługiwany jest tylko tryb DX11. Kampania Single Player w tej grze ma bardzo nierówny poziom graficzny. Czasami widoki zapierają dech w piersiach, czasami wręcz zaskakują swoją przeciętnością. Przyznać trzeba jednak, że gra jest dobrze zoptymalizowana i pomimo dosyć szybkiej akcji nie ma większych problemów z płynnością nawet używając ponad dwu letniego HD 5850.


Testy przeprowadziłem w miejscu z filmiku powyżej. Zawsze dokładnie tak samo. Każdy test był powtórzony dwukrotnie.


W rozdzielczości 1366x768 gra jest całkowicie płynna nie tylko na GTX580, ale także na nawet niepodkręconym Radeonie. Różnice między kartami są naprawdę niewielkie, wręcz pomijalne, jeśli porównać GTXa z podkręconym Radeonem. Czyżby w tym miejscu ponownie ograniczeniem był procesor? Niewykluczone. Z analizy użycia procesora w tle widać, że oba rdzenie są cały czas obciążone w 99%.



Battlefield 3 ma to do siebie, że konieczne jest stosowanie w nim trybu wygładzania krawędzi. Ta gra bardzo dużo traci na jakości gdy wyłączymy AA. Osobiście oceniając jakość grafiki doszedłem do wniosku, że wolę grać w rozdzielczości 1366x768 z 4xAA niż bez wygładzania krawędzi a w Full HD. Grając na GTX580 nareszcie mogę sobie pozwolić zarówno na wysoką rozdzielczość jak i na przyzwoity tryb wygładzania krawędzi. Tutaj różnice między kartami zaczynają się powiększać. Najszybsze jednoprocesorowe dziecko nVidii jest tu szybsze prawie o 60% od Radeona. Nawet wysokie OC karty AMD niewiele tu daje, gra działa dosłownie na granicy płynności. Jest możliwa, ale zdecydowanie mniej komfortowa.

 
 

 



Lost Planet 2 to trzecio osobowa strzelanina w świecie SF. Mnie nie przypadła do gustu, ale jako że posiada benchmark polegający na prawdziwej rozgrywce okazała się bardzo dobrym programem do badania wydajności kart. Grafika nie rzuca na kolana, choć dzięki bardzo płynnej animacji sprawia wrażenie dynamicznej i kolorowej. Wyniki to średni FPS z trzech różnych lokacji.

 


O dziwo gra nawet w rozdzielczości 1366x768 jest dosyć dużym wyzwaniem dla Radeona. Wprawdzie test odbywał się w środowisku DX11 (co niespecjalnie widać) to zdziwił mnie niski FPS na karcie AMD. Jest to pierwsza gra gdzie różnica między kartami jest po prostu kolosalna. 123% więcej klatek na sekundę po odpaleniu benhmarka na GTX580, robi wrażenie. Być może wpływ na wynik ma fakt, że gra jest opatrzona logo nVidi „it’s meant to be played”. Trudno powiedzieć, jednak przewaga GTXa jest większa niż powinna oferować jego teoretyczna moc obliczeniowa w porównaniu do karty AMD.



Drugi test w wyższej rozdzielczości upewnia mnie w przekonaniu że Lost Planet 2 bardzo dobrze „dogaduje” się z GTXem. Ponownie mamy do czynienia z ogromną przewagą w ilości FPS. Mamy tu do czynienia z jeszcze większą przewagą, bo sięgającą aż 129%. Na GTX580 po zmianie rozdzielczości mamy średni FPS wystarczający nawet dla najbardziej wymagających graczy. Radeon zaczyna się dławić oferując średnio niewiele powyżej minimalnych 25 klatek na sekundę.  Mocne OC zdecydowanie poprawia komfort gry, co jednak nadal nie umywa się do możliwości GTXa. To pierwszy test gdzie wydawałoby się, że procesor nie ma specjalnego wpływu na wydajność karty. Szybsza karta równa się więcej FPS. Czy tak będzie w kolejnej grze?

 

 
 


GTA IV to już kilkuletnia pozycja na rynku gier. Nigdy nie posiadała oszałamiającej grafiki. Obecnie jest wręcz w pewnym sensie przestarzała technologicznie, co jednak nie przeszkadza przy czerpaniu przyjemności z gry w prawdziwym sandboxie. Gra zasłynęła z wręcz koszmarnej optymalizacji na komputery osobiste. Z opinii wielu użytkowników można wywnioskować, że gra wymaga do poprawnego działania cztero-rdzeniowego procesora.  Posiadając stare C2D po zmianie karty z 8800GT na HD5850 odczułem minimalny wzrost płynności. Najbardziej irytował nie tyle średni FPS co ogromne jego spadki. Często do wartości jednocyfrowej. W grze występują lokacje gdzie FPS jest wyjątkowo niski. W jednej z takich lokacji przeprowadziłem test płynności. Polegał on na wyjściu z mieszkania, wejściu na motor, dzikiej jeździe przez miasto i walce (przy pomocy podręcznego RPG)


Najwyraźniej w tej grze pierwsze skrzypce gra procesor. Jak inaczej wytłumaczyć tak żałosny wynik przyzwoitego przecież HD5850 w grze, która wygląda dość powiedzieć średnio? Marne 19 klatek na sekundę oraz praktycznie zerowy wzrost wydajności po OC. Przyznam się, że po zainstalowaniu GTX580 bałem się, iż FPS jeszcze bardziej spadnie. Ostatnio modne twierdzenie, że sterowniki nVidii znacznie gorzej się sprawują na procesorze dwu-rdzeniowym niż sterowniki AMD. Jak widać nie w tym wypadku. Widać, że zmiana karty jest warta zachodu, chociaż… Jak to wygląda? Gra sprzed jakiś 4 lat, brzydkawa, bez fizyki, właściwie bez sztucznej inteligencji i innych bajerów nie potrafi osiągnąć marnych 30FPS na karcie z 2011 roku kosztującej obecnie około 2000zł? Idealny przykład tego, że procesor w niektórych tytułach musi mieć pewną moc obliczeniową/ilość rdzeni.


Zmiana rozdzielczości nie wpływa na wydajność GTXa. Dziwne zjawisko, bo patrząc na to co GTA IV robi z moim Radeonem jest wręcz smutne. Pokaz slajdów. Człowiek patrzy i nie wierzy, że coś tak średniego graficznie może mieć tak ogromne problemy z animacją na karcie pokroju HD5850. GTX580 nie ma czym się pochwalić, ale widać karta posiada coś co sprawia że utrzymuje w miarę przyzwoitą wydajność w grze.

 

 



Ostatnim moim testem wydajności jest gra, która sprawiła mi najwięcej problemów podczas testów, a jednocześnie same testy są najbardziej wiarygodne. Bettlefield 3 po raz kolejny gości wśród moich testów. Tym razem jednak mowa o rozgrywce wieloosobowej. Internet pęka w szwach od rad, iż do tej gry najbardziej nadają się procesory wielo rdzeniowe, przyzwoite ilości RAMu oraz szybkie karty graficzne. Niewątpliwie rozmach bitew wieloosobowych gdzie uczestniczą samoloty, śmigłowce, czołgi, samochody, wozy pancerne etc. Jest wymagającym środowiskiem. Walka przeważnie wre gdziekolwiek nie spojrzeć.

Testy przeprowadziłem na jednaj z najbardziej wymagających map. Granica kaspijska, Conquest large na 64 graczy.  Tylu walczących we wszystkim, co jest dostępne w grze (prócz łodzi) będzie idealnym testem całej platformy oraz wpływu zmiany GPU na ogólną płynność gry. Battlefield 3 ma jednak to do siebie, że walka w trybie wieloosobowym jest bardzo zróżnicowana. Jeden pusty test niekoniecznie dałby prawdziwy obraz o wydajności gry. Dlatego test przeprowadziłem trzykrotnie dla każdej karty. Dokonałem pomiaru podczas walki powietrznej w myśliwcu, szalonej jazdy samochodem oraz zwykłej walki piechotą. Osobne wyniki uśredniłem otrzymując średnią płynność gry w każdej sytuacji.

Moje zmagania, jakie służyły mi do testu zamieszczam na filmiku poniżej.

Testy przeprowadziłem już tylko w jednej rozdzielczości: Full HD. Na Radeonie w Multi grałem zawsze w niższej rozdzielczości 1366x768. Dlaczego? Ta gra ma jeden bardzo denerwujący zwyczaj. W wyższej rozdzielczości raz na jakiś czas potrafi nie wczytać jakiejś tekstury. Zwykle jest ona niewielka, jest to jakaś skrzynka, koszyk, plakat. Zwykle po sekundzie jest uzupełniana jednak już na mich oczach, co trochę psuje ogólny efekt. Zwykle tekstury wczytywane są na czas jednak czasami czuć, że gra dociąga je z RAMu w komputerze, bo zdarzają się ścinki nawet ponad sekundowe. Zmniejszenie rozdzielczości eliminuje te problemy w 80%.


O ile BF 3 w multi działał względnie dobrze (pomijając pewne opisane wyżej problemy) to FPS na poziomie 27 klatek w tak dynamicznym tytule jest ilością niewystarczającą do komfortowej gry. Mocne OC Radeona daje extra niecałych 6 klatek, co da się odczuć. Mimo wszystko nadal brakuje tu płynności. Zainstalowanie w komputerze GTX580 sprawia, że średni FPS podnosi się o 10 klatek na sekundę. Chyba każdy przyzna, że różnica między 28 klatkami a 38 jest dużą różnicą. To aż 37% różnicy. Tu jednak ponownie ograniczeniem musi być przestarzały procesor. Nic dziwnego, historia użycia mocy CPU daje jasno do zrozumienia, co tu jest wąskim gardłem. Oba rdzenie są maksymalnie obciążone niezależnie czy ustawiłem je na 3.6GHz, 3.7GHz czy 3.8GHz. Potrzeba tu trzech czy nawet czterech szybkich rdzeni i nawet najnowszy HD7970 niewiele by pomógł.

Przy okazji testu multi sprawdziłem podobnie jak w Crysis 2 ile zajmują tekstury w pamięci karty graficznej. Screen jaki zrobiłem podczas gry w Metrze mówi sam za siebie:


Gra zdecydowanie w Full HD nie zadowoli się 1GB pamięci na karcie. Zużycie pamięci sięgnęło 1.3GB. To bardzo dużo. Średnio podczas gry obserwuję, że zajęte jest około 1240MB, ale często znacznie więcej. Jeżeli ktoś posiada kartę z 1GB pamięci lub co gorsza z 756MB od razu może sobie odpuścić rozdzielczość Full HD lub maksymalne ustawienia graficzne.

Po raz kolejny okazało się, że 1.5GB pamięci na karcie wcale nie jest przyszłościowe. Jest po prostu potrzebne już teraz a większa ilość zdecydowanie się nie zmarnuje. Nic dziwnego, że Radeony z Serii HD 69xx mają zamontowane 2GB pamięci, a najnowsze 79xx 3GB. Teraz już wiem, że nie warto polecać modeli z 1GB. To bardzo ograniczyłoby wydajność karty w wyższych trybach graficznych.

 

PODSUMOWANIE WYNIKÓW:

Na koniec zamieszczam dwa niewielkie wykresy przedstawiające jak wyglądają różnice między kartami w odniesieniu do wszystkich gier z recenzji. Wyniki dotyczą obu rozdzielczości: 1920x1080 oraz 1366x768

 

 
 

 


Nowa karta to nie tylko wydajność. Wiele do powiedzenia ma tu komfort użytkowania karty. Nie problem kupić najszybszą kartę graficzną na świecie lub 3 a może nawet 4 GPU i spiąć je razem. Duże znaczenie ma energochłonność karty, poziom wytwarzanego hałasu oraz wytwarzanego ciepła, które trzeba rozproszyć.

Pierwszego nie mogłem sprawdzić, nie ma watomierza . Według tych, którzy go posiadają i nie omieszkali sprawdzić ile potrzebuje prądu dana karta, nie mam się z czego cieszyć. Maksymalny pobór mocy przez kartę wzrósł ze 125W (Radeon) do około 225W (Ge Force). 100W to duża różnica.

Dodatkowe 100W w postaci ciepła, jakie rozprasza zmontowany na GTX580 układ chłodzenia, powinno solidnie podgrzać wnętrze komputera oraz poszczególne podzespoły. Tak się jednak nie stało. Być może za sprawą tego, że zamontowałem w obudowie całą masę wentylatorów (rozmieszczenie w profilu) całe ciepło zostaje bardzo szybko usunięte poza obudowę. Odczyty z diody termicznej zamontowanej w każdym newralgicznym elemencie komputera (chipset, ram, dysk twardy, ogólna temperatura obudowy) nie wzrosły podczas obciążenia nawet o 1 stopnień Celsjusza. Widać, że po zamontowaniu odpowiedniego chłodzenia w komputerze nie trzeba się martwić ilością emitowanego ciepła przez kartę.

Jak się ma zatem sprawa głośności GTX580? Cóż, jest gorzej niż było. Radeon HD5850 automatycznie ustawiał wentylator na 21% gdy karta była w spoczynku. Sam zwiększałem tą wartość do 35% gdyż karta nadal pozostawała prawie bezgłośna a temperatura spadała o kilka stopni. Pod obciążeniem nawet po mocnym OC wystarczyło 48% prędkości wentylatora by karta nieprzekraczana 63’C. GTX580jest trochę inaczej zaprojektowany. Dwa wentylatory pracują z minimalną prędkością na poziomie 40%. Są odrobinę bardziej słyszalne podczas spoczynku karty. Różnica, choć niewielka to trochę szkoda, że występuje. Gorzej robi się pod obciążeniem. Na opakowaniu Lightninga jest adnotacja, że karta rozgrzewa się o 21’C mniej niż referencyjny GTX580, że zamiast 81’C tu maksymalna temperatura wynosi 60’C. To prawda. Ani razu nie zanotowałem wyższej temperatury. Jednak ktoś tak ustawił kartę żeby nigdy wyższej temperatury nie osiągnęła w bardzo sprytny sposób. Odpowiedzialny za chłodzenie Twin Frozr III koryguje temperaturę podnosząc prędkość obrotową wentylatorów. Już po 10 sekundach gry wentylatory wirowały z szybkością 55% a rozpędzają się czasami powyżej 60%. Karta wyraźnie szumi w obudowie. Radeon był zagłuszany przez 7 wentylatorów w obudowie ustawionych na 1200rpm. Karta nVidii wybija się wyraźnie z tego szumu. Nocne sesje z BF3 stają się uciążliwe dla współlokatorów. Źle nie jest, ale przyzwyczajony do względnej ciszy odczuwam pewien dyskomfort.

Nie podaję głośności karty w decybelach, piszę o niej subiektywnie, ale dlaczego nie zaprezentować jej tak byście i Wy mieli okazję obu kart posłuchać? Zamontowałem do kamery mikrofon typu kardioid. Jest to typ kierunkowy. „Wycelowałem” go prosto w kartę graficzną tak by zebrał maksimum dźwięku pochodzącego z wentylatorów a minimum otoczenia. Poniżej zamieszczam zdjęcie z tego testu:


Nagrałem film z obu kart w 4 szybkościach pracy wentylatorów. Auto, 50%, 75% oraz 100%. Różnice możecie ocenić sami po obejrzeniu (i odsłuchaniu) poniższego filmu.

Użyłem bardzo czułego mikrofonu. W rzeczywistości nie jest aż tak źle jednak pewne różnice da się wyłapać.

Przy wartościach Auto obie karty wypadają podobnie. Przy 50% wydaje się, że Radeon jest głośniejszy. Przypomnę, że na tej karcie wentylator nigdy nie przyśpieszył do 50%. Wyższe prędkości wentylatorów także są podobne. Obie karty powyżej 75% szybkości wentylatora są niczym jak suszarki całkowicie nieakceptowane pod względem generowanego hałasu. Dla mnie to starcie wygrywa zdecydowanie Radeon. 

 


 


Przyszedł nareszcie czas na podsumowanie próbę odpowiedzi z tytułu tej mini-recenzji. Czy warto zmienić kartę graficzną na znacznie wydajniejszą bez zmiany starej platformy? Myślę, że tak, jednak nie zawsze wiązać się to będzie z dużym przyrostem wydajności. W każdym przeprowadzonym teście, w obu rozdzielczościach GTX580 zapewniał lepszą wydajność. Czasami różnica wynosiła zaledwie kilkanaście procent, czasami oferowała ponad dwukrotnie większą wydajność. Są tytuły, które wymagają bardzo szybkiego procesora i niezależnie od wydajności karty będą działać bardzo opornie. Jednak, gdy ktoś zapyta czy do C2D E4400 lub AMD X2 5600 warto zmienić kartę z Radeona HD3850 na HD5830 lub GTX460 odpowiem, że warto. Może nie wykorzysta całego potencjału karty, ale na pewno odczuje zdecydowaną różnicę w wydajności nowych gier.

Trzeba tylko wziąć pod uwagę większy apetyt na prąd, zwiększoną ilość odprowadzanego ciepła i wiążący się z tym hałas wytwarzany przez układ chłodzenia. Oczywiści zawsze pierwsze skrzypce grać będą motywy ekonomiczne. W powyższej recenzji chyba też trochę pomniejszyłem rzekomy problem ze sterownikami nVidii. Nie odczułem najmniejszego spadku płynności związanego z dodatkowym narzutem na procesor. Jeżeli takie coś miało miejsce to zostało zniwelowane przez zdecydowanie ogromną moc nowego GTXa.


PLUSY WYMIANY KARTY
:
+ Zdecydowanie wyższa wydajność w każdej grze.
+ Pewien zapas mocy na przyszłość (jednak nie pamięci graficznej)

MINUSY WYMIANY KARTY:
- Znacznie zwiększony apetyt na prąd.
- Dosyć uciążliwy system chłodzenia w "stresie"
- Cena karty.
- Czasami niewielka różnica w wydajności za dużą różnicę w cenie.


Niedługo uwolnię całą moc karty graficznej wraz z nową platformą pod Snady Bridge. Do tego czasu musi mi wystarczyć cztero-letni procesor, który trzeba powiedzieć radzi sobie bardzo dzielnie.
 

Zapraszamy do zamieszczania ciekawych artykułów i zdobywania punktów, które możecie wymienić w sklepie internetowym lub "zmaterializować" w  gotówkę :)  Liczymy na świetne publikacje i wysoką jakość. miniRecenzje od A do Z
PORADNIK
Zobacz ostatnie MRM
minirecenzje miesiąca

 

Komentarze

120
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Bardzo fajny artykuł tylko do gwarancji wysłałeś GTX580 Lightning Extreme Edition a po 2 miechach dostałeś GTX580 Lightning czyli o 400zł tańszego i o 1,5gb gorszego zamiennika ja bym sie domagał zwrotu sprawnej karty takiej jaką wysłałem...
  • avatar
    Sugerowałem podobny test redakcji, a doczekałem się od użytkownika.

    Szymon, jeśli chcesz kontynuować wątek 'ograniczania' przez procesor to mam sugestię. Po zmianie platformy SB poza testami GTX580 i porównaniem do wyników z C2D przydałby się jeszcze jeden test. Jeśli będziesz miał możliwość w jakikolwiek sposób zdobyć kartę pokroju GTS 450 czy HD5750/70 to przetestuj i ją na nowym procesorze.

    Tym sposobem dojdzie do konfrontacji skrajnych konfiguracji:
    - mocna karta + słaby procesor
    - słaba karta + mocny procesor
    Wynik powinien być ciekawy i jednoznacznie pokaże co jest lepszym rozwiązaniem.

    Skoro GTX580 + C2D ma 25 klatek w Crysisie, czy prawie 40 w BF3, to jeśli sugerowana 'słabe karta' pomimo bardzo wydajnego procesora miała by mniej to może w końcu ludzie przestali by pisać mądre rady, że kupowanie mocnej karty nawet do względnie starego CPU nie ma sensu.
  • avatar
    bardzo ciekawa i konkretna recenzja, mnie sie podoba dlatego leci + .. i zupelnie nie kumam jak sie ludzie czepiaja o jakies bzdety , literowki etc oczywiscie poprawna polszczyzna wielce poządana ale to sa MINIrecenzje pisane przez amatorow i fanow sprzetu komp a nie redaktorow witryn komputerowych.
  • avatar
    Wszystko fajnie, ale trochę rozczarowuje brak odpowiedzi na pytanie czy procesor ogranicza kartę. Jak mniemam zrobisz to w następnej recenzji robiąc testy na Sandy Bridge, ale przydałyby się wyniki ogóle Twojego PC w benchmarkach, bo wyniki FPS nie oddzielają przecież karty od procka.

    Co do wpływu procesora na kartę graficzną to podejrzewam, że jednak jest, ale na ile jest on ważny to już inna sprawa. Jeśli chodzi o gry to najważniejsze jest to jak producenci podejdą do architektury gry - przykładowo Dragon Age ma wyraźnie zaznaczoną różnicę między wymaganiami min. a opt. - dwu i cztero-rdzeniowy procesor robi tutaj zapewne sporą różnicę, ale już np. nadchodzący ME 3 nie wymaga procesora czterordzeniowego, więc najwięcej dla komfortu grania powinna mieć do "powiedzenia" karta graf. Podobnie jest z FIFĄ 12 - teoretycznie z X1950gt powinienem mieć problemy, ale jako że mój obsługuje SM 3.0, nie mam problemu z graniem, natomiast w Virtua Tenis sobie nie pograłem, bo nie było sensu (C2D e6750, sapphire x1950gt 512MB 256bit).

    Więc czy warto inwestować w kartę graficzną - tak, ale nie najmocniejszą na rynku. Zawsze może się przydać w przyszłości obniżając koszty zakupu nowego pieca. A lepszy procek dla danej mocnej karty z pewnością nie zaszkodzi.
  • avatar
    Jest parę nieścisłości. Parę błędów - Jako że GTX580 doDarł... Lecz w moim odczuciu super, że podjąłeś temat. Recenzja solidna. Szkoda, że takie opóźnienie ale o tym za chwilę.

    Ja osobiście uważam, że powinno się kupować najmocniejsze karty, aby małą dopłatą do średniaka mieć spokój na dłużej. Miał byś inne podejście gdyby nie zawód jaki na pewno cię spotkał w związku z kartą.
    Masz szczęście, że 5850 nie skończył żywota na wideo z USB ;)

    A teraz trochę żalu: Ja rozumiem, że MSI jest sponsorem ale to chyba jakiś żart te 2 miechy. Na dodatek wróciła nie ta karta. Rozumiem, że to "za darmo" ale dla mnie sprawą honoru było by wymienić kartę na taką samą i uwinąć się szybciej. Widać komuś tu zabrakło jaj na męską postawę...
  • avatar
    1. szkoda ze test byl robiony na Radku seri 5... a nie 6.. po
    2. jak ktos ma gtx 580 to raczej juz ma 4 rdzeniowy monitor po
    3. Kolega mi mowil po co kupujesz tego gtx skoro i tak gry tego nie wykorzystaja, a jednak wykorzystuja. A co bedzie jak wyjdzie GTA 5 po
    4. procek na testach troche go zamulał bo sam mam gtx EVGA 580 procka I5-750 na 4GHZ 8 Gram i minitor 32 cale to w Bettlefield 3 wszystko na wysokie tylko tekstury i efekty na ultra mam srednio 78/80 klatek wiec procesor duzo daje
    5 Crysis 2 no na tym to juz troche nie wyrabial nie pamietam jakie mialem ustawienie ale na wysokich (nie na ultra) na mialem te 60 ale nie bylo tak stabilne jak lubie czyli 60+. Tak ze od ponad roku uwazam ze karty 1 gigowe to lipai niestety jak wyjdzie GTA 5 to nawet gtx 580 z1.5 g nie pomoze zeby grac na fulla
  • avatar
    Bardzo fajny artykuł, tylko zastanawia mnie dlaczego zamówiłeś podkręconego gtx580 skoro i tak ustawiłeś standardowe zegary:D
  • avatar
    Porządna recenzja choć nie idealna.

    Ale za tyle pracy żałosne 5 pkt? Co tak skąpo redakcjo?
    Tosz to naprawdę potężna recka na ciekawy temat.
  • avatar
    Odpowiedź na pytanie "czy warto" jest prosta.
    Wystarczy się zastanowić, czy twoje obecna karta odpala wszystkie interesujące cię gry w odpowiedniej rozdzielczości i ze wszystkimi wodotryskami bez zacięć. Jeżeli tak jest to zmiana ci się nie opłaca.
  • avatar
    Test interesujacy i daję szczerego plusa.
    Zgadzam sie jednak z przedmowcami, ze test nie do konca odpowiada na teze zawarta w temacie.
    W zasadzie teza powinna byc sformulowana nieco inaczej: "Czy raczej podstarzaly juz zestaw nalezy "upgradowac" o komponenty z najwyzszej polki pozostawiajac reszte bez zmian - na przykladzie 2 kart graficznych". Na taka teze test daje odpowiedz pozytywna z malym "ale". Jesli taki komponent bedzie w niedalekiej przyszlosci wzbogacony o kolejne "nowe" komponenty. Nowa karta graficzna niewatpliwie sprawila, ze Twoja konfiguracja jest "mocniejsza", ale, jak sam piszesz procesor masz obciazony na 100%, wiec GTX 580 jest zdecydowanie za mocny. Pytanie czy na HD5850 obciazenie procesora rowniez wynosi 100%; jesli tak to juz Radeon jest zbyt mocna karta do tego procesora.
  • avatar
    Niestety nie ma reguły, jedne gry wolą więcej rdzeni inne więcej MHz.
    Np. FPS w World of Tanks osiągają 125 i ogólnie lepiej mi się gra na C2D E8500 @ 3.8GHz + Radek 4850 niż na C2Q QX9650 @ 3.6GHz + Radek 6870 na którym FPS ledwo dobija do 80 a w trakcie rozgrywki odczuwa się "ociężałość", o tym że drugi zestaw jest cieplejszy nie wspominam.
    SWTOR tu z goła inaczej, 4850 niestety nie tylko w tej grze ma problemy z cieniami i trzeba je wyłączyć bo dobijają strasznie maszynę, ale po wyłączeniu cieni na obu zestawach gra wygląda i działa podobnie. Przynajmniej tak odczuwam ze względu na fakt iż jest to zupełnie inna rozgrywka, z naciskiem na pilnowanie timingów a nie na szybkie i dynamiczne akcje wymagające bardzo wysokiej płynności.
    Także odwieczne pytanie składacza komputerów jest nadal aktualne... co będziemy robić na kompie, od zarania dziejów utarło się że do pracy na dużych rastrach dużo pamięci a na wektorach mocny procek.
    Obecnie to samo można napisać o grach jedne zadowolą się 2 szybkimi rdzeniami a inne 20 wolnymi czasem na AMD pójdzie lepiej niż na Intelu, z grafiką to samo, czasem lepszy teoretycznie słabszy radek który w OpenGL bije na głowę mocniejszą nV a czasem słabsza nV wychodzi dużo lepiej od mocniejszego radka dzięki optymalizacji jaka jest robiona pod karty nV...
  • avatar
    Szymon jak dla mnie bardzo dobra recenzja. Potwierdzeniem tego może być twoja nagroda w postaci wypasionej karty graficznej. Czyż nie? :)
  • avatar
    Mining hardware comparison
    https://en.bitcoin.it/wiki/Mining_hardware_comparison
  • avatar
    Naprawdę Szymon331 bardzo dobrą robotę zrobiłeś i + leci. Warto też mieć więcej pamięci tak jak pokazałeś to w Crysisie 2.
  • avatar
    A tak w ogóle to dlaczego zgodziłeś się na wymianę w zasadzie lepszej karty na gorszą?
  • avatar
    Moim zdaniem nie warto wywalać tyle kasy np gtx 580 1700-2000zł skoro i tak w większości gier ta karta będzie miała wydajność z słabym procesorem np gtx 560 Ti lub niższą
    -1
  • avatar
    Dobrze, ze karta trafila do takiej ogarnietej osoby, ciekawie sie czytalo test, drobny blad tylko jest w obrazkach (brak BF3 sp 1080p) oraz w podsumowaniu drobna literowka "snady bridge" .

    Chetnie zobacze, jak wypadnie takie porownanie z nowa platforma ;)

    Co do AA w BF'3, normalne AA mozna olac (spore spadki wydajnosci) i dac tylko Post Antialiasing (FXAA), wyglada dobrze ;)
    -1
  • avatar
    Generalnie nie warto inwestowac w przestarzale technologie, a w obecnej chwili warto wstrzymac sie do czasu wypuszczenia palety kart w 28nm, moze bedzie ruch cenowy. Pewne jest, ze kupujemy nie tylko 28nm najnowsza technologie ale aktualne architektury, przygotowane pod nadchodzace gry, zwlaszcza Nvidia ma przygotowac mase nowinek pod obliczenia i gry, a jeszcze nie zdazyla puscic pary z ust, nad wyraz usmiechnietych ostatnio.
    -1
  • avatar
    Hm, ciekawa recenzja. W sumie pierwszy raz czytam o takim podejściu do tematu. Nieczęsto widzi się takie testy, szkoda że nie ma też testów z nowym procesorem, żeby pokazać czy wydajność GTX580 będzie widocznie uwolniona czy też nie.
    -1
  • avatar
    Szczerze, to nie czytałem jeszcze całości, ale póki co średnie wrażenie zrobił na mnie ten tekst. Przede wszystkim błędne założenie procedur testowych, tu nie chodzi o sieczkę, to mają być testy graficzne! Przy tym procesorze całkowicie wypacza to obraz wydajności kart. Więcej powiem, jak już przeczytam do końca.
    -3
  • avatar
    Miało być " wyniki ogólne".
    -5
  • avatar
    Odważę się napisać, że cała recenzja jest po prostu "nijaka" i jakby pisana na szybko. Jest trochę literówek, zdania są nie do końca przemyślane, kiepski spis treści (zbyt wiele informacji w zakładce "Komfort") no i ogólnie wiele rzeczy dot. obu kart graficznych nie powinno zostać porównane.

    "MINUSY WYMIANY KARTY" - każdy jeden argument mogę podważyć.

    Zresztą - nie tylko karta graficzna i procesor wpływają na wydajność całego komputera. Każdy jeden element jest ważny (nawet odtwarzacz / nagrywarka DVD). Niektórzy twierdzą, że warto dopłacić więcej do zasilacza kosztem innych elementów. Ja tego nie podważę.
    -5
  • avatar
    beka z ciebie, trzeba być kretynem aby testować gtxa 580 na takim gównianym procku
    takich core 2 duo byś musiał wsadzić 5 zeby wykorzystać w pełni gtxa
    -6
  • avatar
    A Pewnie wszystkie Gry prócz bf3 były pirackie smaruj dupę cebulą cbs w drodze
    -9
  • avatar
    Toć taką grafe jak 5xx to się wkłada ale pod I5 i I7 a nie zaledwie pod E8200 przecież to jasne, że są one ograniczone i to mocno.. dlatego dla mnie jest to bezsensowny test..
    -14
  • avatar
    Wyniki FPS nie ujawnia sedna problemu.
    Do niedawna posiadałem C2D E6300. Grafikę z początku miałem gf 7300gt, a później 9800gt.
    W Battlefield:BC2 na ostatniej konfiguracji było ponad 20fps na średnich detalach. Ustawienia grafiki mogłem zmieniać pomiędzy low i med ale to nie zmieniało tego, że miałem w multi opóźnienia. Występowało coś podobnego do lagów. Pomimo tego, że oba rdzenie pracowały na 100% nie wyrabiały w obliczeniach i obsługi transmisji sieciowej. Oczywiście lagi nie były związane z problemami z łączem.
    Po zmianie komputera okazało się jak płynnie BC2 może chodzić.

    Tak więc jasne, że zmiana karty graficznej daje dodatkową ilość fps, jednak nie zawsze odbija się to na płynności gry.
  • avatar
    Generalnie widze ze u ciebie jednak spowalnia karte .. patrzyłem sobie to np. na i7 3.2ghz i gtx 580 crysis 2 dx 11 wszystko ULTRA i Ful HD ,maja srednio po 43 do 45 klatek.. widac ze ty masz około 25 wiec nasuwa sie pytanie ze jednak TAK .. SPOWALNIA PROCEK U CIEBIE KARTE i np. na odwrot pewnie tez ;)
  • avatar
    Ale ten dżifors się nudzi w niektórych grach... aż mi sie smutno robi :) Masz +
  • avatar
    Mój konfig to:
    Cpu: Phenom II x4 955 @3.6 GHz
    CPU/NB: @2800
    Pmięci: 4 GB 1600 MHz 9-9-9-24
    Grafika: Radeona 6870 @940/1100 MHz

    Na tym sprzęcie BF3 w multi, Max detale, 1600x900 pix, AA OFF i Aniso x16: FPS utrzymywał się na poziomie 45-60 Kl/s, a mimo to miałem ścinki/lagi. Myślałem, że przyczyną jest procek, ale jego wykorzystanie nie przekracza 60-70%. Później podejrzenie padło na grafikę, a ona prezentuje zbliżona wydajność do twojego podkręconego 5850. Wtedy wpadło mi w ręce dodatkowe 8GB pamięci RAM i okazało się, że przyczyna ścinek/lagów leżała właśnie tutaj. BF3, crysis 2 też potrafiły zapchać całą pamięć operacyjną. Po zamontowaniu 8 GB problem niemal nie występuje :)

    Dowodzi to tylko jednej rzeczy. Mianowicie tego, że każdy podzespół komputera ma mniejszy lub większy wpływ na wydajność.

    Co do samej recenzji, to bardzo podoba mi się podjęty w niej temat, choć nie do końca odpowiada ona na zadane pytania. Spowodowane jest to brakiem porównania do mocniejszego procesora. Myślę jednak że gdy zmienisz już platformę na pewno zamieścisz uzupełniający artykuł.

    Troszkę kuleje styl wypowiedzi, często zdarzają się powtórzenia i literówki. Występują tu również liczne błędy w szyku słów w zdaniach. Aczkolwiek nie są one bardzo uciążliwe.

    Ode mnie +++
  • avatar
    Szacun ca tą reckę. Ja generalnie czekam na (niezbyt odległy w czasie) przypływ gotówki i składam kompa dla rodziców do netu więc polecę "po taniości" jednak zanim przekażę im maszynę chciałbym zadebiutować w dziale mini recenzje. Generalnie mam ochotę sprawdzić platformę którą obecnie dysponuję:

    Athlon x2 5600+ windsor nie kręcony
    2x2GB GoodRamm ddr2 800
    radeon hd4870

    I porównać jak będzie wyglądała wydajność w benchmarkach (czy to syntetykach czy to z gier) w przypadku gdy tę grafikę wrzucę do konfiguracji:

    celeron g530 (pocięty sandy bridge)
    2x2GB goodram ddr3 1333 (obniżę timingi bo celek obsługuje ponoć tylko 1066 MHz ale to już dokładne info w recenzji będzie)

    Osobiście śmię przypuszczać, że obecny procek nie pozwala karcie rozwinąć skrzydeł oraz że ten celeron będzie sporo wydajniejszy mimo jego niewygórowanej ceny.

    W związku z moimi planami proszę o feedback od was jakich benchmarków użyć (poza syntetykami i darmówkami używanymi do testowania w dziale "benchmarki") jednak zależy mi na tym, żebym nie musiał kupować gry na potrzeby testu tylko bardziej na benchmarkach które nie są na benchmarkowej witrynie używane a dostępne bezpłatnie. Czekam na sugestie. W przeciągu 2 tygodni będę miał sprzęt i zacznę coś testować ale proszę o cierpliwość bo dużo czasu wolnego niemam.

    PS. Będzie najważniejszy powód dla którego zdecydowałem się na platformę intela a mianowicie porównanie prądożerności.
  • avatar
    Ciekawe bo może nie mam monitora Full HD ale na 1680x1050 stary 3870 wyrabia we wszystkich gierach bez jakiegoś dyskomfortu. I tak sobie odkładam zakup nowej karty od czasu 4870... minęła seria 5xxx, 6xxx, teraz wchodzi 7xxx a tu jakoś nic mnie nie może przekonać do tego aby mieć więcej niż te 30fps...
  • avatar
    Świetna m-r, potwierdziła całkowicie tezę, że wymagania gry są najważniejsze, a procesor sam z siebie nie ogranicza grafiki. Oczywiście, czasami jest znikomy przyrost, ale to ze względu na to, jak napisana jest dana aplikacja.

    Ode mnie zasłużony +
  • avatar
    Nie wiem czy ten artykol wniosl jakies rewelacje co do teorii waskiego gardla, ale na pewno wiele powiedzial o serwisie msi.
    Ja bym podziekowal, uwazam ze zasada jest jedna : "Jak bym chcial bez frytek to bym powiedzial -poprosze bez frytek nie !!!"
    Ale to tylo moje zdanie. Pozdrawiam.
  • avatar
    OMG, GTX 580 do takiego proca?? Wow, just wow.
    ''czasami mała różnica w wydajności względem różnicy w cenie''
    Daj tej karcie chociaż Phenom'a II X4/X6 @ 4.0GHz+ (albo Corei5,7) a zobaczysz ''różnicę'', albo nawet ją ''poczujesz'' ;-)
  • avatar
    Ja tak miałem z fallout 3 i New Vegas.
    W tedy MSI gtx460 768mb i AMD 9550 x4. Nie zależnie od detali średni FPS to 25. Dopiero gdy przesiadłem się na i5 2400 wskoczyło pełne 60.
  • avatar
    Ja w swoim komputerze (C2D E4600, 4Gb Ram, HD3650) dokonałem ostatnio wymiany grafiki na HD6770 i różnica jest ogromna w grach... np Wiedźmin 2 uruchamiał się tylko na min... po zmianie karty przeszedłem grę w 1680x1050 z ustawieniami na high/very high i żadko kiedy coś przycięło... póki co nie trafiłem jeszcze na grę w którą by się nie dało grać komfortowo w tej rozdzielczości na high... wiem że procesor ogranicza kartę bo mam wyniki w 3dmarkach dużo mniejsze niż powinny być ale póki wszystko działa mam to gdzieś! :) kompa zmienie może za rok...
  • avatar
    Recenzja bardzo dobra jednak zarzucanie GTA 4 braku fizyki to przegięcie, oczywiście niektóre momenty są wyolbrzymione w celu podniesienia widowiskowości mimo to gra w niczym nie ustępuje Bf3 w którym są większe pokazywane większe niedorzeczności niż spektakularne skoki motocyklowe.

    To tylko mały pokaz fizyki GTA :
    http://www.youtube.com/watch?v=dBCIgBnhY_E&feature=player_embedded



  • avatar
    Wiecie czego brakuje mi w tym teście? Informacji, która gra jest wspierana przez jakiego producenta. Bo sterowniki dużo dają.
  • avatar
    Ja miałem w stary kompie Athlona X2 5600 2.9 Ghz i wsadziłem radka HD 5770 i był wzrost wydajności względem starego geforca (nie pamiętam już co to za model) ale szału wielkiego nie było dopiero jak wymieniłem całą platformę na AM3 z prockiem Phenom II x6 1090T zobaczyłem znaczny wzrost wydajności radeona HD5770 mimo iż grałem w rozdzielczości 1440x900 bo miałem tylko 19 calowy monitor, więc słaby (stary) procesor będzie mocno ograniczał super wydajną grafikę z górnej półki. Trzeba by dobrze przemyśleć czy jest sens wydawania sporo kasy na super grafikę czy lepiej wymienić platformę i włożyć grafikę z średniej półki cenowej.
  • avatar
    ja również miałem okazje sprawdzić na własnej skórze jak to jest mając słaby procesor i dobrą kartę graficzną u mnie było to amd athlon x3 425 @3550mhz i radeon 6870 GPu 1000mhz pamięć 5000mhz, skończyło się na sprzedaży athlona szybkim zamówieniu nowego procesora amd phenom x4 955 be i podkręceniu go do 4240mhz zaczęło wszystko działać tak jak powinno praktycznie wszystkie nowe gry dostały niezłego kopa ,wydajność bardzo wzrosła względem starego procesora [ karta się marnowała przy starym procku nie po to wydałem kase na nowa kartę że by dalej mieć problemy z grami dziwne spadki w fps i wykorzystanie karty na poziomie 50-70% a teraz 80 -99 przeważnie jest 99%] dla mnie to głupota kupowanie karty za ok 2000zł do takiego procka jaki posiada autor recenzji przecież to jest 3x więcej niż jego poprzednia karta radeon 5850 a wydajność tylko niewiele wyższa
  • avatar
    Według mnie lepiej byłoby porównać radeona hd 5850 do innego silniejszego radeona. Wykluczylibyśmy wtedy wpływ przystosowania sterowników do danych benchmarków, gier.

    Co do ograniczania karty graficznej przez procesor to podam mój przykład.

    intel core 2 duo 6750 @3.2, geforce 8800 gtx 768MB zmieniony na radeona HD6850, 4 X 1GB ram 800Mhz.
    Na starym geforce 8800 gtx, w grach wymagających obciąźenie cpu oraz gpu ponad 90%. Po zmianie karty na radeona obciążenie procesora nadal ponad 90%, a gpu rzadko wskakuje ponad 60%.
    W grach brak spektakularnego przyrostu mocy.

  • avatar
    Recenzja bardzo dobra, jak najbardziej zasługuje na +. Szkoda, że karta którą otrzymałeś od benchmark.pl była uszkodzona i w dodatku dostałeś wersję 1,5 GB. Ale to i tak o wiele wydajniejsza karta od HD5850 a tym bardziej od mojego GTX'a 260 (chociaż nie narzekam) : )
  • avatar
    Test do MP zrobilbym w metrze , zaraz po pierwszych Mcomach.
    Całośc miło się czytało , szkoda że ten gtx taki drogi :)
  • avatar
    Wszystko fajnie tylko ze taki GTX 460 przykładowo to 550 zł a na allegro jeszcze taniej natomiast taki gtx 580 to 1600 zł czyli 3 razy drożej i chodź czasem potrafi być 2 razy szybszy to ze względu na cenę nie jest opłacalny.
  • avatar
    Ciekawa recenzja, szacun za poświęcony cza! Gratulacje :D
    +++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  • avatar
    Wracając do sterowników to moim zdaniem nie mają aż tak dużego wpływu na wydajność w grze (znacznie więcej FPS) mam przykład na BF3 i moim HD6970 wcześniej grałem na starszych sterownikach potem po premierze gry ati wydało oficjalne niby pod BF3 (zoptymalizowane) potem kolejne nowe i kolejne i powiem waż że między tymi starymi (nie pamiętam numerka) a obecnie najnowszymi nie widzę ani nie odczuwam jakiejś różnicy czy znacznego wzrostu FPS. Prędzej jakiś patch od twórcy gry by poprawił wydajność w grze niż same sterowniki od producenta karty, a swoją drogą to już niedługo będziemy mieli do każdej gry specjalne sterowniki bo chyba to w tym kierunku zmierza dla mnie to śmieszne bo nie będę przeinstalowywał z 3 razy dziennie stery od grafy bo windows by tego nie wytrzymał ani miesiąca chyba hahahah
  • avatar
    Bardzo dobra recka, przyjemnie się czytało. Czekam na porównanie z nową platformą.

    "Przy okazji testów w Crysis 2 postanowiłem sprawdzić pewien od dawna interesujący mnie szczegół. Ile pamięci graficznej potrzebuje Crysis 2 po uruchomieniu go z teksturami wysokiej rozdzielczości i w najwyższym możliwym trybie graficznym. Jako że sterowniki nVidii umożliwiają monitorowanie tego parametru nie omieszkałem tego sprawdzić."

    Jak włączyć to monitorujące okienko?
  • avatar
    Bardzo ciekawy artykuł. Przyda się na przyszłość ;)

    Oczywiście leci +
  • avatar
    Punkt w gore dla ciebie ... Swietna robota !!! Pozdrawiam
  • avatar
    Test bardzo ładnie wykazał, że do szybkich kart graf. jest wymagany jak najlepszy procesor. Widać to zwłaszcza po wynikach Battlefield 3 i Crysis 2, gdzie wydajność GTX 580 była wyraźnie hamowana.
  • avatar
    Świetna recenzja. Bardzo obiektywna. Wielu ludzi ma jeszcze stare C2D.
  • avatar
    Mam obie karty w domu akurat, i widać, że ewidentnie gtx580 jest hamowany przez procesor. Nawet stockowy i5 760 na 2,8ghz był czasem zbyt wolny, dopiero jak podkręciłem procesor w granice 3,6ghz-3,8ghz karta chodzi na full. W BF3 mogę grać na ultra w multi spokojnie, fps nie spada poniżej 30fps nigdy, średnio jest 50 lub więcej. W każdym razie dobra recenzja :)
  • avatar
    Porownanie swietne... moze sam sproboje zrobic 2 czesc swojej recki 2x4 vs 4x2 tyle ze z ostro wykręconym 460 i w nowszych tytułach... kto jest za?:D
  • avatar
    Uważam, że tutaj bardzo dobrze sprawdził by się test, przy którym do zestawu wsadzano by kolejne CPU i zrobiono wykres zależności klatek od klasy procesora. Karta grafiki może być wtedy średniej klasy, aby nie badać wydajności CPU, tylko "teren przejścia". Tyle, że to robota na tygodnie dla redakcji, nie dla jednego użytkownika. Dobra recenzja. Choć nie wyjaśnia skali problemu, ale to wina zbyt małej próby sprzętu.
  • avatar
    "Np. FPS w World of Tanks osiągają 125 i ogólnie lepiej mi się gra na C2D E8500 @ 3.8GHz + Radek 4850 niż na C2Q QX9650 @ 3.6GHz + Radek 6870 na którym FPS ledwo dobija do 80 a w trakcie rozgrywki odczuwa się "ociężałość", o tym że drugi zestaw jest cieplejszy nie wspominam."

    chyba żartujesz? Mocniejsza karta i 200mhz mniej na rdzeniu i taka różnica??? Coś mi tu nie gra.
    Nawet mój e8400@4-4,2Ghz nie zapewnia takiej płynności jak pełny Q9XXX z 12 mb.
  • avatar
    Witam - bardzo ciekawy artykuł. Przeczytałem go bo akurat taki temat jest mi teraz bliski. Jednak po przeczytaniu nie do końca dostałem odpowiedź czy taki procesor stanowi problem?

    Jestem przed zakupem nowej karty graficznej. Moja obecna konfiguracja to:

    Intel core 2 duo e6750 2.66GHz
    płyta główna ASUS ASUS P5N32-E SLI
    ASUS EN8800GTX 768 MB
    4x1GB DDR RAM 800 Mhz Geil
    Monitor iiyama ProLite B2403WS (z reguły gram w rozdzielczości
    1920×1200 (16:10) )

    Do tej pory śmigały mi wszystkie gierki - niestraszne mu były oba Crisisy, Metro 2033, GTA IV i inne wymagające gierki nawet obecnie BF3 śmiga aż miło. Niestety karta zaczyna mi się palić tzn osiąga temperatury 104 stopnie i jest to niepokojące. Nie pomogła zmiana pasty termoprzewodzącej ani całkowite odkurzenie kompa. Tak więc zapadła decyzja kupna nowej karty.

    Na uwadze mam model:
    ASUS ENGTX560 Ti DCII TOP/2DI/1GD5

    Pytanie brzmi czy opłaca mi się do takiej konfiguracji wsadzać taką kartę. Jestem świadom, że nie wykrzesam z niej 100%, ale czy porównując do obecnej konfiguracji zobaczę widoczny przyrost mocy?
  • avatar
    Oczywiście pamięć to DDR2 :P (gdzieś mi "2" zjadło)
  • avatar
    Objawem zbyt słabej karty graficznej w grach nie są zwiechy ale "zamulanie", czyli np. w przypadku takiej gry jak Cryis czy UT III kiedy będziemy chcieli obrócić kamerą to tu to tam za pomocą myszki, dostrzeżemy jak obraz ze spowolnionym tempem nadąża za wyznaczonym przez nas punktem. Idzie to płynnie ale się ciągnie niczym gumka do włosów, gdyż grafika chcąc wyświetlić to co my chcemy w czasie rzeczywistym musi wszystko ponakładać na nasz monitor w danej rozdzielczości, a dla niej to bardzo wymagające i żmudne zadanie. Inaczej jest kiedy słaby jest procek. Wtedy są pokazy slajdów, nawet gdy mamy dobrą kartę graficzną to piękne tekstury w grze będą wyświetlane niczym pokaz kadr po kadrze. Czemu się tak dzieje ?
    Ano dlatego że CPU odpowiada za grafikę wektorową, odpowiedzialną za "szkieletową" budowę obiektów niczym figur geometrycznych najpierw obliczanych a potem tworzonych w czasie rzeczywistym. To co na monitorze widzimy to tak naprawdę płaski obraz a nam się tylko wydaje że są one w 3D.
    Gdyby gry nie były oparte na karcie graficznej a semym CPU - wyglądały by mnie więcej tak: http://www.qweas.com/downloads/graphic/cad/scr-point-cloud-for-autocad.gif

  • avatar
    Jednak ja bym 5850 nie wymieniał narazie gdybym ją miał :D
  • avatar
    Jak dla mnie art swietny. Ale co prawda to prawda ja bym też HD5850 nie wymienił tylko zainwestował w PII 955/960 a przy takim budżecie nawet na i5 2500K może by się zmieścił i ciekawe co by dało większego kopa w nowych produkcjach.
  • avatar
    Jak dla mnie art swietny. Ale co prawda to prawda ja bym też HD5850 nie wymienił tylko zainwestował w PII 955/960 a przy takim budżecie nawet na i5 2500K może by się zmieścił i ciekawe co by dało większego kopa w nowych produkcjach.
  • avatar
    Miałem do niedawna GTS 250 512 na Ath X64 4400 2.3 Ghz. Po przesiadce na i3 2120 doznałem szoku jak dobrze jeszcze radzi sobie ta karta. Wysłużony Athlonik nie dawał rady.
    Teraz do i3 kupiłem używanego 5850 za 450 zł i jestem szczęśliwy.
    Do gier (np. GTA IV, NFS The Run, Crysis 2, Battlefield 3) Nie potrzeba mi nic więcej.
  • avatar
    Witam ! Obecnie mam Core2 Duo E6750 2GB Ram DDR2 800 i GeForce 8800GT. Jestem zadowolony lecz odczuwam pewne braki ponieważ np w Wiedźminie 2 przy minimalnych detalach i 1024x768 (17-no calowy monitor) mam średnio 22FPS. A Crysis 2 średnio 27FPS przy minimalnych. Czy ma sens wymiana karty tak aby nie ograniczał jej procesor ? Czy lepszy jakiś średni model np. HD6850 ? Myślałem również o HD6770. Co o tym sądzicie ?
  • avatar
    Fajnie się czytało :D