Driver Overhead – mit, czy faktyczny problem starszych komputerów?
Karty graficzne

Driver Overhead – mit, czy faktyczny problem starszych komputerów?

przeczytasz w 11 min.

Driver Overhead to ciekawe zjawisko, dzięki któremu karty graficzne AMD mogą zyskiwać w oczach budżetowych graczy. Do tego stopnia, że zakup tańszego Radeona będzie bardziej zasadny niż droższego GeForce’a.

Starsze komputery gamingowe mają poważny problem i jest to rok 2024. Minione dwanaście miesięcy roku 2023 nie rozpieszczało graczy, bo dostaliśmy sporo gier drastycznie zwiększających wymagania względem CPU i GPU. Atmosferę podgrzewała również dyskusja wokół domniemanego końca przydatności układów graficznych posiadających 8GB pamięci VRAM. Później Alan Wake 2 podniósł poprzeczkę wymagając obsługi mesh shaders, rozkładając tak na łopatki masę popularnych kart graficznych.

Powiedzmy, że chcecie przygotować się na ten rok poprzez doinwestowanie wysłużonego zestawu komputerowego. Nie jest on pierwszej młodości, ale mimo wszystko wciąż ma potencjał. Pewnie pierwsze po, co sięgnięcie to nowa karta graficzna. Teoretycznie to prosty sposób na osiągnięcie satysfakcjonujących rezultatów. W efekcie kupujecie najszybszy układ graficzny w dostępnym budżecie i pewnie będzie to sprzęt Nvidii. Decyzja w pełni zasadna. Choć co jeśli powiem, że może odbić się czkawką? Czy to możliwe, że wybór słabszej karty graficznej jest lepszym kierunkiem?

Co to jest driver overhead?

Większość czytelników portalu Benchmark zdążyła pewnie już usłyszeć, co to jest bottleneck, czyli  tzw. „wąskie gardło”. Zagadnienie wałkowane jest od lat choćby na naszym forum. W skrócie mówimy o ograniczaniu karty graficznej przez procesor bądź na odwrót. Dochodzi do tego, gdy mamy wolny procesor, który musi gonić za wydajną kartą graficzną i vice versa. Oczywiście bottleneck występuje także z powodu innych podzespołów w komputerze. Nawet monitor potrafi stanowić bottleneck, gdy posiadacie naprawdę szybki układ graficzny. Słowem jest to całkiem pojemny termin.

Bottleneck po stronie CPU objawia się tym, że nieważne w jak szybką kartę graficzną zainwestujemy w danej rozdzielczości i detalach nie przeskoczymy pewnego pułapu klatek. Oczywiście działa to w obie strony, co idealnie ilustruje graf zapożyczony z kanału Hardware Unboxed. Karta RX 5600 XT jest na tyle „wolna”, że nie widzimy kolosalnej różnicy między Ryzen 5 1600X a dużo młodszym Ryzen 5 5600X, choć występuje między tymi procesorami generacyjna przepaść. Realne różnice między nimi świetnie ilustruje test z RTX 3070.

driver overhead hardware unboxed
Rozdzielczość 1080p i detale medium są scenariuszem, gdy przerzucamy więcej pracy na procesor. Jednocześnie dzieje się coś ciekawego. Starsze (słabsze) Ryzeny z kartą pokroju RX 5600 XT albo 5700 XT są szybsze niż w parze z RTX 3090. Źródło: Hardware Unboxed - YouTube.

A co, jeśli powiem wam, że Radeon RX 5600 XT może być szybszy w grach nie tylko od 3070-tki, ale także RTX 3090? Brzmi nieprawdopodobnie (wręcz absurdalnie), ale tak jest, co ponownie pokazuje zapożyczony wykres. Jest to problem znany pod hasłem driver overhead. Oznacza on tyle, że sterowniki Nvidii wymagają więcej pracy od procesora niż sterowniki graficzne AMD. Staje się to szczególnie ewidentne w tytułach wykorzystujących API DirectX 12 oraz Vulcan, a zatem optymalizowanych pod procesory wielowątkowe. Gdy rdzeni zaczyna nam brakować, szczególnie jeśli wciąż bazujemy na słabym IPC (starszej generacji), napotykamy wtenczas pewien problem.

driver overhead hardware unboxed
Podkręcamy rozdzielczość i wszystko wraca do normy, acz rezultaty dla RTX 3090 nie są powalające. Niestety bottleneck'u po stronie CPU nie przeskoczymy. Źródło: Hardware Unboxed - YouTube.

Kanał Hardware Unboxed temat driver overhead poruszył nieco ponad dwa lata temu. Od tamtej pory zagadnienie to jest dość rzadko przytaczane na portalach skupiających entuzjastów PC. Z tego tytułu postanowiłem sam przyjrzeć się temu problemowi. Nie sięgnę jednak po procesor AMD a po konkurencyjnego Intela.

Czy procesor Quad Core daje radę? Bierzemy na warsztat Core i7-7700

Swoje eksperymenty zrealizuję na procesorze Intel Core i7-7700, którego premiera miała miejsce w 2017 roku. Jest to jednostka posiadająca cztery rdzenie fizyczne i osiem logicznych. Wbrew niektórym opiniom wciąż radzi sobie bardzo dobrze w wielu tytułach, szczególnie gdy postawimy głównie na rasteryzację. Ray tracing w nowościach zaczyna być trochę ponad siły tego procesora. Odpowiednikiem tej jednostki będzie także szybszy i młodszy Core i3-10100 o identycznym układzie rdzeni. Postawiłem na i7 ze względu renomę i popularność jednostek Quad Core z hyper threading a model 7700 będzie tzw. best case scenario dla tego typu starszych procesorów.

karty graficzne

Na warsztat wziąłem trzy karty graficzne. Pierwszą będzie GeForce RTX 3070, bo na rynku wtórnym stanowi łakomy kąsek. Drugą jest GeForce RTX 4060 reprezentujący współczesny segment budżetowy, plus kosztuje mniej więcej tyle, co używane 3070. Ostatnią będzie Radeon RX 5700, za którego zapłacimy 1/3 tego, co trzeba przeznaczyć na karty GeForce. Tu i tam czasami wystąpi też gościnnie GTX 1080 Ti. W swoich testach skupię się na rozdzielczości 1080p i 1440p. Ponieważ Radeon nie wspiera śledzenia promieni pominę go w moich testach.

Pomiary realizowałem w popularnych tytułach wieloosobowych oraz kilku grach dla pojedynczego gracza (nowszych i starszych), stawiających pokaźne wymagania przed sprzętem mającym już swoje lata. Wyniki, które uzyskałem miejscami były dość zaskakujące. Warto wziąć też pod uwagę, że główne trio użytych kart posiada 8GB pamięci VRAM.

Platforma testowa

  • Procesor: Intel Core i7-7700
  • Płyta główna: MSI Z170A Tomahawk
  • RAM: HyperX 16GB DDR4 3200MHz
  • SSD: WD Blue 1T SATA M.2
  • Obudowa: NZXT H510 Flow
  • PSU: NZXT C850 Gold
  • System: Windows 10

Zacznijmy od postaw, czyli szybki test syntetyczny

W tym celu do pracy zaciągnąłem Heaven Benchmark. Jest on wiekowy, ale do naszych celów pasuje idealnie. Chcemy sprawdzić wyłącznie moc obliczeniową na bazie rasteryzacji, widząc tak jak na dłoni, który przedział wydajności zajmuje dane GPU. Heaven bazuje na DirectX 11 i zasadniczo nie angażuje CPU, zatem identyczne wyniki uzyskamy w każdym dowolnym PC z dużo mocniejszym CPU.

Unigine Heaven Benchmark 1080p (DX11, AAx8)
[punkty] więcej = lepiej

GeForce RTX 3070 4213
GeForce GTX 1080 Ti 3789
GeForce RTX 4060 2834
Radeon RX 5700 2466

Unigine Heaven Benchmark 1440p (DX11, AAx8)
[punkty] więcej = lepiej

GeForce RTX 3070 2795
GeForce GTX 1080 Ti 2398
GeForce RTX 4060 1687
Radeon RX 5700 1531

Bez niespodzianek, Radeon zajmuje najniższą pozycję. Acz trochę zaskakujące, ale między RTX 4060 a RX 5700 nie ma aż tak dużego przeskoku. Natomiast RTX 3070 to zupełnie inna liga. Powyższy rezultat traktujcie jednak z dystansem, choćby ze względu na wynik osiągnięty przez GTX 1080 Ti, co zaraz potwierdzi test praktyczny.

Counter-Strike 2

Flagowy tytuł Valve bazuje na nowym silniku graficznym, gdzie migrujemy z DirectX 9 na obsługę DirectX 11. Zdecydowałem się na detale wysokie. Core i7-7700 nie ma większych problemów z tą grą, zostawiając sobie jeszcze spory zapas mocy.

Counter-Strike 2 - 1080p (Detale: Wysokie; FSR: Off)
[punkty] więcej = lepiej

GeForce RTX 4060 198
98
GeForce RTX 3070 191
99
Radeon RX 5700 191
98
GeForce GTX 1080 Ti 171
83

W 1080p główna trójka wypada niemal identycznie, choć na czoło delikatnie wychodzi RTX 4060. Różnice stanowią minimalny margines, który nie ma większego wpływu na wrażenia z rozgrywki. 1080 Ti z tyłu (-20 klatek), ale to wciąż dobry wynik.

Counter-Strike 2 - 1440p (Detale: Wysokie; FSR: Off)
[punkty] więcej = lepiej

GeForce RTX 3070 198
93
GeForce RTX 4060 186
91
GeForce GTX 1080 Ti 185
91
Radeon RX 5700 175
83

W rozdzielczości 2560 x 1440 px karta RTX 3070 wychodzi na prowadzenie, ale pozostała dwójka jest tuż za nią. GTX 1080 Ti teraz wykręcił lepszy wnik niż w 1080p. Słowem w Full HD Core i7 stanowi wąskie gardło dla naszych zawodników. Możemy też zakładać, że dał o sobie znać driver overhead, bo jak inaczej wyjaśnić aż tak dobre wyniki RX 5700? W praktyce nie powinien być aż tak blisko GeForce RTX 3070, czy nawet 1080-tki.

Fortnite

Na mojej liście ląduje kolejna pozycja wieloosobowa. Mówcie, co chcecie, ale to właśnie Fortnite sprzedaje komputery gamingowe w każdym przedziale cenowym. Gramy w trybie performance wykorzystującym DirectX 11. Wszystkie detale poszły na low z wyjątkiem tekstur, plus zasięg widzenia ustawiałem na epicki. W taki sposób gra 95% fanów tego tytułu z konieczności pościgu za większa liczbą klatek na sekundę.

Fortnite - 1080p (Detale: low, Zasięg widzenia: Epicki, Tekstury: Wysokie)
[punkty] więcej = lepiej

GeForce RTX 3070 219
102
GeForce RTX 4060 180
90
Radeon RX 5700 151
92

W 1920 x 1080 px sprawność kart układa się w sposób, jaki większość z nas by przewidziała, acz ponownie nie są to kolosalne różnice między budżetowym RTX-em a Radeonem. Przynajmniej nie na tyle duża, aby uzasadnić sporą dopłatę do GeForce'a. Natomiast RTX 3070 wypracował dość sporą przewagę.

Fortnite - 1440p (Detale: low, Zasięg widzenia: Epicki, Tekstury: Wysokie)
[punkty] więcej = lepiej

GeForce RTX 3070 180
56
GeForce RTX 4060 154
76
Radeon RX 5700 132
87

W 2560 x 1440 px identyczna sytuacja. Fortnite to gra wyraźnie bazująca na potencjale procesora. Miałem okazję wykonać testy z Core i7-9700K i RTX 3060, gdzie ten duet w Full HD miał identyczny średni FPS, co duet 3070 z i7-7700.

Call of Duty: Warzone 2

Pierwszy Warzone cieszył się ogromnym zainteresowaniem wśród polskich graczy. Czy dwójka powtórzyła sukces poprzednika? Trudno powiedzieć. Jak na mój gust optymalizacja tej gry leży i kwiczy, bo działy się zaiste dziwne rzeczy.

Call of Duty: Warzone 2 - 1080p (Detale: b. wysokie, DLSS: off)
[punkty] więcej = lepiej

GeForce RTX 3070 67
45
GeForce RTX 4060 65
46
Radeon RX 5700 64
47

W Full HD wszystkie karty osiągnęły identyczny poziom wyświetlanych klatek. Procesor był obciążony przeważnie w 50% i podobnie obciążenie trzech kart nie przekroczyło 60%. W mojej ocenie na kartach GeForce nie dało się grać. Wartość 1% low na to nie wskazywała, ale 0.1% low już tak. Wyświetlany obraz był daleki od tego, co mógłbym nazwać płynnym. Dla kontrastu doświadczenie z użyciem karty AMD było nieporównywalnie lepsze, mimo że GPU nie działało na full swoich możliwości.

Call of Duty: Warzone 2 - 1440p (Detale: b. wysokie, DLSS: off)
[punkty] więcej = lepiej

GeForce RTX 4060 75
56
GeForce RTX 3070 71
52
Radeon RX 5700 66
48

W 1440p karty GeForce zyskały po dziesięć klatek ekstra, podczas gdy Radeon został na tym samym poziomie. Mimo tego wciąż gra z użyciem karty AMD była przyjemniejsza. Wypada też dopisać, że DLSS w ogóle nie pomógł RTX-om. Przeważnie fundował 5% ekstra do wyświetlanych klatek, ale nie niwelując przy okazji przycięć. Młodsze platofrmy ewidetnie radzą sobie lepiej w tej grze. Ogółem straszna padaczka ten Warzone 2.

Horizon Zero Dawn

Gra na platformie PC ukazała się w 2020 roku. Z tego tytułu postanowiłem dodkręcić detale na wysokie zamiast korzystać z "oryginalnych". W 1080p zaczynając od najsłabszej karty widzimy skok wydajności, co 15-20 klatek. Gra identycznie zachowuje się w 1440p.

Horizon Zero Dawn - 1080p (DirectX 12, Detale: wysokie)
[punkty] więcej = lepiej

GeForce RTX 3070 115
69
GeForce RTX 4060 98
65
GeForce GTX 1080 Ti 89
57
Radeon RX 5700 78
53

Z kartami GeForce obciążenie dla i7-7700 sięgało 80-90%, podczas gdy z Radeonem 55%. Rozgrywka z każdą kartą była płynna. Gdybym jednak miał drugi monitor a na nim działające aplikacje to sprawy mogłyby wyglądać nieco inaczej z Nvidią.

Horizon Zero Dawn - 1440p (DirectX 12, Detale: wysokie)
[punkty] więcej = lepiej

GeForce RTX 3070 97
54
GeForce RTX 4060 77
52
GeForce GTX 1080 Ti 74
45
Radeon RX 5700 62
47

W 1440p GTX 1080 Ti wykręca podobny winik do RTX 4060, natomiast w Full HD ląduje między 4060 a RX 5700 - względem każdej karty dzieli go dokładnie dziesięć klatek. Leciwy Core i7 radzi sobie całkiem solidnie z przygodami Aloy.

Marvel’s Spider-Man Remastered

Kolejny port z konsoli PlayStation 4, acz tym razem nowszy. Dla procesorów to bardzo wymagający tytuł, choć nasz Quad Core radzi sobie dzielnie. Najwidoczniej studio solidnie pochyliło się nad optymalizacją.

Marvel’s Spider-Man Remastered - 1080p (DirectX 12, Detale: Wysokie, DLSS: off)
[punkty] więcej = lepiej

GeForce RTX 3070 110
63
Radeon RX 5700 110
61
GeForce GTX 1080 Ti 107
62
GeForce RTX 4060 100
65

W Full HD i detalami wysokimi nasze trio (+ GTX 1080 Ti) osiąga identyczne wyniki. Z jednej strony to możliwy przejaw wąskiego gardła w postaci procesora (4060 vs. 3070). Jednocześnie daje o osobie znać driver overhead (świetny rezultat 5700). Obciążenie Core i7 z układami Nvidii nieustannie przekraczało 80%, podczas gdy Radeon dał nieco odetchnąć CPU, lądując w okolicach 70%.

Marvel’s Spider-Man Remastered - 1440p (DirectX 12, Detale: Wysokie, DLSS: off)
[punkty] więcej = lepiej

GeForce RTX 4060 112
65
GeForce RTX 3070 101
61
GeForce GTX 1080 Ti 94
53
Radeon RX 5700 84
56

Wyniki w rozdzielczości 2560 x 1440 px ewidentnie pokazują, że w niższym standardzie mieliśmy wąskie gardło. Widać też Pająk lubi młodszą kartę Ada Lovelace niż starszego i mocniejszego Ampere. Ciekawostka, GTX 1080 Ti osiąga 10 fps więcej niż Radeon i tylko 7 fps mniej niż 3070-tka. To ewidenty bottleneck po stronie CPU. Jeśli włączymy ray tracing bez DLSS wyniki między RTX-ami teoretycznie wracają do normy: 82 fps dla 3070 vs. 71 fps dla 4060. Niewielka różnica dziesięciu klatek to raczej dowód na generacyjne usprawnienia rdzeni tensor oraz (oczywiście) wąskie gardło po stronie CPU.

Wiedźmin 3: Dziki Gon Remastered

Wiedźmin to ciężki orzech do zgryzienia. Radeon w obu rozdzielczościach wykręciła niemal identyczny wynik. Stawiam, że to kwestia sterowników. Warto jednak zauważyć, jak nisko spadł RTX 4060 w 1440p, niemal do poziomu karty AMD.

Wiedźmin 3 Remastered - 1080p (DirtectX 12, Detale: Wysokie, RT: off)
[punkty] więcej = lepiej

GeForce RTX 3070 93
54
GeForce RTX 4060 81
53
Radeon RX 5700 65
51

Wiedźmin był testowany z detalami wysokimi. Ultra w odświeżonej wersji to trochę przesada dla RX 5700.

Wiedźmin 3 Remastered - 1440p (DirtectX 12, Detale: Wysokie, RT: off)
[punkty] więcej = lepiej

GeForce RTX 3070 72
41
Radeon RX 5700 61
51
GeForce RTX 4060 59
40

Shadow of the Tomb Raider

Wracamy na chwilę do roku 2018. Mimo wieku ostatnia część trylogii rebootu przygód Lary Croft wciąż potrafi przydusić procesory. Jest to szczególnie ewidentne, gdy porównamy lokację procesorową (miasto) z graficzną (dżungla). Z racji wieku grę uruchomiłem w detalach najwyższych. RTX 4060 pokazuje 14% różnicę między tymi dwoma typami lokacji. W podobnych ramach mieści się RTX 3070. Radeon RX 5700 w obu typach lokacji ma ten sam wynik klatek, co oznacza, że ogranicza nas już karta graficzna a nie procesor.

Shadow of the Tomb Raider - 1080p (DirectX 12, Detale: Ultra/Max, DLSS: off, RT: off)
[punkty] więcej = lepiej

GeForce RTX 3070 112
55
GeForce RTX 4060 108
61
Radeon RX 5700 95
61

W rozdzielczości 2560 x 1440 px RTX 4060 nie wykazuje różnic między dwoma typami lokacji, czyli trafiliśmy na jego górną granicę możliwości. Natomiast 3070-tka wciąż pokazuje 20-30% różnicy, co jasno sugeruje, że mogłaby skorzystać z mocniejszego CPU.

Shadow of the Tomb Raider - 1440p (DirectX 12, Detale: Ultra/Max, DLSS: off, RT: off)
[punkty] więcej = lepiej

GeForce RTX 4060 84
60
GeForce RTX 3070 82
48
Radeon RX 5700 66
51

Cyberpunk 2077

Na koniec narodowa duma w wersji 2.0. Grę uruchomiłem w detalach wysokich, bez żadnej metody upscalowania obrazu. Wypada powiedzieć, że obciążenie CPU przez większość czasu sięgało 90%. Najnowsza duża łatka podbiła trochę ogólne wymagania gry.

Cyberpunk 2077 - 1080p (DirectX 12, Detale: Wysokie, RT: Off, DLSS: off)
[punkty] więcej = lepiej

GeForce RTX 4060 84
60
GeForce RTX 3070 82
48
Radeon RX 5700 66
51

Cyberpunk 2077 rzuca spore wyzwanie Radeonowi. Chcąc przekroczyć magiczną barierę 60 klatek musimy redukować detale w 1080p. W rozdzielczości 1440p musimy zdecydować się nawet na daleko idące ustępstwa. Tutaj karta AMD raczej nie zyska dużo dzięki driver overhead.

Cyberpunk 2077 - 1440p (DirectX 12, Detale: Wysokie, RT: Off, DLSS: off)
[punkty] więcej = lepiej

GeForce RTX 3070 77
55
GeForce RTX 4060 53
38
Radeon RX 5700 38
33

DLSS rozwiązaniem problemu wąskiego gardła i driver overhead?

Możecie się spotkać z opinią, że skoro wydajność kart Nvidii nie jest satysfakcjonująca to, wypadałoby sięgnąć po DLSS 2.0. Jest to jednak mylne założenie. Metoda ta polega na tym, że GPU renderuje obraz w niższej rozdzielczości a dopiero niezależne rdzenie Tensor podnoszą ją do docelowej jakości. Skoro karta renderuje w niższej rozdzielczości jest ona mniej obciążona, przez co procesor jeszcze bardziej goni za nią musząc przetrawić więcej klatek.

Horizon Zero Dawn - 1080p (DirectX 12, Detale: Wysokie, DLSS: Quality)
[punkty] więcej = lepiej

GeForce RTX 3070 118
70
GeForce RTX 4060 116
70

Horizon Zero Dawn - 1440p (DirectX 12, Detale: Wysokie, DLSS: Quality)
[punkty] więcej = lepiej

GeForce RTX 3070 104
61
GeForce RTX 4060 93
62

Wiedźmin 3 Remastered - 1080p (DirtectX 12, Detale: Wysokie, RT: off, DLSS: quality)
[punkty] więcej = lepiej

GeForce RTX 4060 97
62
GeForce RTX 3070 95
58

Wiedźmin 3 Remastered - 1440p (DirtectX 12, Detale: Wysoki, RT: off, DLSS: quality)
[punkty] więcej = lepiej

GeForce RTX 3070 91
54
GeForce RTX 4060 78
50

Cyberpunk 2077 - 1080p (DirectX 12, Detale: Wysokie, RT: Off, DLSS: quality)
[punkty] więcej = lepiej

GeForce RTX 3070 88
61
GeForce RTX 4060 84
61

Cyberpunk 2077 - 1440p (DirectX 12, Detale: Wysokie, RT: Off, DLSS: quality)
[punkty] więcej = lepiej

GeForce RTX 3070 88
61
GeForce RTX 4060 84
61

Posłużyłem się DLSS w trybie Jakości (Quality). Moja teoria sprawdziła się w przypadku RTX 3070 w rozdzielczości 1080p. Jeśli idzie o RTX 4060 bywa różnie, bo usprawnia generacyjne rdzeni Tensor dają o sobie znać. W Cyberpunku zyski są niewielkie, podczas gdy Horizon zalicza całkiem sensowny skok wydajności, przez co układy GeForce lądują obok siebie. W 1440p wszystko wraca do normy, acz dla 3070-tki wciąż nie są to piorunujące skoki wydajności. W skrócie: karty chcą i mogę więcej, ale procesor nie wytrzymuje tempa.

Cyberpunk 2077 - 1080p (DirectX 12, Detale: Wysokie, RT: Off, DLSS: quality, Frame Generation: on)
[punkty] więcej = lepiej

GeForce RTX 4060 151
95

Cyberpunk 2077 - 1440p (DirectX 12, Detale: Wysokie, RT: Off, DLSS: quality, Frame Generation: on)
[punkty] więcej = lepiej

GeForce RTX 4060 103
85

RTX 4060 ma jeszcze asa w rękawie w postaci generatora klatek. W 1440p pozwolił dobić do stu klatek, podczas gdy w 1080p osiągamy równe 150, co jest godne podziwu. Pamiętajmy jednak, że grę odpaliliśmy „tylko” w detalach wysokich, bez śledzenia promieni. Włączając wszystko, co ma do zaoferowania Cyberpunk nasze wyniki szybko zanurkują w okolice naciąganych sześćdziesięciu klatek.

Zatem czy generator klatek w postaci DLSS 3.0 jest wart dopłaty tysiąca złotych względem RX 5700? Trudne pytanie. Na tę chwilę nie obsługuje go szeroka ilość tytułów, a do czasu popularyzacji generatora 4060-tka może być już układem niewystarczającym. Jednocześnie, jeśli interesuje Was głównie gra wieloosobowa odowiedź będzie jedna: nie ma sensu dokładać 1000 zł do RTX 4060 w przypadku budżetowego lub leciwego PC.

Pojedynek Dawida z Goliatem

Rozważania nad powyższymi testami muszę podzielić na dwie osobnę części. Pierw kilka słów o procesorze. Intel Core i7-7700 mimo sześciu lat na karku broni się dzielnie. W niektórych tytułach obciążenie sięgało 90%, ale rozgrywka wciąż zachowywała należytą płynność. Mimo tego, mijający rok sprezentował kilka pozycji jeszcze bardziej dokręcających śrubę. Zatem są to raczej ostatnie chwile, gdy mogę powiedzieć, że 7700 radzi sobie bez żadnego „ale”. Dotyczy to także i7-6700(K) oraz i7-7700K. Oczywiście chodzi mi głównie o tytuły spod znaku potrójnego A. Najpopularniejsze pozycje esportowe są cały czas w zasięgu tego procesora. Zależy, co preferujecie.

Niestety trzeba też jasno powiedzieć, że Core i7-7700 stanowi wąskie gardło dla większości nowoczesnych kart z segmentu budżetowego i średniej póki. Jeśli mieliście rozterkę między nowym RTX 4060 a używanym RTX 3070 i sięgnęliście po tę drugą kartę z racji jej ogólnej wyższej wydajności to nie zobaczycie wymiernych korzyści dopóki nie zmienicie całej platformy.

karty graficzne

Zjawisko Driver Overhead dało się poznać w grach wieloosobowych, gdzie faktycznie tysiąc złotych przepaści miedzy RX 5700 a obiema kartami GeForce potrafi zaboleć, gdy czasem zyskujemy raptem extra kilka klatek. Jeśli idzie o tytuły dla pojedynczego gracza z rozpasaną oprawą graficzną RX 5700 stanowi już pewnego rodzaju ograniczenie. Niemniej ogólne wrażenia są jednak bardzo dobre, a przepaść między kartami kruczyła się drastycznie zależnie od tytułu – świetny przykład Spider-Man. Generalnie takie przypadki nie są odosobnione i podczas modernizacji PC warto mieć to na uwadze.

Jak dla mnie Radeona RX 5700, który został wyciągnięty z koparki, sprawdził się na medal. Mam tylko jedno zastrzeżenie. Mianowicie przy włączonym odświeżaniu 165Hz pamięci karty w spoczynku działały z wysokim zegarem, przez co pobór prądu szybował w okolice 70W. Schodząc do 60Hz wszystko wracało do normy. Przez takie głupotki AMD niepotrzebnie naraża się na krytykę konsumentów. Mam też świadomość, że RDNA 1. gen nie obsługuje Mesh Shaders, przec co nie pogramy w Alan Wake 2. Kiedy zacznie to stanowić większy problem? Trudno powiedzieć, ale raczej wątpię, aby rok 2024 dał znaczący wysyp tego typu gier. Jest to zagadnienie warte opisania w osobnej publikacji.

Może czas już na kompleksową modernizację? 

Problem driver overhead dla kart Nvidii to nie żadna fanaberia fanów AMD. Generalnie karty Radeon są bardziej przyjazne dla maszyn o ograniczonej mocy procesora, acz teoretycznie kosztem mniejszego potencjału niż konkurencja, gdy mamy wystarczająco dobry CPU. Sterowniki Adrenalin rzeczywiście mniej męczą CPU, tylko nie popadajmy w skrajności. Nie wszystkie karty Radeon są odpowiednie dla starszych komputerów. Na przykład AMD RX 6500 XT korzysta z interfejsu PCI-Express 4.0 x4, co oznacza, że płyty główne obsługujące PCI-Express 3.0 lub starsze mogą ograniczyć wydajność karty, co zresztą było już wielokrotnie testowane i udowodnione.

Moja rada jest następująca: jeśli posiadacie podobny system, co użyty w testach z budżetową kartą generacji AMD Polaris albo Nvidia Pascal to RX 5700 będzie relatywnie tanią i udaną ścieżką modernizacji. Jeśli jednak możecie i zastanawiacie się, czy wydać tysiąc złotych więcej na kartę Nvidii, bo ma taką lub inną formę DLSS, to odradzam zakup. W tym przypadku bardziej zasadnym będzie sprzedanie posiadanego PC lub chociaż wymiana platformy na dużo młodszy procesor i kartę np. pokroju RTX 3060 (Ti) lub jej odpowiednik o zbliżonych możliwościach. W nowościach uzyskacie lepsze rezultaty, plus będziecie mieć święty spokój na kolejnych kilka lat.

Komentarze

18
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    antytalent
    3
    Dziwne to jest bo dotąd to sterowniki AMD były uważane za bardziej obciążające procesor. A tu nagle odwrotnie. Chyba to zależy od tego kto płaci za testy.
    • avatar
      digitmaster
      2
      Tutaj pojawia się główna siła platformy AMD. Żywotność podstawki oraz chipsetu sprawia, że modernizacja nawet starszej maszyny (3-4 letniej) o lepszy procesor i lepszą grafikę pozwala na osiągnięcie dużego wzrostu wydajności oraz całkiem przyzwoitych osiągów względem wydanych środków. Okazuje się bowiem, że wydając 600-1000 zł na używane podzespoły można osiągnąć dwukrotny wzrost wydajności w grach.
      • avatar
        andrezkamotu
        0
        "Przeżucamy", "chociarz"... Kiedy Pan Redaktor miał ostatnio słownik ortograficzny w łapkach?
        • avatar
          MokryN
          0
          Nareszcie porządny artykul.
          • avatar
            First-Ever
            0
            Wybaczcie, ale cały ten test jest dla mnie do du**, ponieważ brakuje rozdzielczości 4K w ultra detalach. Sam mam platformę z 2011 roku i RTX 4070 Ti i na porządznie zoptymalizowanym systemie znalazłem się w pierwszej 100-ce wyników z RTX 4070 Ti w teście 3DMark Speed Way (tak to benchmark typowo GPU, ale pokazuje, że w grach stary CPU nie musi być ograniczniem).
            • avatar
              guru43
              -1
              PrzeŻucamy się chyba na inny portal, bo tam chociaRZ nie popełniają tak rażących błędów ortograficznych...
              • avatar
                piterk2006
                -3
                A czemu porównujecie słabe radeony do mocnych geforce?
                Przecież jak chcecie takie porównanie to trzeba porównać mocne amd do mocnych nvidia - wówczas będzie można zobaczyć na której wydajnej karcie słaby procesor poradzi sobie lepiej.
                • avatar
                  PITUCH3
                  0
                  to może w inna mańkę, ten sam sprzęt, leciwy 5+ lat, gra 5+ lat
                  , ta sama gra, stery premierowe na wydanie gry.
                  stare stery vs nowe stery !!!
                  i zadajcie sobie pytanie, dlaczego musimy !!!! kupic nowszy sprzet
                  ten sam laptop, z hdd (5400rpm) i 1 wersja win 10
                  ten sam laptop + ssd , ostatnia wersja win 10
                  ten sam lap z w7 przed i po aktualizacjach, :P
                  ktoś się odważy ?
                  potem walvie farmazony
                  bottleneck
                  Driver Overhead
                  • avatar
                    vacotivus
                    0
                    To nie jest dobry test overheadu. Test z HWUB jasno rozróżnił wydajność poszczególnych procesorów na kartach, ten test nie. Poza tym przydałoby się pokazać różnice pomiędzy wersjami sterowników na tej samej konfiguracji.

                    Po przeczytaniu tego testu nie dowiedziałem się niczego, czego już wcześniej nie wiedziałem.
                    • avatar
                      Kawabonga
                      0
                      "Młodsze platofrmy ewidetnie radzą sobie lepiej w tej grze. Ogółem straszna padaczka ten Warzone 2." Nie Warzone2 padaczka tylko nvidia i jej sterowniki to padaczka XD. Karty AMD radzą sobie znakomicie w tym tytule .
                      • avatar
                        Trampek
                        0
                        To dlatego gdy wymieniłem 1050Ti na RX 5500 XT mój I5 4570 pracował na 90% i miałem stuttery w Wiedźminie 3 bez większego przyrostu FPS... Dobry artykuł, musze zagłębić temat.