To najbardziej bezsensowny test GeForce RTX 3080 jaki znajdziesz w internecie
Karty graficzne

To najbardziej bezsensowny test GeForce RTX 3080 jaki znajdziesz w internecie

Marcin Jaskólski | Redaktor serwisu benchmark.pl
49 komentarzy Dyskutuj z nami

Sprawdziliśmy działanie karty graficznej NVIDIA GeForce RTX 3080 z naprawdę słabym procesorem. Serio, to prawdziwy paździerz.

Dziś mała ciekawostka dla pasjonatów sprzętowych. Zadaliśmy sobie pytanie - jak bardzo mocna karta graficzna może być ograniczona przez procesor? W tym celu połączyliśmy NVIDIA GeForce RTX 3080 z... procesorem Pentium. I to nie byle jakim - chodzi o model z generacji Haswell (4-ta generacja Core), a konkretnie G3220 (2 rdzenie/2 wątki!) z pamięciami DDR3.

Lepiej mieć lepszy procesor, czy kartę graficzną?

To zależy oczywiście do tego, do czego ma służyć komputer. Zakładamy, że większość naszych czytelników buduje komputery na zasadzie złotego środka - tak, aby podzespoły wzajemnie się uzupełniały, a nie ograniczały. Słaby procesor będzie ograniczać działanie wydajnych kart graficznych w grach. Zajmuje się on przecież (między innymi) budowaniem geometrii scen i jeśli nie nadąża z robotą, karta graficzna będzie musiała na niego czekać.

Wiele zależy również od tego w jakiej rozdzielczości gramy i jaką ilość klatek na sekundę chcemy osiągnąć. Im niższa rozdzielczość, tym większy wpływ procesora na wydajność karty. Paradoksalnie więc, mniej wydajny procesor lepiej więc sprawdzi się w rozdzielczości 4K UHD, a nie FHD. Pytanie na dziś brzmi - jak bardzo słaby procesor potrafi spowolnić mocną kartę graficzną?

3D Mark Time Spy - Pentium i RTX 3080

3D Mark - Time Spy (DX12)
[punkty] wynik ogólny

GeForce RTX 3080 + Core i9 9900K 14865
NVIDIA GeForce RTX 2070 Super 9610
Sapphire Radeon RX 5600 XT Pulse OC 7887
GeForce GTX 1060 4643
GeForce RTX 3080 + Pentium G3220 4640

3D Mark - Time Spy (DX12)
[punkty] wynik układu graficznego

GeForce RTX 3080 + Core i9 9900K 16784
NVIDIA GeForce RTX 2070 Super 9419
GeForce RTX 3080 + Pentium G3220 8568
Sapphire Radeon RX 5600 XT Pulse OC 7515
GeForce GTX 1060 4207

3D Mark Fire Strike - Pentium i RTX 3080

3D Mark - Fire Strike (DX11)
[punkty] wynik ogólny

GeForce RTX 3080 + Core i9 9900K 30029
NVIDIA GeForce RTX 2070 Super 22025
Sapphire Radeon RX 5600 XT Pulse OC 19035
GeForce GTX 1060 11517
GeForce RTX 3080 + Pentium G3220 9346

3D Mark - Fire Strike (DX11)
[punkty] wynik układu graficznego

GeForce RTX 3080 + Core i9 9900K 42367
GeForce RTX 3080 + Pentium G3220 29033
NVIDIA GeForce RTX 2070 Super 24801
Sapphire Radeon RX 5600 XT Pulse OC 21740
GeForce GTX 1060 12648

Wszystkie pozostałe karty zostały przetestowane z procesorem Intel Core i9 9900K. Widzimy, że archaiczny (wręcz już muzealny) procesor potrafi solidnie zdławić działanie mocnej karty graficznej. Do tego stopnia, że duet Pentium Haswell + RTX 3080 w wynikach ogólnych potrafi osiągać gorsze wyniki niż Core i9 9900K + GTX 1060! Oczywiście jest to ekstremalny przykład i powinien być traktowany wyłącznie jako ciekawostka. Mamy nadzieję, że nikt (oprócz nas!) nie pokusi się o zbudowanie takiego zestawu.

Jak walczyć z bottleneckiem CPU?

Negatywny wpływ mało wydajnego procesora na kartę graficzną można zniwelować podkręcając go i stosując szybszą pamięć RAM. Stworzone przez AMD API Mantle posłużyło za podstawę Vulkan oraz DirectX12 i gry wykorzystujące te biblioteki również ograniczają narzut procesora. Posiadacze nowszych platform mogą skorzystać z opcji Smart Access Memory / Resize BAR Support, ale jak na razie opcja ta jest dostępna tylko dla Radeonów RDNA2 oraz GeForce RTX 3060 (pozostałe karty Ampere powinny dostać update VBIOS jeszcze w tym miesiącu). Pewnych rzeczy jednak nie da się przeskoczyć.

Jeśli połączymy bardzo słaby procesor z mocną kartą graficzną, to tak naprawdę pozostaje nam tylko wymienić go na szybszy model.

Jeśli i ktoś z was jest w posiadaniu komputera łączącego słaby CPU z mocnym GPU, niech nie zapomni podzielić się swoimi wrażeniami w komentarzach!

Może Cię również zainteresować:

Komentarze

49
Zaloguj się, aby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Lord_Krecitsqa
    Fajnie byłoby zrobić testy z 4790K a nie wykastrowanym z każdej strony procesorem.
    25
  • avatar
    Obiektor
    Taki test spoko ale bardziej bym zobaczyl z i7 2600 i 4770 gdzie nieraz idzie przeczytac w komentarzach ze dalej daje rade :D
    8
  • avatar
    fabik2
    E 8400 dał by radę
    6
  • avatar
    chotnik2
    Phi, ale test, nawet 1 gry nie odpaliliście na jakiś realny test. Amatorka, to jakiś blog czy co?
    6
  • avatar
    szymcio30
    Dla niektórych nie jest to oczywiste;)
    3
  • avatar
    Ahura
    spoko, przynajmniej uświadamia to zjadaczy chleba że w takim przypadku procesor ma znaczenia w grach. Ale co to zmienia? Itak zobaczą na allegro PROCESOR INTEL! GRAFIKA GIE-TE-IKS! DYSK TYSIĄC! I kupią.
    3
  • avatar
    Jarrod
    Ja mam podobnego frankensztajna. i5 4690K plus RTX2060, zwłaszcza w Cyberpunku widać że brakuje mocy procesorowi. OC za bardzo już tu nie pomaga. Zestaw lepiej też sprawdza się pod windows 10 niż 7 przynajmniej jeśli chodzi o wymienioną wcześniej grę.
    2
  • avatar
    ARTMAX
    Ostatnio kupiłem Pentiuma G3260, jako element ozdobny. Procesor z dwuletnią gwarancją kosztował mnie 15zł
    2
  • avatar
    Sander Cohen
    Coz. W sumie nie zdziwilbym sie gdyby taki procesor nawet dzis zawital do zestawu reklamowanego: "Szybki procesor Intel 3.0 GHz, Grafika nVidia GTX/RTX...". A później placz bo CS nie dziala (moze przesadzam, chociaz...).
    1
  • avatar
    poandy
    Posiadam 4690K(OC 4,5GHz)+1080 i nie jest tak źle aby wymieniać całą platformę .Od dłuższego czasu brak opłacalności do zysku i tu jest pies pogrzebany.
    1
  • avatar
    fonzie
    Ciekawe jak sprawdził by się mój e5-1620v3...
    1
  • avatar
    deseczka
    Z osobistych doświadczeń AMD 8320E bardzo ograniczał mi GTX1660Ti, po przesiadce na R5 3600 ogromna odczuwalna różnica w grach.
    1
  • avatar
    chotnik2
    Phi, ale test, nawet 1 gry nie odpaliliście na jakiś realny test. Amatorka, to jakiś blog czy co?
    1
  • avatar
    kombajn
    W pełni zgadzam się z autorem i jego własnymi słowami "To najbardziej bezsensowny test GeForce RTX 3080". Gdyby przedmiotem testu było skalowanie się wyników w grach zależnie od użytego procesora i zależnie od rozdzielczości i poziomu detali to byłby ciekawy artykuł a nie kompletna strata czasu.
    1
  • avatar
    hexon6
    Dobry test, ale było trzeba sprawdzić na najsłabszej jednostce z ostatniej generacji(Ryzen 3 3100/3300X albo I3-10100F). Szkoda, że nie ma jeszcze 5100/5300X. Brakuje również testu w grach(1080p, 1440p i 2160p)! Poprawcie to następnym razem.
    1
  • avatar
    Mario2k
    Już miałem zmieniać cepa na Ryzena 5900X ale padło na akwarium 300L z osprzętem :) teraz to już pewnie poczekam do Ryzen 5900X Refresh .
    1
  • avatar
    CrisPL
    Tak ten proc to tragedia. Żałuję, że do htpc wziąłem zamiast najmniej i3 4170.
  • avatar
    crreeyz
    czyli jak wymienie swojeko i5 4670K na i7 z 10 albo 11 generacji to przy swoim gtx 1060 powinienem się spodziewać przynajmniej 2 krotnego wzrostu wydajności w grach ?
  • avatar
    prznar1
    kuuuuuu..... procesor nie ogranicza karty... może być wąskim gardłem systemu. Co za patologiczne stwierdzenie, aż dziwne że wciąż powtarzane.
    -1
  • avatar
    Valmaris
    U mnie w maszynie jest M1
  • avatar
    konradkokosa
    Do absurdalnych pomysłów dołączam swój dowcip - kartę NVIDIA RTX 3080 z klocków Lego :) https://ideas.lego.com/projects/1e98b17e-838e-4a69-a161-24b7cbae6dcb
  • avatar
    Gadon
    Według mnie muzealnie to powinni wziąć jakiś Core 2 Quad :D np. Q6600
  • avatar
    maxbit
    a ja sobie wpisałem w allegro
    RTX 3080
    I wyjebałem w kosmos pierdonlnąłem i tak jebnąłem że do tej pory nie powstałem
    Ceny ? 10 12 13 tyś ?
    Co jest do Huja wacława ?
    Ja wiem że ten świat upada ale mam jakieś przekonanie (niepokojące) ze przyspiesza to w tempie wykładniczym
    Ale Chwila dlaczego te karty są tak drogie ?
    Nie produkują MyFriendy ?
    Nie
    To co jest ?
    Odpowiedź jest banalnie prosta uzysk z wafla w tych prawdopodobnie mocno naciaganych 10nm jest tak znikomy że wycinają po jednym chipie z wafla (dziś bodaj 450mm) i ... i trzeba zarobić wieć cena wywala w kosmos.
    Mało tego już dziś wiadomo że chipy te padają bardzo szybciutko tak wiec nie dość że zapłacisz pierdylion to jeszcze zdachnie ci twoja kartka ...

    Dlaczego ?
    Ano stało się to co lemsy uważały za nierealne i wierzyły oszustom pokazującym 7 5 a moze i 3nm ....
    Niestety lemsy nie ma żadnych 7nm to cyferka wam wciskana owszem prawdopodobnie zmniejszyli do 10nm (liczonych po staremu) ale uzysk nie istnieje wycina się same zwłoki
    Dlatego intel (wbrew ogólnikom jest tu choć pod tym kontem uczciwy) pisze o 14nm i od 7 lat (tak od 2014r) nie jest w stanie zejść do 10nm i nie jest to że nie chce nie może i doskonale wiedzą że nie ma sensu się kopać. Owszem testowo są w stanie w zasadzie na zasadzie eksperymentu wycinać bardzo małe chipy (bo wtedy to jedynie ma sens) i takie procesory czy inne (warunek) małe IC się pokazały.

    Tak tak .... mamy koniec rozwoju krzemu. I nie bedzie żadnych 7 ani 5 nm i nigdy ich nie było i nie ma.
    Dziękuję dobranoc.