Niewiarygodne jak słaby procesor ogranicza wydajną kartę graficzną!
Karty graficzne

Niewiarygodne jak słaby procesor ogranicza wydajną kartę graficzną!

przeczytasz w 2 min.

Sprawdziliśmy działanie karty graficznej NVIDIA GeForce RTX 3080 z naprawdę słabym procesorem. Serio, to prawdziwy paździerz.

Dziś mała ciekawostka dla pasjonatów sprzętowych. Zadaliśmy sobie pytanie - jak bardzo mocna karta graficzna może być ograniczona przez procesor? W tym celu połączyliśmy NVIDIA GeForce RTX 3080 z... procesorem Pentium. I to nie byle jakim - chodzi o model z generacji Haswell (4-ta generacja Core), a konkretnie G3220 (2 rdzenie/2 wątki!) z pamięciami DDR3.

Lepiej mieć lepszy procesor, czy kartę graficzną?

To zależy oczywiście do tego, do czego ma służyć komputer. Zakładamy, że większość naszych czytelników buduje komputery na zasadzie złotego środka - tak, aby podzespoły wzajemnie się uzupełniały, a nie ograniczały. Słaby procesor będzie ograniczać działanie wydajnych kart graficznych w grach. Zajmuje się on przecież (między innymi) budowaniem geometrii scen i jeśli nie nadąża z robotą, karta graficzna będzie musiała na niego czekać.

Wiele zależy również od tego w jakiej rozdzielczości gramy i jaką ilość klatek na sekundę chcemy osiągnąć. Im niższa rozdzielczość, tym większy wpływ procesora na wydajność karty. Paradoksalnie więc, mniej wydajny procesor lepiej więc sprawdzi się w rozdzielczości 4K UHD, a nie FHD. Pytanie na dziś brzmi - jak bardzo słaby procesor potrafi spowolnić mocną kartę graficzną?

3D Mark Time Spy - Pentium i RTX 3080

3D Mark - Time Spy (DX12)
[punkty] wynik ogólny

GeForce RTX 3080 + Core i9 9900K 14865
NVIDIA GeForce RTX 2070 Super 9610
Sapphire Radeon RX 5600 XT Pulse OC 7887
GeForce GTX 1060 4643
GeForce RTX 3080 + Pentium G3220 4640

3D Mark - Time Spy (DX12)
[punkty] wynik układu graficznego

GeForce RTX 3080 + Core i9 9900K 16784
NVIDIA GeForce RTX 2070 Super 9419
GeForce RTX 3080 + Pentium G3220 8568
Sapphire Radeon RX 5600 XT Pulse OC 7515
GeForce GTX 1060 4207

3D Mark Fire Strike - Pentium i RTX 3080

3D Mark - Fire Strike (DX11)
[punkty] wynik ogólny

GeForce RTX 3080 + Core i9 9900K 30029
NVIDIA GeForce RTX 2070 Super 22025
Sapphire Radeon RX 5600 XT Pulse OC 19035
GeForce GTX 1060 11517
GeForce RTX 3080 + Pentium G3220 9346

3D Mark - Fire Strike (DX11)
[punkty] wynik układu graficznego

GeForce RTX 3080 + Core i9 9900K 42367
GeForce RTX 3080 + Pentium G3220 29033
NVIDIA GeForce RTX 2070 Super 24801
Sapphire Radeon RX 5600 XT Pulse OC 21740
GeForce GTX 1060 12648

Wszystkie pozostałe karty zostały przetestowane z procesorem Intel Core i9 9900K. Widzimy, że archaiczny (wręcz już muzealny) procesor potrafi solidnie zdławić działanie mocnej karty graficznej. Do tego stopnia, że duet Pentium Haswell + RTX 3080 w wynikach ogólnych potrafi osiągać gorsze wyniki niż Core i9 9900K + GTX 1060! Oczywiście jest to ekstremalny przykład i powinien być traktowany wyłącznie jako ciekawostka. Mamy nadzieję, że nikt (oprócz nas!) nie pokusi się o zbudowanie takiego zestawu.

Jak walczyć z bottleneckiem CPU?

Negatywny wpływ mało wydajnego procesora na kartę graficzną można zniwelować podkręcając go i stosując szybszą pamięć RAM. Stworzone przez AMD API Mantle posłużyło za podstawę Vulkan oraz DirectX12 i gry wykorzystujące te biblioteki również ograniczają narzut procesora. Posiadacze nowszych platform mogą skorzystać z opcji Smart Access Memory / Resize BAR Support, ale jak na razie opcja ta jest dostępna tylko dla Radeonów RDNA2 oraz GeForce RTX 3060 (pozostałe karty Ampere powinny dostać update VBIOS jeszcze w tym miesiącu). Pewnych rzeczy jednak nie da się przeskoczyć.

Jeśli połączymy bardzo słaby procesor z mocną kartą graficzną, to tak naprawdę pozostaje nam tylko wymienić go na szybszy model.

Jeśli i ktoś z was jest w posiadaniu komputera łączącego słaby CPU z mocnym GPU, niech nie zapomni podzielić się swoimi wrażeniami w komentarzach!

Może Cię również zainteresować:

Komentarze

49
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Lord_Krecitsqa
    25
    Fajnie byłoby zrobić testy z 4790K a nie wykastrowanym z każdej strony procesorem.
    • avatar
      Obiektor
      8
      Taki test spoko ale bardziej bym zobaczyl z i7 2600 i 4770 gdzie nieraz idzie przeczytac w komentarzach ze dalej daje rade :D
      • avatar
        fabik2
        6
        E 8400 dał by radę
        • avatar
          chotnik2
          6
          Phi, ale test, nawet 1 gry nie odpaliliście na jakiś realny test. Amatorka, to jakiś blog czy co?
          • avatar
            szymcio30
            3
            Dla niektórych nie jest to oczywiste;)
            • avatar
              Ahura
              3
              spoko, przynajmniej uświadamia to zjadaczy chleba że w takim przypadku procesor ma znaczenia w grach. Ale co to zmienia? Itak zobaczą na allegro PROCESOR INTEL! GRAFIKA GIE-TE-IKS! DYSK TYSIĄC! I kupią.
              • avatar
                Jarrod
                2
                Ja mam podobnego frankensztajna. i5 4690K plus RTX2060, zwłaszcza w Cyberpunku widać że brakuje mocy procesorowi. OC za bardzo już tu nie pomaga. Zestaw lepiej też sprawdza się pod windows 10 niż 7 przynajmniej jeśli chodzi o wymienioną wcześniej grę.
                • avatar
                  ARTMAX
                  2
                  Ostatnio kupiłem Pentiuma G3260, jako element ozdobny. Procesor z dwuletnią gwarancją kosztował mnie 15zł
                  • avatar
                    Sander Cohen
                    1
                    Coz. W sumie nie zdziwilbym sie gdyby taki procesor nawet dzis zawital do zestawu reklamowanego: "Szybki procesor Intel 3.0 GHz, Grafika nVidia GTX/RTX...". A później placz bo CS nie dziala (moze przesadzam, chociaz...).
                    • avatar
                      poandy
                      1
                      Posiadam 4690K(OC 4,5GHz)+1080 i nie jest tak źle aby wymieniać całą platformę .Od dłuższego czasu brak opłacalności do zysku i tu jest pies pogrzebany.
                      • avatar
                        fonzie
                        1
                        Ciekawe jak sprawdził by się mój e5-1620v3...
                        • avatar
                          deseczka
                          1
                          Z osobistych doświadczeń AMD 8320E bardzo ograniczał mi GTX1660Ti, po przesiadce na R5 3600 ogromna odczuwalna różnica w grach.
                          • avatar
                            chotnik2
                            1
                            Phi, ale test, nawet 1 gry nie odpaliliście na jakiś realny test. Amatorka, to jakiś blog czy co?
                            • avatar
                              kombajn
                              1
                              W pełni zgadzam się z autorem i jego własnymi słowami "To najbardziej bezsensowny test GeForce RTX 3080". Gdyby przedmiotem testu było skalowanie się wyników w grach zależnie od użytego procesora i zależnie od rozdzielczości i poziomu detali to byłby ciekawy artykuł a nie kompletna strata czasu.
                              • avatar
                                hexon6
                                1
                                Dobry test, ale było trzeba sprawdzić na najsłabszej jednostce z ostatniej generacji(Ryzen 3 3100/3300X albo I3-10100F). Szkoda, że nie ma jeszcze 5100/5300X. Brakuje również testu w grach(1080p, 1440p i 2160p)! Poprawcie to następnym razem.
                                • avatar
                                  Mario2k
                                  1
                                  Już miałem zmieniać cepa na Ryzena 5900X ale padło na akwarium 300L z osprzętem :) teraz to już pewnie poczekam do Ryzen 5900X Refresh .
                                  • avatar
                                    CrisPL
                                    0
                                    Tak ten proc to tragedia. Żałuję, że do htpc wziąłem zamiast najmniej i3 4170.
                                    • avatar
                                      crreeyz
                                      0
                                      czyli jak wymienie swojeko i5 4670K na i7 z 10 albo 11 generacji to przy swoim gtx 1060 powinienem się spodziewać przynajmniej 2 krotnego wzrostu wydajności w grach ?
                                      • avatar
                                        prznar1
                                        -1
                                        kuuuuuu..... procesor nie ogranicza karty... może być wąskim gardłem systemu. Co za patologiczne stwierdzenie, aż dziwne że wciąż powtarzane.
                                        • avatar
                                          Valmaris
                                          0
                                          U mnie w maszynie jest M1
                                          • avatar
                                            konradkokosa
                                            0
                                            Do absurdalnych pomysłów dołączam swój dowcip - kartę NVIDIA RTX 3080 z klocków Lego :) https://ideas.lego.com/projects/1e98b17e-838e-4a69-a161-24b7cbae6dcb
                                            • avatar
                                              Gadon
                                              0
                                              Według mnie muzealnie to powinni wziąć jakiś Core 2 Quad :D np. Q6600
                                              • avatar
                                                maxbit
                                                0
                                                a ja sobie wpisałem w allegro
                                                RTX 3080
                                                I wyjebałem w kosmos pierdonlnąłem i tak jebnąłem że do tej pory nie powstałem
                                                Ceny ? 10 12 13 tyś ?
                                                Co jest do Huja wacława ?
                                                Ja wiem że ten świat upada ale mam jakieś przekonanie (niepokojące) ze przyspiesza to w tempie wykładniczym
                                                Ale Chwila dlaczego te karty są tak drogie ?
                                                Nie produkują MyFriendy ?
                                                Nie
                                                To co jest ?
                                                Odpowiedź jest banalnie prosta uzysk z wafla w tych prawdopodobnie mocno naciaganych 10nm jest tak znikomy że wycinają po jednym chipie z wafla (dziś bodaj 450mm) i ... i trzeba zarobić wieć cena wywala w kosmos.
                                                Mało tego już dziś wiadomo że chipy te padają bardzo szybciutko tak wiec nie dość że zapłacisz pierdylion to jeszcze zdachnie ci twoja kartka ...

                                                Dlaczego ?
                                                Ano stało się to co lemsy uważały za nierealne i wierzyły oszustom pokazującym 7 5 a moze i 3nm ....
                                                Niestety lemsy nie ma żadnych 7nm to cyferka wam wciskana owszem prawdopodobnie zmniejszyli do 10nm (liczonych po staremu) ale uzysk nie istnieje wycina się same zwłoki
                                                Dlatego intel (wbrew ogólnikom jest tu choć pod tym kontem uczciwy) pisze o 14nm i od 7 lat (tak od 2014r) nie jest w stanie zejść do 10nm i nie jest to że nie chce nie może i doskonale wiedzą że nie ma sensu się kopać. Owszem testowo są w stanie w zasadzie na zasadzie eksperymentu wycinać bardzo małe chipy (bo wtedy to jedynie ma sens) i takie procesory czy inne (warunek) małe IC się pokazały.

                                                Tak tak .... mamy koniec rozwoju krzemu. I nie bedzie żadnych 7 ani 5 nm i nigdy ich nie było i nie ma.
                                                Dziękuję dobranoc.