Karty graficzne

Intel atakuje AMD - gracze nie odczują różnicy z PCI-Express 4.0

przeczytasz w 2 min.

Intel przedstawił dowody na to, że gracze nie wykorzystają potencjału magistrali PCI-Express 4.0. Jaki jest więc sens wprowadzenia jej obsługi do procesorów Ryzen 3000 i kart Navi?

Obsługa PCI-Express 4.0 to jeden z najważniejszych atutów procesorów Ryzen 3000… a przynajmniej tak mówi AMD. Intel ma jednak inne zdanie na ten temat i przedstawia dowody na brak istotnego wpływu nowej magistrali na wydajność w grach.

Serwis Legit Reviews skontaktował się z Ryanem Shroutem, który pełni funkcję głównego stratega wydajności w firmie Intel (wcześniej zajmował się on testowaniem procesorów w serwisie PC Perspective). Shroutem twierdzi, że gracze nie odczują różnicy z wprowadzenia PCI-Express (a przynajmniej nie w najbliższym czasie).

Porównanie szerokości pasma przesyłanego obrazu i magistrali PCI-Express
Porównanie szerokości pasma przesyłanego obrazu i magistrali PCI-Express

Intel porównał szerokość pasma przesłanego obrazu z przepustowością magistrali PCI-Express. Efekt? Nawet obraz w rozdzielczości 4K przy odświeżaniu 144 Hz w trybie HDR nie wykorzystuje pełnego łącza PCI-Express 3.0 x8. Nietrudno się domyślić, że do wykorzystania potencjału PCI-Express 4.0 x16 konieczne byłoby wykorzystanie jeszcze bardziej szczegółowego obrazu (już w rozdzielczości 8K).

Porównanie wydajności karty GeForce RTX 2080 Ti w trybie PCI-Express 3.0 x4, x8 i x16
Porównanie wydajności karty GeForce RTX 2080 Ti w trybie PCI-Express 3.0 x4, x8 i x16

Suche dane mają przełożenie na wyniki wydajności, co już jakiś czas temu potwierdził serwis TechPowerUp na przykładzie karty GeForce RTX 2080 Ti (testy wykonano w rozdzielczości 4K). Różnica w wydajności między trybem PCI-Express 3.0 x8 a PCI-Express 3.0 x16 wynosiła zaledwie 0,0099% FPS.

Obciążenie dysku przy uruchamianiu i ładowaniu gier
Obciążenie dysku przy uruchamianiu i ładowaniu gier

Z nowej magistrali będą mogły również korzystać dyski SSD, co powinno przełożyć się na dużo wyższe transfery sekwencyjne. Według testów Intela, gracze też nie powinni tutaj odczuć tutaj różnicy, bo gry nie są w stanie wykorzystać tak wysokiej przepustowości przy uruchamianiu i ładowaniu poziomów.

AMD - PCI-Express 4.0

Widać zatem, że obsługa PCI-Express 4.0 raczej nie przyniesie dużej różnicy w działaniu komputera do gier. W przyszłości, gdy upowszechnią się ekrany 8K, a gry będą jeszcze bardziej wymagające, być może sytuacja się odmieni. Problem jest jednak taki, że... firma AMD nie twierdzi, że PCIe 4.0 przyniesie różnice graczom. Owszem, producent w swoich materiałach chwali się nowym standardem, ale różnicę mają odczuć głównie profesjonaliści, zajmujący się tworzeniem wideo w jakości 8K.

Jak będzie w rzeczywistości? Przekonamy się dopiero na początku lipca, gdy na rynku zadebiutują procesory Ryzen 3000 i karty graficzne Navi - pierwsze konsumenckie sprzęty wykorzystujące potencjał PCI-Express 4.0.

Źródło: Legit Reviews, AMD

Warto zobaczyć również:

Komentarze

89
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    AmigaPPC
    30
    Desperacja level Master czy raczej level Intel.
    • avatar
      Kriksos
      29
      Wypowiedzi ze strony Intela są czasami zabawne... "Intel przedstawił dowody na to, że gracze nie wykorzystają potencjału magistrali PCI-Express 4.0" i właśnie dla tego Intel zapowiada wprowadzenie PCI-Express 5.0. Intel zachowuje się trochę jak dziecko, które ma 5 lat... Wszystko co należy do Intela jest najlepsze i tylko ich rozwiązania mają sens. Jak konkurencja wprowadza jakieś rozwiązanie to od razu jest atak ze strony Intela. Niech się lepiej skupią nad swoimi produktami bo o ile mają jeszcze przewagę w niektórych obszarach to ta przewaga sama z siebie się nie utrzyma i jeśli nie zmienią podejścia do cena/jakość/wydajność to niedługo AMD będzie ich wyprzedzać na każdym polu. Intel od jakiegoś czasu dużo gada, a mało robi... Narzekać i krytykować to każdy potrafi. Może lepiej niech w końcu zrobią te procesory 10nm bo jak na razie to tylko roadmap muszą aktualizować/zmieniać.



      • avatar
        patalajka22
        18
        Gdyby intel wprowadził go pierwszy to pewnie by wymyślali ile to niezliczonych zalet ma ten standard
        • avatar
          hokopl
          6
          "Serwis Legit Reviews skontaktował się z Ryanem Shroutem, który pełni funkcję głównego stratega wydajności"

          No tak, bo jeśli ta wydajność procesorów Intela kurczy się z dnia na dzień, to strategicznie łoś musiał coś wykombinować.
          To tak jakby powiedzieć że samochody powyżej 60 KM nie mają sensu bo zapewniają maksymalna prędkość na autostradach
          • avatar
            PrestoEnzo
            6
            Intel przyzwyczajony do zapewniania 5% lepszej wydajności procesorów co 3-4 lata, więc... tak u nich nikt nie odczuwa różnicy w czymkolwiek.
            • avatar
              kristof080
              6
              Czasami trzeba cos powiedziec. Bo jesli informacje ze slajdow AMD, znajda potwierdzenie w niezaleznych testach, to akcjonariusze Intel, beda co najmniej niezadowoleni. Ale to samo robi NVidia. My to wszystko mielismy lata temu. Moze bolu dypy nie maja, ale zaczyna troche przypiekac. Ale sie wszystko okaze juz wkrotce.
              • avatar
                paulus99
                6
                Stanowisko Intela w sprawie PCIE 4.0 jest bardzo obłudne. Gdyby to oni wprowadzili w swoich procesorach byłaby to niezbędna, wspaniała, jedyna w swoim rodzaju itd. zaleta. A że wprowadza to konkurencja, to zaraz trzeba wbić szpilę.

                Nie przeczę, może przy kartach graficznych nie ma to teraz wielkiego znaczenia. Ale kto mi zabroni jednocześnie używać w kompie szybkiego dysku NVME na PCIE 4.0, karty 10Gb/s czy dodatkowego kontrolera dysków SATA czy Fibre Channel? Co więcej, przy nowej magistrali nie muszę mieć aż tylu linii na dane urządzenie, zamiast PCIE 3.0x8 mogę wykorzystać PCIE 4.0x4, co ma znaczenie przy procesorach tylko z 16 liniami.
                • avatar
                  jacy4
                  5
                  Niedawno intel mówił że nikt nie potrzebuje więcej niż czterech rdzeni. Po prostu AMD było szybsze no to intel coś powiedzieć musiał.
                  • avatar
                    Rafs0n
                    4
                    Czemu każdy patrzy głównie na graczy? Życie to nie gra(chociaż jak by spojrzeć na inne aspekty to może...)
                    • avatar
                      FunkyKoval
                      4
                      Jako użytkownik, co prawda leciwej już generacji 4 i i7-4790 INTEL-a, życzyłbnym sobie, aby ta firma przestała się kompromitować. Naprawdę ich wypowiedzi i próby torpedowania postepu by AMD wyglądają równie żąłośnie jak nasza "totalna oPOzycja".
                      Wynika z tego, że "tylko INTEL" może promować nowe standardy, które nie mają większego sensu prócz nabijania kabzy INTEL-owi i monopolizacji rynku, wypada przypomnieć ich próby wprowadzenia nowego standardu pamięci RDRAM (RamBUS), który to był bez sensu i bardzo drogi. Architektura NetBurst i żyłowanie zegarów, robiąc w końcu z procesorów piece - to następny kwiatek, kiedy nie ma się co zaoferować na produkty konkurencji. Wyśmiewana przez INTEL-a monolityczna budowa procesorów AMD w przeszłości, kiedy to INTEL budował Core Quady z dwóch procesorów DUO, dzisiaj INTEL wysmiewa modułową budowę procesorów AMD, łaczących kilka struktur na jedej płytce. Teraz próby udowodneinia, że PCI 4.0 nie ma sensu. Naprawdę, sami siebie kompromitują, zamiast walczyć ciekawymi pomysłami i produkatmi, nawet niekoniecznie na rynku CPU, oni zapatrzyli się chyba na polityków, inaczej tego określić nie można. Firma z takim potencjałem zeszła na psy kompletnie.
                      • avatar
                        n4zgul
                        3
                        A w sli nie przyniesie ? bo różnica między ktoś już sprawdzał testował może sli w pcie-x3 vs pice-x4 ? bo wydaje mi się że tu mogą być różnice i to spore.
                        • avatar
                          zakius
                          3
                          a co to gracz nie może pracować na kompie? Optane bardzo chętnie by dostały więcej przepustowości (i lepszy kontroler)
                          • avatar
                            Marc1n
                            3
                            A nie jest po prostu tak że AMD jest po prostu przyszłościowe? Podobnie jak np. Thunderbolt Intela z transferem 40Gbit?

                            • avatar
                              krishna22
                              2
                              co ten intel xD
                              • avatar
                                Fenio
                                2
                                Nie wiem czy ja tu czegoś nie rozumiem czy ktoś chce kogoś zrobić w balona z tymi wyliczeniami.
                                Wyliczenia tyczą się przesyłania klatek obrazu i mogłyby dotyczyć HDMI albo DisplayPort i wtedy miałoby to sens. Ale tyczą się PCI-E.... o co chodzi ? Od kiedy to mapy bitowe każdej klatki obrazu są przesyłane poprzez PCI-E przy dedykowanej karcie graficznej na PCI-E ?
                                • avatar
                                  preczzcenzuro
                                  2
                                  Jeśli choć jeden klient AMD wykorzysta potencjał pci-e 4.0 to znaczy że to ma sens
                                  • avatar
                                    Pixel
                                    1
                                    A co z testami w SLI 2x16 ? Zwykle LGA 2011 wypadało lepiej np: od LGA 1150 itd. Co z różnicą ilości linii PCI-E ?
                                    • avatar
                                      wiktorrp
                                      1
                                      Bo pcie jest wykożystywane tylko przez karty graficzne.
                                      • avatar
                                        Arcadeblood
                                        1
                                        Oczywiście, że pcie 4.0 ma zalety. Tak jak z monitorem. Co z tego, że może odtworzyć tylko 60 klatek na sekundę skoro 300 fpsów wygląda na nim o niebo lepiej.
                                        • avatar
                                          gormar
                                          1
                                          Jak oni użyli karty z 8GB VRAM to nie dziwne, że nie widać różnicy, ale obecnie wiele silników gier stosuje streaming tekstur z RAM (4-8GB) do VRAM (8-16GB), dzięki temu nawet karty z niewielką ilością pamięci mogą obsługiwać grafikę o wysokiej szczegółowości tekstur na ogromnych obszarach. Tutaj by lepiej przetestowali kartę z mniej niż 4GB.

                                          Ciekawi mnie również jakie ustawienia graficzne zastosowano.

                                          Przepraszam gdyby ktoś zwrócił na to uwagę, ale nie miałem jeszcze czasu przeczytać wszystkich powyższych komentarzy.
                                          • avatar
                                            setnik
                                            0
                                            NA pierwszym obrazku jest przedstawione, że gracze niewiele więcej jak PCIe 3.0 x4
                                            • avatar
                                              Konto usunięte
                                              -10
                                              Kto nie jest fanbojem i nie modli się codziennie do ołtarzyka amd ani intela doskonale wie, że 4.0 jest jak piąte koło u wozu dla mainstreamowej podstawki dla kowalskich grających w pokemony.
                                              Co do dysków, przeciętny użytkownik nie jest nawet w stanie wykorzystać nośników nawet na SATA 3 więc nawet połówki jednej linii 4.0, grono semi-pro nie jest w stanie wykorzystać 3.0 x4.
                                              Zostają profesjonaliści i przedsiębiorstwa, które już od dawna mają pożytek z 4.0 na platformach hedt i serwerowych.
                                              • avatar
                                                Kam9000
                                                0
                                                Czyli co lepiej się przez następne 10 lat kisić na 3.0 bo tak? "Jebać" SSDki? Idiotyczne jak dla mnie jak jest opcja to czemu by nie. Sami przecież zmienili na 3.0, a mogli zostać na 2.0, czy ktoś im kazał bądź zmuszał? No brak słów czasem.

                                                Jestem również pewien, że AMD nic nie wspominało, że ma to pomóc graczom w kwestii wydajności, więc skąd ten atak Intela? Czy ich pracownicy dostają większe wypłaty, jeżeli znajdą byle jaki powód do obsmarowania AMD?
                                                • avatar
                                                  Kam9000
                                                  0
                                                  Czyli co lepiej zostać na 3.0 przez najblizsze 10 lat, bo tak? "Jebać" SSD'ki? Jak jest opcja to czemu nie, jeżeli w jakimś zastosowaniu nie ma różnicy, ale w innym jest, to co to komu szkodzi? Sami przecież się przenieśli z 2.0 na 3.0 a nikt ich chyba do tego nie zmuszał. No słów brakuje. Jak sami się przeniosą na 4.0 to karty graficzne niby będą korzystać wtedy z pełnej możliwości 3.0? No myślenie idiotyczne jak dla mnie, ale może czegoś nie zrozumiałem.

                                                  O ile pamiętam AMD nic nie wspominało o wzroście wydajności w grach, także nie wiem skąd ten atak Intela.
                                                  Czy tam wypłacają premie jeżeli któryś z pracowników znajdzie jakikolwiek powód do obsmarowania konkurencji? Bo mam dziwne wrażenie że w tym przypadku tak było.
                                                  • avatar
                                                    DrzewusPoland
                                                    0
                                                    GRACZE NIE ODCZUJĄ... to prawda. Więc cała ich platforma i procesory dla profesjonalistów do kosza ??? Bo tu na pewno będzie to odczuwalne :-)