Karty graficzne

Prawdziwy pogrom! Ujawniono wydajność karty GeForce RTX 4090

przeczytasz w 2 min.

Wszystkie znaki na niebie i ziemi wskazują na zbliżającą się premierę kart graficznych GeForce RTX 4000. I jest na co czekać, bo nowe modele mają przynieść potężny wzrost wydajności.

Karty graficzne GeForce RTX 4000 mają zastąpić obecne modele GeForce RTX 3000 – co prawda producent nie potwierdził planów wydania kolejnej generacji kart, ale w sieci aż huczy od plotek na temat sprzętu. Wyjątkowo obiecująco zapowiada się topowy przedstawiciel nowej serii.

Wydajność karty GeForce RTX 4090

Według najnowszych przecieków, karta GeForce RTX 4090 ma bazować na układzie graficznym Ada Lovelace AD102 z 16 384 rdzeniami CUDA i dysponować 24 GB pamięci GDDR6X 384-bit.

Jak ta specyfikacja przełoży się na wydajność?

Użytkownik kopite7kimi zdradził, że karta GeForce RTX 4090 ma osiągać w benchmarku 3DMark Time Spy Extreme ponad 19 000 punktów (chodzi o składową odpowiedzialną za wydajność karty graficznej - Graphics Score). Jak to można odnieść do obecnych flagowców?

GeForce RTX 4090 - wydajność w benchmarku 3DMark Time Spy Extreme

Oznacza to, że nowy flagowiec Nvidii będzie o jakieś 85% wydajniejszy od GeForce RTX 3090 i o jakieś 65-80% wydajniejszy względem GeForce RTX 3090 Ti (w zależności od wersji). Nie trzeba chyba zatem tłumaczyć, że niedługo powitamy nowego lidera wydajności rankingów kart graficznych... który zmiecie wszystkie dotychczasowe konstrukcje Nvidii i AMD.

Topowa wydajność zostanie jednak okupiona ogromnym zapotrzebowaniem na energię elektryczną. Już teraz mówi się, że RTX 4090 ma cechować się współczynnikiem TBP na poziomie 450 W (czyli podobnym do GeForce RTX 3090 Ti). Cóż, energooszczędne karty graficzne powoli stają się oksymoronem.

Prezentacja karty GeForce RTX 4090 podobno została zaplanowana na wrzesień, ale na jej dostępność będziemy musieli poczekać do października. Ciekawe co na to AMD ze swoimi nadchodzącymi Radeonami RX 7000 (RDNA 3) ( ͡° ͜ʖ ͡°)

Źródło: Twitter @ kopite7kimi, Twitter @ harukaze5719

Komentarze

48
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    lionoo
    29
    Miałem gtx480 a nie którzy tego samego w sli ale prąd nie kosztował tyle co teraz.
    Do tego staje się coraz starszy i te komponenty już mnie nie bawią jak dawniej,wyrosłem z tego złodziejskiego biznesu dla producentów.
    • avatar
      marcin2468
      18
      Cena i pobór prądu zrobią swoje
      • avatar
        PerfectDAY
        14
        AMD pewnie przegra jeśli chodzi o wydajność, ale jeśli ich najmocniejsza karta będzie mniej prądożerna to tym mogą powalczyć o klienta. Czasy są jakie są i ostatnio ludzie nie patrzą już tylko na samą wydajność, ale i na zużycie energii.
        • avatar
          Wasek
          13
          "Oznacza to, że nowy flagowiec Nvidii będzie ponad 2-krotnie wydajniejszy niż GeForce RTX 3090."
          A według wykresu jakby miał być dwukrotnie wydajniejszy od 3090 to by miał 20570 a nie 19000 nie licząc "ponad 2-krotnie".
          • avatar
            Szaquak
            7
            Aktualnie zakupiłem AORUSA 3080 XTREME Waterforce i uważam że to jak dla mnie optymalna karta do komfortowego grania w 1440p, właściwie w każdą grę na maksymalnych detalach. Zważywszy, że po undervoltingu POBIERA NIESPEŁNA 250W. Quo Vadis GPU ? Tylko czekać jak karty graficzne do PC będą oferowane z dodatkowym zasilaczem. Nie tędy droga.
            • avatar
              Kenjiro
              5
              Nakręcania oczekiwań ciąg dalszy - popcorn już zwietrzał, masło zjełczało, a tu ciągle to samo podbijanie.
              • avatar
                Konto usunięte
                5
                Tia..... pogrom...... tania sensacja........ tak na oko 2x wydajnejsza i 2x więcej mocy żre. to nie jest postęp.
                • avatar
                  Dzentel
                  4
                  Wolałbym i tak imponujące 20% wzrostu wydajność, ale przy zachowaniu budżetu energetycznego poprzedniej generacji. A przy okazji, działania wymuszające lepsza optymalizację softu... A nie część mocy obliczeniowej idzie w gwizdek ze względu na niechlujne optymalizację lub ich brak.
                  • avatar
                    youkai20
                    2
                    Zawsze mnie zastanawia skąd ci ludzie biorą te dane (i skąd się biorą... ci ludzie ;) )? Czy to producenci sprzętu dają im cynk, aby nastąpił kontrolowany przeciek "na rozkaz"? A może to sami pracownicy Intela/Nvidii/AMD etc. tworzą "prywatne" konta, na których udostępniają to i owo jako niby anonimowy, "randomowy" internauta tak, aby narobić szumu przed premierą?
                    • avatar
                      PerSTOLARZO
                      2
                      Wydajnościowe programy NVIDIA GeForce to się nie przerzuca na faktyczną wydajność powinni dodawać do karty reaktor jądrowy (zrób to sam) zresztą poco mieć coś zawsze najlepszego już dążą do tego że za chwilę będzie drugie pudło stało koło pc jak to kiedyś pisali miał być minimalizm, nie widzę
                      • avatar
                        MokryN
                        0
                        Aktualne wyniki to 50% więcej od 3080. Poczekam.
                        • avatar
                          maluszek88
                          0
                          za granicą ludzi stać na takie karty i stać ich na prąd. Poprostu w Polsce nikt jej nie kupi
                          • avatar
                            Teodor
                            0
                            Przed zapowiadanymi podwyżkami cen energii o 300% w sam raz, już abstrahując od tego, że karta w cenie złota.
                            • avatar
                              gerax
                              0
                              Wydajność x2 i cena x2 - czyli dalej będzie drogo.
                              • avatar
                                Kapitan Nocz
                                -2
                                Specjaliści od wykresów u AMD w szoku !! Haha
                                • avatar
                                  szymcio30
                                  -3
                                  Zważywszy, ze RTX 4090 ma jakieś 60% więcej rdzeni CUDA wiec to tłumaczy taka wydajność. RTX4080 jest już bardziej obcięty wiec tutaj przewaga nad 3090Ti może być 20-30%
                                  • avatar
                                    paankracyk
                                    -4
                                    Teraz pytanie brzmi: kiedy będziemy mieli premierę nowych konsol? Bo do tej pory raczej nie pojawi się za wiele gier, które takiego potwora będą w stanie wykorzystać w pełni. Jeden cyberpunk, który na razie zjada każdy sprzęt się nie liczy :).
                                    • avatar
                                      Batyra
                                      -6
                                      Dobrze! Jest moc!
                                      • avatar
                                        szymcio30
                                        -10
                                        Co wy macie z tym oksymoronem??? 7 lat temu taki GTX 980Ti potrafił wciągnąć min 250W i nikt z tego nie robił paniki. Teraz 3090Ti wciąga 200W więcej ale jest szybsza z 300%. A jeśli sie potwierdzi wydajność i TDP 4090 to zdeklasuje generacje RTX3000 właśnie wydajnością na Wat. Zanim zaczniecie minusować sprawdźcie sobie testy. Fizyki się nie oszuka.
                                        • avatar
                                          Blejd
                                          0
                                          Wydajność robi wrażenie , ciekawe jak z pamięciami GDDR6X czy też zamontowane po obu stronach pcb jak w 3090 czy już po jednej stronie pcb jak w 3090ti.
                                          • avatar
                                            Quenser
                                            0
                                            Gdzie te czasy gdzie topowa karta kosztowała 1500zł
                                            • avatar
                                              qrek1
                                              0
                                              a komu to potrzebne