Karty graficzne

Szykujcie mocne zasilacze. Karty GeForce RTX 4000 z kosmicznym poborem mocy

przeczytasz w 2 min.

Premiera kart graficznych GeForce RTX 4000 zbliża się coraz większymi krokami. Nowe modele mają przynieść spory przyrost wydajności, ale też będą się odznaczać wysokim zapotrzebowaniem na energię elektryczną.

Do tej pory Nvidia nie potwierdziła planów wydania kolejnej generacji kart graficznych, ale w sieci krąży coraz więcej przecieków i informacji o sprzęcie.

Mowa o generacji GeForce RTX 4000 Ada Lovelace, która ma zastąpić obecne modele GeForce RTX 3000 Ampere. Spodziewamy się nowej architektury i przejścia do niższego procesu technologicznego, co przełoży się na spory przyrost wydajności i efektywności energetycznej.

Karty GeForce RTX 4000 z ogromnym poborem mocy

Według najnowszych przecieków, topowe modele: GeForce RTX 4080, GeForce RTX 4080 Ti i GeForce RTX 4090 mają bazować na rdzeniu AD102 – układ ma zaoferować do 18 432 rdzeni CUDA i współpracować z 12 lub 24 GB pamięci GDDR6X 384-bit.

Specyfikacja wygląda mocarnie, ale będzie ona miała przełożenie na wysoki pobór energii elektrycznej.

Według użytkownika Greymon55, nowe karty mają cechować się współczynnikiem TGP (oznacza on pobór mocy całej karty graficznej) na poziomie 450, 650 i 850 W. Premiera rzekomo została zaplanowana na wrzesień.

Wysoki pobór mocy potwierdza też uzytkownik kopite7kimi – co prawda oznaczenia nowych kart nie są potwierdzone, ale współczynnik TGP topowych modeli ma wynosić tutaj 450, 600 i 800 W.

Wygląda więc na to, że kolejna generacja kart graficznych będzie wyjątkowo prądożerna (dla porównania GeForce RTX 3080 cechuje się współczynnikiem TGP na poziomie 320 W, a dla GeForce RTX 3080 TiGeForce RTX 3090 jest to 350 W).

Dla niektórych może to oznaczać konieczność wymiany zasilacza na mocniejszy model – zapewne producenci będą tutaj rekomendować jednostki o mocy 1000 – 1500 W. W nowszych konstrukcjach (np. Gigabyte Ultra Durable) producenci już wprowadzają specjalne wtyczki zasilające 12+4 pin z myślą o nowych GPU.

Źródło: Twitter @ Greymon55, Twitter @ kopite7kimi

Komentarze

37
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Dudi4Fr
    16
    Czyli czeka nas Fermi 2.0... O ile mogę uwierzyć w 450-500W dla referenta 4090, 800W+ to czyste szaleństwo nawet dla entuzjastów.
    • avatar
      Warmonger
      11
      Wygląda na to, że karty graficzne do gier będą niedługo dostępne tylko dla wąskiego grona entuzjastów, a reszta będzie musiała się zadowolić grami na smartfony :/
      • avatar
        Marucins
        6
        Buhahaha dobry żart. A jakie będą ceny prądu na premierę 4090?
        Co na to partia Zielonych czy inne twory dbające o środowisko?
        • avatar
          Agresor
          5
          Boję się, co trafi do laptopów....
          Może AMD pokaże coś mniej prądożernego...
          • avatar
            danieloslaw1
            5
            hahahahaha Ja ja już marudziłem na 320w w moim 3080 a co dopiero 600-650. Z tego wynika że podwajają wszystko i pobór mocy tez czyli 0% na plus sprawnosc energetyczna. Kiedy zasilacze na siłe(3 fazy)?
            • avatar
              KENJI512
              5
              Czyli po prostu brak postępu tylko dali więcej rdzeniuf, a je trzeba zasilić prądem z poprzedniej generacji.
              • avatar
                Fiona
                5
                Ponad kWatt na PC ??? To ja pass. Powtórzę za pewnym panem prezydentem, nie chcem, ale muszem i.... kupię konsolę.
                • avatar
                  Chiczkok
                  3
                  Dla mnie spoko, może górnicy zrezygnują z budowania koparek bo będzie to dla nich nieopłacalne
                  • avatar
                    xxx.514
                    3
                    Czyli trzeba czekać jeszcze ze 3-4 lata na RTXy 5000, spoko, mój 960 powinien wytrzymać. Oby...
                    • avatar
                      Blejd
                      2
                      Haha nie dawno wymieniłem psu 1000w na 1200w obawiam że to też będzie za mało :D
                      • avatar
                        Marek1981
                        2
                        Prezent dla AMD, pytanie czy go potrafią wykorzystać... Wydaje się że już czas by ze strony AMD wprowadziła ulepszone rozwiązanie znane z procesorów, bo inaczej nic nie zmusi NV do zmiany tego szaleńczego trendu
                        • avatar
                          szymcio30
                          2
                          To sa plotki wiec nie ma się czym podniecać. Zresztą co z tego ze będzie znaczny wzrost zapotrzebowania na energie skoro ceny mogą zwalić z nóg nie jednego użytkownika PC
                          • avatar
                            lukasz236
                            2
                            To teraz dopiero górnicy zaczną przeciążać sieć energetyczną
                            • avatar
                              MokryN
                              2
                              Nawet jakby dali za darmo to bym mi używał tego. Widać, że nie mają nic nowego. Mój 3080 poczeka sobie na wymianę.
                              • avatar
                                Blejd
                                1
                                Ciekawe ile będzie wtyczek w tych topowych kartach bo 3 to będzie mało :) albo znów dadzą jakieś przejściówki na nowe wejścia.
                                • avatar
                                  Aquaform
                                  1
                                  Z wielką mocą wiąże się wielką odpowiedzialność.
                                  • avatar
                                    NasHee
                                    1
                                    Prąd prądem, ale imo większym problemem jest ciepło, w zimie to nawet fajnie, ale latem po kilku godzinach odpalonej grzałki bez klimatyzacji będzie się można ugotować.
                                    • avatar
                                      PITUCH3
                                      -3
                                      A gdzie są ci zieloni ekogłaby, o diesela się czepiają, a tu proszę.
                                      • avatar
                                        greglion
                                        0
                                        Nikogo te kart nie interesują, wsadzcie je sobie w DDDD
                                        • avatar
                                          greglion
                                          0
                                          Zapomniałeś napisać mój ulubiony dziennikarzu , że będą tanie, tylko jest taki problem że serii 3 nikt nie widział przez 2 lata
                                          • avatar
                                            ElFi_
                                            0
                                            Mój ASUS STRIX 3070 (zwykły - nie TI) WHITE ma te limity ustawione tak: 100/280/350W i jakoś świat się nie zawalił a ja nie pamiętam aby pobór osiągnął 200W. Jeżeli już to będą to krótkookresowe pobory bo zwyczajnie temperatura rdzenia osiągnie limit. Te 600W w tym 4090 to może przy dobrej wodzie i też nie za długo - w szczycie, że tak powiem, więc się nie ekscytujcie za bardzo. Odrębna sprawa to zasilacz, ten niestety będzie musiał mieć zapas mocy na te 850W samej karty bo ta teoretycznie tyle może pobrać (przez chwilę ale jednak...).
                                            • avatar
                                              FranzMauser
                                              0
                                              Czipletowe rx 7000 zeżrą te padaki nvidii na śniadanie z mniejszym poborem prądu i mniejszym wydzialaniem ciepła
                                              • avatar
                                                roberto24
                                                0
                                                Większa wydajność, za większe zużycie mocy to nie jest postęp, to jest regres.
                                                • avatar
                                                  krzan
                                                  0
                                                  Granie robi się coraz bardziej kosztowne