Karty graficzne

NVIDIA szykuje pogromcę Radeona HD 6990

przeczytasz w 2 min.

NVIDIA świadoma zagrożenia ze strony AMD, będąc na fali po premierze udanego GTXa 580, ma zamiar stworzyć dwuprocesorową kartę. GeForce GTX 59x będzie konkurował z jeszcze nie wydanym - również dwuprocesorowym - Radeonem HD 6990. 

 Warto przeczytać:
 

Zdjęcie nowego potwora wydajności ze stajni NVIDIA jest nieoficjalne. Przedstawia ono jeszcze nie w pełni ukńczoną konstrukcję, która ma szanse powalczyć o miano najwydajniejszej karty graficznej na rynku. Co ciekawe, brak zgodności co do nazewnictwa - według niektórych źródeł będzie to GeForce GTX 590, jednak pojawiła się także nazwa GeForce GTX 595.  Jak będzie naprawdę, dowiemy się już niedługo.

Karta została wyposażona w dwa procesory graficzne NVIDIA GF110 połączone mostkiem NF200. Na laminacie znalazło się po 1536 MB pamięci GDDR5 dla każdego z układów. Co prawda na zdjęciu widać tylko 12 kości (po 128 MB), ale podobną liczbę kości skrywa prawdopodobnie rewers karty.
 


Na razie jeszcze nic nie wiadomo o taktowaniach karty, ale mają one być mniejsze niż w przypadku karty z pojedynczym układem GF110. Jest to spowodowane wymuszeniem mniejszego współczynnika TDP karty, który ma wynieść 375 W. Dla porównania GeForce GTX 580 z jednym procesorem graficznym może pochwalić się współczynnikiem na poziomie 244 W. Do zasilania karty wymagane będą dwie 8-pinowe wtyczki zasilające, które w połączeniu z portem PCI-Express x16 2.0 mogą dostarczyć maksymalnie 450 W energii. Warto zauważyć, że według testów na benchmark,pl, konfiguracja testowa składająca się z dwóch GTXów 580 pobiera 650 W mocy, a więc nie tak mało.

Na płytce drukowanej przewidziano miejsce na trzy wyjścia DVI oraz jedno mini DisplayPort. Dodatkowo dzięki złączu SLI będzie możliwe połączenie dwóch takich kart graficznych w jednym komputerze. Cała karta nie powinna być dłuższa niż jednoprocesorowy model, który mierzy około 27 centymetrów.

Oficjalna data premiery potwora NVIDII nie jest jeszcze znana. Jeżeli jednak producent zdecydowałby się na szybką premierę jeszcze w tym roku, to pozycja AMD i jej Radeona HD 6990 (którego data premiery jest przewidywana na pierwszy kwartał 2011 roku) może być zagrożona. Należy jednak wspomnieć, że w planach ASUSa był MARS II, czyli podwójny GTX 480, o którym na razie nic nie słychać.
 

Źródło: pcgameshardware.de
 

Polecamy artykuły:  
Fotogaleria: obudowa jakiej jeszcze nie było
TOP-10: Monitory
G eForce GTX 580 - najszybsza w rodzinie

 

Komentarze

126
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    0
    A niechaj im wyjdzie na dobre! I oby w końcu pokazali co znaczy nVidia. Im konkurencja wyższa tym najnowsze produkty ATI zejdą z ceny, bo szczerze mówiąc ostatnimi czasy nieco im się w główkach poprzewracało od tego „dobrobytu”
    • avatar
      IronFe
      0
      Do autora
      W tym zdaniu
      "Dla porównania GeForce GTX 580 z jednym procesorem graficznym może pochwalić się współczynnikiem na poziomie 244 W"
      zjadłeś słowo średnim (powinno być przed współczynnikiem)

      Dla standardu PCI-E 2.0 max współczynnik pobieranej mocy przez kartę wynosi 300W, więc skoro karta ma pobierać 375W to nie może spełniać wymogów PCI-E 2.0
      • avatar
        Konto usunięte
        0
        "Warto zauważyć, że według testów na benchmark,pl, konfiguracja testowa składająca się z dwóch GTXów 580 pobiera 650 W mocy, a więc nie tak mało."

        Dwa błędy w jednym zdaniu - po pierwsze Wat to jednostka mocy i nie pisze się 650 W mocy, tylko po prostu 650 W,

        Druga sprawa jest dużo ważniejsza, bo merytoryczna. 650 W to wartość pobierana z gniazdka, a w grę wchodzi tu sprawność zasilacza. Taka ilość nie jest zużywana przez same komponenty, tylko jest powiększona o straty na zasilaczu. Ta dodatkowa moc nie wlicza się do obciążenia zasilacza.
        Dodatkowo zasilacz użyty do testów to jakieś totalne nieporozumienie - jak można w dobie 80 Plus Silver i Gold, używać zasilacz, który ma ledwie podstawowy 80 Plus? W takim razie zakładając sprawność jedynie 80 %, wychodzi 0,8*650=520[W] - i tyle pobierają elementy (takie jest obciążenie zasilacza). Na dobrym zasilaczu, jak Modu87 albo inny 80 Plus Gold, pobór tego systemu zamknie się w 600 W, także proszę tutaj nie manipulować osobami niezorientowanym w temacie, gdyż 520 W, a 650 W to ogromna różnica. Dodatkowo oczywiście trzeba uwzględnić, że komputer to nie same karty graficzne, a tego ile pobiera komputer bez kart już nie podaliście.
        • avatar
          Konto usunięte
          0
          Jusz niemoge sie doczekać preniery. Ciekawe jak będzie z ceną.
          • avatar
            kopczenko
            0
            jesli testy sa prowadzone w furmarku to trzeba jeszcze od tego poboru odjac maksymalnie obciazony 1 rdzen proca czyli jakies 60-70? W z gniazdka, do tego plyta,dysk 40W? i wychodzi 550W,

            YoSHi84 - dobrze pisze polac mu:D
            mniej wiecej 2 karty zezra góra 420W - pobór z gniazdka wzrósł o 200W - ale w grze;/ to co odpale furmarka albo jakis syntetyk i szacowania ida sie ... ?
            Nvidia sie zmiesci, - aha chyba nie beda ryzykowac TDP > 375W bo tyle moze dac 2x 8pin + pcie 1.0 - a kompatybilnosc musi byc

            "Dla standardu PCI-E 2.0 max współczynnik pobieranej mocy przez kartę wynosi 300W" - tyle to 3.0 ma wyciagac:D

            Co do 595 - ja bym wolal GF 114 @ 900mhz :D
            • avatar
              Konto usunięte
              0
              Po co ta "zimna wojna" jak grafika w grach stanęła w 2007 roku na Crysis?
              • avatar
                Konto usunięte
                0
                No o 14 wracam z pracy. Ciekawe ile będzie komentarzy i wzajemnych podjazdów. która firma lepsza, która "gupa",która oszukuje !
                I spośród tych wszystkich podjazdowych komentarzy , może z 8 osób stać na te dwie topowe karty obu firm.Sie zobaczy:D
                • avatar
                  Dwd89
                  0
                  heh, jestem ciekawy ceny tej nowej karty nvidii ;) Nvidia zawsze była droga, nawet kiedy była słabsza niż tańsze karty ATI ;) to się nie zmieni
                  • avatar
                    Konto usunięte
                    0
                    Cyrix będzie wniebowzięty ;)
                    • avatar
                      tjindy
                      0
                      Dawno mnie tu nie było. Fajnie że NV walczy o rynek bo nie ma nic lepszego niż zdrowa konkurencja. Zastanawia mnie tylko jeden fakt: pobór mocy. Powiem szczerze że chyba twórcy kart graficznych przesadzili z "pędęm ku lepszości" kosztem poboru prądu.
                      ja rozumiem 100W. No 150W. Ale 250W na procek? 650W w stresie ?
                      I żeby to jeszcze było okupione prawdziwym przyrostem prędkości.
                      A tak gracze dostaną "prawie nie zacinającą się grę hiper duper" a graficy zyskają w GPU rendering parę procent mocy więcej...
                      Bez sensu.
                      Oczywiście żeby nie było piszę o obu producentach. Mam wrażenie że takie grafiki-potwory są jak rakiety V1 lub V2; szybkie, groźne, paliwożerne, a czasami piep..ną gdzie się podoba.
                      Ech..

                      tj-malkontent?
                      • avatar
                        Konto usunięte
                        0
                        No, cyrix pokaż co potrafisz!
                        • avatar
                          Konto usunięte
                          0
                          eee moj system teraz na pelnym obciazeniu procka (prime95) + odpalenie TFa (niezbyt wymagajacy w sumie) wpieprza 610W :)

                          wiec 650W przy ukkladzie SLI takich potworow to NIC :)
                          • avatar
                            Konto usunięte
                            0
                            Kolejny pogromca AMD, tym razem to już koniec pustych Mhz i kiepskich kart od AMD, ten potwór zmiażdży wszystko na swojej drodze.
                            • avatar
                              Konto usunięte
                              0
                              Radeom HD 6990. Powinno byc n :)
                              • avatar
                                Konto usunięte
                                0
                                No to ten potworek pozamiata karty AMD do reszty.
                                • avatar
                                  Konto usunięte
                                  0
                                  Oooo ku*** to wgniecie tego radka do jądra ziemi
                                  • avatar
                                    Konto usunięte
                                    0
                                    HA HA HA King is only one, King is BACK! HA HA HA HAAAHAHAAAA
                                    • avatar
                                      hideo
                                      0
                                      375W?!!! no to już przekroczyli dopiero co ogłoszoną specyfikację PCI-E 3.0 300W :( echh PARANOJA! czy chorzy ludzie to projektują czy co do cholery bo już tego nie rozumiem?! toż to sprzęt domowy grafika domowa a nie profesjonalna Quadro! to będzie potwór ale pozamiata kieszenie swoich właścicieli rachunkami za prąd a przy obciążeniu trzeba będzie mieć słuchawki wygłuszające X-| zobaczymy czy twórcy gier będą wymagać takich grafik, ja zostaję przy grafach pc póki gry chodzą na kartach do 150W, jeżeli ma być wyżej to dziękuję pozostanę wówczas już tylko przy moich konsolach i g***o mnie interes ATI/NVIDII obchodzi
                                      • avatar
                                        Konto usunięte
                                        0
                                        To byłby fajny sprzęt gdyby max TDP wynosiło do 300W, inżynierowie zamiast skupić się tylko zwiększeniu wydajności, powinni pomyśleć jak zredukować TDP, niedługo będą karty 500W, gdzie ten postęp?
                                        • avatar
                                          Lightning
                                          0
                                          Myślałem, że stworzą kartę 2x GF114, a tu nagle wyskoczyli z 2x GF110 - ciekawe kiedy premiera
                                          • avatar
                                            michu82
                                            0
                                            Każdy gdyba , ale kogo stać na taki sprzęt - niewielu. Faktem jest , że NVidia ze swoim GTX580 nieźle pocisnęło , ale my zwykli użytkownicy musimy kalkulować.
                                            • avatar
                                              Konto usunięte
                                              0
                                              AMD już nic nie może zrobić ze swoim słabym 6999990, nVidia zmiecie go z rynku i każdy zapomni o tej karcie.
                                              • avatar
                                                jeomax.co.uk
                                                0
                                                Po co robic karty dwuchipowe, i jeszcze dokladac mostek nF200, jak mozna zrobic jednego chipa z dwa razy wieksza iloscia wszystkiego ;-0
                                                • avatar
                                                  Konto usunięte
                                                  0
                                                  I czym tu się podniecać. 98 % z nas pewnie i tak nie kupi sobie tej karty a po za tym i tak karta nie rozwinie w pełni skrzydeł bo nie ma tak wymagających gier. Karta wyprodukowana tylko po to aby przegonić konkurencje w głupich rankingach.
                                                  • avatar
                                                    Warmonger
                                                    0
                                                    Wydajne to na pewno będzie, ale od samego patrzenia na specyfikację można się oparzyć. Nie tędy droga.
                                                    • avatar
                                                      Konto usunięte
                                                      0
                                                      Będzie ciekawy pojedynek. Wreszcie 2GPU vs 2GPU :)
                                                      • avatar
                                                        Konto usunięte
                                                        0
                                                        Może nie pogromce ale sporego konkurenta ;) Chociaż wiadomo może ten GTX595 zgniecie HD6990? albo na odwrót...
                                                        • avatar
                                                          racedriver
                                                          0
                                                          fajnie sie zapowida, gpu beda takie same co w gtx580, wiec przy dobrym niereferncyjnym chlodzeniu, albo chlodzeniu wodnym bedzie mozna je sporo podkrecic.

                                                          w dodtaku to konfiguracja z dwoma takimi gtx590 w SLI to bedzie istna bestia
                                                          • avatar
                                                            lopez2
                                                            0
                                                            co sie tak podniecacie tymi kartami ? niech ktos mi znajdzie gra ktorej nie wystarczy 2x6850. rozumiem ze kiedys byl bol bo karty nie nadazaly i kazdy nowy produkt byl na wage zlota czy platyny ale obecnie - po co? komu ? do czego ? niech robia co chca ja mam to w D... :)
                                                            • avatar
                                                              Hakuren
                                                              0
                                                              Najwyzszy czas aby producenci zaczeli podazac ta sciezka. Tradycyjne 2/3/4SLI jest kompletnym nieporozumieniem jesli ktos posiada system gdzie jest cos wiecej niz tylko karta graficzna.

                                                              Jedna karta, dwa GPU na pokladzie i automatycznie zwalnia sie jeden slot x16, ktory mozna spozytkowac znacznie lepiej (przy obecnej generacji kart VGA dla klasycznego SLI w zupelnosci wystraczaja 2 porty PCI-Ex x8) - jak np. dodatkowa karta RAID, czy SSD na PCI-Ex.

                                                              Co do 2 zlacz 8 pinow. Mam szczera nadzieje, ze ASUS pojdzie utarta droga i dolozy jeszcze jedne 6-pinow. Jaki jest sens w produkowaniu takiej karty jesli oba uklady beda pracowac w nieco "zdegradowanym" stanie ze wzgledu na nizsze zegary.

                                                              Cena bedzie prohibicyjna z pewnoscia, ale ja jestem zainteresowany bardzo. Taniej jest kupic jedna karte VGA (na nastepne 5-10 lat) i nastepny kontroler RAID niz 2 VGA i wymieniac kontroler na wiekszy.
                                                              • avatar
                                                                Konto usunięte
                                                                0
                                                                test 2x GTX 580 w SLI napawa mnie optymizmem bo wreszcie skalowalnosc jest na akceptowalnym poziomie. Oznacza to, ze taka dwo-procesorowka ma sens. Niestety obawiam sie, ze moje i7 930 @4.0 GHz moze byc sporo za slabe zeby wykozystac w pelni moc takiej karty.

                                                                mam nadzieje, ze pojedynczy Sandy Bridge albo Bulldozer (bez cieklego azotu) zniweluje te dysproporcje wydajnosci.
                                                                • avatar
                                                                  Nadchodze
                                                                  0
                                                                  A kiedy ma być premiera 560 ? 1-2-3-4 kwartał roku ?
                                                                  • avatar
                                                                    Konto usunięte
                                                                    0
                                                                    w kazdym razie BEDZIE SIE DZIALO :)
                                                                    • avatar
                                                                      SoundsGreat
                                                                      0
                                                                      2x512 SP? Oj nie wiem co musiało by zrobić ATI - jak (n)Vidać nVidii po(n)Vodzi się co raz nLepiej...
                                                                      • avatar
                                                                        Konto usunięte
                                                                        0
                                                                        AMD już nic nie może zrobić jak widzi co robi nVidia z jej kartami, wszędzie GeForce'y rozkładają kiepskie Radeony na łopatki a jak jeszcze taki potwór wyjdzie to AMD leży.
                                                                        • avatar
                                                                          Konto usunięte
                                                                          0
                                                                          Czuję się jak na onecie....
                                                                          • avatar
                                                                            b1tzz
                                                                            0
                                                                            Bronicie tych dźiforsów i radeonów jakbyście bronili swoich poglądów religijnych. Może czas się zacząć leczyć? :o
                                                                            • avatar
                                                                              stupidisco111
                                                                              0

                                                                              pogromy pogromców pogromców tamtych pogromców


                                                                              i tak w kółko Macieju...
                                                                              i tak można czekac i wstrzymywać sie z zakupem przez pół zycia

                                                                              dla kogoś kto liczy każdy grosz to samonapędzajace sie perpetum mobile moze powodowac odruchy wymiotne


                                                                              gonienie króliczka, którego i tak sie nie złapie
                                                                              • avatar
                                                                                Konto usunięte
                                                                                0
                                                                                Ciekawy kąsek, zobaczymy co z tego wyjdzie :)
                                                                                • avatar
                                                                                  Otheim
                                                                                  0
                                                                                  Czytanie Cyrixa powoduje u mnie napady śmiechu, mam nadzieje że nie trafię do szpitala aby mnie musieli zszywać. Zastanawia mnie jedno, jaki on ma sprzęt tak na prawdę. :D
                                                                                  • avatar
                                                                                    Adixxx
                                                                                    0
                                                                                    Ciekaw jestem kto i po co to kupi.
                                                                                    Wywalać co najmniej 3 tysiące na kartę graficzną jest chorobą.
                                                                                    Wole mieć tą kilkuprocentową mniejszą wydajność, ale zapłacić DUŻO mniej (mam tu na myśli karty od AMD).
                                                                                    • avatar
                                                                                      Konto usunięte
                                                                                      0
                                                                                      goscie z watomierzami w rekach przestaniec robic parodie, caly czas tylko goroco glosno i duzy pobor, kupze se jeden z drugim GF-MXa i problem z glowy macie lipne maszyny na prad was nie stac to nie kupujcie proste, myslicie ze moc obliczeniowa bierze sie z bateryjki 9v ?? szkoda slow...
                                                                                      • avatar
                                                                                        Konto usunięte
                                                                                        0
                                                                                        kameleon popieram. kolego hideo dzieckiem juz nie jestem i stac mnie na prad od rodzicow nie dostaje ;) znac kasaiastych znajomych a miec kase to jest roznica. Tak samo stac mnie zakupic grafike ale poczekam az nvidia wypuscie cos multi GPU i wtedy zakupie dwie, strasznie cie urazilo to hehe no coz... komentowal tego nie bede ...
                                                                                        • avatar
                                                                                          Konto usunięte
                                                                                          0
                                                                                          Ja na pewno nie kupię takiej karty bo mnie nie stać... ALE pobór prądu mnie nie interesuje, czy komp z resztą peryferiów bierze 300 czy 600 W skoro dostarcza mi sporo rozrywki. Jestem starym graczem i gry to coś co umila mi czas a za rozrywkę trzeba płacić. Te kilkadziesiąt/kilkaset KWh jest nie istotne:P. Faktem jednak jest że prawdziwy postęp jest wtedy kiedy rośnie wydajność a zapotrzebowanie na energię nie rośnie lub wręcz maleje.
                                                                                          • avatar
                                                                                            Konto usunięte
                                                                                            0
                                                                                            Na pewno będzie baaaaaaaaaaaaaaaaaaaaaardzo tania :D Z resztą nowe radedony też xD
                                                                                            • avatar
                                                                                              Szymon331
                                                                                              0
                                                                                              Ktoś kupi tego potwora. Będzie szpan i wyniki w 3D Markach. A w grach?

                                                                                              A w grach tak samo płynnie jak na kartach kosztujących 1/3 ceny i pobierających może z 40% energii potrzebnej dla powyższego rozwiązania.

                                                                                              No chyba że ktoś widzi różnicę pomiędzy 80FPS a 180FPS...

                                                                                              DO tego za dwa lata będą karty z jednym GPU które będzie szybsze a pobierać będzie mniej prądu. Gry stoją w miejscu. Droga zabawa ale i tak niektórzy widzą sens kupowania takich kart.

                                                                                              Ja nie widzę sensu.

                                                                                              News ciekawy i bardzo rozrywkowy. 110 komentarzy z czego ze 20 powodują u mnie napady śmiechu :)
                                                                                              • avatar
                                                                                                Konto usunięte
                                                                                                0
                                                                                                Do wszytkich z watomierzami w oczach których przeraża TDP grafiki na poziomie 350W. Zróbmy zestawienie prądożernego potwora 350W, kontra super oszczędniś 150W. Zakłądając że mamy do czynienia z lekko nałogowym raczem, który łupie codziennie przez 4h, wychdzi nam 42 Kwh kontra 18 kwh, czyli 21 złotych kontra 9 złotych. Jak kogoś stać na wydanie za karte 1800 zł, to nie sądzicie że stać go również na 12 ZŁOTYCH miesięcznie na prąd do niej? nieprawdaż centusie?
                                                                                                • avatar
                                                                                                  Konto usunięte
                                                                                                  0
                                                                                                  No to się doczekaliśmy!! Nowy Geforce na układzie Cyrix 133 !! Po Fermi GF100 -> Cyrix 133!