Karty graficzne

NVIDIA szykuje pogromcę Radeona HD 6990

Paweł Maziarz | Redaktor serwisu benchmark.pl
126 komentarzy Dyskutuj z nami

NVIDIA świadoma zagrożenia ze strony AMD, będąc na fali po premierze udanego GTXa 580, ma zamiar stworzyć dwuprocesorową kartę. GeForce GTX 59x będzie konkurował z jeszcze nie wydanym - również dwuprocesorowym - Radeonem HD 6990. 

  Warto przeczytać:
 

Zdjęcie nowego potwora wydajności ze stajni NVIDIA jest nieoficjalne. Przedstawia ono jeszcze nie w pełni ukńczoną konstrukcję, która ma szanse powalczyć o miano najwydajniejszej karty graficznej na rynku. Co ciekawe, brak zgodności co do nazewnictwa - według niektórych źródeł będzie to GeForce GTX 590, jednak pojawiła się także nazwa GeForce GTX 595.  Jak będzie naprawdę, dowiemy się już niedługo.

Karta została wyposażona w dwa procesory graficzne NVIDIA GF110 połączone mostkiem NF200. Na laminacie znalazło się po 1536 MB pamięci GDDR5 dla każdego z układów. Co prawda na zdjęciu widać tylko 12 kości (po 128 MB), ale podobną liczbę kości skrywa prawdopodobnie rewers karty.
 


Na razie jeszcze nic nie wiadomo o taktowaniach karty, ale mają one być mniejsze niż w przypadku karty z pojedynczym układem GF110. Jest to spowodowane wymuszeniem mniejszego współczynnika TDP karty, który ma wynieść 375 W. Dla porównania GeForce GTX 580 z jednym procesorem graficznym może pochwalić się współczynnikiem na poziomie 244 W. Do zasilania karty wymagane będą dwie 8-pinowe wtyczki zasilające, które w połączeniu z portem PCI-Express x16 2.0 mogą dostarczyć maksymalnie 450 W energii. Warto zauważyć, że według testów na benchmark,pl, konfiguracja testowa składająca się z dwóch GTXów 580 pobiera 650 W mocy, a więc nie tak mało.

Na płytce drukowanej przewidziano miejsce na trzy wyjścia DVI oraz jedno mini DisplayPort. Dodatkowo dzięki złączu SLI będzie możliwe połączenie dwóch takich kart graficznych w jednym komputerze. Cała karta nie powinna być dłuższa niż jednoprocesorowy model, który mierzy około 27 centymetrów.

Oficjalna data premiery potwora NVIDII nie jest jeszcze znana. Jeżeli jednak producent zdecydowałby się na szybką premierę jeszcze w tym roku, to pozycja AMD i jej Radeona HD 6990 (którego data premiery jest przewidywana na pierwszy kwartał 2011 roku) może być zagrożona. Należy jednak wspomnieć, że w planach ASUSa był MARS II, czyli podwójny GTX 480, o którym na razie nic nie słychać.
 

Źródło: pcgameshardware.de
 

Polecamy artykuły:    
Fotogaleria: obudowa jakiej jeszcze nie było
TOP-10: Monitory
G eForce GTX 580 - najszybsza w rodzinie

 

Komentarze

126
Zaloguj się, aby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    A niechaj im wyjdzie na dobre! I oby w końcu pokazali co znaczy nVidia. Im konkurencja wyższa tym najnowsze produkty ATI zejdą z ceny, bo szczerze mówiąc ostatnimi czasy nieco im się w główkach poprzewracało od tego „dobrobytu”
  • avatar
    IronFe
    Do autora
    W tym zdaniu
    "Dla porównania GeForce GTX 580 z jednym procesorem graficznym może pochwalić się współczynnikiem na poziomie 244 W"
    zjadłeś słowo średnim (powinno być przed współczynnikiem)

    Dla standardu PCI-E 2.0 max współczynnik pobieranej mocy przez kartę wynosi 300W, więc skoro karta ma pobierać 375W to nie może spełniać wymogów PCI-E 2.0
  • avatar
    Konto usunięte
    "Warto zauważyć, że według testów na benchmark,pl, konfiguracja testowa składająca się z dwóch GTXów 580 pobiera 650 W mocy, a więc nie tak mało."

    Dwa błędy w jednym zdaniu - po pierwsze Wat to jednostka mocy i nie pisze się 650 W mocy, tylko po prostu 650 W,

    Druga sprawa jest dużo ważniejsza, bo merytoryczna. 650 W to wartość pobierana z gniazdka, a w grę wchodzi tu sprawność zasilacza. Taka ilość nie jest zużywana przez same komponenty, tylko jest powiększona o straty na zasilaczu. Ta dodatkowa moc nie wlicza się do obciążenia zasilacza.
    Dodatkowo zasilacz użyty do testów to jakieś totalne nieporozumienie - jak można w dobie 80 Plus Silver i Gold, używać zasilacz, który ma ledwie podstawowy 80 Plus? W takim razie zakładając sprawność jedynie 80 %, wychodzi 0,8*650=520[W] - i tyle pobierają elementy (takie jest obciążenie zasilacza). Na dobrym zasilaczu, jak Modu87 albo inny 80 Plus Gold, pobór tego systemu zamknie się w 600 W, także proszę tutaj nie manipulować osobami niezorientowanym w temacie, gdyż 520 W, a 650 W to ogromna różnica. Dodatkowo oczywiście trzeba uwzględnić, że komputer to nie same karty graficzne, a tego ile pobiera komputer bez kart już nie podaliście.
  • avatar
    Konto usunięte
    Jusz niemoge sie doczekać preniery. Ciekawe jak będzie z ceną.
  • avatar
    kopczenko
    jesli testy sa prowadzone w furmarku to trzeba jeszcze od tego poboru odjac maksymalnie obciazony 1 rdzen proca czyli jakies 60-70? W z gniazdka, do tego plyta,dysk 40W? i wychodzi 550W,

    YoSHi84 - dobrze pisze polac mu:D
    mniej wiecej 2 karty zezra góra 420W - pobór z gniazdka wzrósł o 200W - ale w grze;/ to co odpale furmarka albo jakis syntetyk i szacowania ida sie ... ?
    Nvidia sie zmiesci, - aha chyba nie beda ryzykowac TDP > 375W bo tyle moze dac 2x 8pin + pcie 1.0 - a kompatybilnosc musi byc

    "Dla standardu PCI-E 2.0 max współczynnik pobieranej mocy przez kartę wynosi 300W" - tyle to 3.0 ma wyciagac:D

    Co do 595 - ja bym wolal GF 114 @ 900mhz :D
  • avatar
    Konto usunięte
    Po co ta "zimna wojna" jak grafika w grach stanęła w 2007 roku na Crysis?
  • avatar
    Konto usunięte
    No o 14 wracam z pracy. Ciekawe ile będzie komentarzy i wzajemnych podjazdów. która firma lepsza, która "gupa",która oszukuje !
    I spośród tych wszystkich podjazdowych komentarzy , może z 8 osób stać na te dwie topowe karty obu firm.Sie zobaczy:D
  • avatar
    Dwd89
    heh, jestem ciekawy ceny tej nowej karty nvidii ;) Nvidia zawsze była droga, nawet kiedy była słabsza niż tańsze karty ATI ;) to się nie zmieni
  • avatar
    Konto usunięte
    Cyrix będzie wniebowzięty ;)
  • avatar
    tjindy
    Dawno mnie tu nie było. Fajnie że NV walczy o rynek bo nie ma nic lepszego niż zdrowa konkurencja. Zastanawia mnie tylko jeden fakt: pobór mocy. Powiem szczerze że chyba twórcy kart graficznych przesadzili z "pędęm ku lepszości" kosztem poboru prądu.
    ja rozumiem 100W. No 150W. Ale 250W na procek? 650W w stresie ?
    I żeby to jeszcze było okupione prawdziwym przyrostem prędkości.
    A tak gracze dostaną "prawie nie zacinającą się grę hiper duper" a graficy zyskają w GPU rendering parę procent mocy więcej...
    Bez sensu.
    Oczywiście żeby nie było piszę o obu producentach. Mam wrażenie że takie grafiki-potwory są jak rakiety V1 lub V2; szybkie, groźne, paliwożerne, a czasami piep..ną gdzie się podoba.
    Ech..

    tj-malkontent?
  • avatar
    Konto usunięte
    No, cyrix pokaż co potrafisz!
  • avatar
    Konto usunięte
    eee moj system teraz na pelnym obciazeniu procka (prime95) + odpalenie TFa (niezbyt wymagajacy w sumie) wpieprza 610W :)

    wiec 650W przy ukkladzie SLI takich potworow to NIC :)
  • avatar
    Konto usunięte
    Kolejny pogromca AMD, tym razem to już koniec pustych Mhz i kiepskich kart od AMD, ten potwór zmiażdży wszystko na swojej drodze.
  • avatar
    Konto usunięte
    Radeom HD 6990. Powinno byc n :)
  • avatar
    Konto usunięte
    No to ten potworek pozamiata karty AMD do reszty.
  • avatar
    Konto usunięte
    Oooo ku*** to wgniecie tego radka do jądra ziemi
  • avatar
    Konto usunięte
    HA HA HA King is only one, King is BACK! HA HA HA HAAAHAHAAAA
  • avatar
    hideo
    375W?!!! no to już przekroczyli dopiero co ogłoszoną specyfikację PCI-E 3.0 300W :( echh PARANOJA! czy chorzy ludzie to projektują czy co do cholery bo już tego nie rozumiem?! toż to sprzęt domowy grafika domowa a nie profesjonalna Quadro! to będzie potwór ale pozamiata kieszenie swoich właścicieli rachunkami za prąd a przy obciążeniu trzeba będzie mieć słuchawki wygłuszające X-| zobaczymy czy twórcy gier będą wymagać takich grafik, ja zostaję przy grafach pc póki gry chodzą na kartach do 150W, jeżeli ma być wyżej to dziękuję pozostanę wówczas już tylko przy moich konsolach i g***o mnie interes ATI/NVIDII obchodzi
  • avatar
    Konto usunięte
    To byłby fajny sprzęt gdyby max TDP wynosiło do 300W, inżynierowie zamiast skupić się tylko zwiększeniu wydajności, powinni pomyśleć jak zredukować TDP, niedługo będą karty 500W, gdzie ten postęp?
  • avatar
    Lightning
    Myślałem, że stworzą kartę 2x GF114, a tu nagle wyskoczyli z 2x GF110 - ciekawe kiedy premiera
  • avatar
    michu82
    Każdy gdyba , ale kogo stać na taki sprzęt - niewielu. Faktem jest , że NVidia ze swoim GTX580 nieźle pocisnęło , ale my zwykli użytkownicy musimy kalkulować.
  • avatar
    Konto usunięte
    AMD już nic nie może zrobić ze swoim słabym 6999990, nVidia zmiecie go z rynku i każdy zapomni o tej karcie.
  • avatar
    jeomax.co.uk
    Po co robic karty dwuchipowe, i jeszcze dokladac mostek nF200, jak mozna zrobic jednego chipa z dwa razy wieksza iloscia wszystkiego ;-0
  • avatar
    Konto usunięte
    I czym tu się podniecać. 98 % z nas pewnie i tak nie kupi sobie tej karty a po za tym i tak karta nie rozwinie w pełni skrzydeł bo nie ma tak wymagających gier. Karta wyprodukowana tylko po to aby przegonić konkurencje w głupich rankingach.
  • avatar
    Warmonger
    Wydajne to na pewno będzie, ale od samego patrzenia na specyfikację można się oparzyć. Nie tędy droga.
  • avatar
    Konto usunięte
    Będzie ciekawy pojedynek. Wreszcie 2GPU vs 2GPU :)
  • avatar
    Konto usunięte
    Może nie pogromce ale sporego konkurenta ;) Chociaż wiadomo może ten GTX595 zgniecie HD6990? albo na odwrót...
  • avatar
    racedriver
    fajnie sie zapowida, gpu beda takie same co w gtx580, wiec przy dobrym niereferncyjnym chlodzeniu, albo chlodzeniu wodnym bedzie mozna je sporo podkrecic.

    w dodtaku to konfiguracja z dwoma takimi gtx590 w SLI to bedzie istna bestia
  • avatar
    lopez2
    co sie tak podniecacie tymi kartami ? niech ktos mi znajdzie gra ktorej nie wystarczy 2x6850. rozumiem ze kiedys byl bol bo karty nie nadazaly i kazdy nowy produkt byl na wage zlota czy platyny ale obecnie - po co? komu ? do czego ? niech robia co chca ja mam to w D... :)
  • avatar
    Hakuren
    Najwyzszy czas aby producenci zaczeli podazac ta sciezka. Tradycyjne 2/3/4SLI jest kompletnym nieporozumieniem jesli ktos posiada system gdzie jest cos wiecej niz tylko karta graficzna.

    Jedna karta, dwa GPU na pokladzie i automatycznie zwalnia sie jeden slot x16, ktory mozna spozytkowac znacznie lepiej (przy obecnej generacji kart VGA dla klasycznego SLI w zupelnosci wystraczaja 2 porty PCI-Ex x8) - jak np. dodatkowa karta RAID, czy SSD na PCI-Ex.

    Co do 2 zlacz 8 pinow. Mam szczera nadzieje, ze ASUS pojdzie utarta droga i dolozy jeszcze jedne 6-pinow. Jaki jest sens w produkowaniu takiej karty jesli oba uklady beda pracowac w nieco "zdegradowanym" stanie ze wzgledu na nizsze zegary.

    Cena bedzie prohibicyjna z pewnoscia, ale ja jestem zainteresowany bardzo. Taniej jest kupic jedna karte VGA (na nastepne 5-10 lat) i nastepny kontroler RAID niz 2 VGA i wymieniac kontroler na wiekszy.
  • avatar
    Konto usunięte
    test 2x GTX 580 w SLI napawa mnie optymizmem bo wreszcie skalowalnosc jest na akceptowalnym poziomie. Oznacza to, ze taka dwo-procesorowka ma sens. Niestety obawiam sie, ze moje i7 930 @4.0 GHz moze byc sporo za slabe zeby wykozystac w pelni moc takiej karty.

    mam nadzieje, ze pojedynczy Sandy Bridge albo Bulldozer (bez cieklego azotu) zniweluje te dysproporcje wydajnosci.
  • avatar
    Nadchodze
    A kiedy ma być premiera 560 ? 1-2-3-4 kwartał roku ?
  • avatar
    Konto usunięte
    w kazdym razie BEDZIE SIE DZIALO :)
  • avatar
    SoundsGreat
    2x512 SP? Oj nie wiem co musiało by zrobić ATI - jak (n)Vidać nVidii po(n)Vodzi się co raz nLepiej...
  • avatar
    Konto usunięte
    AMD już nic nie może zrobić jak widzi co robi nVidia z jej kartami, wszędzie GeForce'y rozkładają kiepskie Radeony na łopatki a jak jeszcze taki potwór wyjdzie to AMD leży.
  • avatar
    Konto usunięte
    Czuję się jak na onecie....
  • avatar
    b1tzz
    Bronicie tych dźiforsów i radeonów jakbyście bronili swoich poglądów religijnych. Może czas się zacząć leczyć? :o
  • avatar
    stupidisco111

    pogromy pogromców pogromców tamtych pogromców


    i tak w kółko Macieju...
    i tak można czekac i wstrzymywać sie z zakupem przez pół zycia

    dla kogoś kto liczy każdy grosz to samonapędzajace sie perpetum mobile moze powodowac odruchy wymiotne


    gonienie króliczka, którego i tak sie nie złapie
  • avatar
    Konto usunięte
    Ciekawy kąsek, zobaczymy co z tego wyjdzie :)
  • avatar
    Otheim
    Czytanie Cyrixa powoduje u mnie napady śmiechu, mam nadzieje że nie trafię do szpitala aby mnie musieli zszywać. Zastanawia mnie jedno, jaki on ma sprzęt tak na prawdę. :D
  • avatar
    Adixxx
    Ciekaw jestem kto i po co to kupi.
    Wywalać co najmniej 3 tysiące na kartę graficzną jest chorobą.
    Wole mieć tą kilkuprocentową mniejszą wydajność, ale zapłacić DUŻO mniej (mam tu na myśli karty od AMD).
  • avatar
    Konto usunięte
    goscie z watomierzami w rekach przestaniec robic parodie, caly czas tylko goroco glosno i duzy pobor, kupze se jeden z drugim GF-MXa i problem z glowy macie lipne maszyny na prad was nie stac to nie kupujcie proste, myslicie ze moc obliczeniowa bierze sie z bateryjki 9v ?? szkoda slow...
  • avatar
    Konto usunięte
    kameleon popieram. kolego hideo dzieckiem juz nie jestem i stac mnie na prad od rodzicow nie dostaje ;) znac kasaiastych znajomych a miec kase to jest roznica. Tak samo stac mnie zakupic grafike ale poczekam az nvidia wypuscie cos multi GPU i wtedy zakupie dwie, strasznie cie urazilo to hehe no coz... komentowal tego nie bede ...
  • avatar
    Konto usunięte
    Ja na pewno nie kupię takiej karty bo mnie nie stać... ALE pobór prądu mnie nie interesuje, czy komp z resztą peryferiów bierze 300 czy 600 W skoro dostarcza mi sporo rozrywki. Jestem starym graczem i gry to coś co umila mi czas a za rozrywkę trzeba płacić. Te kilkadziesiąt/kilkaset KWh jest nie istotne:P. Faktem jednak jest że prawdziwy postęp jest wtedy kiedy rośnie wydajność a zapotrzebowanie na energię nie rośnie lub wręcz maleje.
  • avatar
    Konto usunięte
    Na pewno będzie baaaaaaaaaaaaaaaaaaaaaardzo tania :D Z resztą nowe radedony też xD
  • avatar
    Szymon331
    Ktoś kupi tego potwora. Będzie szpan i wyniki w 3D Markach. A w grach?

    A w grach tak samo płynnie jak na kartach kosztujących 1/3 ceny i pobierających może z 40% energii potrzebnej dla powyższego rozwiązania.

    No chyba że ktoś widzi różnicę pomiędzy 80FPS a 180FPS...

    DO tego za dwa lata będą karty z jednym GPU które będzie szybsze a pobierać będzie mniej prądu. Gry stoją w miejscu. Droga zabawa ale i tak niektórzy widzą sens kupowania takich kart.

    Ja nie widzę sensu.

    News ciekawy i bardzo rozrywkowy. 110 komentarzy z czego ze 20 powodują u mnie napady śmiechu :)
  • avatar
    Konto usunięte
    Do wszytkich z watomierzami w oczach których przeraża TDP grafiki na poziomie 350W. Zróbmy zestawienie prądożernego potwora 350W, kontra super oszczędniś 150W. Zakłądając że mamy do czynienia z lekko nałogowym raczem, który łupie codziennie przez 4h, wychdzi nam 42 Kwh kontra 18 kwh, czyli 21 złotych kontra 9 złotych. Jak kogoś stać na wydanie za karte 1800 zł, to nie sądzicie że stać go również na 12 ZŁOTYCH miesięcznie na prąd do niej? nieprawdaż centusie?
  • avatar
    Konto usunięte
    No to się doczekaliśmy!! Nowy Geforce na układzie Cyrix 133 !! Po Fermi GF100 -> Cyrix 133!