Karty graficzne

GTX 590 będzie połączeniem dwóch GTX-ów 580

z dnia 2011-01-28
Paweł Maziarz | Redaktor serwisu benchmark.pl
127 komentarzy Dyskutuj z nami

W sieci pojawiła się specyfikacja dwuprocesorowej karty GeForce GTX 590, która będzie swojego rodzaju połączeniem dwóch GTX-ów 580. Karta ma trafić do sklepów w lutym bieżącego roku.

Dwyprocesorowy GeForce bazujący na drugiej generacji układach Fermi, zagościł już niejednokrotnie na łamy benchmarka. Wspominaliśmy o wyglądzie prototypowej płytki drukowanej karty oraz o prototypie gotowej konstrukcji firmy EVGA. Niestety dotąd niewiadomą była specyfikacja „monstrum od NVIDII”, a także jakie procesory zostaną ostatecznie wykorzystane.

Warto przeczytać:
CES: dwuprocesorowy GeForce GTX 59x ?
  NVIDIA szykuje pogromcę Radeona HD 6990

Oczekiwanie dobiegło końca. Dzięki informacjom uzyskanym przez serwis NordicHardware możemy podzielić się z wami pierwszymi danymi technicznymi na temat karty GeForce GTX 590, nowej flagowej konstrukcji NVIDII. Według informacji, karta będzie wykorzystywała dwa procesory GF110, które znamy z kart GTX 580. Pojedynczy układ GPU dysponuje 512 rdzeniami CUDA, 64 jednostkami teksturującymi oraz 48 jednostkami rasteryzującymi. Dla każdego z procesorów graficznych przeznaczono 1536 MB pamięci GDDR5 o 384-bitowej magistrali.

Mówiąc inaczej, najwydajniejsza karta NVIDII, będzie niczym innym, jak połączeniem dwóch najwydajniejszych w ofercie firmy kart jednoprocesorowych. Zagadką pozostaje pobór energii przez nową konstrukcję, ale prawdopodobnie producent zdecyduje się na obniżenie zegarów 590-tki w stosunku do pojedynczego GTXa 580 (którego pobór energii wynosi 244 W). Według zapowiedzi karta będzie chłodzona jednym 90 mm wentylatorem, który zostanie umieszczony na środku laminatu – podobnie jak w miało to miejsce w GeForce GTX 295 opartym o jedną płytkę drukowaną.
 

Model GeForce GTX 590 GeForce GTX 580
Technologia wykonania 40 nm 40 nm
Liczba tranzystorów w układzie/-dach 6 miliardów 3 miliardy
Ilość shaderów 1024 512
Jednostki teksturujące 128 64
Jednostki rasteryzujące 96 48
Typ pamięci GDDR5 GDDR5
Ilość pamięci 3072 MB 1536 MB
Magistrala pamięci 2 x 384 bit 384 bit
Pobór energii brak danych 244 W

Premiera GeForce'a GTX 590 ma nastąpić już w lutym, a więc mniej więcej w tym samym okresie co Radeona HD 6990. Która z kart okaże się wydajniejsza, a która bardziej opłacalna? Tego nie wiemy, ale zapewne już za jakiś czas w sieci zaczną pojawiać się pierwsze wyniki wydajności obu konstrukcji. Pewne jest natomiast to, że obie konstrukcje nie będą skierowane dla zwykłego zjadacza chleba, a dla entuzjastów oraz overclockerów.
 

Ten artykuł pochodzi ze strony benchmark.pl

Źródło: nordichardware.com
 

Polecamy artykuły:    
Produkt Roku 2010/2011 - wybór czytelników
Easter Eggs, czyli jaja w grach
Testy laptopów: 20 modeli na każdą kieszeń
marketplace

Komentarze

127
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Pewnie pobór energii większy niż w GTX480, temperatury to samo. HD 6990 pewnie będzie porównywalnie tak samo dobry jak GTX590 tylko z 3 razy mniejszymi temperaturami ;)
    Zaloguj się
  • avatar
    Pobór energii(GeForce GTX 590)brak danych - boja sie podac taka wartosc
    Zaloguj się
  • avatar
    "..zapewne już za jakiś w sieci zaczną pojawiać się pierwsze wyniki wydajności.."
    Brakuje słowa "czas".

    Poprawić ;)
    Zaloguj się
  • avatar
    "Zalecamy reaktor atomowy do poprawnego działania karty"
    Zaloguj się
  • avatar
    Jaaaaaaaa!
    WoooooooW!
    łoooooooo!
    yeeeaaaah!
    uuuuaaaaa!

    nVIDIA > AMD
    :lol:

    Ciekawe co z tego będzie. Najbardziej ciekawi mnie nie tyle wydajność, bo testy SLI GTX580 są, ale właśnie pobór mocy, temperatury, samo chłodzenie, jego głośność.
  • avatar
    +2 dla właściciela nVidia +1 dla AMD do przedłużenia e-siura. Tyle, że laski na to nie lecą :P
    Zaloguj się
  • avatar
    OMG LOL cena ponad 4000zł znając Nvidie, a 6990 kosztowac bedzie ok. 2000zł?

    CO lepsze? RADEON!!!
    Zaloguj się
  • avatar
    Widać nVidia zawalczy o palmę pierwszeństwa, 6990 raczej będzie mniej wydajny. Jednakże cena 6990 będzie także zdecydowanie niższa. Ciekawa sytuacja, bo powstanie nowy segment cenowy z tylko jedną kartą(gtx590).
  • avatar
    375W
  • avatar
    Tak ze 20 giga watów pewnie wystarczy. Na sam wiatraczek oczywiście.
    Zaloguj się
  • avatar
    NVIDIA szalej AMD musi coś wymyślić żeby im dorównać premiera GTX560 a teraz już nie długo GTX590 zapowiada się ostra rywalizacja będzie się dział wydajność będzie na pewno duża ale pobór prądu wysoki ciekaw jak z głośnością takiego potwora będzie temperatury pewnie podobne jak w GTX580 zobaczymy ile za to sobie życzą czekam na pierwsze testy czy będzie warto
    Zaloguj się
  • avatar
    Wydaje się jednak oczywistym, iż GTX będzie wydajniejszy od Radka, przecież GTX 580 jest dużo lepszy od HD 6970, więc nawet jeśliby czerwoni poszli podobną drogą, co ich konkurenci i połączyli dwie najwydajniejsze jednostki nici z objęcia pierwszeństwa.
    GTX 580 > HD 6970 => gtx 590 >> HD 6990
    (myślę, że znak ">>" - znacznie większy [lepszy] jest tutaj jak najbardziej na miejscu)
  • avatar
    Co do tego że Nvidia GTX590 będzie szypsza to jest pewne ale zato będzie więcej pradu pobierać i będzie droższa od Radeona tak samo ma się do temperatury nvidia będzie cieplejsza od konkuręta.Ale tego nie wiadomo na 100% więc tzeba poczekać aż wyjdą obie karty i wtedy sie zobaczy narazie to są tylko przypuszczenia.
  • avatar
    Wydajność będzie wysoka - to wiadome. Ciekawią mnie zegary. Na pewno będą niższe niż w GTX'ie 580 ale o ile?
    Zaloguj się
  • avatar
    Ze względu na karty dwuprocesorowe w Polsce musi powstać wydajna elektrownia Atomowa albo nawet dwie na zapas :):):)
  • avatar
    cyt."szypsza","zato", weź człowieku słownik jeżeli masz problemy z ortografią, i wtedy dopiero pisz coś na publicznym portalu internetowym.

    Co do GTX 590 i HD 6990, tutaj moim zdaniem nie ma sensu wróżyć co będzie lepsze,a co będzie cichsze etc. Tu nie o to chodzi, te karty w większości przypadków stanowić będą podstawę do jakichś specjalnych zastosowań PC'ta.
    Np. GTX 590 -> rdzenie CUDA w różnego rodzaju obliczeniach je wykorzystujących
    HD 6990 -> Eyefinity
    I chyba jasne że ktoś kto będzię konfigurował kilka monitorów(np. 3x1 fHD -> 5760x1080) weźmie Radeon'a, nie patrząc na wydajność konkurenta.
    I na odwrót ktoś korzystający z CUDA z pewnością weźmie GeForce'a.

    Pozdro
  • avatar
    cyt."szypsza","zato", weź człowieku słownik jeżeli masz problemy z ortografią, i wtedy dopiero pisz coś na publicznym portalu internetowym.

    Co do GTX 590 i HD 6990, tutaj moim zdaniem nie ma sensu wróżyć co będzie lepsze,a co będzie cichsze etc. Tu nie o to chodzi, te karty w większości przypadków stanowić będą podstawę do jakichś specjalnych zastosowań PC'ta.
    Np. GTX 590 -> rdzenie CUDA w różnego rodzaju obliczeniach je wykorzystujących
    HD 6990 -> Eyefinity
    I chyba jasne że ktoś kto będzię konfigurował kilka monitorów(np. 3x1 fHD -> 5760x1080) weźmie Radeon'a, nie patrząc na wydajność konkurenta.
    I na odwrót ktoś korzystający z CUDA z pewnością weźmie GeForce'a.

    Pozdro
  • avatar
    "Dwyprocesorowy " Dwu

    "karta będzie chłodzona jednym 90 mm wentylatorem, który zostanie umieszczony na środku laminatu"

    I tak producenci dołożą co najmniej jeden
    Zaloguj się
  • avatar
    Tak trudno im zrobić kanapkę? Przecież się w tym specjalizują xD
    Zaloguj się
  • avatar
    jak wszystko daja przez 2 mnożone niech sie nie boja napisac 488 W :D
  • avatar
    @-YoShi-
    Widze, że pojęcie sarkazm jest Ci obce.
    A tak poważnie mówiąc to HD6990 nie ma prawa być wydajniejsze biorąc pod uwagę to, że może być conajmniej dwoma HD6970, które są sporo słabsze od GTX 580, konkuruje ona (6970) wręcz bardziej z GTX 570, dodatkowo lepsze spisywanie się SLi, niż CF (z tego co mi wiadomo) no i AMD będzie miało prawdę mówiąc słabszą pod względem wydajności kartę, a obecnie układy AMD i nV są b. konkurencyjne pod względem ciepła i podkręcalności z przewagą dla GeForce'ów wręcz...
    :]
    I to chyba by było na tyle. :D
    Zaloguj się
  • avatar
    oj bedzie sie dzialo.. nie sadze by tdp bylo wieksze niz 400W, sadze ze to jest taki max chlodzenia powietrzem.. chyba zeby przywalili 2x mugen na takiej karcie to kto wie :D
    Oj od razu wszyscy skreslacie amd, nie zapominajcie ze nvidia bedzie musiala zjechac z zegarami i napieciem odrobine, a amd zeby miec ten sam tdp nie musi tego robic w tak duzym stopniu i tu moze troche zyskac na wydajnosci.

    Co do ceny to nie ma co spekulowac wiadomo ze bedzie wysoka, do 3k dobije i co z tego? - kto ma kupic to kupi kto nie to bedzie sobie czytal recki i " " (wstawcie co chcecie :D)
    ja chetnie wymienilbym 460 na 560 i juz mial konkretny spokoj, tyle ze po co skoro nie ma w co grac :D,

    Ja proponuje poczytac o Unlimited Detail - fajna technologia gdyby ja wykorzystac a moze i uzyc CUDA do tego to rozwoj kart bylby w sumie nie potrzebny..

    Wogole ja nie wiem po co robia nowe karty, skoro wszystko na starych chodzilo by jak nalezy gdyby programistom sie chialo troche zoptymalizowac kod.. - kasa goni kase..
    Zaloguj się
  • avatar
    Już czekam na testy obu kart : )
    Zaloguj się
  • avatar
    Masz wybór Bmw M5 czy Audi R8.Nabywce stać na obydwa.Teraz się zastanawia czy kupić ten co pali mniej.Łapiesz?
  • avatar
    AMD i tag bencie lebże se zwojim 6990.
    OMG LOL LOL OMG.
  • avatar
    widamomo jak bedzie, nvidia wydajniejsza, amd tansze. kazdy wybierze to co woli.

    ale fanboy'e i tak wola obrzucac siebie blotem.
  • avatar
    Nie wiem po co komu takie potwory jak na gtx580 przy procku taktowanym na 3,8ghz na maks detalach w Starcraft2 w 1920x1080 można uświadczyć 180fps, dziś sprawdzone na własnej skórze :) nawet na powtórce 2Xszybciej jest stałe 60fps przy włączonej synchronizacji pionowej. Robienie takich kart to tylko nabijanie kabzy przez fanatyków i fanów nowych technologii. Nikt w zwyczajnym codziennym użytkowaniu nie jest w stanie zapchać takiej karty.
  • avatar
    boze i znowu WATY, wy tylko umiecie pisac ze znowu goroca i znowu duzo proadu, no zalamka jak sie na tych .... patrzy zrozum wreszcie jeden z drugim ze jest to wieksza moc obliczeniowa, musi sie ona skads brac a az tym idzie prad i ciepli, proces technologiczny produkcji nie bedzie sie zmniejszal w nieskonczonosc i faktycznie jak cie jedenz drugim rusza 20zl + - za prad to juz nic nie pisz i wylacz kompa ;)
  • avatar
    Nie wiem czy mam się śmiać, czy płakać, ale wiadomo,że jak kogoś stać na kartę graficzną, to i za prąd zapłaci, zawsze znajdą się ludzie co kupią kartę za 2,5k PLN i będą nadal płakac,że im coś nie chodzi, a bo sterowniki złe, a to wstrętny producent gry coś zkiepścił bo im ich ulubiona gra nie chodzi, a oni zapłacili, znam ludzi posiadających HD5970 jęczących, że coś nadal nie jest ok.....
    Tak można ciągnąć to w nieskończoność...
  • avatar
    Nie rozumiem czym Wy się tak podniecacie?
    I tak większości z Was nie będzie stać na zakup kart od 590 i 6990 więc o co ta cała "gruszka"???
    Oj dzieciaki, dzieciaki...
  • avatar
    Niedługo wrócimy do czasów, gdy z pod pokrywy maszyny bucha para, a chłodzenia cieczą wymaga nie tylko urządzenie, ale i jego operator. Szykuje się druga rewolucja przemysłowa :P
  • avatar
    z kąd wiem dlaczego takie będą ceny?

    2x Asus GTX580 = 3998zł.
    A umieszczenie tego na jednym PCB to jest uciecha dla:

    Dostawcy prądu - Dużo prądu = Dużo $$$
    Nvidi - Na pewno znajdą się nabywcy tych że kart
    Gracza - SZPAN przed kolegami "Mam GTX590, twoje GTX470 jest śmieszne"

    śmieszne? mój kolega musiał sprzedać 2x GTX480 bo nie wyrabiał za prąd, rachunki skoczyły dośc ostro (chyba 100zł, nałogowy gracz)

    Szczególnie gdy sama karta będzie pobierac ok. 500W to powiedzcie, czy ktoś normalny to kupi?

    Kolejny raz powtarzam:
    Kogo stać na takie karty, tego stać na rachunki za prąd.

    Troche przesadziłem, Radek będzie kosztował więcej, bo HD5970 to 2x HD5850 na jednym PCB, a 5850 ile kosztuje? Średnio 770zł x2 = 1540zł, a HD5970 kosztuje ponad 2000zł.Więc oto odp.

    AMD walczy ceną, ale najprawdopodobniej Radek wygra.Dlaczego?

    ATi lepiej się skaluje i współpracuje z dwoma kartami.Gdzieś była o tym recenzja.Ale to poszukacjie na:

    guru3d.com
    Zaloguj się
  • avatar
    Tylko ktoś przygotowany na rachunki kupi tę karte ;D

    za 3998zł (jak mówi IntervenseI) można złożyc naprawdę fajny zestaw, który pod obciążeniem bedzie pobierał niewiele prądu więcej, a przy tym pogramy w każdą gierke...

    Karta chyba dla "innych" fanatyków gier
  • avatar
    spodziewam się tdm 350 wat myslę że to będzie maxymalny tdm :)
  • avatar
    Ja chciałbym zobaczyć gtx 590 w 3-Way sli :)
  • avatar
    GTX560 jest dobrym kotletem, GPU i pamięci wyżej taktują od poprzednika, i architektura ta sama co w gtx460, jedynie co mi się nie podoba w tych najlepszych kartach to pobór Energi i długość karty, przecież nie wszystkich wejdą karty 30cm+
    mogli by skorzystać z tech. 32nm i po problemie.
  • avatar
    32nm ta technologia zarezerwowana na nowe kotlety zapewne jest :P
    karta będzie pracowała trybie sli czyli dwie karty jak już to znamy na przykładzie 295 gtxa
    Zaloguj się
  • avatar
    Ludziom ,ktorzy wyskakuja z rachunkami za prad jako argumentem przeciko kupowaniu kart ,to chyba jeszcze mamusia i tatus placi za prad.

    Przesiadka z laptopa na puche ( gtx 480, i7 ) skutkowala u mnie podniesieniem rachunku o 8zl / miech. Powtarzam : Nie zmiana karty , tlko dodanie calego DODATKOWEGO kompa.

    Wiec podejrzewam ze waszych starych jeszcze stac na dodatkowa zlotowke czy 2 przy zmianie samej karty.
    Zaloguj się
  • avatar
    "ouwerklurzy" się ucieszą, Energa pewnie też:-)
  • avatar
    to lepiej kupić GTX 590 niż 2 x GTX 580 SLI wyjdzie taniej :)
    Zaloguj się
  • avatar
    Grafa na pewno będzie miała zapas mocy na kilka lat nie ma co jestem obiektywny (miałem już grafy Nvidii oraz ATi) ale muszę przyznać iż przy takim potworze HD 6990 będzie miał nikłe szanse na zwycięstwo pod względem wydajności... Mam nadzieje że do poprawnego działania nie będzie potrzebne 3 x 8pin zasilanie... Co jak co ale cena i pobór prądu będą równie wysokie (monstrualne??) co wydajność...

    Czekamy na testy...
  • avatar
    A co dopiero będzie jak wejdzie kepler od nvidi. Moc karty ma wzrosnąć od 30-40 razy :D :D :D
  • avatar
    sry 3-4 razy
  • avatar
    CO do waszej kłotni = bo tego inaczej się nazwać nie da to: rozumiem zarówno jednych i drugich. Jedni piszą o mocy karty a drudzy o jej wydajnosci. Nie da się zrobić tak aby karta czy inna rzecz pordezpół był mega wydajny i zjadał minimalną ilość prądu - wtedy pewnie by byli wszyscy zadowoleni i nie bylo by tej wojny haha. Też rozumiem jak mówicie , że jak ktoś kupuje kartę za powiedzmy 3 tysiace zloty to się nie liczy z opłatami za prąd i pewnie tak w tym przypadku jest , lecz wtedy nie tyko to wchodzi w gre a inne czynniki a w tym wypadku częśći komputera , bo cóż z tego że sobie wmontuję taką kartę jak procek będzie mizerny po co to komu , czy tez zasilacz nie wydoli. Takze takie wojny niczego nie wnosza a jedynie prowadza do wzwisk jak mielismy w paru postach wyzej możliwość zauważyć. Jedyne co jak dla mnie jest pewne nikomu z nas takie karty się nie przydadzą. Karta pokroju 460 z nvidi lub 6850 Ati obecnie są kartami w możliwość/cena najlepszymi wyborami jakie mozemy dokonac i nikt temu nie moze zaprzeczyc. A miec jedynie karte zeby jak ktos tu wyzej napisal "zeby sie pochwalic przed kolegami" - to jest dzieciniada. Osobiscie nawet jak bym mial kase to napewno bym nie wydal na komputer tyle pieniedzy no chyba ze naprawde nie mial bym z pieniedzmi nic lepszego do robienia i je w kiblu topil. Ale recze wam ze jak byscie mieli tyle kasy to tez mieli byscie inne zajecia niz kupowanie i bawienie sie komputerami i pokazywanie jakim to nie jest sie PRO przd innymi na forum
    Zaloguj się
  • avatar
    Smiac mi sie chce z was :D zaden nie ma dobrej karty a kazdy sie wymadrza jak nic w praktyce hahahahahahaah
    Zaloguj się