Karty graficzne

GeForce GTX 780: nieoficjalne wyniki wydajności karty

z dnia
Paweł Maziarz | Redaktor serwisu benchmark.pl
213 komentarze Dyskutuj z nami

2x wydajniejsza od GTX 580

W sieci pojawiły się pierwsze, nieoficjalne wyniki wydajności karty graficznej Nvidia GeForce GTX 780. Model ten ma oferować ponad dwa razy większą wydajność od obecnego GeForce GTX 580.

Pomimo faktu, iż w ostatnich dniach pojawia się dużo obiecujących informacji o kartach graficznych AMD Radeon HD 7000, to Nvidia nie ma zamiaru odpuszczać głównemu konkurentowi. Już w przyszłym kwartale mają pojawić się pierwsze konstrukcje z nowoczesnym, 28-nanometrowym układem graficznym Kepler GK104. Najprawdopodobniej niedługo później gigant z Santa Clara wyda karty graficzne z flagowym procesorem Kepler GK100. Co zaoferuje konstrukcja z najwydajniejszym GPU firmy Nvidia?

Poniekąd na to pytanie odpowiada nieoficjalny slajd z wynikami wydajności karty graficznej GeForce GTX 780. Warto zaznaczyć, że informacje te są nieoficjalne i nie należy im do końca wierzyć. Dlaczego GTX 780, a nie GTX 680? Do końca nie wiadomo, ale możliwości jest parę.

Pierwszy scenariusz mówi o porzuceniu serii 600 (podobnie jak w przypadku GeForce 300) i przejście od razu do GeForce 700. Drugi, bardziej prawdopodobny, zakłada wydanie kart graficznych z serii 600, ale najwydajniejsza z nich (GeForce GTX 680) wykorzystywać będzie układ Kepler GK104, natomiast najwydajniejszą karta z kolejnej serii będzie mieć procesor Kepler GK100.
 

Model GeForce GTX 580 GeForce GTX 780
Seria Fermi Kepler
Układ graficzny GF110 GK100

Taktowanie układu graficznego

772 MHz ?
Procesory strumieniowe 512 1024
Jednostki teksturujące 64 128
Jednostki ROP 48 64
Pamięć wideo GDDR5 GDDR5
Ilość pamięci wideo 1,5 GB ?
Magistrala pamięci wideo 384-bit 512-bit
Taktowanie pamięci wideo 4008 MHz ?

Testy wydajności karty GeForce GTX 780 przeprowadzono w siedmiu grach i jednym benchmarku, a porównano ją z modelem GeForce GTX 580. Na uwagę zasługuje fakt, iż testy przeprowadzono w rozdzielczości 2560x1600 pikseli pod kontrolą systemu operacyjnego Windows 7 64 bit i sterowników graficznych z serii 297, a na platformę testową składał między innymi się procesor Intel Core i7 3960X.

wydajność karty graficznej Nvidia GeForce GTX 780

W każdym teście GeForce GTX 780 oferuje zdecydowanie większą wydajność od modelu GeForce GTX 580. W zależności od tytułu przewaga sięga od 70% (w grze Batman Arkham City) do 130% (w grze Crysis 2).
 

Więcej o kartach graficznych Nvidia GeForce 600:

Źródło: WCCFTech

Sapphire Sam w domu

Komentarze

213
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Kart od "zielonych" nie kupuję od 3-4 lat ze względu na to, że musiałbym od razu zasilacz zmieniać i płacić więcej za prąd. Do tego za tę samą wydajność lub ciut gorszą mam 100zł czy nawet 200zł tańszą kartę od AMD.
    Zaznaczam, że mi karta graficzna służy w sumie tylko do gier.
    15
  • avatar
    Jakkolwiek wydajny będzie GTX 780 czy GTX 680 to jedno jest pewne.

    Słupki wydajności jakie nam serwuje nVidia przed premierą kolejnych układów należy od razu spalić i zakopać ;)
    13
  • avatar
    No to znów ktoś przekombinował z nazewnictwem...
    11
  • avatar
    Teoria z porzuceniem serii 600 jest prawdopodobna. Radeony będą miały już swoją siódemkę z przodu, może Nvidia też chcę mieć już siedem z przodu. Tak, aby dla laików nie wydawało się, że te modele są gorsze. Bo każdy laik stwierdzi, że 7 jest lepsze od 6.
    10
  • avatar
    Ciekawe ile będzie miał VRAM taki GTX780, obstawiam że mniej niż 1792MB na pewno nie będzie miał;)

    Dane są imponujące, 2x wydajniejszy od GTX580. Jeśli się to okaże prawdą to mamy niezła rewolucje na rynku GPU. Oby tylko pobór prądu nie podskoczył o 2x, bo jakoś mi się słabo widzi taki GTX780 z 3 wtyczkami 8 pinowymi;)
  • avatar
    UWAGA! Jak masz 10-17 lat i jesteś na garnuszku u mamusi - nie czytaj dalej.

    Niestety w kraju w którym prąd zaczyna się robić dobrem luksusowym (pośrednio w innych krajach UE też ale tylko w PL panuje takie ubóstwo a od nowego roku będą ZNOWU nowe stawki za prąd) kupowanie kompa do gier który oprócz jednorazowego zakupu pozbawi nas sporej gotówki to jeszcze później będzie miesiąc w miesiąc wysysał SPORĄ kasę z budżetu jest głupotą. Te karty są kierowane do naprawdę zamożnej grupy graczy. Wolę chyba ATI która w spoczynku będzie konsumować trzy waty prądu i będzie z półki cenowej ~700zł bo i tak zagram we wszystko w detalach high/med.
  • avatar
    Dla tych co zasłaniają się „prądożernością” kart graficznych polecam wziąć kalkulator do łapki i policzyć czy to są takie znowu wielkie różnice. Poniżej przykład:

    AMD Radeon 6950 vs. nVidia GeForce GTX 560 Ti – 33W na korzyść AMD.

    Przyjmujemy, że gramy 8h dziennie (czyli karta przez 8h pobiera maksymalną ilość prądu co też prawdą nie jest ale jakieś ramy musimy narzucić).

    8h * 30dni * 12miesięcy = 2880h * 0,033kW = 95,04kWh/rok

    Co przy na przykładzie RWE Stoen daje (korzystając z tego kalkulatora http://ure.gov.pl/ftp/ure-kalkulator/ure/formularz_kalkulator_html.php) roczną płatność 118.93.

    Należy pamiętać, że w tej cenie zawarty jest również abonament, koszty dostarczenia energii itp. (niektóre z nich płacimy, i tak korzystając z innych urządzeń).

    Czyli:
    118 / 12 = 9,8 zł na miesiąc… rzeczywiście kolosalna różnica.
  • avatar
    A ja proponuje zakopać topór wojenny i poczekać spokojnie na karty zarówno AMD jak i Nvidii, to wtedy ocenimy ;) Poza tym w kartach graficznych nie tylko liczy się sama wydajność, ale i to - ile pobiera prądu (nawet mój gtx260 potrafi ładnie szarpnąć z gniazdka :-D).
  • avatar
    Szczególnie patrząc na umiejscowienie w hierarchii Maxwella. ;)
  • avatar
    brat ma 570GTX i jakoś nie odczułem dużych rachunków za prąd jak dla mnie i nvidia i amd robią dobre karty ale jakoś za dużo problemów miałem z amd dlatego teraz kupuje nvidie.
  • avatar
    lol ale ludzie kochają fejki i co jest smutne ze wierzą w nie, zwłaszcza w 130% przyrost wydajności.
  • avatar
    Co wy piszecie? Więcej prądu ciągną nowe układy GeForce niż Radeon? GTX 560ti ciągnie tyle co 6950 a gtx 570 tyle co 6970.
    Nowe Radeony mają ciągnąć 300W!!!
  • avatar
    (Sorry mała edycja)
    No większość nie wie co to oszczędność,bo za prąd nie płaci,
    -tylko ich starsi czyli rodzice, a takie pisanie że GTX 560Ti jest na równi z Radkiem 6950 -jeśli chodzi o pobór WAT jest nie fer!!! w stosunku do wypowiadających się tu młodszych ludzi, po co wciskać im tę głupotę -tyle w temacie
  • avatar
    Każdy nowy procesor czy to GPU czy CPU będzie żarł duuużo prądu. Nowe architektury projektowane przy pomocy zautomatyzowanych narzędzi mają znacznie więcej tranzystorów niż rozwiązania projektowane z pomocą ludzkiego mózgu. Radeony bazują jeszcze na starszych układach a FERMI jest świeżynką.
  • avatar
    Znalazłem fenomen robienia tych benchamrków (i tu nie tylko od zielonych), każda gra czy to bench umieszczny jest zamiast na dysku to na RAM-ie (jest różnica odczytu ~140 Mb/s, a ~3000 Mb/s). I robią ludzi w bambuko, że niby sprzęt świetny.



    A co do wspomnianego wyżej PhysX, jest to przestarzały dodatek kupiony z 6 lat temu przez Nvidie i umieszczeny od tamtego czasu wyłącznie na niej. A jest to tylko jeden głupi sterownik... . To jest polityka zielonych, nie kupisz naszego sprzętu to tego nie dostaniesz, dlatego producentom gier się to nie spodobało i wybrali alternatywe HAVOC, która troszke gorzej chodzi na NVIDI (ze względu na tylko obciążający procesor PhysX). Ale to tylko moje zdanie..

    NIE JESTEM FANBOY`EM!!!

  • avatar
    Ha, jeszcze chyba nigdy nie było tak wczesnych przecieków przed premierowych ;-) (Wszak nowe GTX mają mieć swoją premierę około lata 2012... więc nawet w połowie nie wierzę w te ''ciekawe'' wykresy :-D
    A nazwy pewnie zmienili, bo nijak ''koligowały'' by z HD 7000 - GTX 700 brzmi od razu lepiej od GTX 600 ;-)
    Ach, cała nVidia (-:
  • avatar
    Jak to prawda to Nvidia odniesie spory sukces.
  • avatar
    Fake & Gay.
  • avatar
    Ktoś sobie jaja robi z tym wykresem 'nvidia confidential', a tutaj od razu wojna fanboyów i troli. Nieźle macie nawalone w czaszce. Ten serwis nieźle się stoczył.
  • avatar
    Ciekawe kiedy pokażą (oczywiscie działające) plastikowe atrapy...
  • avatar
    Wyglada jak FAKE.
    Po co w ogole umieszczacie plotki tego typu? przeciez wiaomo ze 99% tego czegos to sciema i fantazja jakiegos malolata. Chbya ze traktujecie to w formie humoru, chociaz sadzac po opisie - nie.
  • avatar
    No cóż trzeba zacząć szukać nabywców na GTX580 bo coś mi się wydaje że to jednak nie ściema.1024 procesory strumieniowe+dużo lepsze GPU+odpowiednie sterowniki mogą dać taką wydajność.
    Przez ostatnie lata było tak że gry na max detalach śmigały na styk na najlepszych kartach,teraz wszystko się odwraca i ciężko będzie znalezć tytuł który obciąży kartę w 100%.
  • avatar
    Tylko ciekawe il prądu ciągnie :/
  • avatar
    No większość nie wie co to oszczędność,bo za prąd nie płaci,
    -tylko ich starsi czyli rodzice, a takie pisanie że GTX 560Ti jest na równi z Radkiem 6950 -jeśli chodzi o pobór WAT jest nie fer!!! w stosunku do wypowiadających się tu młodszych ludzi, po co wciskać im nie głupote -tyle w temacie
  • avatar
    Ciekawe te testy - tam gdzie teselacja jest najbardziej wykorzystywana to GTX 780 powiększa przewagę nad GTX 580.

    Mimo wszystko i tak trzeba będzie czekać na oficjalną premierę żeby oceniać przyszłe karty Nvidii.
  • avatar
    nie jestem do końca przekonany czy technicznie dadzą radę wrzucić aż 1024procki, może się okazać że będą jednak ciąć lub że opóźnienia premiery będą duże, choć jeśli karta faktycznie taka wyjdzie to jest duże prawdopodobieństwo, że będzie najwydajniejszą kartą 1gpu na rynku, zaś dla zwykłych ludzi będą zapewne modele słabsze i tańsze ale wystarczająco dobre
  • avatar
    Odnośnie poboru prądu nie przesadzajcie nie jest tak drogo jak już ktoś jest takim skąpcem i liczy każdy 1Wat to niech ograniczy granie lepiej jest zagrać na 3-4 godziny w tygodniu na w ful detalach niż np 20 godzin na niskich ustawieniach graficznych i niskiej rozdzielczości
  • avatar
    Nie ma to tak jak HD 6870x2, cena około 1500 zł

    Testy:
    http://www.techpowerup.com/reviews/Powercolor/HD_6870_X2/17.html

    Jeśli komuś szkoda to niech nie gra na full ^^
  • avatar
    Szykuje się kolejny fermi, trochę obetną kartę przed premierą. Po 6 miesiącach wydadzą nową kartę na tej samej architektórze. nV ostatnio robi krok w tył a potem w przód - stoi w miejscu.
  • avatar
    Widzę tylko że najniższy przyrost mamy w grach które są sygnowane logiem AMD radeon, ciekawe. Chodzi oczywiscie o AVP i dirt 3. Battlefield 3 to inna sprawa bo chodź posiada logo obu producentów kart to jeśli chodzi o czerwonych to pewnie bardziej przyłożyli się do ich procesorów.
  • avatar
    Czemu np nie dali shoguna 2 skoro też ma dx11, czemu nie dali anno 2070, Albo dragon age 2(wiem, skopana optymalizacja ale tak samo jest z AVP 3). Po prostu tak jak świat światem w jednych grach będą lepsze geforcey, a innych radeony. Normalka. A oni sobie po prostu z pomocą exela wybrali najlepsze wyniki.
  • avatar
    porzucili serię 6. żeby dogonić w nazewnictwie 7. serię AMD ;)
  • avatar
    Chodziło mi o to, że różnica w architekturze musiała by być porównywalna do tej pomiędzy GTX2xx a GTX4xx.

    Natomiast z dotychczasowych przecieków wynikało że Kepler to ma być udoskonalony Fermi przeniesiony do procesu 28nm.

    Jeśli to drugie będzie prawdą to szczerze wątpię w tak duży przyrost wydajności. Bardziej spodziewam się różnicy podobnej do przejścia między serią HD4xxx a HD5xxx. tam też mieliśmy wszystkiego x2 i przejście na 40nm:
    http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/30.html

    Osobiście uważam, że Kepler będzie właśnie ewolucją a nie rewolucją w stosunku do Fermi(tak jak HD4xxx->HD5xxx). Stąd moje wątpliwości co do tak dużego wzrostu wydajności w stosunku do poprzednika.
  • avatar
    Jako posiadacz 3D Vision... czekam na nowe nvidie. Radków nie kupię, bo nie obsłużą 3D w mojej wersji systemu. A grać w 3D lubię... SKyrim, Batman, czy SW:Tor wyglądają zupełnie inaczej :)

    I zanim zakopiecie, że niby 'fanboj", albo ten, co kupuje "niepotrzebne wymysły"... lubię grać w 3D. Sam zarabiam na komp i na rachunki za prąd. Chcę grać w 3D, t to jest mój wybór i za moje pieniądze i wam nic do tego :)

  • avatar
    to są chyba plany na za dwa lata
    -1
  • avatar
    Odnośnie nazewnictwa - to było wiadome już od dawna, a bynajmniej łatwo było się tego domyślić. Seria 100, 300 to były OEM-ówki. Zresztą karty OEM z serii 600 chyba już nawet zaczęły wychodzić, więc tu nie ma się nad czym rozwodzić.
    Wracając do wydajności - również jest to całkiem możliwe. GK100 to praktycznie 2x większy układ, niższy wymiar produkcji pozwoli zapewne na osiągnięcie nieco wyższych zegarów, do tego nowa architektura Kepler i dopracowane sterowniki, które również mogą dać nawet kilkanaście procent do wydajności (tak jak to było ze sterownikami Forceware 256). To pewnie będzie potwór pokroju GTX480, ale patrząc na nieoficjalne testy wydajności to będzie mógł z nim Radeon HD7990, a i tak nie wiem czy AMD podoła tej konkurencji.
    Jeszcze jedna sprawa - ponoć najpierw wypuszczone miały być słabsze karty typu np. GTX760, GTS750, a dopiero później oczekiwany GTX780 (i IMO jest to dobra decyzja, bo nie będą musieli się męczyć z niskim uzyskiem tak jak to było z Fermim, a po dopracowaniu procesu będą mogli sobie pozwolić na takiego potwora). Także na początku będzie dominować HD7990, potem GTX780, potem HD8990 itd., więc równowaga zostanie zachowana ;)
    -1
  • avatar
    Wiadc od razu ze fake i to z prostego wzgledu. Jesli mamy wykres slupkowy to dlaczego nie mamy wykresu taktowania pamieci? Wszak zeby osiagnac takie wyniki na starej architekturze (nie zmienia sie wiec jest przewidywalna) trzeba zwiekszyc odpowiednio czesc parametrow. Po zwiekszeniu ROP itd zostaja tylko taktowania ktore mozna ustalic pod wzgledem wykresu slupkowego. Jak wyslicie ile wynosic by musialy taktowania? :D Taktowanie CPU nieznacznie mozna zwiekszac podczas gdy DDR5 znamy maksymalne taktowanie juz. Procesory strumieniowe nie sa wyznacznikiem wydajnosci w grach a jedynie obliczen wykonywanych przez karte graficzna.

    Wykresy bylyby prawdziwe gdyby karta graficzna miala 3 razy wiecej ramu i z tego powodu obslugiwala jakas hiperrozdzielczosc w tych grach. 580 po prostu by sie dlawila na tych rozdzielczosciach ze wzgledu na mala ilosc ramu.
    -1
  • avatar
    eeeeee tam wole czerwonych tansi chociąz i lepsi ;)
    -1
  • avatar
    o kolejna karta która nie wniesie niczego nowego do gier które w 90% sa portowane z konsol, jedynie entuziaści cyferek w benchmarku oraz lubujacy sie w rozdziałce 2560x1600 czyli jakis 1% graczy bedą mieli zabawe reszta nie powinna się w ogóle interesować tematem a tak swoją drogą ciekawe czy PS4/X720 wystartują w czasie gdy na rynku bedzie już Radeon HD 8xxxx i NVIDIA Maxwell wtedy może być już ciekawie
    -1
  • avatar
    Taki ładny dzionek, aż by się trochę pofanbojowało :)

    I tak jakby na benchmark.pl ukazała się sonda którą firmę bardziej cenisz NVIDIA czy AMD w kwestii GPU, to ciekawe kto by wygrał ?

    Ostatnio znajomy który ma w kompie zamontowanego Radeona miał problemy z odpaleniem Rage. Jak nie pojawiały się czarne trójkąty, to czarne kwadraty i taka zabawa....
    U mnie nie było żadnych problemów, bo ja mam zamontowane GPU takie zielone, ohydne, na dodatek mam efekty PhysX przy których włączeniu jest ryzyko uszkodzenia kompa, a i jeszcze moje duzo prądu i jest głośne.
    Dlatego chyba lepiej kupić Radeona, przecież te zabawy z normalnym graniem (patrz błędy w wyświetlaniu obrazu ) to jest taka atrakcja, przedsmak prawdziwej zabawy.
    W ogóle Radeony są tanie, zimne jak lód i bardzo opłacalne, bardzo energooszczędne. A i jeszcze mają wysoką wydajność, zwłaszcza w grach wykorzystujących teselację. Mają doskonałe sterowniki.
    O czymś zapomniałem ?

    -1
  • avatar
    A no tak, zapomnniałem o konsolach !
    Od razu muszę kupić zestaw PlayStation 3 i XboX360 razem z Uncharted !
    Zrobię interes życia !
    -1
  • avatar
    Nazwa skok z 2xx na 4xx teraz 5xx na 7xx.
    Ta wydajność wymiecie świat kart w posagi
    -1
  • avatar
    Jeżeli karta zaoferuje taką wydajność to wreszcie wyszła grafa którą zmienię i wysłużona 8800Ultra pójdzie na emeryturę, siostrze się przyda do simsów :D. Taki podobny skok w wydajności był właśnie z 7800 na 8800, czemu więc dziś przy okazji nowych grafik Nvdii nie miał być taki. Jeżeli karta będzie 2 razy wydajna jak 580gtx to wreszcie Crysis będzie grywalny na wszystkich ustawieniach jakie zechce a bardzo lubię tą grę :). Jak cena nie przeskoczy 2500zł to kupi się. Co do dyskusji o radeonach to ja jakoś nie jestem przekonany do kompatybilności ze starymi grami a też nowe często robią problemy o których się czyta aż za często, zawsze od rivy tnt miałem karty Nvidii i zawsze byłem mega zadowolony,
    -1
  • avatar
    A ja mam gdzie Nvidie, mam dosc jaj ze sterownikami ich kart sieciowych na nszotrze, ot co. (fajny byl co prawda model 7600 gs od palita :>)
    -1
  • avatar
    Należy znaleźć osobę odpowiedzialną za przeskoczenie nazwy GTX680 i serii 600, uderzyć ją pięścią bardzo mocno w bok głowy i wywalić z roboty. Myślę, że to jedyna sensowna rzecz, którą można napisać, bo nie widzę większego sensu spekulować o wydajności tego układu.
    -2
  • avatar
    Kolejny ciekawy artykuł pod którym pojawiły się tony komentarzy o wartości merytorycznej na poziomie spamu z biedronki...
    -2
  • avatar
    To ja już przygotuję patelnię...
    -2
  • avatar
    Z tego co wiadomo po drodze przed serią gtx7xx będzie seria gtx6xx i co do tych wykresów mogę się zgodzić gtx 780 może być nawet 2 razy wydajniejszy ale najpierw nvidia wypuści Gtx 680 który będzie średnio 25% wydajniejszy. Wciągu ostatnich lat tak było, tak nie ma co liczyć na 100% większą wydajność
    -3
  • avatar
    ja uzywam zielonych od kiedy mam kompa i tak juz zostanie:)
    -3
  • avatar
    Nvidii wierze bardziej. Projektant radeonkow klamie, mataczy i zakrywa prawde jak moze, byleby nie wyszlo ich amatorskie podejscie do rynku i technologii, naprawde ludzie powinni uczyc sie na bledach, ale niektorzy wola powoli ginac i tracac rynek go psuc.
    -4
  • avatar
    heh... Nvidia też załapało buldozerowy haczyk od AMD :P
    -5
  • avatar
    Jeśli specyfikacja jest prawdziwa i taktowanie rdzenia nawet podobne to był by bardzo duży skok.
    AMD wg.specyfikacji ilość jednostek strumieniowych zwiększyła o 1/3 czyli ogólna wydajność względem starej serii wzrosła o 30%.
    Ale patrząc na ilość tranzystorów która wzrosła prawie dwukrotnie to patrząc na wyniki testów mocno poprawili teslacje.
    Oby nie była do końca prawdziwa specyfikacja kart NV bo może to być mocny cios dla już dość mocno pobitego AMD pod względem CPU.
    -5
  • avatar
    powoduje opad szczęki co nie? ciekawe jak ati zamierza konkurować z czymś takim :)

    nie ma dwóch zdań to będzie sprzęt na pełnym wypasie
    -18
  • avatar
    Było by pięknie, w końcu seria dobrze działająca pod DX11, a za chwilę pewnie nowego DX zaprezentują i gry dopiero wtedy zaczną wykorzystywać DX11 ;)
  • avatar
    Albo Kepler to będzie zupełnie nowa architektura, nie mająca wiele wspólnego z Fermi, albo te wyniki to bzdura.

    Ze specyfikacji wynika, że przy idealnym skalowaniu wydajność może być max 50% wyższa, przy założeniu, że taktowanie będzie identyczne (wąskim gardłem byłaby pamięć i jednostki ROP).

    No chyba że Nvidia pójdzie po bandzie i znowu podniesie TDP - co umożliwi wyraźnie wyższe taktowanie.
  • avatar
    Szkoda, już myślałem, że będą się nazywały GTX 680.
  • avatar
    Szkoda tylko ze majac pc, przeszedlem w tym roku 3 gry na emulatorze WII i gamecube, + limbo na xboxa, god of wara i bayonette.
    Na pc dalej nie ma w co grac. Gry na szynach i strzelanki dla ludzi o iq 100
  • avatar
    Ehh czcze gadanie. Tego tematu nei da się przegadać. Koniec kropka. Ja kupuję karty od NVIDII, bo mam mnie jproblemów ze sterownikami i lubie ten 'przereklamowany' PhysyX. I tyle i po co takie rpzerzucanie się argumentami. I nie, nie dam za kartę 1500, bo szkoda mi pieniędzy, wolę sobie tapicerkę w aucie wyminić, ale za swojego 460 nie musiałem tyle dawać, a jestem zadowolony.

    pozdrawiam
  • avatar
    Szkoda, że nie ma informacji w jakim trybie testowane były te gry. Dx9 czy dx11, prawdopodobnie dx11, bo wszystkie testowane gry obsługują ten standard, ale jak nie ma napisane to do końca nie wiadomo. Jak to ma mieć taką wydajność to cena patrząc na gtx580 za 2200-2500 to chyba będzie jakieś 3500-4000 zł. kto to kupi? 1 na 100 Polaków? 1 na 1000? Te dane wątpię, żeby się potwierdziły po premierze kart.
  • avatar
    Niech sobie będzie jaka chce i tak będą zalegać sklepowe półki bo mało kto kupi te karty a gtx580 góra do 100zł będzie tańszy.
  • avatar
    a kalkulowal ktos z was w ten sposob ze dajac za ta karte okreslona cene odbije sobie na rachunkach za prad? co prawda spadek zurzycia pradu nie bedzie odczuwalny gwaltownie ale czas odstawic do lamusa pradozerne zasilacze potwory 800W czy wieksze i wystarczy 500W a z czasem gdy w dol pojda jeszcze procki z technologia to bedziemy musieli zaczac w te strone kombinowac :D
  • avatar
    Te słupki nawet jak są prawdziwe, to i tak wiem że prędko karty nie zmienię.
    A dla speców od marketingu nv "wielkie" brawa, wiadomo że ładniej wygląda "2x większa wydajność" niż niepotrzebne 200 fps zamiast 100 :D
  • avatar
    Ciekawe jaka cena.
  • avatar
    Jeśli nvidia wykorzysta wcześniejszą premierę 7970, to może zaryzykują i obniżą ceny kart, żeby uzyskać większą sprzedaż. Co jak co, ale nowego radeona nie kupię dopóki nie zobaczę gtx 700 vs hd7000 :D
  • avatar
    Przecież sterowniki serii 297.xx nie mają wsparcia dla gtx 600 i za pewne dla gtx 700, więc skąd taki test, znów jakaś ściema.