Na topie

Podsumowanie

Autor:
Kamil Myzia

więcej artykułów ze strefy:
Karty graficzne

A A

GeForce GTX Titan to bezdyskusyjnie najszybsza jednordzeniowa karta graficzna, w jaką możemy uzbroić naszego peceta. Zapewnia wyśmienitą wydajność w każdej grze, ma akceptowalny pobór prądu, nie osiąga astronomicznych temperatur, a układ chłodzenia nie zmusza wkładania zatyczek w uszy. Zbawienie dla graczy?! A jakże, o ile tylko ich stać na wyłożenie blisko 4 tys. złotych.

Geneza wdrożenia Titana wydaje się dość prosta. Nvidia stworzyła akcelerator bazujący na istniejącej już wcześniej Tesli (wykorzystywany do superkomputerów), dzięki czemu nie trzeba było opracowywać nowej architektury, czy budować chipu od nowa. Szybko i prosto. Rozbudowana architektura oferuje takie możliwości, że obyło się bez kręcenia rdzenia do ponad 1 GHz.

Titan wydaje się być świetnym rozwiązaniem dla przeciwników konfiguracji multiGPU. Choć producenci sprzętu i oprogramowania cały czas dążą do jak najlepszego wykorzystania platform składających się z dwóch lub więcej akceleratorów graficznych, to nadal zdarzają się wpadki z wydajnością, mikroprzycięciami, wymogiem zapewnienia odpowiednio wolnej przestrzenie w obudowie komputera, czy wreszcie z dużym poborem mocy. Co prawda zakup karty GeForce GTX 690 niweluje część wymienionych minusów platformy multiGPU, to jednak nadal pozostają najważniejsze z nich: możliwie przycięcia, bądź słaba obsługa SLI. Nie dotyczy to natomiast akceleratora z tylko jednym GPU, jakim właśnie jest Titan.

Nowość zielonych dedykujemy w głównej mierze zapalonym graczom z dużymi monitorami (27-30 cali), bądź entuzjastom. Tylko w najwyższych detalach graficznych Titan pokaże swój pazur. Stosując go w popularnej wśród graczy rozdzielczości 1920x1080 sprawimy iż GeForce GTX Titan często będzie się nudził nie wykorzystując swoich mocy przerobowych. Sprawdzi się tam, gdzie Radeon 7970 GE lub GeForce GTX 680 dostają zadyszki. Według naszych testów, Titan często jest w stanie generować bardzo płynny obraz, w sytuacjach gdy starsze jednordzeniowe karty graficzne wyświetlają obraz na granicy akceptowalnej płynności.

Nvidia zaopatrzyła swoje najnowsze dzieło w złącza SLI, dzięki czemu istnieje możliwość połączenia nawet trzech Titanów. Trudno sobie wyobrazić wydajność, jaką dysponowała by taka platforma, ale musi być astronomicznie wysoka. Jak tylko będziemy mieli okazję na pewno to dla Was sprawdzimy.

Jeśli tylko posiadacie odpowiednią ilość gotówki, monitor większy od okna, kupujecie każdą nowo wydaną grę i nie uznajecie innych ustawień graficznych jak „wszystko na maksa”,  zaprezentowany w niniejszym artykule GeForce GTX Titan jest kartą właśnie dla was. A jeszcze lepiej jak sprawicie sobie od razu dwa lub trzy ;-) Polecamy!

  Ocena: GeForce GTX Titan
  plusy:
super wydajność w każdym trybie
relacja poboru mocy do wydajności
akceptowalne temperatury pod obciążeniem
zmodernizowana technologia Boost 2.0
cicha praca chłodzenia w spoczynku
  minusy:
bardzo wysoka cena
Orientacyjna cena w dniu publikacji testu: 3800 zł
 dobry produkt benchmark.plsuper wydajność benchmark.pl

 

 

  Ocena: Zotac GeForce GTX Titan
  plusy:
super wydajność w każdym trybie
relacja poboru mocy do wydajności
akceptowalne temperatury pod obciążeniem
zmodernizowana technologia Boost 2.0
cicha praca chłodzenia w spoczynku
w wyposażeniu świetny zestaw gier z cyklu Assassin’s Creed
  minusy:
bardzo wysoka cena
Orientacyjna cena w dniu publikacji testu: 3800 zł
 dobry produkt benchmark.plsuper wydajność benchmark.pl

 

 

Odsłon: 251834 Skomentuj artykuł
Komentarze

132

Udostępnij
  1. kadziaj
    Oceń komentarz:

    27    

    Opublikowano: 2013-02-27 19:34

    Bardzo dobra recenzja, brakuje mi jeszcze coś 2xGPU od AMD: np. 7990 od Asusa lub jakiś CF 7970 GE :D

    Skomentuj

    1. Kamil Myzia
      Oceń komentarz:

      3    

      Opublikowano: 2013-02-28 10:15

      Akurat testy zeszły mi się z premierą Crysis 3 - i musieliśmy wybierać :(. Nad pojedynkiem z dwoma HD 7970 - pomyślimy.

      Skomentuj

      1. Ruter19
        Oceń komentarz:

        1    

        Opublikowano: 2013-02-28 23:59

        Fajnie by bylo jak by to byly Radeon 7970 XFX DD Heatpipe 3GB 1050/6000 :D:D:D:D

        Skomentuj

      2. loccothan
        Oceń komentarz:

        1    

        Opublikowano: 2013-03-06 16:07

        http://www.youtube.com/watch?v=jV2Voo5h3eU

        Skomentuj

        1. loccothan
          Oceń komentarz:

          0    

          Opublikowano: 2013-03-08 22:13

          a oto dowód na to że GTX680 jak i nowy Titan nie mają DX11.1

          [URL=http://imageshack.us/photo/my-images/5/titanfeaturelevel.png/][IMG]http://img5.imageshack.us/img5/1205/titanfeaturelevel.png[/IMG][/URL]

          Uploaded with [URL=http://imageshack.us]ImageShack.us[/URL]

          Skomentuj

        2. loccothan
          Oceń komentarz:

          0    

          Opublikowano: 2013-03-08 22:14

          http://imageshack.us/a/img5/1205/titanfeaturelevel.png

          Skomentuj

  2. Pavvel
    Oceń komentarz:

    13    

    Opublikowano: 2013-02-27 19:40

    Jest maszyna. Chetnie bym ja zamontował u siebie

    Skomentuj

    1. bialcus
      Oceń komentarz:

      -15    

      Opublikowano: 2013-02-27 19:53

      Pokaż komentarz zakopany przez użytkowników

      I grzał mieszkanie :)

      Skomentuj

      1. Terrorek
        Oceń komentarz:

        0    

        Opublikowano: 2013-02-27 20:11

        w całym bloku

        Skomentuj

      2. rrrrrr
        Oceń komentarz:

        9    

        Opublikowano: 2013-02-28 11:39

        Pobór jednego Titana nie jest dużo wyższy niż 680. Chcesz grzać mieszkanie, to bierzesz 4x580 i wyłączasz throttling albo łączysz 4870x2.

        Skomentuj

      3. webmaniack
        Oceń komentarz:

        1    

        Opublikowano: 2013-02-28 11:47

        Titan pobiera mniej więcej tyle prądu, co mój GTX580 :)

        Skomentuj

    2. Varso
      Oceń komentarz:

      15    

      Opublikowano: 2013-02-27 21:05

      pff. tylko 160 fpsów ... przecież to pokaz slajdów ;)

      Skomentuj

  3. kitamo
    Oceń komentarz:

    16    

    Opublikowano: 2013-02-27 19:42

    Ogolnie szału nie ma. Sam dal siebie w swojej kategorii jest faktycznie najszybszy, ale czy ta roznica w wydajności jest adekwatna do ceny ? Niestety nie.
    Wciąż wydajniej i taniej i i to o wiele tanie jwychodzi kupic 2x GTX680.

    Ciekawie mogla by się sprawdzić w renderingu za pomocą iray i vray, gdzie takie taktowania i ilość pamięci mogla by zapewnić wysokie miejsce. Az wart oby się pokusić o taki test bo mamy tu do czynienia z GK110.

    byłem chętny na titana a teraz mam mieszane uczucia.

    Skomentuj

    1. warcab1234
      Oceń komentarz:

      3    

      Opublikowano: 2013-02-28 08:51

      Nie zgadzam się z tobą w jednym zdaniu: Na allegro GTX 680 kosztuje używany 1550 zł, nowy już więcej. Nowy TITAN na allegro 4200. Więc kupując dobrych firm stare GTXy mamy prawie tą samą cenę co ten jeden Titan, ale ten pobiera znacznie mniej energii elektrycznej.
      Pozdrawiam benchmark.pl

      Skomentuj

    2. barsiu
      Oceń komentarz:

      1    

      Opublikowano: 2013-02-28 12:18

      ale majac 2x680 moga cie dopasc problemy z multigpu... no i nie masz 6GB pamieci do wykorzystania na karcie, a jedynie 2GB (no dobra.. matematyka mowi ze 4, ale informacje w niej przechowywane sa podwojone, wiec 2), co na dzisiaj nie ma znaczenia w grach, ale kiedys moze miec.

      Skomentuj

      1. kitamo
        Oceń komentarz:

        0    

        Opublikowano: 2013-02-28 12:38

        Problemy z multiGPU/SLI/CF to maciupki odsetek, ktory tak naprawde nie wnosi niedogodnosci, a zaoszczedzic mozna 1000zł i cieszyc sie o 15% wieksza wydajnoscia.
        Pamiec to nie problem bo nawet w konfiguracji 3 monitorowej 2GB na karte wystarczy, a 680 mozesz kupic z wieksza pamiecia jak zechcesz.

        Skomentuj

        1. warcab1234
          Oceń komentarz:

          1    

          Opublikowano: 2013-02-28 14:23

          komentując dalej jedyna zaleta to energooszczędność...

          Skomentuj

          1. kitamo
            Oceń komentarz:

            2    

            Opublikowano: 2013-03-01 01:49

            ktora to przy kwocie ponad 4tysiace ma sie nijak.

            Skomentuj

          2. BariGT
            Oceń komentarz:

            0    

            Opublikowano: 2013-03-07 08:03

            Pomijam fakt, ze za pol roku Titan bedzie sprzedawany jako GTX780Ti za polowe tej ceny.

            Skomentuj

  4. walker15130
    Oceń komentarz:

    -1    

    Opublikowano: 2013-02-27 19:46

    Błąd przy poborze prądu w idle http://forum.worldoftanks.eu/uploads/profile/photo-3188391.png?_r=1360093669 Jest 103 a miało być 138W.

    Skomentuj

    1. walker15130
      Oceń komentarz:

      2    

      Opublikowano: 2013-02-27 19:47

      tehe, zły link, chodzi o palita GTX650 :P

      Skomentuj

  5. kamil15l
    Oceń komentarz:

    11    

    Opublikowano: 2013-02-27 19:52

    Recka bardzo dobra. Czekam na 3-way SLI z Titanem na pokładzie :D

    Skomentuj

    1. bialcus
      Oceń komentarz:

      -28    

      Opublikowano: 2013-02-27 19:55

      Pokaż komentarz zakopany przez użytkowników

      Redakcja nie ma aż tyle pieniędzy... 10k za 3 GPU? ARE YOU FU*KING KIDDING ME?!

      Skomentuj

      1. kamil15l
        Oceń komentarz:

        36    

        Opublikowano: 2013-02-27 20:24

        A czy oni je kupują? -_-

        Skomentuj

    2. BariGT
      Oceń komentarz:

      7    

      Opublikowano: 2013-02-27 22:12

      Pogadaj z Kingpinem

      Skomentuj

  6. krzysiek_mil
    Oceń komentarz:

    13    

    Opublikowano: 2013-02-27 19:56

    Spodziewałem się większego wzrostu wydajności. W niektórych grach ledwo przegonił radeona, prawie zrównując się z nim. Na szczęście są gry, w których wyraźnie pokazuje swój potencjał. Nowsze sterowniki powinny poprawić sytuację. Szkoda, że nie zanosi się na odpowiedź ze stajni AMD w najbliższym czasie - ceny poszłyby w dół.

    Skomentuj

  7. Paw3l
    Oceń komentarz:

    6    

    Opublikowano: 2013-02-27 20:03

    pytanie, czy jeśli nvidia stworzyła taką potężną kartę z jednym procesorem to oznacza że użyła jakiś super drogich elementów ? Nie wiem czy ta karta jest produkowana tzw masowo, jeśli tak to wydaję się że może niedługo nastąpić spory przeskok w wydajności kart graficznych. No i wyszło by że ceny są sztucznie zawyżane, no ale to chyba wiadomo

    Skomentuj

    1. BariGT
      Oceń komentarz:

      6    

      Opublikowano: 2013-02-27 22:17

      Akurat ta karta to odrzuty od Tesli. Ceny nie odzwierciedlają wydajności ani trochę. Titan jest minimalnie szybszy od kart kosztujących 1/2-1/3 jego ceny. kiedy Titan wyjdzie jako GTX780 będzie kosztował połowę tego co teraz.

      Skomentuj

  8. loccothan
    Oceń komentarz:

    1    

    Opublikowano: 2013-02-27 20:03

    :-) ale mógłby być za 1700 a nie 4k no i w końcu jest DX11.1 dla Zielonych braci...PZDR

    Skomentuj

  9. Geralt57
    Oceń komentarz:

    -3    

    Opublikowano: 2013-02-27 20:05

    Do trzech Tytanów w SLI najlepsza byłaby chyba EVGA SR-X plus kręcone 8-jajowe Xeony. Ciekaw jestem, jaką wydajność miałaby taka stacja oraz ile by kosztowała. Dla mnie jedno i drugie niewyobrażalne.

    Skomentuj

    1. TotallyNormal
      Oceń komentarz:

      10    

      Opublikowano: 2013-02-27 20:46

      Na xeonach E5 można sobie najwyżej zakręcić wiartaczkiem radiatora. Ewentualnie podkręcić z karnego.

      Skomentuj

  10. constantine86
    Oceń komentarz:

    0    

    Opublikowano: 2013-02-27 20:10

    Jak to nie ma szału? Szał jest tylko nie cenowy. Ale ceny chwila, chwila... ustala producent? Poczekajta rok i będzie titan za pół ceny, ważne jest to że rynek się rozwija a nie stoi w miejscu.

    Skomentuj

    1. kitamo
      Oceń komentarz:

      1    

      Opublikowano: 2013-02-27 20:33

      A weź przeczytaj sam co napisales. Wydajnosciowo szału zadnego nie ma, jest szybciej i może najszybciej, ale nie robi to wrazenia zadnego

      Skomentuj

  11. Tomekkb
    Oceń komentarz:

    0    

    Opublikowano: 2013-02-27 20:13

    brakuje testu 2x Titan :)

    Skomentuj

    1. Lightning
      Oceń komentarz:

      0    

      Opublikowano: 2013-02-27 20:45

      Test z mojego linku powinien Cie zainteresować ;)

      http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_SLI/

      Skomentuj

      1. kamil15l
        Oceń komentarz:

        2    

        Opublikowano: 2013-02-27 21:07

        Się zastanawiam, dlaczego konfiguracje multi GPU sa mniej wydajne od pojedynczej karty?

        Skomentuj

        1. Lightning
          Oceń komentarz:

          -1    

          Opublikowano: 2013-02-27 21:13

          Profile SLI /CF nie zostały dodane do gier, które są rzadko wykorzystywane w testach.

          Skomentuj

  12. constantine86
    Oceń komentarz:

    4    

    Opublikowano: 2013-02-27 20:14

    To kiedy AMD wyda swoje karty zależy też trochę od rynku konsol. AMD dostanie pewnie spory zastrzyk od sony i ms więc będzie miało kasiorę na nieco bardziej agresywną konkurencję z Nvidią/Intelem.

    Skomentuj

    1. Lightning
      Oceń komentarz:

      -9    

      Opublikowano: 2013-02-27 20:46

      Jaką konkurencję? Cenową może tak, ale na pewno nie wydajnościową.

      Nvidia może już teraz zacząć prace nad układami GM100.

      Skomentuj

    2. projectdarkstar
      Oceń komentarz:

      3    

      Opublikowano: 2013-02-28 08:26

      To niestety zależy tylko i wyłącznie od tego, czy zabiorą się do roboty i wywalą na śmietnik faildozery żeby zaprojektować nowe procki i poważnie przeprojektują kolejną generację GPU.
      Kasa pomoże, ale muszą jeszcze chcieć, bo jak im spłynie kasa od Sony i MS to mogą spocząć na laurach i sobie podarować.

      Skomentuj

      1. bored
        Oceń komentarz:

        0    

        Opublikowano: 2013-02-28 09:08

        Widział bym raczej zastosowanie strategii tic-toc Intela, i zejście z Piledriverami na niższy wymiar - od razu spadną temperatury, TDP, i pobór prądu, a skoczy w górę wydajność.

        Skomentuj

        1. projectdarkstar
          Oceń komentarz:

          0    

          Opublikowano: 2013-02-28 13:33

          Skos musi być spory, bo póki co ledwo doganiają Intela.
          Jeżeli AMD chce konkurować na całego, a nie tylko ceną, mus się przyłożyć.

          Skomentuj

  13. deestrzy
    Oceń komentarz:

    -1    

    Opublikowano: 2013-02-27 20:22

    A co byście polecili do 100W pobory mocy i najlepiej, żeby było chłodzone pasywnie?

    Skomentuj

    1. miszczu0097
      Oceń komentarz:

      1    

      Opublikowano: 2013-02-28 09:04

      Takie rzeczy na forum.

      Skomentuj

    2. bored
      Oceń komentarz:

      2    

      Opublikowano: 2013-02-28 09:11

      Żarówkę 100W.
      Ale musiał być kupić na czarnym rynku, Unia zabroniła... No chyba że znajdziesz halogenową.

      Skomentuj

    3. rrrrrr
      Oceń komentarz:

      1    

      Opublikowano: 2013-02-28 12:00

      Chłodzenie pasywne nie jest zbyt realistyczne przy tym poborze mocy, chyba że masz dobry nawiew w obudowie, ale to trochę przeczy założeniom pasywności.

      Skomentuj

    4. SoundsGreat
      Oceń komentarz:

      0    

      Opublikowano: 2013-03-02 20:29

      Do 120W (to wciąz niewiele) możesz mieć GTX660 (bez Ti). Brafika ma wydajnośc jak najmocniejsze konstruckje z poprzedniej serii. Natomiast autorskie chłodzenia w takich kartach są cichutkie. Za 800 zł z groszami kupisz wersje od Gigabyte z dwoma wentylatorami. Jeśli chcesz połączenie ciszy, niskiego poboru i wydajności to świetna karta.

      Jeśli zadowoli Cię nizsza wydajność to Radeon HD7770 - pobiera mniej niż 100W, ale tam we wszystko już na wysokich nie pograsz, a na 660'tce w wiekszość bez problemów.

      Skomentuj

  14. jankesdh
    Oceń komentarz:

    5    

    Opublikowano: 2013-02-27 20:27

    4k za karte a w FarCry3 nadal tylko 60fps. Nie wiem, ale jakoś parę generacji wstecz wydaje mi się, że jak wychodziły takie potwory to w grach ponad 100pfs miały lekką reką...

    Skomentuj

  15. FeniksLT
    Oceń komentarz:

    2    

    Opublikowano: 2013-02-27 20:28

    Pamiętam czasy geforce 7900GTX czy 7950 GX2 - jakie to były monstra, jakie tematy, że mieszkanie można ogrzać a rachunki za prąd będą niebotyczne. Znajdujemy się 6 lat w przód i mamy Titana. Ciekawe po jakim czasie przejdzie w przyszłość jako karta za 100zł na allegro. I w sumie ciekawe do jakich gier będzie potrzebna wydajność jego konkurentów.

    Skomentuj

    1. chudyzam
      Oceń komentarz:

      0    

      Opublikowano: 2013-02-28 12:38

      Takie high endy nigdy nie spadają aż do tak niskich cen. Wszystkie będą popalone w czasie kiedy ich wydajność ktoś będzie wyceniał na 100zł :0

      Skomentuj

  16. Czaja89
    Oceń komentarz:

    -14    

    Opublikowano: 2013-02-27 20:32

    Pokaż komentarz zakopany przez użytkowników

    Mam ta karte.wymiata w 1600p w koncy moge grac bez przycinek

    Skomentuj

    1. Jake24
      Oceń komentarz:

      17    

      Opublikowano: 2013-02-27 20:48

      Tylko jedną??? Nie za mało???

      Skomentuj

  17. kremowykac
    Oceń komentarz:

    -3    

    Opublikowano: 2013-02-27 20:34

    Genialne. Mam nadzieję ,że AMD szybko coś wykombinuje to pojawi się konkurencja i ceny spadną.
    Gdzie są konsolowcy i ich argumenty?

    Skomentuj

    1. pridem
      Oceń komentarz:

      7    

      Opublikowano: 2013-02-27 21:59

      Co w tym takiego super ? Cena w stosunku do wzrosu wydajności jest 2x za wysoka, nawet jak na nowość. A co i powiedz mi co ma ten temat do konslolowców bo sam gram sporo na konsoli ale nie kumam twojej zaczepki noobie.

      Skomentuj

  18. ElitarnyPL
    Oceń komentarz:

    6    

    Opublikowano: 2013-02-27 20:36

    Mogliby ranking kart zaktualizować ^^

    Skomentuj

    1. Kamil Myzia
      Oceń komentarz:

      -1    

      Opublikowano: 2013-02-28 10:35

      Będzie zaktualizowane :).

      Skomentuj

  19. piotrek8x
    Oceń komentarz:

    5    

    Opublikowano: 2013-02-27 20:38

    Strona 7. Dirt Showdown. Pomijając fakt że GTX680 SLI osiągnął połowę klatek jednego GTX-a (a po zmianie z 1680x1050 zgubił połowę klatek- ale nie czepiam się, są takie anomalie) to nie ma testów w 2560x1600 (tylko właśnie w 1680x1050) pomimo że w podpisie jest o nich mowa ;)

    Skomentuj

  20. IceMan2991
    Oceń komentarz:

    4    

    Opublikowano: 2013-02-27 20:46

    Czy tylko na mnie ta karta nie robi wrażenia?
    No kurde, myślałem, że Titan wprost zmiażdzy inne karty, a tu proszę.
    Radeonik w niektórych grach dzielnie walczy.

    Skomentuj

    1. Lightning
      Oceń komentarz:

      0    

      Opublikowano: 2013-02-27 20:48

      GTX 680 te nie odstaje od HD 7970 ;)

      Gdyby procesor użyty w testach był bardziej podkręcony to różnice między Titanem a HD 7970 / GTX 680 byłyby większe.

      Skomentuj

    2. piotrek8x
      Oceń komentarz:

      -5    

      Opublikowano: 2013-02-27 23:03

      Walczy chyba tylko w jednej. W tej pisanej pod Radeona, ale i tak przegrywa :)

      Skomentuj

      1. IceMan2991
        Oceń komentarz:

        7    

        Opublikowano: 2013-02-28 00:06

        Ale Radeon w specyfikacji nie ma startu do Titana, więc różnica w wydajności jest in minus na rzecz Titana.

        Ja mam tylko nadzieję, że seria 7xx od zielonych będzie zauważalnie mocniejsza od serii 6xx. A jeżeli nie, to cena niech będzie na podobnym pułapie.

        Obawy są uzasadnione. Teraz wypuścili Titana za 4000zł, którego wydajność względem poprzedniej serii znajduje się w przedziale ~20-30%.
        W teorii to nowa seria powinna mieć taką wydajność, a głupcy tam nie pracują - nie wydadzą po pół roku tańszych i mocniejszych kart od Titana.

        Skomentuj

        1. piotrek8x
          Oceń komentarz:

          -1    

          Opublikowano: 2013-02-28 11:48

          No dobra teraz mi powiedzcie- za co dostałem minusa? Przecież HD7970 walczy z Titanem tylko w Diricie (czyli gry pisanej typowo pod Radeony, nawet jest ich logo) i pomimo tego i tak z nim wygrywa. Widać że coś jest nie tak po tym jak kolosalnie GTX680 dostaję w tej grze od 7970.

          Skomentuj

          1. IceMan2991
            Oceń komentarz:

            2    

            Opublikowano: 2013-02-28 11:53

            Plusy i minusy rządzą się swoimi prawami, a teraz dorośnij i przestań się nimi przejmować.

            Skomentuj

          2. piotrek8x
            Oceń komentarz:

            0    

            Opublikowano: 2013-02-28 21:03

            Przestałem się przejmować już dawno, ale mimo wszystko ciągle mnie zaskakuję sposób ludzkiego rozumowania co poniektórych :)

            Skomentuj

        2. shakal84
          Oceń komentarz:

          0    

          Opublikowano: 2013-02-28 19:13

          Dokładnie i niestety tak bedzie czyli seria 7XX nie bedzie wydajniejsza od titana ten kosztuje 4 tyś z groszami ide o zakład że GTX 780 bedzie słabszy od Titana i bedzie w cenie około 2 tyś hehe Specjalisci z NV juz dobrze wiedzą jak dozowac moc kart graficznych i wycisnąc ostatnie soki z naszych portfeli :D
          Dostaniemy gówniane +10% do wydajosci względem seri 6XX i bedziemy bulić za to grubą kase heh czasy przeskoku wydajności 7XXX VS 8800 juz sie skończyły :P

          Skomentuj

  21. IronFe
    Oceń komentarz:

    13    

    Opublikowano: 2013-02-27 20:58

    Te wyniki są trochę dziwne bo ja na i5-750 @4Ghz + hd7970 mam lepsze, niż
    i7 2600k @4,0 GHz + hd7970

    P.S.
    Podchodząc do tego realnie, czy średni wzrost wydajności o 20~30% usprawiedliwia wzrost ceny o 300% ???

    Skomentuj

    1. pridem
      Oceń komentarz:

      6    

      Opublikowano: 2013-02-27 21:54

      Mnie nigdy wyniki na benchmark.pl zaskakiwały.
      Mam i7 3770 + HD7970GHz + 8GB 1600MHz i bez podkręcania w 3D Mark11 mam 9995.

      Skomentuj

      1. pridem
        Oceń komentarz:

        6    

        Opublikowano: 2013-02-27 21:56

        miało być: Mnie zawsze wyniki.. ZASKAKIWAŁY !

        Skomentuj

      2. Marcin Jaskólski
        Oceń komentarz:

        1    

        Opublikowano: 2013-02-28 13:13

        Sprawdź mnożniki turbo procesora. Wykorzystanie pamięci 1600+ powoduje, że mnożniki turbo wszystkich rdzeni wskakują na maksa. a więc masz podkręcony

        Skomentuj

  22. Damian Szymański
    Oceń komentarz:

    2    

    Opublikowano: 2013-02-27 21:01

    Karta ciekawa, ale cena póki co mnie zabija :P

    BTW. szkoda, że wrzuciliście sam test Valley pomijając Unigine Engine 4. Warto też czasem sprawdzić jak wygląda wydajność w OpenGL, jeżeli nie w grze, to chociaż w benchmarkach w końcu nie samym D3D człowiek żyje :)

    Skomentuj

    1. Paula85
      Oceń komentarz:

      -4    

      Opublikowano: 2013-02-27 21:44

      I nie samymi grami człowiek żyje....
      Wręcz kartę kupi raczej ktoś kto na niej grać nie będzie...

      Skomentuj

  23. Kam9000
    Oceń komentarz:

    5    

    Opublikowano: 2013-02-27 21:07

    Dwa razy więcej tranzystorów niż w 680gtx. O połowę więcej procesów strumieniowych, jednostek rasteryzujących i tektsturujących, 3 razy większa liczba pamięci. Z tej specyfikacji wydawać by się mogło, że ta karta powinna być przynajmniej 50% wydajniejsza. A tu taki zonk 20-30%. Ta karta jest dobrym zakupem jak ktoś gra w gry na monitorze z rodziałką 2560x1600. Nie będzie musiał czekać dwa tygodnie na sterowniki do swoich kart w SLI/CROSSFIREX. W innym wypadku, cena nie adekwatna do wydajności.

    Skomentuj

    1. Lightning
      Oceń komentarz:

      -2    

      Opublikowano: 2013-02-27 21:16

      "Z tej specyfikacji wydawać by się mogło, że ta karta powinna być przynajmniej 50% wydajniejsza. A tu taki zonk 20-30%." a czy Twoja specyfikacja uwzględnia taki szczegół jakim są zegary?

      " Z tej specyfikacji wydawać by się mogło, że ta karta powinna być przynajmniej 50% wydajniejsza. A tu taki zonk 20-30%." zależy od gry - w np. Battlefield masz 38%, a w Crysisie 3 w rozdzielczości 2560x1600 przewaga jest niemal dwukrotna.

      Poza tym ten i7 2600K 4.0 GHz ogranicza trochę tego "potworka".

      Skomentuj

      1. Doktorek
        Oceń komentarz:

        2    

        Opublikowano: 2013-02-27 22:06

        Lightning ale jesli nie i7 to co ??
        Nie wiem co ludzie sie uparli na to "ograniczanie GPU przez CPU" jesli jeden z najszybszych procków ograniczał by jedna taka kartę to co by było w 3 way SLI ??

        Skomentuj

        1. Lightning
          Oceń komentarz:

          1    

          Opublikowano: 2013-02-28 13:12

          Może być i7, ale taki, który obsługuje PCI-E 3.0, a do tego nieco lepiej podkręcony ;) Sam poszukaj testów na zagranicznych portalach i porównaj wyniki.

          Skomentuj

    2. _snc_
      Oceń komentarz:

      1    

      Opublikowano: 2013-02-28 00:27

      Bierz pod uwage jakie jest taktowanie tej karty a jakie gtx680(w wydajnosci ropow to tylko 25% przewagi). W 1080p jest srednio 30% przewagi na gtx680 a w 1600p ponad 40% i taka wydajnosc mniej wiecej wynika ze specyfikacji.

      Skomentuj

  24. gural23
    Oceń komentarz:

    8    

    Opublikowano: 2013-02-27 21:24

    Za 4500zł mam porządny komputer :)

    Skomentuj

  25. ALEKS_D_RAVEN
    Oceń komentarz:

    -2    

    Opublikowano: 2013-02-27 21:32

    Unigine Valley jakoś nie pasuje mi na dobry benchmark do takich testów.

    Skomentuj

    1. Kamil Myzia
      Oceń komentarz:

      0    

      Opublikowano: 2013-02-28 10:33

      Daliśmy go nieco jako eksperyment, aby zobaczyć jak dają sobie w nim radę topowe karty. Ten sam producent ma w ofercie Heaven Benchmark, w którym zabijał swego czasu większość szybkich kart graficznych. Niewykluczone, że w przyszłości zaprzestaniemy testów w tym benchmarku.

      Skomentuj

  26. daker836
    Oceń komentarz:

    4    

    Opublikowano: 2013-02-27 21:33

    Można jednak wydać takiego potworka który jak na swoją siłe zjada mało prądu, ma dobre temperatury i świetnie sie kreci, jeszcze jakby był odpowiednik ze strony amd cena by spadła.
    Zastosowanie układów amd w konsolach jednak troche namiszało w nvidzie.

    Skomentuj

  27. 4NV815
    Oceń komentarz:

    2    

    Opublikowano: 2013-02-27 22:07

    Mogę się mylić ale skoro chodzą plotki że seria 7 ma wyjść pod koniec roku to uważam titana za strzał we własną stopę. Może to sugerować że seria 7 nie przegoni titana... obym się mylił.

    Skomentuj

  28. piksarwow
    Oceń komentarz:

    -3    

    Opublikowano: 2013-02-27 23:29

    Filmy sa w 30 fps i oko nie zauwaza klatkowania i widac to widac ze wystarczy na karcie stale 30 fps zeby obraz byl plynny jak na filmie.

    Skomentuj

    1. IceMan2991
      Oceń komentarz:

      1    

      Opublikowano: 2013-02-27 23:56

      Filmy są w 24.9 klatkach, co nijak ma się do gier. Pograj w strzelanke przy 25FPS. Dać się da, ale czy ta sama przyjemność co przy oglądaniu filmu?

      Już nie pisząć, że obraz w filmie przy tych niecałych 25kl/s też się przycina i klatkuje, czego wileu nie widzi :)

      Skomentuj

      1. Kamil Myzia
        Oceń komentarz:

        0    

        Opublikowano: 2013-02-28 10:23

        Dokładnie, widać kolega chyba nigdy nie grał, skoro twierdzi, że do wystarczy w nich 30 kl./s.

        Skomentuj

        1. barsiu
          Oceń komentarz:

          0    

          Opublikowano: 2013-02-28 12:38

          albo kolega zwyczajnie jest madrzejszy od "internetowych szpecow" ktorych niesamowite oczy wychwytuja roznice miedzy 95 a 100 fps... dokonania godne supermana, ale coz w internecie kazdy jest naj ;]
          A tak na powaznie szpece, to granica plynnosci jest okreslana na cos kolo 12fps, filmy w europie maja 24,97fps i obraz jest plynny, chociaz bardzo duzo zalezy od wielkosci ekranu (na mniejszym ekranie podczas tego samego ruchu sa mniejsze przesuniecia). Oczywiscie animacje na komputerze odbiera sie zupelnie inaczej niz ruch sfilmowany ot chocby ze wzgledu na brak rozmyc (z wyjatkiem tych ywnikajacych ze stosowania beznadziejnej technologii lcd), niemniej granice plynnosci pozostaja niezmienne. Jest tez kwestia "odczuc" czy samego odbioru animacji wraz ze wzrostem fps, ale nie ma mowy o braku plynnosci powyzej 25fps. A zanim jakis internetowy szpec stwierdzi inaczej, to proponuje zapoznac sie z konsolami, konkretniej dowiedziec ile wyswietlaja fps, a pozniej zastanowic sie czy to co w/g ciebie "szpecu" jest brakiem plynnosci jak ci fps spada do 30 jest spowodowane liczba klatek, czy moze chwilowym spadkiem wydajnosci i np w ciagu skeundy srednio uzyskasz fps 30, ale klatki sa nierowno wyswietlane, bo np nagle pojawil sie obiekt z ktorym grafika sobie slabo radzi.

          Skomentuj

    2. rrrrrr
      Oceń komentarz:

      5    

      Opublikowano: 2013-02-28 12:01

      http://boallen.com/fps-compare.html

      Różnica między 30 fps a 60 fps jest wyraźnie widoczna.

      Skomentuj

      1. piksarwow
        Oceń komentarz:

        -2    

        Opublikowano: 2013-03-01 01:36

        Widzicie roznice bo mozg jest sugestywny ,tzn wiecie o czyms co ma byc lepsze z góry.Ale powinno sie przeprowadzic ankiete zeby wyswietlic obrazy przy 120 ,60 ,30 fps i gracze mieli by sami przyporzadkowac FPS do obrazu.A nie tak tu mam 60 FPS czyli widze ze jest lepiej.Bzdura.

        Skomentuj

        1. piksarwow
          Oceń komentarz:

          -1    

          Opublikowano: 2013-03-01 01:41

          Bo to sie zawsze sprowadza do "wiem"ze jest lepiej a nie koniecznie widze.Tak samo jak bylo z tym Blind test AMD ,wszyscy wola NV i AMD ale w Blind test to konfiguracje AMD uwazano za bardziej komfortowe.Jasne mozna powiedziec ,przeciez widac roznice ... jasne ze widac skoro sie o niej wie.Gorzej jak sie nie wie to wtedy nie widac.Poczytajcie sobie o zludzeniach optycznych.Wiadomo o czyms mimo ze jest zupelnie inaczej,tak sie nazywa zludzenie.I zludzeniem jest to ze uwarzacie za kolosalna roznice o komforcie gry poniewaz wiecie o danej konfiguracji czy tam FPS.Gorzej jak nie wiecie wtedy mozg przestaje sugerowac i wychodzi roznie.

          Skomentuj

          1. piksarwow
            Oceń komentarz:

            0    

            Opublikowano: 2013-03-01 01:47

            BTW podaje link do testu ktory wyzej wymienilem.Gracze nie wiedzieli jaka maja konfiguracje i jaki FPS jest wyswietlany.Wyniki byly dziwne.

            http://legitreviews.com/article/1838/1/

            I tak wlasnie jest z tym testowaniem,-wiem wiec widze-.

            Skomentuj

  29. pstrowsky
    Oceń komentarz:

    3    

    Opublikowano: 2013-02-28 00:10

    Po co w ogóle wspominać o CUDA Cores skoro jak zwykle brak jakichkolwiek testów? Prosimy o testy w Blenderze tutaj jest link do sceny
    http://blenderartists.org/forum/showthread.php?239480-2-61-Cycles-render-benchmark
    zobaczymy czy ta karta sjest warta więcej niż GTX 580. Jak wiadomo 680 zawiodła oczekiwania i radzi sobie kiepściutko w tym temacie.

    Skomentuj

  30. customrodder
    Oceń komentarz:

    0    

    Opublikowano: 2013-02-28 06:13

    ...Do Kamila Myzia...
    A niby skąd w teście układu SLI GTX 680 wzięło sie 4GB pamięci ?
    Jeżeli sądzisz ze 2+2=4 GB to podpowiadam ze Pamięć Sie Nie Sumuje!

    Skomentuj

    1. Kamil Myzia
      Oceń komentarz:

      0    

      Opublikowano: 2013-02-28 10:22

      Oj, czepiasz się szczegółów. To fakt, że się nie sumuje, tak samo, jak w przypadku kart dwurdzeniowych, gdzie jest określona pojemność przydzielona na jeden rdzeń.

      Skomentuj

  31. eryk1310
    Oceń komentarz:

    0    

    Opublikowano: 2013-02-28 07:15

    karta jak karta zajeb*** :) niestety ale wole tetsy kart pokroju 650 :)ceny jak dla mnie :)

    choc fajnie zobaczyc owego lidera :)

    Skomentuj

  32. wildthink
    Oceń komentarz:

    0    

    Opublikowano: 2013-02-28 08:32

    Nowe gry wychodzą, a to stare metro 2033 pokazało kto tu rządzi. Czy ona tak świetnie wygląda, czy to tak bardzo skopana optymalizacja, że po 3 latach nadal nie da się grać w max rozdziałce przy full detalach?
    Nowy FarCry wcale nie gorszy od Crysisa 3 - podobne wymagania.

    Skomentuj

    1. CoJaPacze
      Oceń komentarz:

      0    

      Opublikowano: 2013-02-28 08:38

      Takie jedno pytanie. Kto teraz robi sterowniki pod metro 2033?

      Skomentuj

    2. Kamil Myzia
      Oceń komentarz:

      0    

      Opublikowano: 2013-02-28 10:19

      Metro 2033 wygląda po tych 3 latach nadal świetnie. Ostatnio producent nawet oferował ją za darmo (o ile pamiętam, to trzeba było polubić coś na facebooku). Ja skorzystałem :).

      Skomentuj

  33. Olo1602
    Oceń komentarz:

    0    

    Opublikowano: 2013-02-28 08:34

    Szkoda, że nie dorzuciliście do tego zestawienia GTX 670. Jestem ciekaw jak Crysis 3 wypada na GTX 670 w porównaniu do hd7950 i 7970.

    Skomentuj

    1. Kamil Myzia
      Oceń komentarz:

      0    

      Opublikowano: 2013-02-28 10:18

      GTX 670 jest przecież umieszczony w naszej publikacji o Crysis 3. Występuje tam również HD 7970, a dziś powinna się pojawić aktualizacja z HD 7950.

      Skomentuj

  34. mateusz007
    Oceń komentarz:

    1    

    Opublikowano: 2013-02-28 09:04

    Jakby wprowadzili TITAN-a rok temu, zamiast lub razem z GTX680, to bym kupił bez gadania. Teraz poczekam, aż cena spadnie poniżej poziomu GTX690.

    Skomentuj

    1. Kamil Myzia
      Oceń komentarz:

      0    

      Opublikowano: 2013-02-28 10:17

      Sądzę, że nie było takiej potrzeby. Do dziś GTX 680 (a premiera była prawie rok temu), radzi sobie bardzo dobrze. Fakt, nowe gry = wyzsze wymagania, ale czy GTX 680 to karta zbyt wolna? Nie powiedziałbym :).

      Skomentuj

      1. IceMan2991
        Oceń komentarz:

        0    

        Opublikowano: 2013-02-28 11:42

        Czy wolna? Na pewno nie. Czy da się pograć bez problemu na tej karcie we wszystkie gry na max. w standardowej obecnie rozdziałce 1080p?
        Tu już można nie mieć takiej pewności.

        Wyszedł Crysis 3, jest Metro 2033, które nadal zabija PC-ty, a więc nie da się. Czekam na GTX780, bo te 2GB wydają się powoli nie wystarczające.

        Kupowanie jej w chwili obecnej mija się z celem - IMO.

        Raz, że lepiej poczekać i zobaczyć co pokaże seria 7xx.
        Dwa, obecnie kosztuje ona 2000zł co małą kwotą jak na roczną kartę nie jest. Po wyjściu GTX780 nie lepiej dopłacić do niej? Oczywiście jeśli wzrost wydajności będzie na tyle duży, że będzie się opłacało.
        Jeśli wyjdzie seria 7xx, to seria 6xx stanieje - mało/dużo, ale stanieje.

        Zawsze mamy wtedy wybór. Obecnie mając na wydanie 2000zł pozostaje tylko GTX680 (piszę tylko o kartach zielonych, bo wiadomo - jest 7970GE).
        Później będziemy mieć co najmniej dwie opcje - GTX680-GTX780.

        Po co kupować GTX680 teraz i za kilka miechów pluć sobie w brodę, że się pośpieszyliśmy?

        Skomentuj

  35. yamaro
    Oceń komentarz:

    0    

    Opublikowano: 2013-02-28 09:16

    Kosmiczna wydajność i kosmiczna cena.. nie dziękuje...

    Skomentuj

  36. LGA2011
    Oceń komentarz:

    -2    

    Opublikowano: 2013-02-28 09:21

    To jest klasa.

    To się nazywa karta - to jest najlepszy obraz przepaści na rynku GPU - nVidia znów pokazała kto jest najwłaściwszym wyborem na rynku kart. Podniosą wydajność w low-endzie, jak podnieśli z 680 do titana i konkurencja może iść do dodmu

    Skomentuj

    1. Kamil Myzia
      Oceń komentarz:

      0    

      Opublikowano: 2013-02-28 10:16

      Zauważ tylko, za jakie pieniądze. Nigdy nie było problemem stworzenie karty 2x droższej od wszystkiego, która by gniotła wszystko. Sądzę, że Titan, to taka karta, która się pojawiła "przy okazji". Była taka ewentualność i "zieloni" ją wykorzystali.

      Jestem ciekaw, jaka będzie moc nowych GTX 700 :).

      Skomentuj

      1. LGA2011
        Oceń komentarz:

        -2    

        Opublikowano: 2013-02-28 14:55

        No jeśli titan to przedsmak 700-tek, i wcześniejsza premiera 700-tek niż radeonów 8000 zmusi AMD do podjęcia wysiłku cenowego, którego może już nie wytrzymać patrząc na złą sytuację finansową firmy.

        Skomentuj

        1. Daroo7777
          Oceń komentarz:

          0    

          Opublikowano: 2013-02-28 18:39

          No niestety Sony (nie tylko) wie co dobre cenowo i finansowo więc bądź spokojny i się nie denerwuj....:)

          Skomentuj

    2. rrrrrr
      Oceń komentarz:

      2    

      Opublikowano: 2013-02-28 12:02

      Coś im to podnoszenie wydajności nie wychodzi, skoro mają karty o wydajności 7750 w cenie 7770, czasem nawet jeszcze wyższej.

      Skomentuj

  37. Pan Piksel
    Oceń komentarz:

    2    

    Opublikowano: 2013-02-28 10:15

    ty tez mozesz isc do domu za swoje fanbojstwo ;)

    Skomentuj

  38. xraykd
    Oceń komentarz:

    0    

    Opublikowano: 2013-02-28 10:18

    Hmm poczekam na GTX 780... Biorąc pod uwagę cenę Tytana i GTX 680 wydajność powinna być sporo większa...

    Skomentuj

    1. shakal84
      Oceń komentarz:

      0    

      Opublikowano: 2013-02-28 19:18

      taa + 5 % 680 VS 780 hheh

      Skomentuj

  39. hinson
    Oceń komentarz:

    -7    

    Opublikowano: 2013-02-28 10:59

    Chcialbym zobaczyc jak wygląda taki ''zapalony gracz'' który by w sklepie komputerowym przede mna powiedzial do sprzedawcy. ''Poprosze karte graficzna Geforce GTX Titan''.
    Trzeba byc nolifem i miec niezle narabane w glowie, aby dla gier wydawac 4 tysiace zlotych na sama karte graficzna a zeby ta karta nie marnowala mocy, to reszta podzespolow podniesie cene takiego kompa do ponad 10 tysiecy.
    Jesli taki ''zapalony gracz'' nie jest nolifem, to co na to jego zona, dziewczyna czy rodzina. Jakos nie wyobrazam sobie powiedziec do zony ''kochanie wezme sobie z konta 4 tysiace zl, poniewaz chce kupic nowa karte graficzna''.

    Skomentuj

    1. IceMan2991
      Oceń komentarz:

      4    

      Opublikowano: 2013-02-28 11:49

      Ludzie kupują Ferrari za ponad 1mln zł i co? Też są nołjajfami?

      Ostatnio stoję sobie pod TESCO i czekam aż się zwolni myjnia, a przede mną Ferrari 360 Modena - też na myjnię. Siedzi w nim jakiś dzieciak, który dostał go na 18-ke (piszę serio). I co widzę? Z TESCO wychodzi jego tata z siateczką zakupów i wciska je między swoje nogi...

      Jaki sens w takim razie kupować Ferrari?

      Taki sens jak ową kartę ;) - jak ktoś chce i ma kasę, to kupuje - tyle.

      Skomentuj

      1. Lightning
        Oceń komentarz:

        -2    

        Opublikowano: 2013-02-28 13:16

        Jak można porównywać najwydajniejszą kartę graficzną do super-samochodu?!

        Zastanów sie lepiej do czego może służyć dobre auto w porównaniu do GPU (tylko nie mów, że nie można porównać jednego do drugiego - piszę ogólnie)

        Skomentuj

        1. IceMan2991
          Oceń komentarz:

          5    

          Opublikowano: 2013-02-28 17:06

          Ferrari służy tylko i wyłącznie do szpanu. Podobnie jak Titan wśród tych, którzy łapią o co chodzi.

          Czy chciałbym mieć Ferrari? Pewnie. Titana też bym chciał, ale czy bym kupił? Nie. Raz, że nie mam tyle kasy, a dwa - nie potrzebny mi jest taki sprzęt.

          Jak ktoś ma kasę, to kupuje - proste.

          PS. A może lepiej Ty napisz do czego wykorzystałbyś taki super samochód jakim jest Ferrari?

          Skomentuj

          1. Lightning
            Oceń komentarz:

            -2    

            Opublikowano: 2013-03-01 19:10

            To teraz ja napisze to co myślę - Titan służy TYLKO do szpanu.

            Mając Ferrari mógłbym nie tylko jeździć po torach gdzie spotkałbym wielu porządnych ludzi z którymi mógłbym m. in. pogadać o samochodach, ale również mógłbym go używać do jazdy miejskiej.

            Mając najwydajniejsze części w komputerze nie ma sie z tego NIC nie licząc własnej satysfakcji. Zwykle jest tak, że te najwyższe detale, które extremalnie obciążają sprzęt są widoczne jedynie na screenach i to przy przybliżaniu.

            PS: Żeby nie było - gdybym wygrał sporo kasy w totka (nie wygram, bo nie gram) to sam bym sobie kupił zarówno Ferrari jak i superkomputer z Titanem na pokładzie.

            Skomentuj

    2. główny inżynier
      Oceń komentarz:

      2    

      Opublikowano: 2013-02-28 14:55

      Powiem Ci jedno. Nie jestem "zapalonym graczem", nie jestem nolifem, ale mimo to mam zamiar kupić tą kartę. Co więcej powiem o tym żonie i powiadomię rodzinę. Mam już po kokardę cytatów typu: trzeba być idiotą, trzeba mieć narąbane, poprzestawiane itd. Cena za kartę mnie niespecjalnie przeraża, tym bardziej że pozbędę się dwóch 670 z komputera. Pewnie za niedługi czas wymienię Titana na 790 itd. Dlaczego? Pewnie z szacunku dla własnego hobby. Nie pojmuje ludzi, którzy nie potrafią zrozumieć, że niektórzy zamiast czytać o sprzęcie wolą go sprawdzać we własnym komputerze. Cóż taka pasja, a jej efektem ubocznym jest to, że postrzregają cię jak idiotę i to na forum dla entuzjastów sprzętu komputerowego.

      Skomentuj

      1. Lightning
        Oceń komentarz:

        0    

        Opublikowano: 2013-03-01 19:11

        Jeśli na poważnie wydatek ok. 4 tys. zł. to dla Ciebie "pryszcz" to jak najbardziej możesz zajmować się swoim hobby - na tym portalu nikt Ci tego nie zabroni.

        Skomentuj

  40. vekio
    Oceń komentarz:

    0    

    Opublikowano: 2013-02-28 11:53

    No to już wiemy dlaczego AMD przesuneło premierę Radeonów 8000 na koniec roku. Musieli się zorientować że ich karty dostaną porządne lanie od Nvidii i nadchodzącej serii 700.
    Nvidia wyda do lata nową serię a AMD zaserwuje klientom odgrzewane kotlety, czyli poprawione modele 7000.

    Skomentuj

    1. IceMan2991
      Oceń komentarz:

      3    

      Opublikowano: 2013-02-28 11:59

      Jeśli poprawią je na tyle, aby konkurowały z nową serią nVidii to jestem na tak ;)
      Tylko nie zdziw się jak je poprawią i okażą się mocniejsze od kart zielonych ;D

      Skomentuj

  41. kiewek
    Oceń komentarz:

    5    

    Opublikowano: 2013-02-28 14:49

    skoro proces technologiczny nie zmienił się w stosunku do 680 a rdzeń ma 2x więcej tranzystorów to wychodzi na to ze jego objętość jest 2x większa, czyli są to tak jakby 2 rdzenie w jednym, moim zdaniem w tej karcie jest więcej marketingu niż nowej technologi

    Skomentuj

  42. Ruter19
    Oceń komentarz:

    1    

    Opublikowano: 2013-03-01 00:01

    Co to za chlodzenie na tej ostatniej stronie gdzie sa 3 karty ??? bardzo wazne jest to dla mnie bo chce kupic takie a widze ze sie miesci na plyty z socketem 2011

    Skomentuj

  43. Yaceek
    Oceń komentarz:

    0    

    Opublikowano: 2013-03-01 05:31

    4349zł za Titana w Polsce ? Przecież to jest jakieś złodziejstwo...
    W Kanadzie płacisz 3000zł za taką samą... Razem z Vat to jest jeszcze 700 taniej niż u nas. To samo jest z GTX690

    Skomentuj

    1. piksarwow
      Oceń komentarz:

      -1    

      Opublikowano: 2013-03-01 06:39

      NV to zlodziejska firma,szuka idiotow zeby sfundowali im nowa siedzibe.Przeciez nie biora kasy na jej budowe z fundacji charytatywnych.Fanboye NV to jelenie i nic na to nie poradzi nawet Einstein ,ale w sumie tacy tez sa potrzebni ,musza zrobic zbiorke/

      Skomentuj

      1. shakal84
        Oceń komentarz:

        0    

        Opublikowano: 2013-03-03 11:36

        Bo to Polska ceny zachodnie za zarobku Afrykańskie :D

        Skomentuj

  44. blajo
    Oceń komentarz:

    -1    

    Opublikowano: 2013-03-01 18:05

    dupy nie urywa :)
    fakt jest najwydajniejsza, ale w porównaniu do ceny niestety totalnie nie opłacalna... wystarczy radek 7970 i wszystko działa na full..
    Titan ma rację bytu ale jeśli kosztowałby max 2,5 klocka.
    Oczywiście, że znajdą się nabywcy ale raczej pasjonaci i entuzjaści...
    Czekam na ruch ze strony AMD szkoda, że dopiero IV kwartał 2013...

    Skomentuj

  45. steelek
    Oceń komentarz:

    1    

    Opublikowano: 2013-03-01 20:17

    Za taka cene to ja pewnie bym to zaczal porownywac z aresem. A nie z 680 i 7970.

    Skomentuj

  46. veloo
    Oceń komentarz:

    2    

    Opublikowano: 2013-03-03 00:16

    cena troszkę szokuje, no ale da się przeżyć :P a wiadomo kiedy będzie premiera 780? :)

    Skomentuj

  47. dejot66
    Oceń komentarz:

    -3    

    Opublikowano: 2013-03-03 12:46

    slyszalem kiedys ze nvidia i amd maja produkowac grzejniki do mieszkan z autorskim chlodzeniem i z ich stron pobierane beda automatycznie aktualizacje heheh a tak apropo to kolejna generacja kart bedzie o 200Hz lepsza od poprzedniej i tak dajemy zarabiac firmom zauwazyliscie cos w tym?

    Skomentuj

  48. mcvice
    Oceń komentarz:

    -3    

    Opublikowano: 2013-03-06 19:01

    nie rozumiem po co robić tak obszerny test dla podzespołu, który może mieć tak niewielki procent ludzi?

    Skomentuj

  49. gicior321
    Oceń komentarz:

    -3    

    Opublikowano: 2013-03-06 19:52

    popierdoliło ich z ceną jak na jedno procesorową kartę do "gier"

    Skomentuj

  50. solasoft
    Oceń komentarz:

    1    

    Opublikowano: 2013-03-12 01:35

    Smutny temat bo malo kogo stac na taka karte , a tych ktorych nie stac beda pisac glupoty , na tym polega zycie ze jednych stac a innych nie i musza stac przed sklepem i polizac szybe, Zycie.

    Skomentuj

  51. CoreBixx
    Oceń komentarz:

    1    

    Opublikowano: 2013-03-16 17:54

    Mogli się bardziej postarać z collerem, wgląd przecież nic nie daje :)
    Ciekawe jakby się to cudo sprawdził na 3 monitorach 4k każdy :D

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!