Na topie

Nowy król wydajności

Autor:
Maciej Słaboszewski

więcej artykułów ze strefy:
Karty graficzne

A A

GeForce GTX 1080

Wydajność

Nie ma wątpliwości, że GeForce GTX 1080 to obecnie najwydajniejsza karta graficzna na rynku. Nvidia odrobiła lekcję serwując nam produkt, który jest wyraźnie lepszy od swojego poprzednika i póki co nie ma żadnej konkurencji ze strony AMD. Jeśli ktoś myśli o graniu w rozdzielczości 4K to GTX 1080 jest idealnym rozwiązaniem. Szczególnie w wersji autorskiej, a takowe zobaczymy już niebawem.

Opłacalność

Trudno jest mówić o opłacalności w przypadku nowych produktów, szczególnie tych z górnej półki. I to takich, które praktycznie nie mają obecnie żadnej konkurencji. Sugerowana cena karty (Founders Edition) na nasz rynek wynosi 3599 zł. W rzeczywistości powinna być ona nieco niższa, a konstrukcje autorskie, które zadebiutują nieco później sporo tańsze. Nie możemy powiedzieć, że ostateczna cena nas jakoś szczególnie zaskoczyła, ale mimo wszystko liczyliśmy, że będzie nieco niższa.

Dla kogo

GeForce GTX 1080 podobnie jak jego poprzednik w momencie premiery to karta przeznaczona dla entuzjastów. Oferuje bezkonkurencyjną wydajność, umożliwia zabawę w rozdzielczości 4K, a przy tym nie jest specjalnie głośna czy gorąca (jak na referenta). Trudno się wypowiadać o karcie inaczej niż w samych superlatywach. Architektura Pascal to z pewnością strzał w dziesiątkę. I wszytko byłoby idealnie... gdyby nie ta cena. Coś za coś.

Ocena końcowa

  • bezkonkurencyjna wydajność
  • wydajny i relatywnie cichy system chłodzenia (jak na referenta)
  • wsparcie dla nowych technologii
  • jakość wykonania

  • mimo wszystko... cena

Super produkt! Super wydajność 3D

Odsłon: 235196 Skomentuj artykuł
Komentarze

146

Udostępnij
  1. adam6056
    Oceń komentarz:

    -2    

    Opublikowano: 2016-05-17 15:03

    Skok jak najbardziej!
    czas zacząć zbierać hajsy i za rok 970 wymienić na coś z 1100 :D

    Skomentuj Historia edycji

    1. danieloslaw1
      Oceń komentarz:

      -5    

      Opublikowano: 2016-05-17 19:10

      chyba 10xx

      Skomentuj

      1. NanoXen
        Oceń komentarz:

        11    

        Opublikowano: 2016-05-17 22:31

        kolega pewnie miał na myśli, że generacje 10xx ominie a kupi następną ;)

        Skomentuj

  2. tymczas_dla_TSa
    Oceń komentarz:

    27    

    Opublikowano: 2016-05-17 15:04

    "Wiedźmin 3: Dziki Gon
    1920x1080, Ustawienia Uber (Bez Nvidia Hairworks)"

    Co jak co, ale w przypadku takiej karty, kipiącej od nowych tech nv - Nvidia Hairworks trzeba i należy przetestować i to w różnych wariantach dokładności.

    Skomentuj

        1. Marucins
          Oceń komentarz:

          0    

          Opublikowano: 2016-05-18 08:49

          Albo i niżej, po odpowiednim modowaniu.

          Skomentuj

        2. LuckyNumber8
          Oceń komentarz:

          1    

          Opublikowano: 2016-05-18 12:55

          Na konkurencyjnym portalu pclab zrobili test w wiedzminie 3, gdzie w rozdzielczości 1080p 980GTX osiąga tylko 35fps, 980ti 45fps, a 1080GTX już 70fps. W sumie nawet nie wiedziałem, że 980GTX ma takie niskie wyniki przy wiesku, myślałem, że ta karta była w stanie wymaksować tą grę w 60fps. W 1440p karta 1080GTX ma natomiast wyniki wciąż lepsze w tym wiedźminie jak 980ti w 1080p

          Skomentuj

          1. Marucins
            Oceń komentarz:

            0    

            Opublikowano: 2016-05-18 16:38

            Wszystko zależy od miejsca testu.
            PCLoL ma to do siebie że za każdym razem potrafi znaleźć takie miejsce testowe aby udowodnić swoją ($) rację.

            Skomentuj

          2. LuckyNumber8
            Oceń komentarz:

            -1    

            Opublikowano: 2016-05-18 18:48

            No właśnie, wszystko zależy od miejsca testowego, dlatego podoba mi się jak profesjonalnie podchodzą do testów, tzn. każdą grę testują po dwa razy. Pierwszy scenariusz przedstawiający wymagającą miejscówkę, gdzie można zobaczyć z jakimi spadkami trzeba się liczyć na danym sprzęcie, a drugi scenariusz to już normalny, obrazujący płynność gry przez większość czasu. Ile razy widywałem monumentalne słupy wydajności GPU w reckach na różnych stronkach, które nie sugerowały problemów w grze właściwej, a tu jednak na żywo były problemy i tylko test na PClabie to pokazywał.

            Skomentuj

  3. Maciej Słaboszewski
    Oceń komentarz:

    21    

    Opublikowano: 2016-05-17 15:13

    Kilka uwag:

    1. Test będzie jeszcze uzupełniony o wyniki SLI oraz kilka innych, najpewniej wieczorem.

    2. Do grania w 4K nowy Pascal jak znalazł.

    3. Cena lekko zaporowa.

    4. Pozdrawiam chłopaków z PPC, którzy mnie wczoraj odwiedzili i zrobili interes życia. :-)

    Aktualizacja 1: wyniki w Ashes of the Singularity (DX 12)

    Aktualizacja 2: wyniki SLI, test zakończony

    Skomentuj Historia edycji

    1. androll
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-17 15:43

      Panie Macieju, a jak wyglada sprawa wsparcia Asynchronous compute w nowej serii kart Nvidii, sa jakies oswiadczenia producenta, zrobicie jakies testy?

      Skomentuj

      1. Maciej Słaboszewski
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-17 15:47

        Zrobione mam testy i tak jest duży postęp, tak wskazują wyniki w Ashes of Singularity.

        Nie wiem czy dziś mi się uda je wrzucić, bo chcę SLI puścić najpierw, ale jeśli nie to jutro je zamieszczę.

        Skomentuj

        1. androll
          Oceń komentarz:

          0    

          Opublikowano: 2016-05-17 16:43

          Czekam w takim razie z niecierpliwoscia bo w tym roku musze wymienic leciwego Radeona 6950 no i albo 1070 albo cos z Polaris, tylko zeby nie kazali zbyt dlugo czekac:)

          Skomentuj

          1. Maciej Słaboszewski
            Oceń komentarz:

            0    

            Opublikowano: 2016-05-17 22:57

            Wyniki ze stosownym komentarzem w Ashes of the Singularity zostały dodane. :>

            Skomentuj

          2. androll
            Oceń komentarz:

            0    

            Opublikowano: 2016-05-18 19:47

            Bardzo zastanawiajacy jest wynik w Dx11 i Dx12. Pierwsze na mysl przychodzi ze rozwiazali to programowo ale moge sie nie znac:) Do Pana komentarza odnosnie karty Fury z zespolu AMD dodam, ze ilosc klatek na sekunde jest faktycznie wieksza, ale prosze zwrocic tez uwage na roznice w taktowaniu zegara GPU.

            Skomentuj

    2. Yaceek
      Oceń komentarz:

      2    

      Opublikowano: 2016-05-17 17:14

      Jak przyjadę tam do Ciebie i dam Ci zgrzewkę browców, to też dostanę 1080? :D

      Skomentuj

    3. Argetlam1xx
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-17 23:21

      Test byłby dużo bardziej wiarygodny, jak byście nagrali wszystko co i jak testowaliście, tak by każdy widział,że nie kantujecie z ilością FPS w grach... - bo co mi po suchych wykresach, które można dowolnie podać itp ?

      Albo pokaszcie wyniki w postaci screenów z Frapsa, który zapisuje wyniki pomiarowe - z wbudowanego benchmarka -ilości FPS do pliku excelu i nie ma możliwości ich zmiany w pliku, bo wtedy dane się uszkodzą i nie zapiszą, więc wtedy było by to bardziej obiektywne ;)

      Pozdrawiam

      Skomentuj

      1. Maciej Słaboszewski
        Oceń komentarz:

        2    

        Opublikowano: 2016-05-18 01:45

        Do pewnego czasu nagrywaliśmy filmiki z miejscami testowymi i je publikowaliśmy (wystarczy się cofnąć choćby do testów wydajności Wiedźmina 3), ale to generalnie sensu nie ma i dlatego też zaprzestaliśmy tej praktyki. W zasadzie obecnie prawie żaden duży portal w kraju czy za oceanem tego również nie robi.

        A co do wiary lub jej braku. Wolna wola, ot w naszym narodzie teorie spiskowe "wszyscy" widzą na każdym kroku. ;) Nawet jeśli jest prostsze i bardziej oczywiste wytłumaczenie.

        Skomentuj

    4. Franz
      Oceń komentarz:

      1    

      Opublikowano: 2016-05-18 10:16

      Ta karta nadal nie nadaje się do grania w 4K.

      Jak ktoś wydaje ponad 3 tys.na kartę to monitor też zapewne ma z wyższej półki, czyli ze 120-144 Hz.

      Skomentuj

      1. xchaotic
        Oceń komentarz:

        0    

        Opublikowano: 2016-06-09 14:13

        To pokaz mi te monitory 4k 144H, gdzie one sa?
        W praktyce w 4k bedzie cie ograniczal ekran do 60Hz i tak, wiec wiecej nie potrzeba.
        Ja czekam na 4k z GSync, HDR, 144Hz i czyms tam jeszcze, ale poki co karta sie przyda do 1440p

        Skomentuj

  4. Blashix
    Oceń komentarz:

    4    

    Opublikowano: 2016-05-17 15:14

    Czemu nie było w testach Titana X?

    Skomentuj

    1. Maciej Słaboszewski
      Oceń komentarz:

      20    

      Opublikowano: 2016-05-17 15:17

      Bo go nie mieliśmy i jest jeden sampel na kraj? :)

      Podobno GTX 1070 ma być szybszy również od Titana X tak go reklamują, przy okazji tego testu na pewno sprawdzimy.

      Skomentuj

      1. Dudi4Fr
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-17 15:21

        A kiedy test 1070?

        Skomentuj

        1. Maciej Słaboszewski
          Oceń komentarz:

          7    

          Opublikowano: 2016-05-17 15:38

          Embargo na embargo nawet jeśli data byłaby znana. ;)

          Skomentuj

          1. Dudi4Fr
            Oceń komentarz:

            0    

            Opublikowano: 2016-05-17 15:56

            Aż tak źle? Pracują dalej nad nią inżynierzy? Patrząc na to że 1070 ma premierę na półkach 2 tygodnie po 1080 pewnie będzie jakiś teścik za 3-4 tygodnie max?

            Skomentuj

          2. androll
            Oceń komentarz:

            5    

            Opublikowano: 2016-05-17 17:04

            Podobno tak ma wygladac specyfikacja GTX 1070
            - 16 nm GP104 silicon "GP104-200-A1" GPU
            - 1920 CUDA cores
            - 15 out of 20 streaming multiprocessors enabled
            - 120 TMUs
            - 64 ROPs
            - 256-bit GDDR5 memory, 8 GB standard memory amount
            - Max GPU Boost frequency 1600 MHz
            - 6.75 TFLOP/s single-precision floating point performance
            - 150W TDP, single 8-pin PCIe power connector
            - 3x DisplayPort 1.4, 1x HDMI 2.0b
            - 2-way SLI with SLI HB bridge support
            (z guru3d)

            Skomentuj

        1. Maciej Słaboszewski
          Oceń komentarz:

          2    

          Opublikowano: 2016-05-17 23:19

          Nie mamy, ale przyjedzie do nas niedługo. Więc na test GTX 1070 będzie na pewno. :>

          Skomentuj

      2. ma2sh
        Oceń komentarz:

        1    

        Opublikowano: 2016-10-11 10:59

        Mogę użyczyć swojego - mam dwa :)

        Skomentuj

  5. HanJammer
    Oceń komentarz:

    -13    

    Opublikowano: 2016-05-17 15:16

    Pokaż komentarz zakopany przez użytkowników

    #bekazradeona

    Skomentuj

  6. chrisplbw
    Oceń komentarz:

    2    

    Opublikowano: 2016-05-17 15:17

    Wyjaśnijcie proszę - PurePC, który chwali się tym, że kartę do testów otrzymał od Was za przysłowiowego browara, ma wyniki w 1920x1080 o 20FPS niższe - inna metodologia, lokacja???

    Skomentuj

    1. Maciej Słaboszewski
      Oceń komentarz:

      6    

      Opublikowano: 2016-05-17 15:20

      W grze jakiej? :) Wróżką nie jestem.

      Ale tak, wyniki nie są identyczne czy nawet często zbliżone między portalami i nie należy ich bezpośrednio porównywać.

      Najczęściej jest inna lokacja testowa i metodyka. Czasem i wersja gry.

      Skomentuj Historia edycji

      1. chrisplbw
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-17 15:22

        Przepraszam z rozpędu nie dopisałem ze w Wiedźminie 3, zresztą to samo na PClab

        Skomentuj

        1. Maciej Słaboszewski
          Oceń komentarz:

          0    

          Opublikowano: 2016-05-17 15:28

          Przeleciałem u nich na szybko i względem bagna różnica jest mniej więcej 10 kl/s, co by się zgadzało, bo nasza lokacja testowa jest "lżejsza"

          I jeszcze taka ciekawostka, 3 komentarze wyżej inna osoba pisze, że wyniki w W3 mamy za niskie. ;-)

          Skomentuj

          1. chrisplbw
            Oceń komentarz:

            0    

            Opublikowano: 2016-05-17 15:33

            Może warto podać Waszą lokację. PurePC testowało na Ziemi Niczyjej, PCLab - Las ma wyniki podobne do PurePC, na Bagnach zbliżone do Waszych.

            Skomentuj

    1. Maciej Słaboszewski
      Oceń komentarz:

      25    

      Opublikowano: 2016-05-17 15:22

      Byli tam w zasadzie wszyscy, największe portale.

      Więc tak, wnioski nasuwają się same.

      Wszyscy się sprzedali, bo mają inne wyniki niż Ty. :)

      Uwielbiamy te teorie spiskowe. :>

      Skomentuj Historia edycji

    2. chrisplbw
      Oceń komentarz:

      4    

      Opublikowano: 2016-05-17 15:35

      Na innych portalach Wiedźmin 3: 1080 przegania Titan X - wystarczy poszukać.

      Skomentuj

  7. Dudi4Fr
    Oceń komentarz:

    3    

    Opublikowano: 2016-05-17 15:26

    No to teraz mnie podjaraliście na maksa, czekam na jakieś wersje od Asus'a czy EVGA i można powoli przymierzać się do ekranu 4K albo 21:9 1440p!


    Dodacie jakieś inne testy oprócz SLi?


    Edit:

    Oraz jeśli łaska możecie zrobić przy SLi porównanie miedzy tym nowym i starym mostkiem SLi? Ciekawi mnie czy to tylko wciskanie kitu żeby zmusić ludzi do kupna nowego mostka (który pewnie tani nie będzie) czy na prawdę uwalnia to pełny potencjał 1080-tek.

    Skomentuj Historia edycji

    1. Maciej Słaboszewski
      Oceń komentarz:

      2    

      Opublikowano: 2016-05-17 15:29

      Tak, będą jeszcze inne testy. :>

      Skomentuj

      1. Dudi4Fr
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-17 15:30

        Szybcy dzisiaj jesteście, dodałem małą prośbę w edycji :(

        Skomentuj

        1. Maciej Słaboszewski
          Oceń komentarz:

          4    

          Opublikowano: 2016-05-17 15:34

          Będzie o tym kilka zdań, ale nie będzie szczegółowego porównania (wykresów do tego), bo nie miałem czasu tyle, aby zrobić pod tym kątem testy SLI.

          A teraz chwilowo mam tylko jedną kartę, bo drugą użyczyliśmy chłopakom z PPC. Jak wróci to dokładniej obadam.

          Skomentuj

          1. Dudi4Fr
            Oceń komentarz:

            1    

            Opublikowano: 2016-05-17 16:12

            Dziękuję za info, pytam tak bardziej z ciekawości, ponieważ przy optymizacji ostatnich AAA pod MultiGPU albo wręczy brak jakiegokolwiek wsparcia uważam że SLi/Crossfire nie ma obecnie większego sensu.

            Skomentuj

  8. powerman1969
    Oceń komentarz:

    5    

    Opublikowano: 2016-05-17 15:27

    Szału nie ma. Jest wzrost ale nie dramatyczny. Wstępnie mówiono, że 1080 będzie 2x gtx 980 a jest 2x gtx 970. Pewnie pod koniec roku wyjdzie szybsze Ti a potem Titan. Czekamy na odpowiedź AMD. Walka rozegra się w segmencie kart średnich tj. AMD R9 480x , R9 490X i GTX 1070. To będą najczęściej sprzedawane karty w najbliższym półroczu.

    Skomentuj

    1. Mystering
      Oceń komentarz:

      3    

      Opublikowano: 2016-05-17 17:02

      Mówiono, że wydajność GTX 1080 będzie wyższa niż dwóch GTX 980 w SLI. A jak wiadomo skalowanie w SLI nie jest równe 2xGPU = 2xWydajność. Owszem, nowa karta potrafi wygenerować 2 razy więcej klatek na sekundę niż GTX 970, ale w SLI to tak nie działa. A nVidia właśnie mówiła o GTX 980 w SLI.

      Myślę, że najpierw wydadzą nowego Tytana, a później GTX 1080 Ti, tak jak to było w kartach 9xx

      Skomentuj

    2. Next_Gen_1987
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-17 17:06

      Hehe, GTX 1070 który pewnie będzie po około 2500zł+ nazywasz średniakiem? ;-)

      Skomentuj

      1. mjwhite
        Oceń komentarz:

        5    

        Opublikowano: 2016-05-17 18:54

        jak z 379$ zrobią 2500zł to będzie mistrzostwo świata!

        Skomentuj

        1. tazik21
          Oceń komentarz:

          0    

          Opublikowano: 2016-05-20 02:09

          proste, zamówisz z zagranicznego sklepu

          Skomentuj

  9. Defan
    Oceń komentarz:

    5    

    Opublikowano: 2016-05-17 15:52

    Zastanawiałem się czy nie sprzedać swojej 980Ti G1, aby zamienić ją na 1080, ale jak patrzę na te słupki, to szkoda mi się robi chłopaków, którzy sprzedali swoje Ti za 2 tys. i muszą teraz dokładać półtora klocka do 25% boosta wydajności xD

    Skomentuj

    1. Maciej Słaboszewski
      Oceń komentarz:

      7    

      Opublikowano: 2016-05-17 15:59

      Sens zamiany (przy jakieś niewielkiej dopłacie) mocno podkręconej, autorskiej wersji GTX 980 Ti na referenta 1080 jest kwestią mocno dyskusyjną.

      Natomiast jeśli ktoś ma jeszcze do tego dopłacić 1500 zł, to się kompletnie nie opłaca.

      Skomentuj Historia edycji

  10. thoorin
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-17 15:52

    Wydajność, kultura pracy i pobór prądu robią wrażenie. Karta jest obecnie bezkonkurencyjna. Taką wydajność powinny oferować flagowe modele już dawno - okolice 100fps w 1080p. Tylko ta cena... :)

    Skomentuj

    1. Maciej Słaboszewski
      Oceń komentarz:

      9    

      Opublikowano: 2016-05-17 16:05

      Zapomniałeś o "podatkach". ;)

      Skomentuj

        1. mutissj
          Oceń komentarz:

          3    

          Opublikowano: 2016-05-17 18:08

          w polsce nowy GTX1080 prawie 4K zł akurat dla 4K

          Skomentuj

        2. abukiewicz
          Oceń komentarz:

          1    

          Opublikowano: 2016-05-17 22:57

          To nie jest tak ze dolary się na euro zmieniało i tyle...
          cena zawsze była w dolarach tylko doliczane jest 23% VATu, 2% cła, marże w sklepie, koszty transportu z zagranicy i się cena zbiera... A że kurs dolara jest jaki jest to w tym kraju ceny wychodzą zaporowe
          Jak dolar był w okolicy 2,8 -3,2 zł a euro kolo 4 to się tak dało przeliczyć, a że teraz dolar kolo 3,9-4zł a euro kolo 4,2-4,4 to już tak nie jest różowo jak kiedyś...

          Skomentuj

  11. Detrioux
    Oceń komentarz:

    3    

    Opublikowano: 2016-05-17 16:08

    Cena... Cena... Cena... i Cena... Człowiek w Polsce musi ponad miesiąc harować na takie cudo. Czekam na AMD Polaris i Zen który mam nadzieje zjedzie te kosmiczne ceny i przeliczenia z $ na PLN. (również Intela)

    Niestety polska złotówka jest na dzień dzisiejszy słaba a organizacje ratingowe ostro ostrzegają na temat polskiej gospodarki i polityki. Mam nadzieje (ona ostatnia umiera) że coś jednak się zmieni tak jak na rynku SSD-ków.

    Skomentuj

      1. Detrioux
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-18 22:33

        Bo pan Ziobro patrzy i czyta.

        Skomentuj

    1. tazik21
      Oceń komentarz:

      -1    

      Opublikowano: 2016-05-20 02:41

      "organizacje ratingowe ostro ostrzegają"

      polecam obejrzeć film The Big Short 2015

      Firmy ratingowe jest ich wiele, wiec konkurencja jest, ale to nie znaczy, że jest zdrowo.

      Ciekawe na czyj wniosek była wystawiona ocena gospodarcza Polski.

      Jak był światowy kryzys gospodarczy, to nic nie słyszałem o rating Polski, ciekawe?



      Skomentuj

  12. sebas680
    Oceń komentarz:

    3    

    Opublikowano: 2016-05-17 16:15

    Komentarz ponad 100 klatek w Full HD robi wrażenie, przy karcie za ponad 4tyś. to nieporozumienie. Podobne wyniki na wykręconym 980 ti otrzymamy za znacznie niższą cenę. Jak dla mnie karta za droga , a w rozdzielczości 4k jak widać nie we wszystko pogramy na max przy 60 fps, więc po co przepłacać. Do 2560x1440 spoko wystarcza 980 Ti. Może następna generacja będzie w stanie 4K obsłużyć w 60 fps

    Skomentuj

    1. Mystering
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-17 17:13

      Podobne, jeśli weźmiemy GTX 980 Ti OC i GTX 1080 z fabrycznymi zegarami. Oczywistym jest, że nowa generacja również ma możliwość podkręcenia (i to całkiem sporego), a co za tym idzie, większa wydajność. Karta nie kosztuje ponad 4 tysiące złotych, skąd taka informacja? Wersja Founders Edition jest droższa od autorskich kart. Na pewno od partnerów Nvidii wyjdą tańsze wersje (spekuluję, iż cena będzie około 2 tysięcy złotych).

      Skomentuj

      1. mjwhite
        Oceń komentarz:

        4    

        Opublikowano: 2016-05-17 18:56

        zapomnij o 2 tys. nie referenty mają być po 599$ to da jakieś 2800zł .

        Skomentuj

        1. Mystering
          Oceń komentarz:

          3    

          Opublikowano: 2016-05-17 19:02

          Rzeczywiście, masz rację. Zapomniałem, że 600$ ≠ 2000 zł, hehe ;D

          Skomentuj

    1. Maciej Słaboszewski
      Oceń komentarz:

      3    

      Opublikowano: 2016-05-17 16:32

      Literówka w spisie treści.

      Poprawiona, dzięki za czujność.

      Skomentuj

  13. TomPo75
    Oceń komentarz:

    4    

    Opublikowano: 2016-05-17 16:30

    Strategia dla entuzjastów, gracze czekają na 1060 i na Polaris 10.
    Nawet na bogatym zachodzie wywalić 700$ na GPU nie jest łatwo.
    Obsługa DX12 (async) dalej za pomocą sterowników? ;p

    Skomentuj Historia edycji

    1. Maciej Słaboszewski
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-17 16:33

      Nie, async działa całkiem sprawnie w GTX 1080 (przegania wyraźnie AMD).

      Skomentuj

    2. king2127
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-17 16:39

      racja , ciekawe jak będzie wyglądała propozycja dla przeciętnego zjadacza chleba :) , ale może będzie podobnie jak z gtx960 połowa gtx980 :)

      Skomentuj

    3. Maciej Słaboszewski
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-17 23:06

      Choć głowy za to nie daję, bowiem zaczęło mnie zastanawiać porównanie do wyników w DX 11, a tam GTX 1080 uzyskuje praktycznie identyczne +/- 1 kl//s, co w DX 12.

      To wymaga głębszej analizy, nie zmienia to jednak faktu, że wydajność GTX 1080 w tym teście była zadowalająca i znacząco wyższa niż Fury X.

      Wyniki są już zamieszczone na dodatkowej stronie.

      Skomentuj

  14. Wenezo
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-17 16:47

    Noo w cena poszaleli.

    Skomentuj

    1. Mystering
      Oceń komentarz:

      -8    

      Opublikowano: 2016-05-17 17:06

      Myślę, że cena jest odpowiednia. Wydajność jak i cena jest trochę wyższa niż GTX 980 Ti, ale nowa generacja została stworzona przede wszystkim do VR

      Skomentuj

        1. Mystering
          Oceń komentarz:

          -3    

          Opublikowano: 2016-05-17 18:40

          Ja nikogo nie obrażam i oczekuję tego samego ;)

          Cena jest adekwatna do wydajności GPU.
          Premierowa GTX 980 Ti kosztowała około 3 tysięcy.
          Przysłowiowy wzrost 25% mocy powinien mieć odzwierciedlenie w cenie. 3000 zł + 25% => 3750 zł.
          W dodatku w VR Pascal jest o wiele szybszy niż Maxwell.
          Powinieneś też zauważyć, że jest to Founders Edition, czyli droższa, referencyjna wersja.

          Chciałbyś cenę na poziomie GTX 980 Ti? Dlaczego nVidia miałaby wypuścić szybszą kartę o niższej cenie?

          Skomentuj Historia edycji

          1. mikovitz
            Oceń komentarz:

            9    

            Opublikowano: 2016-05-17 19:20

            Idąc Twoim tokiem rozumowania, za każdy wzrost o 25% z generacji na generacje zapłacimy więcej o 25%. Czyli za cztery generacje karta do grania w maksymalnych detalach będzie kosztować 7 tys zł. Poczekamy za cenami kart autorskich, ale nie ma co liczyć na cenę poniżej 3 tys zł i analogicznie GTX 1070 będzie kosztował minimum 2 tys zł. Na ten moment ceny są zbyt wygórowane, jeszcze nie czas sprzedawać GTX 970.

            Skomentuj

          2. Yaceek
            Oceń komentarz:

            2    

            Opublikowano: 2016-05-18 00:11

            Po 1. 1080 nie konkuruje bezpośrednio z 980ti tylko ze zwykła 980. Cena za zwykłą 980 w dniu premiery, która notabene też miała ogromny przyrost fps względem poprzednika i droższej wersji 780ti wynosiła 549$. Jest zatem o 50$ niższa niż w przypadku 1080, której najniższa sugerowana cena to 599$.
            Po 2. Przypomnij sobie co było z Maxwellem. 970 była porównywalna do 780ti, a kosztowała 329$. 1070 natomiast określana jako półka wydajnościowa Titana X/980ti kosztuje 379$. Ponownie widzimy wyższą cenę o 50$.
            Po 3. "Dlaczego Nvidia miałaby wypuścić szybszą kartę w niższej cenie" - Ponieważ konsumenci tego oczekują. Jeżeli ktoś zobaczy, że nowe cudo Nvidii jest tak samo wydajny jak 980ti i ma tą samą cenę, to tego po prostu nie kupi. Gratuluje toku myślenia. Dzięki tobie na rynku byłaby stagnacja.

            Skomentuj Historia edycji

    1. Pafun
      Oceń komentarz:

      4    

      Opublikowano: 2016-05-17 16:55

      No właśnie tak wychodzi, że chyba będzie :-(

      Skomentuj

      1. mjwhite
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-17 18:58

        z czego ci tak wychodzi? z zapowiadanej ceny 379$ ?

        Skomentuj

        1. danieloslaw1
          Oceń komentarz:

          1    

          Opublikowano: 2016-05-17 19:21

          (379x3.8(dolar))+30-35% z całości (podatki, transport i zysk sklepów) wychodzi 1872-1944

          Skomentuj

          1. mjwhite
            Oceń komentarz:

            1    

            Opublikowano: 2016-05-17 21:33

            czyli daleko do 2400

            Skomentuj

  15. killerek132
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-17 17:08

    Ale mam rogal na papie, takie rzeczy słyszałem, myślę sobie "może nareszcie powstała karta do gry w 4k" a tu mam wyniki w grach i się śmieję, całe 59 FPS-ów w GTA 5 na FullHD, już się bałem że będę musiał wymieniać swoją 970.
    Zamieszania co nie miara, a wyniki niczym nie zaskakują, taki wzrost wydajności a tyle krzyku, jak ktoś ma 980ti to nawet nie opłaca się wymieniać, chyba że 1070 będzie mało okrojona.
    Szczerze liczyłem na wzrost chociaż 20 FPS-ów minimalnych, a tu jest śmiech bo przy 122Hz nadal nie masz w zwykłym FullHD zapewnionej takiej ilości klatek. Szum, szum i jeszcze raz szum dla marketingu...

    Skomentuj

    1. michal-prezes1
      Oceń komentarz:

      4    

      Opublikowano: 2016-05-17 17:17

      Kolega chyba oderwany od rzeczywistosci. 4k to 4x wiecej pikseli niz 1080p. Karta do 4k musialaby najpierw robic 240 fps w 1080p na chlopski rozum. Oczywiscie trzeba dodac inne czynniki. 4k to jest marketing przez tanie tv, ktore laguja przy wyswietlaniu obrazu w 30fps. Na karty musisz poczekac okolo 2 nastepnych generacji do 4k xd a pomyslec, ze moj pierwszy monitor chodzil na 640x480 :) mlodym w dupie sie poprzewracalo.

      Skomentuj

  16. n1tros
    Oceń komentarz:

    -2    

    Opublikowano: 2016-05-17 17:30

    Jest moc, czekam na GTX 1070 / GTX 1080 Ti!

    Skomentuj

  17. polios3
    Oceń komentarz:

    -7    

    Opublikowano: 2016-05-17 17:37

    lipne te Pascale. 4razy 980 i mamy dwa razy 1080. (980 mogą być 4 ale 1080 tylko max dwa.) czyli wydajność monsterów jest taka sama albo niższa (980 x2 > 1080)

    Skomentuj

    1. Mystering
      Oceń komentarz:

      1    

      Opublikowano: 2016-05-17 18:54

      Wiesz jak skaluje się wydajność w SLI?
      Zresztą chyba pomyliły Ci się znaki, 2x GTX 980 < GTX 1080 (jeśli chodzi o wydajność)

      Skomentuj

      1. polios3
        Oceń komentarz:

        -2    

        Opublikowano: 2016-05-17 20:27

        Wydajność w Sli to koło 87% dla drugiej 75% dla trzeciej i 65 dla czwartej. Zależy od gry, procka. I nie. Nie pomyliły mi się znaki. Na purepc. I guru3d wyraźnie były testy robione i 1080 < 2x 980

        Skomentuj

        1. Mystering
          Oceń komentarz:

          1    

          Opublikowano: 2016-05-17 20:57

          Można źródło? Konkretnie proszę.
          Nie raz widziałem testy gdzie 3-way SLI miało bardzo złe skalowanie (czasami nawet ujemne w stosunku co do 2-way).
          Znajomy skarżył się, że po kupnie dwóch kart nvidia i złączeniu i ich ma 1,5 wydajności.
          Jestem po prostu ciekaw tych %

          Skomentuj

    2. rrrrrr
      Oceń komentarz:

      2    

      Opublikowano: 2016-05-18 12:36

      Spokojnie, nV ubije wydajność Maxwelli w sterach i będziesz jeszcze w podskokach leciał do sklepu...

      Skomentuj

  18. hasati
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-17 17:46

    I to ma być ten potwór ? Gdzie żurawina co mówił że będzie 120 fps zamiast 30-40 fps. Gdzie ten przyrost ponad 100% ?!?! Hahahahhahahahaha wysżło jak zwykle :) Karta jest droższa od 980ti :) Tragedia.

    Skomentuj Historia edycji

    1. polios3
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-17 17:53

      sami użytkownicy sobie to zrobili więc o co chodzi ;) ceny będą rosły póki Nvidia nie będzie miała 50% udziałów ;)

      Skomentuj

    2. Mystering
      Oceń komentarz:

      -2    

      Opublikowano: 2016-05-17 18:59

      Jest wydajniejsza od 980 Ti, więc czemu miałaby być tańsza?

      Skomentuj

  19. dysan112
    Oceń komentarz:

    1    

    Opublikowano: 2016-05-17 17:50

    A AMD siedzi z zawija sreberka

    Skomentuj

  20. TruGeek
    Oceń komentarz:

    4    

    Opublikowano: 2016-05-17 18:07

    Jak dla mnie lipa na nic nie czekam , na dużo tańszych kartach da się spokojnie sobie pograć , a takie podniecanie się byle gównem prowadzi do takich cen gdzie za 3600zł można złożyć bardzo dobry pc do grania . Najbardziej mnie śmieszy robienie z 970 jakiegoś słabeusza czy innych gównien jak to jest karta gdzie używaną za 1000zł ciężko jest kupić . Gdzie wy ludzie żyjecie i ile zarabiacie ?

    Skomentuj

    1. Mcvillain
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-18 11:54

      W Polsce, mam zamiar kupić 1070 może 1080 2 miesiące oszczędzania i spokojnie można sobie kupić taką kartę.

      Skomentuj

    2. Mcvillain
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-18 11:54

      W Polsce, mam zamiar kupić 1070 może 1080 2 miesiące oszczędzania i spokojnie można sobie kupić taką kartę.

      Skomentuj

  21. jeomax.co.uk
    Oceń komentarz:

    -3    

    Opublikowano: 2016-05-17 18:27

    Zachecam do poprawnego robienia "slupkow", bo czlowiek patrzy na te wykresy, widzi roznice miedzy 47 i 57 FPS, natomiast miedzy 57 i 77 juz jakos cieniutko - a powinna byc JESZCZE BARDZIEJ WYRAZNA ROZNICA. Mowa o wykresie GTA V, po ktorym nie zdzierzylem dalszego czytania i napisalem komenta.
    Inaczej czytelnik moze odniesc wrazenie, ze maskujecie wydajnosc 1080-tki.
    Poprawcie skale na wykresach.

    Skomentuj

    1. Maciej Słaboszewski
      Oceń komentarz:

      4    

      Opublikowano: 2016-05-17 19:05

      Wydłużyłem lekko słupek od wartości 77, reszta jest jak najbardziej ok (GTA) więc generalnie uważam, że "lekko" przesadzasz.

      A ludzie odnoszą takie wrażenia jakie chcą odnieść, teorii spiskowych nie brakuje. ;) Widać naród żyć bez nich nie może.

      Skomentuj

  22. stoona
    Oceń komentarz:

    1    

    Opublikowano: 2016-05-17 18:32

    Proponuję test z taktowaniem obniżonym do taktowania 980Ti.
    Jak tak patrzę to na przestrzeni ostatnich lat tak w CPU jak i GPU wzrost wydajności wyraźny był tylko wtedy kiedy taktowanie mocno wzrastało. Szczególnie widać to w CPU Intela. Sama architektura tak wiele nie daje, oczywiście oprócz możliwości zastosowania tak wysokiego taktowania.

    Skomentuj

    1. Mystering
      Oceń komentarz:

      2    

      Opublikowano: 2016-05-17 18:46

      Ciekawy test, ale uważam, że bezsensowne porównanie.
      Maxwell (w domowych warunkach) nie mógłby dojść do 2GHz na rdzeniu, a Pascal już tak. Więc po co zaniżać możliwości nowych technologii?

      Skomentuj

  23. majki_majk
    Oceń komentarz:

    -6    

    Opublikowano: 2016-05-17 18:33

    Będą testy w 4K? (4096x2160) bo w UHD(3840 x 2160) tylko są robione.

    Skomentuj

    1. Foxy the Pirate
      Oceń komentarz:

      3    

      Opublikowano: 2016-05-17 21:28

      Nie. A jak chciałeś zabłysnąć to było się brokatem posypać.

      Skomentuj

  24. marop86
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-17 18:42

    Koledzy nie zapomnijcie. Die size GP104 jest bardzo mala w stosunku do GM200, GP104 zawiera mniej tranzystorow (bo 800 mln to juz duza roznica), zawiera znacznie mniej jednostek rasteryzujacych i teksturujacych, znacznie mniej procesorow strumieniowych, VRAM-u wiecej o wyzszej czestotliwosci lecz w finale o mniejszej przepustowosci. Mimo to odbiega od 980Ti mocno a to tylko czip o ile sie nie myle ledwo przekraczajacy 300mm2.

    Takty GPU sa mega wysokie (zasluga FinFET).
    Bo jesli taktowanie GPU nie zmieni sie w 1080ti i nastepcy Titana to przy wielkosci czipa rzedu GM200 w rozmiarach FinFET to bedzie miazga.
    Cena mocno przesadzona, jesli takowa sie utrzyma to nadal Maxwelle beda dobrze sprzedawane (poza Titanem X wg. Mnie).

    sory za brak PL znakow :)

    Skomentuj

    1. mjwhite
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-17 19:05

      aż taka miazga to nie będzie bo w GP100 czyli prawdopodobnie przyszłym 1080ti dużo tranzystorów poszło na FP 64 co będzie zablokowane.

      Skomentuj

      1. marop86
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-19 14:03

        Pożyjemy zobaczymy...
        Gry i ich producenci śmielej wchodzą w DX12 gdzie Pascal radzi sobie o niebo lepiej niż Maxwell.
        Suma summarum jeśli 1080Ti będzie zbudowany na GP100, tak jak 980Ti na Czipie Titana X to będzie ogromny skok wraz z HBM2.

        Czekam na niego niecierpliwie (trochę poczekam), ale kroi się 1080Ti SLI i wraz z nimi nowy PC.

        Skomentuj

  25. kristof080
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-17 18:49

    Zobaczymy co pokaze AMD z Polarisem 10. Wiem ze to nie ta sama polka, ale bedzie mozna sobie reszte dopisac. Bo jak AMD nie wyjdzie z Pascalami i Vega, to marne zycie graczy.

    Skomentuj

    1. mjwhite
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-17 19:06

      Niby polaris 10 celuje w 980ti więc z wydajnością nie powinno być aż tak źle.

      Skomentuj

      1. ElFi_
        Oceń komentarz:

        -1    

        Opublikowano: 2016-05-17 21:30

        Może i celuje ale strzela w 970:) Muszą go szybko poprawić bo będzie słabizna.

        Skomentuj

  26. mikovitz
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-17 19:19

    error

    Skomentuj Historia edycji

  27. piotr.potulski
    Oceń komentarz:

    -2    

    Opublikowano: 2016-05-17 19:36

    W końcu karty do grania w 4K z normalnej półki cenowej. Za chwilę wejdą nie referenty w cenach o ~600 zł niższych, 1070 za jakieś 1600 zł. Teraz wiadomo - premiera i kręcą remake "Łowcy Jeleni" jak zwykle. I zanim zaczniecie się pruć o FPS'ach - po wyłączeniu/ograniczeniu AA skoczą do góry a w 4K jest to ledwo zauważalna różnica.

    Skomentuj

    1. zed76
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-18 11:52

      Różnica między 4k a 1080p ledwo widoczna ? Polecam odwiedzić okulistę

      Skomentuj Historia edycji

      1. androll
        Oceń komentarz:

        2    

        Opublikowano: 2016-05-19 09:56

        Polecam czytac ze zrozumieniem:) Nie bedzie duzej roznicy w 4K z wl lub wyl AA...

        Skomentuj

    2. zed76
      Oceń komentarz:

      -1    

      Opublikowano: 2016-05-18 11:52

      ;)

      Skomentuj Historia edycji

  28. LuckyNumber8
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-17 19:45

    Nie sądziłem, że będzie aż taka spora wydajność, przecież te wyniki NFS w 4K prezentują GIGANTYCZNĄ przepaść

    980GTX- avg.23 fps, min 15 fps
    1080GTX- avg. 55 fps, min 42

    ponad 2x w średnim fps (czyli w pewnych przypadkach słowa Nv o 2x większej wydajności względem 980GTX były jednak prawdą, a nie tylko marketingiem), a w minimalnym, to już totalna przepaść (a w gta5 w 4K to tez podobnie 5 fps min. na 980GTX, a 42fps w 1080GTX). Skąd takie gigantyczne różnice się wzięły przy tej rozdzielczości 4K?

    Co do testu, to zauważyłem, że przy stronie z OC uciekły wam cyferki wyniku 1080GTX w wiedzminie, jest tylko + a nie pisze o ile fps. Swoją drogą czytelniej byłoby pisać zwykły wynik, a nie wymagać od czytelników, aby sobie dodawali :P, a też swoją drogą szkoda, że tak mało testów po OC :(, akurat wyniki OC zawsze interesują mnie najbardziej :). Podoba mi się natomiast, że testujecie gry przy wymagających ustawieniach i scenariuszach. Na stronie guru3d słupki w gta 5 są monumentalne, ale jak widać przy naprawdę max detalach ta gra ma potężne wymagania, wynik kurczy się ponad dwa razy i dopiero u was to widać co naprawdę potrzeba, aby nie narzekać na płynność w tej grze na maxie.

    Teraz aż ciekawy jestem co zaprezentuje pełny pascal, skoro jego odchudzona wersja już i tak jest bardzo szybka :), +25-40% względem 1080GTX i to już będzie pierwsza karta pod 4K, która umożliwi granie w 60 fps :)

    Skomentuj Historia edycji

  29. Marucins
    Oceń komentarz:

    1    

    Opublikowano: 2016-05-17 20:26

    Zobaczcie co może kilka lat posuchy zrobić z nami (wami).
    Wszędzie słychać aplauz i owacje nad wydajnością karty.

    tzn że dla tych wszystkich ludzi, wielkim szokiem jest postęp techniczny. Normalny postęp (jaki mogliśmy obserwować kilka lat temu) a nie sztucznie zaniżany wydajności bo i tak się sprzeda na rzecz kolejnego numerka przy GTX/R.

    Prawda jest taka że dalej w 4K nie mamy płynnych 60 klatek. Chyba że zjedziemy z ustawień. A cena... no cóż powoli średnia półka zaczyna doganiać tą wyższa sztucznie wykreowana przez TITANA. Tak wiem że obecnie prezentowana karta to ta o 100 dolców droższa tzw. Frajers Edition.

    Skomentuj

    1. Maciej Słaboszewski
      Oceń komentarz:

      1    

      Opublikowano: 2016-05-17 21:18

      Ja tam żadnego szoku nie widzę.

      Jest dobrze, tzn. dostaliśmy według mojej opinii dokładnie taką wydajność jakiej można było się spodziewać.

      Czasy kiedy to każda kolejna generacja miała dwukrotnie lepszą wydajność od poprzedniej raczej już nie wrócą. Dużo w tym marketingu i księgowości, ale też sporo ograniczeń technologicznych.

      Co do grania w 4K, ludzie nie zauważają, że mowa przecież cały czas o referencie. Ten zapewnia najczęściej pomiędzy 40 - 60 kl/s w maksymalnych ustawieniach.

      Należy jednak pamiętać, że niebawem na rynek wejdą karty autorskie, które spokojnie na rdzeniu wycisną 2,1 - 2,3 GHz (to już z boost). I tak podkręcony GTX 1080 w wielu (znakomitej większości) grach da Ci 60 kl/s w 4K.

      Nie bez znaczenia jest też fakt, że Nvidia ma jeszcze przecież 1080 Ti w obwodzie i nie wyobrażam sobie aby nie był on minimum 30% szybszy od "zwykłego" GTX 1080.

      Ta generacja to jest moim zdaniem tak jak napisałem w recenzji właśnie ta, która umożliwi w miarę swobodne granie, w 4K.

      Cena jest niestety zaporowa i mając na uwadze, że konkurencji brak, na szybki jej spadek bym się nie nastawiał (nie licząc nieco tańszych modeli autorskich).

      Skomentuj Historia edycji

        1. Maciej Słaboszewski
          Oceń komentarz:

          0    

          Opublikowano: 2016-05-18 00:09

          Szczerze, to ja HBM póki co "nie kupuję".

          Znam korzyści, liczby, ale póki co praktyka tego nie potwierdza.

          Nawet w przypadku GTX 1080 to nie pamięci są wąskim gardłem jeśli chodzi o rozdzielczość 4K.

          Nie zmienia to jednak faktu, że GTX 1080 Ti tak samo jak topowej karty AMD (Vega?) jestem bardzo ciekawy.

          Skomentuj

        2. polios3
          Oceń komentarz:

          0    

          Opublikowano: 2016-05-18 07:14

          amd jak zwykle wyprzedza swoje czasy o lata świetlne. Dlatego HBM2.. Będzie miało te zalety że:
          1. Energooszczędne
          2.3razy szybsze minimum od GDDR5.
          Czyli nie będą musieli się użerać z prędkością pamięci przez najbliższe 5-10lat.

          Skomentuj

          1. ElFi_
            Oceń komentarz:

            -1    

            Opublikowano: 2016-05-18 14:14

            Zapomniałeś dodać, że HBM jest tyle samo szybsze co i droższe. Jeżeli AMD celuje w tańszy rynek to jakoś to się rozmija z logiką....

            Skomentuj

    2. LuckyNumber8
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-17 21:26

      I o to właśnie chodzi, że takie skoki wydajności widywałem, ale WIELE lat temu, kiedy był jeszcze duży potencjał w pomniejszaniu chipów. Obecnie doszli już do pewnej granicy, gdzie coraz trudniej pomniejszać dalej technologię wykonania chipów, więc tym bardziej cieszy, że doczekałem się jeszcze takich różnic przy wydajności. Generacje począwszy od 480GTX, 580GTX, 680GTX, 780GTX, 980GTX oferowały jakiś tam mniejszy skok wydajności, ale nie aż tak konkretny jak teraz :). Jak czytam testy, to 1080GTX ma wyniki w paru przypadkach sporo lepsze jak 980GTX SLI (zobacz tu na benchmarku.pl test 4K w NFS) i na mnie robi to absolutne wrażenie. Patrząc na wyniki pociętego pascala, to pełny pascal nada się już do rozdzielczości 4K pewniakiem.

      Skomentuj Historia edycji

      1. LuckyNumber8
        Oceń komentarz:

        1    

        Opublikowano: 2016-05-17 22:25

        Wyniki z testu benchmarka w NFS, rozdzielczość 4K

        1080GTX - avg 55 fps, 42 min
        980GTX- avg 23 fps, 15 min

        Ponad dwa razy lepszy wynik w 4K, zwłaszcza w minimalnym fps, a jak czytam testy na różnych portalach, to nie jest to wcale odosobniony przypadek, gdzie jest 2x różnica między 980GTX vs 1080GTX, a co dopiero jak dopracują sterowniki, nie mówiąc już o fat pascalu (1080ti), te to już doda może nawet jakies 40% względem 1080GTX i będzie już karta, która bez podkręcania nada się już do 4K. Jak na kimś takie wyniki nie robią wrażenia, to ma zupełnie nierealne wymagania względem GPU, gdyż takie wyniki nawet 15 lat temu były uznawane za monumentalne różnice.

        Skomentuj Historia edycji

    1. TruGeek
      Oceń komentarz:

      3    

      Opublikowano: 2016-05-17 22:53

      Kogo to obchodzi ?

      Skomentuj

  30. DrPsycho
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-17 23:33

    Devil 13 Dual Core R9 390 vs GeForce GTX 1080 zrobi ktoś porwanie ?

    Skomentuj

  31. vonorlik
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-17 23:37

    Zanim sprzedacie swoje 980Ti, a nie mieliście okazji przetestować DOOMa we własnym środowisku, zachęcam do obejrzenia materiału.

    https://www.youtube.com/watch?v=Y6hBZDOAzBs

    gdzie te 68średnnie FPS.

    Skomentuj

  32. vonorlik
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-17 23:48

    Zanim sprzedacie swoje 980Ti, a nie mieliście okazji przetestować DOOMa we własnym środowisku, zachęcam do obejrzenia materiału.

    https://www.youtube.com/watch?v=Y6hBZDOAzBs

    gdzie te 68średnnie FPS.

    Skomentuj

  33. vonorlik
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-17 23:49

    Zanim sprzedacie swoje 980Ti, a nie mieliście okazji przetestować DOOMa we własnym środowisku, zachęcam do obejrzenia materiału.

    https://www.youtube.com/watch?v=Y6hBZDOAzBs

    gdzie te 68średnnie FPS.

    Skomentuj

  34. vonorlik
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-18 00:11

    yhy

    Skomentuj

  35. maro893211
    Oceń komentarz:

    -1    

    Opublikowano: 2016-05-18 01:33

    Właśnie takiej wydajności się spodziewałem, bardzo podobny wzrost jak w poprzedniej generacji. Szału nie ma ale źle też nie jest.

    Skomentuj

  36. rrrrrr
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-18 11:51

    Spokojnie, nV ubije wydajność Maxwelli w sterach i będziesz jeszcze w podskokach leciał do sklepu...

    Skomentuj

  37. gizmo84
    Oceń komentarz:

    -1    

    Opublikowano: 2016-05-18 15:41

    A AMD milczy. Coś czuje, że będzie kiepsko z wydajnością. A NVidia będzie zgarniać pieniądze bo wcześniej wydali.

    Skomentuj

  38. TomPo75
    Oceń komentarz:

    2    

    Opublikowano: 2016-05-19 00:20

    Generalnie NV dalej nie potrafi uzywac DX12 i zadne stery tego nie naprawia, bo to kwestia hardwaru.
    Posiedze na 970 i poczekam na Polaris 10 albo Vege.

    Skomentuj

  39. Marucins
    Oceń komentarz:

    1    

    Opublikowano: 2016-05-19 08:38

    Wracając do propagandy związanej z premierą i prezentacją GTX 1080.
    Pamiętacie jak na zakończenie demka od EPIC GAMES Jen-Hsun Huang prezentuje z bliska zegar i temperaturę podkręconej karty - chłodzonej powietrzem... POWIETRZEM :))
    Dla przypominania: https://youtu.be/wD1ZHyKnt88?t=10m7s
    Teraz powinniśmy szybko przeskoczyć na zakładkę "temperatura" i zweryfikować słowa Huanga.
    W jakich warunkach panujących dookoła, musiała pracować PODKRĘCONA karta aby uzyskać wynik poniżej 70 st.C?

    Na zakończenie aby cieszyć się 3 albo 4-way SLI trzeba dostać odpowiedni kod od nVidia :)
    Zaczyna robić się coraz ciekawiej.
    Jeszcze okaże się że w raz z kodem (który jest darmowy) trzeba zakupić wyłącznie u nVidia mostek np. za 99 dolców.
    Fajna przyszłość. Nie dość że dajesz zarobić firmie - kupując 3, 4 karty to jeszcze musisz łaskawie czekać na możliwość ich wykorzystania.

    Skomentuj

    1. LuckyNumber8
      Oceń komentarz:

      -1    

      Opublikowano: 2016-05-19 10:33

      W sumie Nv pozbywa się niepotrzebnego wsparcia 3,4 kart, bo przy dzisiejszych grach jest to już coraz bardziej bez sensu, nawet na guru3d ludzie nie składają zestawów z 3,4 kartami, gdyż problem jest z wykorzystaniem już 2 kart przy dzisiejszych silnikach gier, więc tak czy inaczej nie wykorzystałbyś tych 3,4 kart poza bardzo sporadycznymi przypadkami (3dmarki np.). Jeśli takim zabiegiem Nv ma zniechęcić osoby do wyrzucania pieniędzy w błoto, to co narzekasz, to oni stracą, nie ty, bo tylu kart i tak się nie wykorzysta w grach

      Skomentuj

      1. Marucins
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-19 13:59

        Zrozum rozum.
        Raz źle że wchodzisz do czyjegoś portfela i rozdysponowujesz jego zasobami innym razem dobrze i dyktujesz kto na co może pozwolić i co zyskuje albo traci.

        Nie przejmuj się. Tych co było stać dalej będzie. Najwyżej zapaleńców przybędzie.

        Może tutaj jest drugie dno. Mianowicie nVidia odcina się od wsparcia więcej niż 2 kart przez DX12 który daje 3 możliwości wspierana takich zestawów. Szerzej o tym mówi JayzTwoCents: https://www.youtube.com/watch?v=2wBDt9tN5-c

        Skomentuj

      2. r1023
        Oceń komentarz:

        -1    

        Opublikowano: 2016-05-20 11:14

        nie każdy kupuje takie karty do grania zobacz jakie zestawy ludzie składają do octan rendera to zrozumiesz po co tyle a nawet i więcej kart w zestawie.

        Skomentuj

        1. LuckyNumber8
          Oceń komentarz:

          1    

          Opublikowano: 2016-05-20 12:15

          Miałem to na uwadze, dlatego podkreśliłem dwa razy, że chodziło o gry. Mimo wszystko do profesjonalnych zastosowań i tak niezastąpione są dedykowane karty, z nieporównywalną przewagą w podwójnej precyzji obliczeń, więc ktoś poważnie myślący o profesjonalnych zastosowaniach nie będzie kupował 4 kart przeznaczonych do gier, które kuleją w najważniejszych obliczeniach :)

          Skomentuj

          1. r1023
            Oceń komentarz:

            0    

            Opublikowano: 2016-05-20 13:46

            nic nie kuleje, ludzie składają takie zestawy i nikt nie pakuje się w quadro do octana , zerknij sobie na grupe na FB lub na forum jakie potworki tam ludzie składają.

            Skomentuj

  40. Begrezen
    Oceń komentarz:

    -1    

    Opublikowano: 2016-05-19 08:54

    Heh, do czego to doszło, że zamiast kart muzycznych (których już chyba nikt nie rozwija), to karty graficzne liczyły efekty dźwiękowe :)

    Ta cena... :(
    a pamiętam premierę gtx970 i ceny rzędu 1250+zł - fajnie by było jakby 1070 nie przekroczył 1500zł - marzenia :(

    Skomentuj

  41. sander602
    Oceń komentarz:

    1    

    Opublikowano: 2016-05-19 11:51

    Zastanawiam się tylko dlaczego podczas testu w Rise of the tomb raider w 1920 x 1080 nie ustawiliście wszystkiego na maksa. Mieliście FXAA zamiast SSAA x 4 , HABO + zamiast VXAO oraz cienie wysokie zamiast Bardzo wysokie . Tylko niech teraz nikt nie pisze że różnica jest minimalna więc nie ma sensu obciążać dodatkowo karty. Dla jednych minimalna dla innych baaardzo duża szczególnie przy SSAA x 4 (obraz w full hd ostry jak żyleta ) i VXAO (bardzo realistyczne ślady w ziemi). Mam taki sam procesor i tyle samo ramu oraz 2 x gtx 970. W SLI przy włączonych wyżej opisanych ustawieniach gra chodzi między 35 a 45 klatek.A przy waszych ustawieniach jedna gtx 970 osiąga 52-59 klatek. Przy drugim etapie przerwałem grę bo chcę ją przejść na maksymalnych ustawieniach i to w 3D które tak jak i w pierwszej częsci z 2013 roku jest po prostu fenomenalne. A po waszym teście nie wiem czy mi jedna gtx 1080 to ogarnie. Pozdro

    Skomentuj Historia edycji

    1. adriano1
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-19 12:58

      SSAA faktycznie zmienia wygląd gier, to chyba najdoskonalsza, ale też najbardziej zasobożerna metoda AA. Ja pograłem tak w parę gier, to później gry z FXAA wydały mi się fatalnie rozmyte.

      Maksymalne ustawienie SSAA w tombraiderze z tego co pamiętam, to przy 1080p downsampling z 4K, a przy 4K z 8K.
      Są natomiast wyniki w teście z rozdzielczości 4K, a przecież przy 4K to zbliżony wynik do 1080p + SSAA, czyli miałbyś przynajmniej jakieś 47 fps na 1080GTX przy SSAA w rozdzielczości 1080p :).

      Skomentuj Historia edycji

  42. Mandriv19
    Oceń komentarz:

    4    

    Opublikowano: 2016-05-20 11:11

    teraz Nvidia wypuści nowe stery i wydajnośc poprzedniej generacji spadnie jeszcze bardziej by wybic w górę pascala , nie tak dawno były testy 980 Ti i fps w Wiedźminie 3 były ponad 95 kl/s

    Skomentuj

    1. Maciej Słaboszewski
      Oceń komentarz:

      -2    

      Opublikowano: 2016-05-20 12:30

      Wydajność GTX 980 Ti w ogóle się nie zmieniła w grze Wiedźmin 3 na przestrzeni ostatnich 5-6 miesięcy.

      Nie popadajmy w skrajności i teorie spiskowe.

      Skomentuj

  43. ShogunToranaga
    Oceń komentarz:

    3    

    Opublikowano: 2016-05-20 18:40

    I tak kazdy z was kupi karte zielonych albo czerwonych biadolenie nie ma sensu którąś trzeba mieć,mozna tez zostać przy starych kartach albo grac na konsolach lub skrajnie nie grac wcale.Idą wakacje nie trzeba kupować kart teraz za 3 miesiace bedą tańsze.

    Skomentuj Historia edycji

  44. jamlx
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-20 20:10

    Czy możecie sprawdzić 1080 w Luxmarku ?
    Testy już coś mówią o nowej karcie NV, ale ciekaw jestem jakie rezultaty będą w GPGPU

    Skomentuj

    1. Maciej Słaboszewski
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-20 22:27

      Sprawdziliśmy, będzie o tym news.

      W domyślnym teście (kula) - 15251.

      Skomentuj

      1. jamlx
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-21 14:19

        Bardzo dobry wynik :)
        Ciekawe jak karta będzie się skalować przy renderingu GPGPU.

        Skomentuj

  45. plmnbv1
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-23 20:11

    Ciekawe, ciekawe. Ceny ów GPU mimo wyższej wydajności są przesadzone i to spoooro. Kiedy wrócą czasy gdy topowe GPU kosztowało 1000zł.
    Za 5-10 lat doczekamy się czasów gdy topowe GPU od NVIDIA będzie kosztowało 10k, mid 7k, a low za 3.5k :V, zaś przez 10 lat zarobki w Polsce się nie zmienią... Mój kraj - taki piękny - warty bomby tsara na wiejską :V

    Skomentuj

  46. plmnbv1
    Oceń komentarz:

    1    

    Opublikowano: 2016-05-23 20:11

    Ciekawe, ciekawe. Ceny ów GPU mimo wyższej wydajności są przesadzone i to spoooro. Kiedy wrócą czasy gdy topowe GPU kosztowało 1000zł.
    Za 5-10 lat doczekamy się czasów gdy topowe GPU od NVIDIA będzie kosztowało 10k, mid 7k, a low za 3.5k :V, zaś przez 10 lat zarobki w Polsce się nie zmienią... Mój kraj - taki piękny - warty bomby tsara na wiejską :V

    Skomentuj

  47. SiLNOR3KI
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-24 21:45

    Przykre, że teraz w gry się nie gra, tylko używa do testowania możliwości kart graficznych.

    Skomentuj

  48. superteam
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-29 15:30

    Kochani redaktorzy dlatego jest większy przyrost wydajności w kolejnych GPU wraz ze wzrostem rozdzielczości ponieważ CPU nie blokuje GPU jak wrzucicie obraz 5120x2880 Crisis 3 to zobaczycie 100% dla drugiej 1080 GTX, więc pisanie z zdziwieniem że tak jest, jest dziwne :)

    Nie ma też obecnie gier które potrzebują większej przepustowości w 4K na mostku aby koniecznie używać nowego, ale jak dają w zestawie dwóch kart i jest ładny to czemu nie :)

    Skomentuj

  49. rudosi
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-30 19:28

    Przesiadłem się ze starego GTX 690.
    Mam pytanie odnośnie wartości w benchmarku.
    W każdym teście widać wartość około 20 tyś dla FireStrike 1.1
    Na moim komputerze mam około 17,3 tyś.
    Generalnie chciałbym znać zasadę czy czas na zmianę pozostałych akcesoriów.
    Mam procesor i7 39030K platforma testowa i7 4790K
    Płyta główna to P9X79 Deluxe tutaj ASUS Z97 PRO.
    Moja Pamięć Corsair 16 GB (dwie kości po 8 GB) taki symbol znalazłem CMZ16GX3M4A1600C9

    Skąd takie duże różnice ??
    Będę zobowiązany za pomoc.

    Skomentuj

    1. xchaotic
      Oceń komentarz:

      0    

      Opublikowano: 2016-06-09 14:29

      Firestrike sie nie przejmuj - jak ci gry plynnie chodza to spoko
      Masz innny procek to inny wynik w firestrike

      Skomentuj

  50. sertiel
    Oceń komentarz:

    0    

    Opublikowano: 2016-08-06 04:09

    Czyli za chwile r480 będzie leciał 1000 zł kupując 2 do crosfire za 2000zł mam mocniejszą kartę od 1080 za 3000 ;] Amd na tym może wygrać polecam wam testy na youtobe

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!