Na topie

Nvidia GeForce GTX 1080 i GTX 1070 - oficjalna prezentacja kart graficznych

Autor:

więcej artykułów ze strefy:
Karty graficzne

Kategoria: Komputery Podzespoły Karty graficzne Tematyka: Na Topie Nvidia GeForce Nvidia Pascal Producenci: Nvidia

Prezentacja desktopowych kart graficznych GeForce z generacji Pascal już za nami - czego, kiedy i za ile możemy się spodziewać?

  • Nvidia GeForce GTX 1080 i GTX 1070 - oficjalna prezentacja kart graficznych
A A

Stało się! Nvidia zaprezentowała swoje dwie najwydajniejsze karty graficzne z generacji Pascal z segmentu konsumenckiego – mowa oczywiście o modelach GeForce GTX 1080 i GTX 1070.

GeForce GTX 1080 przejmuje miano najwydajniejszej konstrukcji „zielonych” - podobno oferuje on lepsze osiągi niż dwa modele GeForce GTX 980 połączone w SLI (!). Na pokładzie znalazł się procesora graficzny Pascal GP104 z 2560 rdzeniami CUDA oraz 8 GB pamięci GDDR5X 256-bit. Standardowe taktowania to 1607/1733 MHz dla rdzenia i efektywne 10 000 MHz dla pamięci wideo.

Nvidia GeForce GTX 1080 - specyfikacja

Na śledziu wyprowadzono pięć wyjść wideo: DL-DVI, HDMI 2.0b i 3x DisplayPort 1.4. Współczynnik TDP oszacowano na 180 W, więc karta wymaga podłączenia tylko jednej 8-pinowej wtyczki zasilającej.

Nvidia GeForce GTX 1070 - specyfikacja
W wirtualnej rzeczywistości 1080-tka ma być nawet 2-krotnie wydajniejsza i oferować 3-krotnie lepszą efektywność energetyczną w porównaniu do Titana X - jesteśmy ciekawi czy to rzeczywiście prawda

Referencyjne chłodzenie nie powinno być dla nikogo zaskoczeniem, bo jego model wyciekł do sieci już jakiś czas temu - mamy do czynienia z 2-slotową konstrukcją opartą o turbinę, a całość schowano pod kanciastą obudową (nie zapomniano też o płytce backplate na rewersie laminatu).

Model GeForce GTX 980 GeForce GTX 980 Ti GeForce GTX 1080
Generacja Maxwell - 28 nm Maxwell - 28 nm Pascal - 16 nm
Układ graficzny Maxwell GM204 Maxwell GM200 Pascal GP104
Procesory strumieniowe 2048 2816 2560
Jednostki teksturujące 128 176 ?
Jednostki rasteryzujące 64 96 ?
Taktowanie rdzenia 1127/1216 MHz 1000/1076 MHz 1607/1733 MHz
Moc obliczeniowa 4,6 TFLOPS 5,6 TFLOPS 9 TFLOPS
Pamięć wideo 4 GB GDDR5 256-bit 6 GB GDDR5 384-bit 8 GB GDDR5X 256-bit
Taktowanie pamięci 7000 MHz 7000 MHz 10 000 MHz
TDP 165 W 250 W 180 W
Dodatkowe zasilanie 6+8-pin 6+8-pin 8-pin
Cena (premierowa) $549 $649 $599 ($699 FE)

GeForce GTX 1080 ma zadebiutować 27 maja – wersja Founders Edition została wyceniona na 699 dolarów, natomiast sugerowana cena wersji autorskich wynosi 599 dolarów (na nie poczekamy trochę dłużej).

Prezentacja modelu GeForce GTX 1080 - nowego lidera wydajności

O karcie GeForce GTX 1070 wiadomo trochę mniej, aczkolwiek też zapowiada się bardzo obiecująco – także i w tym przypadku mamy do czynienia z rdzeniem Pascal GP104 (jeszcze nie wiadomo dokładnie w jakiej konfiguracji), którego moc obliczeniowa sięga 6,5 TFLOPS. Całość wspomaga 8 GB pamięci GDDR5 256-bit.

Nvidia GeForce GTX 1070 - specyfikacja

Jak z wydajnością? GeForce GTX 1070 bez problemu ma pokonywać dotychczasowego lidera wydajności Nvidii, czyli model GeForce GTX Titan X - a pamiętajmy, że mamy do czynienia z kartą o znacznie lepszym stosunku ceny do oferowanych możliwości – ceny wersji niereferencyjnych mają zaczynać się od 379 dolarów, a za wersję Founders Edition zapłacimy 449 dolarów. Na oficjalną premierę jednak jeszcze trochę poczekamy, bo ma ona nastąpić dopiero 10 czerwca.

Model GeForce GTX 970 GeForce GTX 1070
Generacja Maxwell - 28 nm Pascal - 16 nm
Układ graficzny Maxwell GM204 Pascal GP104
Procesory strumieniowe 1664 ?
Jednostki teksturujące 104 ?
Jednostki rasteryzujące 56 ?
Taktowanie rdzenia 1050/1178 MHz ?
Moc obliczeniowa 3,5 TFLOPS 6,5 TFLOPS
Pamięć wideo 4 GB GDDR5 256-bit 8 GB GDDR5 256-bit
Taktowanie pamięci 7000 MHz 8000 MHz
TDP 148 W ?
Dodatkowe zasilanie 6+8-pin ?
Cena (premierowa) $329 $379 ($449 FE)

Trzeba przyznać, że nowa generacja kart graficznych GeForce „Pascal” w niższym, 16-nanometrowym procesie technologicznym robi spore wrażenie – przynajmniej jeżeli chodzi o suchą specyfikację i deklaracje producenta. Jak będzie w praktyce? Na pewno to sprawdzimy. Stay Tuned :-)

Nvidia GeForce GTX 1080 - komputer z dwoma kartami w SLI

Przy okazji przygotowano nowe mostki do łączenia kart GeForce w trybie SLI - podobno oferują one 2-krotnie wyższą przepustowość niż te z poprzedniej serii Maxwell, a przy tym naprawdę nieźle wyglądają.

Źródło: Nvidia, inf. własna, foto: Marcin Jaskólski

Odsłon: 51095 Skomentuj newsa
Komentarze

101

Udostępnij
  1. Marucins
    Oceń komentarz:

    25    

    Opublikowano: 2016-05-07 07:57

    Fajnie że wzrost wydajności będzie tak duży. I sztucznie nie skubią po 10 - 20%.

    Pozostaje kwestia realnej ceny. W momencie premiery GTX 980 kosztował 500$, a GTX 980 Ti został wyceniony na 700$. Na starcie mamy o stówkę więcej - za co? Za postęp? Jak tak dalej będzie to przekładając to na logikę nVidia porównują dwa telewizory - te czarno-białe i obecne 4K to za TV 4K powinniśmy płacić równowartość mieszkania. Absolutna kpiną jest Founders Edition - kolejna "stówka".

    Tak czy inaczej poczekam na prawdziwe testy w różnych grach a nie wyłącznie tych wyselekcjonowanych przez "zielonych".
    Zobaczymy co będzie z dostępnością nowych kart i raz jeszcze wspomnę jaka będzie realna cena w sklepie, gdyż jak nam wiadomo wiadomo sugerowaną w $$, nasi europejscy sprzedawcy podcierają tyłek. :\

    PS Czekam na odpowiedź AMD. Niech to będzie równa walka.

    Skomentuj

    1. devilson131313
      Oceń komentarz:

      30    

      Opublikowano: 2016-05-07 08:27

      Produkt jest warty tyle ile klient jest w stanie za niego zapłacić. Jeżeli zaczną przeginać z cenami to spadnie im popyt i sami będą musieli obniżać ceny, bo na niesprzedanym towarze nic się nie zarabia.

      Skomentuj

      1. Marucins
        Oceń komentarz:

        7    

        Opublikowano: 2016-05-07 10:29

        Nie patrz przez swój pryzmat. Przez doświadczenie człowieka, który potrafi samodzielnie myśleć. Z drugiej strony, gdzie jest ta granica?
        Jak na razie widzimy że cena leci i leci w górę. Doskonały przykład TITAN.
        Marketing tytanów jest już znacznie bardziej enigmatyczny, zarówno black jak i Z nie były kierowane do żadnej konkretnej grupy, z jednej strony kupujący mieli zakładać, że komunikat z kampanii pierwszego tytana jest nadal w mocy, z drugiej mieli o nim powoli zapominać i... bum.
        Teraz mamy Tytana bez double-precision, który niezbyt nachalnie - ale już bez żadnych zasłon dymnych - jest reklamowany jako topowy Maxwell do gier. Tym prostym sposobem Nvidia w 3 lata zmieniła cenę topowego pojedynczego GPU danej generacji z $500 (bo o ile dobrze pamiętam tyle kosztował killer GTX 680) na $1000.
        Półka niżej jest obecny 1080 z ceną 599 lub 699 :)

        Skomentuj

        1. kitamo
          Oceń komentarz:

          11    

          Opublikowano: 2016-05-07 13:44

          marketing titana to zrobić kartę za 500% ceny produktu konsumenckiego tylko po to by cena właśnie produktu konsumenckiego wygądała na atrakcyjną.

          Skomentuj

      2. matikusz
        Oceń komentarz:

        1    

        Opublikowano: 2016-05-07 22:06

        No chyba że w tym segmencie ma się praktycznie monopol..

        Skomentuj

      3. porterneon
        Oceń komentarz:

        2    

        Opublikowano: 2016-05-08 12:58

        Niby masz racje ale popatrz na rzeczywistosc: karta GTX 970 jest dzis drozsza niz w czasie premiery a minelo dwa lata. W czasie premiery tez marudzono ze jest za droga.
        Wiekszym problemem jest tu sila nabywcza polskiego konsumenta.

        Skomentuj

    2. wychcio96
      Oceń komentarz:

      5    

      Opublikowano: 2016-05-07 12:52

      A ja mam nadzieję że w końcu amd przejmie pałeczkę, ponieważ poprzdnia generacja ich kart sprzedała się w niewielkiej liczbe egzemplarzy w porównaniu do kart nvidii, amd to wielka firma, rok czy dwa może wytrzymać bo ma zasoby, ale sytuacja nie musi się zmenić bo w przeciwnym razie groził będzie mam monopol a to jest dobre tylko dla producenta.

      Skomentuj

      1. jakub1t
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-08 13:39

        Monopol potrwa jakąś chwilę , na pewno ktoś by wszedł w miejsce amd . Może nie od razu ale za jakiś czas . Ale to mało prawdopodobne . Co najwyżej ktoś by ich wykupił i dalej klepał karty . A jak Nvidia wywinduje ceny to amd nawet sprzedając 10x mniej kart zarobi krocie nie musząc być najlepszym .

        Skomentuj

    3. AndreoKomp
      Oceń komentarz:

      4    

      Opublikowano: 2016-05-07 14:18

      Pamiętajcie o tym, że wzrost ceny na nowym modelu, to mniejszy spadek ceny na starszym, więc gdy nie kupujemy po raz pierwszy PC tylko robimy upgrade, aż tak tragicznie nie wyglądają te podwyżki. Rzadko to ktoś bierze pod uwagę, tak samo jak fakt, że dla nowych kart NV nie tylko karty od AMD są konkurencją, ale również wszystkie poprzednie karty wydane przez NV.

      Skomentuj

    4. ElFi_
      Oceń komentarz:

      1    

      Opublikowano: 2016-05-07 14:43

      "Absolutna kpiną jest Founders Edition - kolejna "stówka"."
      Niby dlaczego? Płacisz za rdzeń selekt - nie musisz testować 20 kart aby wybrać najlepszy rdzeń. Znajdą się amatorzy i z podziękowaniem... wezmą.

      Skomentuj

      1. Balrogos
        Oceń komentarz:

        3    

        Opublikowano: 2016-05-08 09:22

        Selekt ta jasne, tak smao jak te Asus Matrix cyz tam Ares duper droga karta do OC susper sekcja chlodzeniema tutaj podbicie 30mhz bylo problemem bo dali ten twoj "selekt" :)

        Skomentuj

    5. piotr.potulski
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-07 17:41

      Z tego co widzę w tabelkach w artykule, to karty są na starcie o $50 droższe niż odpowiedniki z poprzedniej generacji. Ale mają też 4GB więcej RAM.

      Skomentuj

      1. mjwhite
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-07 19:55

        dokładnie 980 kosztował 549$ na starcie

        Skomentuj

    6. semar
      Oceń komentarz:

      1    

      Opublikowano: 2016-05-08 01:35

      Najbardziej śmieszy mnie entuzjazm ludzi, po 10 latach "postępu" mamy karty graficzne, które po kilku miesiącach ledwie dyszą przy najnowszych tytułach i wycofuje się je z produkcji albo robi downgrade sterowników, zaś pod przykrywką potrzeby dopracowania technologii (w co ciężko uwierzyć, bo nie trwa to nawet rok czasu) dostajemy znowu to samo. Widać społeczeństwo dało się już dobrze wytresować Nvidii i AMD, w taki sposób, że już sami zaczynają wierzyć we własne kłamstwa, a sytuację analogiczną do samochodu, który po 3 miesiącach ma 2 razy mniej koni mechanicznym albo, w której paliłby 2 razy więcej benzyny nazywają postępem technologicznym.

      Skomentuj

    7. Krotock
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-08 12:11

      Nie opowiadaj bzdur. GTX 980 na starcie kosztował 550$, a GTX 980 Ti 650$.

      Skomentuj

  2. Yaceek
    Oceń komentarz:

    12    

    Opublikowano: 2016-05-07 08:05

    Slajdy slajdami, ale to naprawdę dobra wydajność. 1070 lepsza od Titana X? Biore. Nic tylko czekać na testy "niezależnych" portali *cough*PCLAB*cough* oraz odpowiedź AMD.

    Skomentuj

  3. mutissj
    Oceń komentarz:

    8    

    Opublikowano: 2016-05-07 08:27

    TERAZ tylko odpowiedź AMD, i niech się biją
    /a klienci na tym zyskują niższymi cenami =]!

    Skomentuj

    1. patol1984
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-07 17:05

      Od 3 lat jest tylko drożej i drożej, do tego co raz słabsza złotówka i delikatnie podbijana marża, prędzej ujrzymy pusty portfel niż niższe ceny :/

      Skomentuj

        1. patol1984
          Oceń komentarz:

          0    

          Opublikowano: 2016-05-08 11:56

          Musieli dać taniej, bo seria kart 900 była słaba, ta generacja miała procentowo najmniejszy wzrost wydajności w historii kart graficznych, gdyby dali drożej to kto by to kupił.

          Skomentuj

    2. semar
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-08 02:13

      mutissj@ klienci zyskują na wojenkach Nvidii i AMD kiedy co 2 tygodnie wychodzi po jednej i drugiej stronie super hiper ultra mega hz edition, a obydwie firmy mówią klientom: nie dbamy o was tylko o sprzedaż? Nie zgodzę się z Tobą w całości, może tyle że jeszcze tylko AMD trzyma w ryzach Nvidię, inaczej dawno mielibyśmy karty do średnich ustawień w cenie 5000 zł, ale w takim tempie w jakim rosną ceny daję jeszcze 5 lat obu firmom, a w końcu przy rekomendowanych wymaganiach zobaczymy GPU w cenie Tesli. Procesory kupujemy raz na kilka lat, rynek GPU przyzwyczaił już klientów do wydawania prototypów wypuszczanych jako pełnoprawny sprzęt, a skoro ludzie się z tego cieszą i nie ma żadnych pozwów sądowych to znaczy, że można golić klientów nadal. Nie ma też sensu pracować nad naprawdę wydajnymi kartami, lepiej co roku wypuścić niedopracowany bubel i dorobić do tego marketing.

      Skomentuj

  4. Marucins
    Oceń komentarz:

    3    

    Opublikowano: 2016-05-07 08:35

    Właśnie sobie przypomniałem. Co z NVLink?
    Jest tak jak planowano? Nigdzie o tym podczas prezentacji nie wspomniano. Czy może będzie? :)

    Skomentuj

    1. Paweł Maziarz
      Oceń komentarz:

      4    

      Opublikowano: 2016-05-07 09:09

      Wszystko na to wskazuje, że NVLink znajdzie zastosowanie tylko przy łączeniu modeli z profesjonalnej serii Tesla
      http://www.benchmark.pl/aktualnosci/nvidia-pascal-gp100-specyfikacja-ukladu-graficznego.html

      Skomentuj

  5. Dudi4Fr
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-07 08:53

    Dzięki za relacje, macie jakieś info na temat 1080Ti albo nowego Tytana?

    Skomentuj

    1. Paweł Maziarz
      Oceń komentarz:

      3    

      Opublikowano: 2016-05-07 09:13

      Jeszcze nie ma żadnych oficjalnych informacji, ale można podejrzewać, że GTX 1080 Ti/Titan "Pascal" będzie z rdzeniem Pascal GP100 - tak przynajmniej podpowiada doświadczenie z poprzednich serii

      Skomentuj

      1. Dudi4Fr
        Oceń komentarz:

        2    

        Opublikowano: 2016-05-07 10:31

        Dziękuję za informacje, a jakaś możliwa furtka prezentacji/dostępności? Po wakacjach, koniec roku? Nie powiecie nam że wysłaliście na miejsce ludzi bez zdolności hakerskich/wywiadowczych?

        Skomentuj

        1. Paweł Maziarz
          Oceń komentarz:

          2    

          Opublikowano: 2016-05-07 10:55

          Uderzyliśmy najwyżej jak się dało, ale nic nie możemy powiedzieć :-)
          https://twitter.com/benchmarkpl/status/728780511145918464

          Skomentuj

          1. Dudi4Fr
            Oceń komentarz:

            0    

            Opublikowano: 2016-05-07 11:14

            I takie selfie to ja rozumiem! No cóż to czekamy, obstawiam że wymiana 980ti na 1080 nie ma większego sensu oprócz tych 2GB VRAM wiecej.

            Skomentuj

      2. Yogii26
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-07 13:00

        Czyli jak GP100 to można po cichu liczyć na HBM2? :) Kiedyś słyszałem takie plotki jakoby Titan "Pascal" miał posiadać już HBM2.

        Skomentuj

        1. kokosnh
          Oceń komentarz:

          2    

          Opublikowano: 2016-05-07 15:52

          tak, próbki inżynieryjne z GP100 były razem z HBM2

          Skomentuj

  6. mesjan
    Oceń komentarz:

    1    

    Opublikowano: 2016-05-07 09:18

    Nie raz się widziało wykresy i słupki z jakiegoś 3D Marka gdzie jedno od drugiego wydaje się dwukrotnie lepsze a po dokładniejszemu przyjrzeniu się zauważasz że słupki zaczynają się od 10 tysięcy.

    Skomentuj

  7. DDavi
    Oceń komentarz:

    5    

    Opublikowano: 2016-05-07 09:39

    A patrząc jak to było w przypadku poprzednich generacji to po jakim czasie może się pojawić GTX 1060?

    Skomentuj

    1. Evenement
      Oceń komentarz:

      6    

      Opublikowano: 2016-05-07 10:13

      Po około 3-4 miesiącach, tak było w przypadku GTX 960

      Skomentuj

  8. Maciej Słaboszewski
    Oceń komentarz:

    6    

    Opublikowano: 2016-05-07 09:53

    Przyszły tydzień zapowiada się wyjątkowo pracowicie.... :)

    Skomentuj

    1. Yaceek
      Oceń komentarz:

      5    

      Opublikowano: 2016-05-07 10:57

      Oddawaj pan tego GTX 1080! :>

      Skomentuj

  9. Blashix
    Oceń komentarz:

    -8    

    Opublikowano: 2016-05-07 10:17

    AMD wyszlo bocznymi drzwiami.

    Skomentuj

  10. sertiel
    Oceń komentarz:

    4    

    Opublikowano: 2016-05-07 10:24

    Jeśli 1070 będzie tak wydajne jak piszą w tej cenie do full HD grania będzie stykać!!! Jedynie trzeba poczekać na AMD jak będą bardziej konkurencyjni cenowo a wydajność trochę lepsza kto wie ;] ceny nvidi spadną

    Skomentuj

  11. pawlito011
    Oceń komentarz:

    3    

    Opublikowano: 2016-05-07 10:35

    Jeśli te są tak wydajne to i 1060 powinna się nieźle zaprezentować, może nawet ją kupie :)

    Skomentuj

    1. randallandhopkirk
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-07 21:35

      Nie mów hop, bo się jeszcze może okazać że wyjdzie tak jak z GTX 960, co tylko podniesie atrakcyjność 1070 i 1080 podobnie jak było z 970 i 980 :-D

      Skomentuj

    2. AMD64
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-08 13:38

      Prawdopodobnie wyjdzie jak z GTX 960, czyli 1060 będzie połową 1080. I już można przewidzieć specyfikację 1060:

      - Procesory strumieniowe: 1280 cudów ;)
      - Taktowanie GPU: 1600 - 1700 MHz
      - Pamięć: 4 - 8GB (10 GHz 128bit ~160GB/s lub gorzej 8GHz 128bit ~128GB/s)
      - Moc obliczeniowa: 4,5 - 4,6 TFLOPS
      - TDP: 100 - 120 W (kostka zasilająca 6 pinów)
      - cena: ~279 - 299$

      Prawdopodobnie zrówna się wydajnością z GTX 980 lub znajdzie się pomiędzy GTX 980 a GTX 980 Ti.

      Skomentuj

      1. randallandhopkirk
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-08 15:20

        Skoro 1080 ma wydajność podobną do SLI z 980, to 1060 raczej wydajnościowo będzie w okolicach GTX 970, a na pewno nie liczyłbym że pomiędzy GTX 980 a GTX 980 Ti bo to byłoby pozbawione sensu i logiki, zbyt mała różnica w stosunku do GTX 1070.

        Skomentuj

  12. TomPo75
    Oceń komentarz:

    6    

    Opublikowano: 2016-05-07 10:39

    "Ma być" - słowo klucz. 970 miała mieć 4GB pamięci, a innym razem karta miała nie być atrapą.
    Czekamy na testy i odpowiedź (oby dobrą) AMD, a wszyscy na tym zyskamy.

    Skomentuj

  13. loccothan
    Oceń komentarz:

    -5    

    Opublikowano: 2016-05-07 10:41

    OK teraz Realnie.
    1. Gdzie nowe technologie? nie ma
    2. Gdzie Full DX12? nie ma, dlaczego? bo "Pastecall" jest naprawdę upgrejdem MaskWell tylko że w 16nm
    Posiada Polymorph Engine do teselacji (znany od Fermi) i Giga Thread (znany od 780).
    3. A ficzersy są? są do VR i robienia zdjęć z gier (to jest in +)
    4. A cena? Dojarka nV w całej krasie, czemu? ano bo urobek z wafla w 16nm jest jeszcze bardziej wydajny (liczę zdatne czipy) niż duży 28nm, czyli tak naprawdę zarabiają jeszcze lepiej jednostkowo niż przy 28nm !
    5. Async Shader by odciążać CPU? nie ma, czemu? patrz wyżej.
    Myślałem że będzie coś naprawdę nowego, cóż dla mnie Polaris.
    Aha Polaris:
    480X wydajność -/+ 1070 cena ok 220USD (mowa o średniej wydajności, są gry lepsze dla ATI lub nV różnie to bywa)
    490X wydajność -10% lub równa 1080 - cena 299USD
    BigPolaris (nie zapowiedziany jeszcze) 8GB HBM_1 - cena 499-599USD wydajność (?)
    Rok Radeona.
    Czemu ceny Radeonów są "niskie", są normalne, urobek lepszy to i zarobek lepszy i cena dla nas może być niższa (taką politykę ma Radeon Group). Polaris ma pokryć tzw. niszę z użytkownikami, których nie stać lub nie chcą dużo inwestować w GPU. Za tym idzie także postęp technologiczny łączony z API DX12, deweloperom będzie się opłacało tworzyć lepsze i ładniejsze gry bo 80% graczy będzie miało GPU, które temu podoła. Są na YT wywiady z R.Konduri i innymi ;-)

    Skomentuj Historia edycji

    1. naqerpl
      Oceń komentarz:

      1    

      Opublikowano: 2016-05-07 10:49

      "Aha Polaris:
      480X wydajność -/+ 1070 cena ok 220USD (mowa o średniej wydajności, są gry lepsze dla ATI lub nV różnie to bywa)
      490X wydajność -10% lub równa 1080 - cena 299USD"

      Może frytki do tego ?
      Chcę by AMD miało najlepszy rok w historii, ale bądźmy szczerzy to co napisałeś to niezła polewa :D

      Skomentuj

      1. loccothan
        Oceń komentarz:

        4    

        Opublikowano: 2016-05-07 10:58

        Ceny Radeonów są już mniej więcej znane jeśli chodzi o Per/W per Dolar. Myślisz że Raja Konduri szef Radeon Group się myli? ;-)

        Skomentuj Historia edycji

        1. ALEKS_D_RAVEN
          Oceń komentarz:

          0    

          Opublikowano: 2016-05-07 14:20

          Raczej sadze że najwydajniejszy Polaris 10 będzie w cenie GTX 1070. Ale to będzie mocniejsza karta. Przynajmniej już wiadomo kto spuści z ceny po premierze.

          Skomentuj

    2. jeomax.co.uk
      Oceń komentarz:

      2    

      Opublikowano: 2016-05-07 12:08

      Przedstawiles sie juz czytelnikom Benchmarka.pl ? Nie ? To moze ja to zrobie: oto loccothan, fanboj, niemal fanatyk AMD. Kiedys posiadacz Amigi (nie rob wstydu klasie najlepszego komputera w historii, lol), dzisiaj kontynuator lajkowania wszystkiego, co na "A"... ale niestety Amiga byla plci zenskiej, AMD juz jest nijaki - tak w rodzaju, jak i wykonaniu ;-)

      Po tym krotkim wprowadzeniu chcialbym, zebys tu nie pisal glupot. Mozesz sobie obwiniac nVidie o to, ze nie wprowadzila zmian, jakie sobie wymarzyles (no po prostu tragedia), ale pozostan na jakims poziomie obiektywizmu przynajmniej. Polaris 10 ma dorownac wydajnoscia GF980, a Ty mowisz, ze 490X to bedzie poziom 1080... poki AMD nie wypusci kart albo chociaz nie zaprezentuje ich, to beda tylko spekulacje. A uzytkownicy sie ciesza, bo otrzymaja potezny skok wydajnosciowy - ze wspomne niechlubne serie 8800-9899-250, ktora nie wnosila wlasciwie nic nowego, z szykujacym sie kolejnym hitem sprzedazowym w postaci 1070. GRACZ CHCE GRAC SZYBCIEJ, a nie oczekiwac na technologie, ktore moze sie pokaza w grach, a moze nie - tworcy gier pokazuja, jak maja w nosie przekonywanie uzytkownikow, aby ci chcieli rozrozniac kazdy wlos z osobna w grach, czy miec asynchroniczne shadery. Lol. I tutaj nVidia po prostu dala prezent gwiazdkowy w maju uzytkownikom (nie tylko swoim fanom) w postaci nowej serii kart.

      Skomentuj

      1. loccothan
        Oceń komentarz:

        2    

        Opublikowano: 2016-05-07 15:28

        Fanatyzm? luz
        Pozdrawiam serdecznie.
        Od dawna wiadomo że Polaris to Perf per Wat per Dolar.
        Nikt nie mówi że Polaris będzie szybszy czy wolniejszy, nie o to chodzi -> czytaj ze zrozumieniem i nie DOKAZUJ ._.
        Druga sprawa to według twej teoryjiiiiiii DX11 nie powinien już istnieć !
        Ale mamy już DX12 oraz coraz więcej Gier zaczyna go obsługiwać w formie Prostej (czyli odciążenia CPU)
        Chcesz być dojony z Kaski przez nMilk? to luz ale nie Troluj innych bo mają swoje zdanie. Narka

        Skomentuj

        1. Daroo7777
          Oceń komentarz:

          -1    

          Opublikowano: 2016-05-08 08:48

          A tak sie smieli po co 8 giga ramu na mojej NITRO Radeon™ R9 390. DX 12 pelny jest piekny i plynosc jest super!!!
          Jestem fanboyem? Hahaha. Gram na pelnych full detalach w najnowszy Tomb Raider.....Hahahaha . I'm love AMD... hahaha ;) Pozdrawiam wszystkich....zielonych i czerwonych !!!


















          ,

          Skomentuj

    3. rahl_r
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-07 12:31

      A tak realnie to pokaż mi wiarygodne źródła z których bierzesz te informacje. Ja z opinią wstrzymam się do pierwszych testów porównawczych między nowymi modelami AMD a Nvidii.

      Skomentuj

    4. arnakus
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-07 19:40

      Niestety, z ciężkim sercem jako użytkownik NV muszę ci przyznać rację. Widziałem już pierwsze testy 980Ti i 1080 zegar w zegar i starsza karta była lepsza. Tylko dzięki technologii 16 nm młodsza może pracować z zegarem nieosiągalnym dla starszej. A to przecież miała być nowa architektura, pełne DX12. NVIDIO CO SIĘ STAŁO!!!

      Skomentuj

      1. gormar
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-07 20:45

        Mógłbyś wskazać gdzie te testy?

        Skomentuj

        1. arnakus
          Oceń komentarz:

          0    

          Opublikowano: 2016-05-08 10:02

          Tutaj masz link - http://pclab.pl/news69554.html
          NV980Ti jest szybsza zegar w zegar ponieważ ma więcej procesorów strumieniowych.

          Skomentuj

      2. randallandhopkirk
        Oceń komentarz:

        1    

        Opublikowano: 2016-05-07 21:44

        Tylko powiedz co to mnie obchodzi jako użytkownika ? Liczy się tylko jaka jest wydajność za konkretne pieniądze. Jeżeli tylko się da osiągnąć satysfakcjonującą wydajność to dla mnie może być nawet cegłówka zamontowana na laminacie - jeżeli tylko działa nie widzę żadnego problemu.

        Skomentuj

  14. Orlyyyy
    Oceń komentarz:

    -3    

    Opublikowano: 2016-05-07 11:55

    Brakuje opcji w ankiecie : Wciąż czekam na wyniki w grach bo praktycznie nic się nie dowiedziałem

    Skomentuj

  15. igorklzn
    Oceń komentarz:

    1    

    Opublikowano: 2016-05-07 12:06

    Czy myślicie, ze premiera w Polsce tych kart będzie w tym samym czasie?

    Skomentuj

  16. jeomax.co.uk
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-07 13:00

    .. i jeszcze DisplayPort 1.4 (!) umozliwiajacy HDR 4K @ 120Hz, AMD jesli nie przemebluje natychmiast Polarisa przed premiera, zostanie z DP 1.3.

    Skomentuj

    1. ALEKS_D_RAVEN
      Oceń komentarz:

      1    

      Opublikowano: 2016-05-07 14:54

      ciekawe, że już uwzględnili to gdy dopiero standard ogłosili miesiąc temu. Plus na horyzoncie żadnych monitorów z tym standardem.

      Skomentuj

    2. Paweł Maziarz
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-07 15:40

      Pewnie będziemy drążyć temat, ale wygląda na to, że nie ma pełnej funkcjonalności DP 1.4 (Nvidia wspomina o certyfikacji tylko dla DP 1.2).

      Skomentuj

    3. Dudi4Fr
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-07 19:13

      Wszystko fajnie pytanie tylko ile trzeba będzie mieć tych gtx1080 żeby mieć te 120 fps w 4k...

      Skomentuj

    4. AkaRyupl
      Oceń komentarz:

      2    

      Opublikowano: 2016-05-08 03:54

      Display Port 1.3 umożliwiał już przesyłanie obrazu w 4K 120 Hz jak i 5K 60 Hz (nawet i 8k 30 Hz)... Display Port 1.4 nic większego nie wprowadza. Więc albo się dokształć, albo przestań gadać marketingową papkę.

      Skomentuj Historia edycji

      1. ALEKS_D_RAVEN
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-08 19:06

        chodzi o HDR

        Skomentuj

        1. AkaRyupl
          Oceń komentarz:

          2    

          Opublikowano: 2016-05-10 16:45

          Który został dodany rok temu do HDMI (HDMI 2.0a) i jest tam tylko dla tego, że te karty nie mają wejścia HDMI (dla przejściówek). Karty AMD mają HDMI 2.0a (czyli wsparcie dla HDR).

          Skomentuj

          1. AkaRyupl
            Oceń komentarz:

            2    

            Opublikowano: 2016-05-11 02:49

            A przepraszam - mają HDMI.

            Skomentuj

  17. Fourth Illusion
    Oceń komentarz:

    2    

    Opublikowano: 2016-05-07 13:03

    To teraz pozostaje poczekac na 1080Ti :)

    Skomentuj

  18. kristof080
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-07 13:18

    W tym momencie licze tylko na AMD. Dlaczego?
    - takie slajdy AMD pokazalo kilka miesiecy temu,
    - NVidia pokazala atrape i wszyscy klaskali,
    - AMD pokazala dzialajacy uklad, pokaz mozliwosci nowego procesu.
    Zastanawiam sie tez nad pamięcią uzyta do 1080. Nie miala pokazac sie pozniej?
    Do tego ceny. Drozej, niz poprzednia generacja. O wiele drozej.
    I tak jak kolega wyzej napisal, jesli to kotlet w mniejszym procesie, to bedzie powielal bledy maxwella, czyli problemy w DX12 i moze tez w wulkanie. Ciekawie sie zapowiada.

    Skomentuj

  19. kristof080
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-07 13:19

    A skad wiesz ze display port 1.4 nie bedzie w polarisie? Widze ze wszystko wiesz. Jak wrozka.

    Skomentuj

    1. jeomax.co.uk
      Oceń komentarz:

      -2    

      Opublikowano: 2016-05-07 14:56

      Po co sie nakrecasz ? Jaka wrozka ? AMD ma DP1.3 w Polarisie na chwile obecna i to jest ogolnie dostepna wiadomosc:
      http://techfrag.com/2016/05/05/amd-polaris-will-support-up-to-240hz-display-monitors/
      Ja pisalem, ze jak tego nie poprawia, to zostana z 60 Hz HDRem w 4K. I jak chcesz odpisywc, to klikaj we wlasciwe linki. Pozwol tez, ze litosciwie pomine stek twojej reszty bzdur (jak atrapa, obrazki)... sam sie domysl, gdzie walisz bledy. Ze jestes fanem AMD to czuc na kilometr, ale jak wspomnialem przy innej okazji, wiecej obiektywizmu zalecam kazdemu.

      Skomentuj

      1. ALEKS_D_RAVEN
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-07 16:51

        Mała rada jeśli nie chcesz być uważany za fanboya nVidi nie jedź po fanboy`u AMD i na odwrót. Poza tym DP 1.3 dopiero niedawno zaczęło się pojawiać w monitorach 4k, jakieś półtora roku po ogłoszeniu specyfikacji przez Vesa. NVidia zrobiła po prostu manewr przyszłościowy ale bez znaczenia na chwile obecną. A AMD pewnie użyje DP1.4 dopiero do Vega 10.

        Skomentuj

        1. jeomax.co.uk
          Oceń komentarz:

          -1    

          Opublikowano: 2016-05-07 23:07

          Dziekuje za rade, choc Twoje przekonanie jest prawdziwe, to wynika zupelnie z falszywych przeslanek. Mnie nie interesuje, czy mi przypna latke fanboja, czy angielskiego zmywaka, zawsze zwracalem uwage tam, gdzie pisalo sie nie tak, jak trzeba. W kontekscie braku monitorow DP1.4, czy ilosci kart potrzebnych do uzyskania 120Hz @4k i tak wygrywa w ostatecznym pojedynku marketingowym jeden prosty fakt (zero-jedynkowy rzeklbym): ten ficzer albo jest, albo go nie ma. Glownie chyba wynika z podejrzen co do samej tylko mozliwosci wykorzystania tej cechy *calej rodziny* w jakichs warunkach (np. SLI), a to juz zapisuje sie po stronie plusow we wlasnie mozliwosciach samej karty/rodziny. Cisnienie obecnie spoczywa na firmie AMD i moim zdaniem powinni naprostowac te sytuacje, jesli chca dotrzymywac kroku nVidii w wielu miejscach. Utrzymanie rownowagi pomiedzy obydwoma gigantami jest chyba dla kazdego z nas - uzytkownikow wazne.

          Skomentuj

          1. ALEKS_D_RAVEN
            Oceń komentarz:

            2    

            Opublikowano: 2016-05-08 00:05

            Ale mimo jak nie będziesz się przejmował(znaczy się uważał na niego) to maleją twoje szanse na sensowną i interesująca konwersację/wymianę poglądów. Rzeczywiście Dp1.4 to będzie chwyt marketingowy ale tez rzeczywistość zweryfikuje to tak samo gdy AMD nie pchało się z dodaniem wsparcia dla PCI-e 3.0 bo ni było wtedy sensu, a nVidia nie dała wsparcia dla dx10.1 bo raptem przed premierą jedenastki ten standard obsługiwały 3 gry.

            Skomentuj

          2. AkaRyupl
            Oceń komentarz:

            2    

            Opublikowano: 2016-05-08 15:21

            Jest mały problem - to jest fanboy NVIDII - Display Port 1.4 nic nie wprowadza wielkiego (oprócz kodowania umożliwiającego wyświetlanie 10 bitowego obrazu w 4K 120Hz - "bardzo" "użyteczne" dla graczy), a to co on przypisuje Display Port 1.4 (4K 120Hz etc.) jest już w Display Port 1.3. Po prostu koleś albo trolluje, albo nie ma pojęcia o czym gada.

            Skomentuj

  20. Arthasek
    Oceń komentarz:

    1    

    Opublikowano: 2016-05-07 13:39

    Witam , a co z 1080ti ? kiedy mozna sie go spodziewac i czy w ogole taka karta wyjdzie? Pozdrawiam

    Skomentuj

  21. piotr.potulski
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-07 14:02

    Jeśli potwierdzi się ta wydajność, to mamy karty potrafiące uciągnąć praktycznie każdą grę w 4K z całkiem przyzwoitym poziomem detali.

    Skomentuj

  22. kristof080
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-07 14:03

    Myslisz?

    Skomentuj

    1. piotr.potulski
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-07 17:40

      Jeśli to jest pytanie o granie w 4K - to tak, jestem przekonany, że da się odpalić praktycznie każdą aktualnie istniejącą na rynku grę w sposób, który będzie wyglądał lepiej niż w przypadku ograniczenia rozdzielczości do FHD. Wyjątkiem pozostaną FPS'y bo tam ważniejsze będzie uzyskanie wysokiego odświeżania

      Skomentuj

  23. ALEKS_D_RAVEN
    Oceń komentarz:

    -2    

    Opublikowano: 2016-05-07 14:17

    Wygląda jakby wpakowali architekturę maxwella na 16 nm i po prostu zwiększyli mocno taktowanie. Ktoś gdzieś obliczył, że GTX 1080 jest mocniejsza o 25% od 980Ti czyli iloczyn procentu zwiększonego taktowania i mniejszej ilości CUDA.

    Skomentuj

  24. ostryb
    Oceń komentarz:

    1    

    Opublikowano: 2016-05-07 16:46

    A o nowych kartach do laptopów coś było czy cisza ?

    Pozdrawiam.

    Skomentuj

    1. Paweł Maziarz
      Oceń komentarz:

      1    

      Opublikowano: 2016-05-07 20:53

      Cisza, ale to pewnie cisza przed burzą (w sensie Computexem)

      Skomentuj

  25. Florian83
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-07 18:31

    1.W Polsce karty kosztować będą prawdopodobnie drożej niż kwota podawana w artykule.
    2. Dopóki deweloperzy nie będą stosować downgrading grafiki, tak aby była porównywalna z PS4, to zakup super nowoczesnej karty graficznej nie ma sensu !!!!
    NVIDIA mogła już dawno wypuścić super kartę graficzną, ALE CO Z TEGO !!! Jak grafika w grach jest rodem z 2012 roku.
    Po co Ci super karta TERAZ, jak na razie grafika w grach jest niemal identyczna jak na starym PS4 !!!!, jedynie jest więcej klatek, ale i tak jak pojawia się opcja jakiegoś MODA grafiki, to ludzie kosztem zmniejszenia klatek poprawiają grafikę, każdy chce lepszej grafiki, nawet kosztem mniej FPS.
    Po co komu karta graficzna, żeby grać wiedźmina na ultra z 150 klatek na sekundę albo i więcej. Tak naprawdę tego nie rozróżnisz od 60 klatek na sekundę.
    Wiedźmin czy The Devision, już w 2013 roku na targach E3 wyglądały świetnie, ale wykonawcy byli zmuszeni obniżyć grafikę, aby to poszło również na słabsze konsole PS4 i XB1.
    Eksperci obawiają się, że jeżeli grafika pomiędzy PS4 a PC będzie się mocno różniła, to posiadacze konsol przestaną kupować gry!!! *(gracze to takie dorosłe dzieci, obrażalskie, takie są fakty!)
    Rynek PS4 i XBOX1 jest ogromny, a dodatkowo kupuje oryginalne gry.
    Jeżeli znacząco gorsza grafika na konsole zniechęci graczy do kupowana produktów (gier) to wydawcy na tym stracą !!! – ogromne pieniądze, może nawet będą większe koszty niż zyski !
    Na tych kartach graficznych z 2016 roku, można by było zrobić gry, które wyglądałyby lepiej niż gry na targach E3 z 2013 roku(typu wiedźmin, watch dogs czy Devision), ale takie gry na konsole PS4 i XB1 śmigałyby na ULTRA LOW i nawet nie na Full HD, a to by mocno zniechęciło posiadaczy konsol do zakupu tej gry!!!
    A na to wydawcy gier nie mogą sobie pozwolić, i wymuszają aby grafika była jak z 2012/2013 roku.
    Zawsze jest coś kosztem czegoś.

    Skomentuj

    1. Detrioux
      Oceń komentarz:

      -3    

      Opublikowano: 2016-05-07 18:38

      tak sobie myślę czy trollujesz czy coś chcesz udowodnić ale Ci nie wychodzi.
      Grafika z 2012roku ? Grałeś w Overwatch czy Wieśka 3 ?
      Karta uciągnie prawdopodobnie (GTX1080) wieśka na 4k na 60fps. z TFLOPS'ami jakie preferuje to szok.
      Zgodze się tylko z tym że developerzy robią na początku downgrade by gra lepiej się przedawała i pamiętaj że sam na tej planecie nie jestes i nie każdego stać na taką kartę!!!
      Są patche które ten downgrade niweluje oraz nowe łątki na grafikę.

      Straciłeś kilkanaście godzin na pisanie kilkanaście linijek tekstu.

      Skomentuj

      1. Florian83
        Oceń komentarz:

        1    

        Opublikowano: 2016-05-07 18:48

        Tak, są mody(łatki), które poprawiają grafikę, owszem.
        Ale chyba nie widziałeś tych gier na targach E3 2013.
        Nigdy po tych łatkach takie nie będą !
        Żadna łatka Ci nie zamieni wiedźmina na tego z 2013
        Żadna łatka Ci nie zamieni The Devision na tego z 2013.

        To już jest inna gra, inne obiekty, zmiana tekstur Ci tu nic nie da.

        Zobacz sobie filmiki na YT z targów E3.

        Sam jestem ciekaw, czy nowe gry będą miały dużo lepszą grafikę niż PS4, np: Battlefield 1 (5)

        Skomentuj

        1. Blashix
          Oceń komentarz:

          1    

          Opublikowano: 2016-05-07 19:35

          Jestem ciekaw czemu pokazuja inna gre niz ta ktora wydaja.

          Skomentuj

      2. ALEKS_D_RAVEN
        Oceń komentarz:

        3    

        Opublikowano: 2016-05-08 00:11

        Overwatch ma grafikę jak TF2, czyli coś co starzeje się powoli i z wdziękiem. A wieśka mocno zdowngradeowali bo nie przemyśleli sprawy w sensie technicznym, masę efektów wyłączyli no i kiedy jeszcze tak wymienili renderera by uwzględniał światło na dużych obszarach oraz wsparcie dla PBR to się wszystko posypało. Plus nie potrafią optymalizować.

        Skomentuj

      3. Balrogos
        Oceń komentarz:

        0    

        Opublikowano: 2016-05-08 09:40

        Overwatch naprawde? gra zrobiona zbey lazila na starsze kompy kiedy pomiedzy high a aultra praktycznie nie ma roznicy?

        Skomentuj

    2. marian84
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-08 13:44

      dobrze gada polac mu

      Skomentuj

  26. Florian83
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-07 19:53

    Nie, oni chcą tą grę zrobić z taką grafiką, ale później przychodzą sponsorzy, wydawcy i inni, pytają czy ta gra z tą grafiką pójdzie na PS4 i XB1 ?
    Okazuje się, że nie pójdzie.
    I zaczynają ucinać wszystko co się da- jest to trochę bez sensu ale tak jest.

    To tak jakby lecieć samolotem i się dowiadujesz, że jest za mało paliwa i nie dolecisz do lotniska w PS4 i zaczynasz wyrzucać całe wyposażenie samolotu i zostaje tylko szkielet i drążek sterujący.

    Skomentuj

  27. killerek132
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-07 21:23

    Ciekawe czy w końcu 4k będzie grywalne w 60kl/s a i czy skalowanie w SLI będzie lepsze w DX 12 na nowych modelach.

    Skomentuj

    1. ALEKS_D_RAVEN
      Oceń komentarz:

      -2    

      Opublikowano: 2016-05-08 00:12

      w Dx12 to raczej już nie ma SLI czy crossfire.

      Skomentuj

  28. Me.Sasha
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-07 22:21

    Poczekam na pierwsze testy. W tej chwili jednak - ktoś chętny na GTX 980Ti - nigdy nie kręcona :D? 2 kafle w promocji ;)

    Skomentuj

  29. stomek007
    Oceń komentarz:

    2    

    Opublikowano: 2016-05-07 22:47

    Szału jakoś na mnie nie robi bo
    1 - GeForce GTX 980 Ti - 3506 MHz - 384 Bit = 336 GByte/s
    po OC na 4000Mhz - 385 GByte/s
    GeForce GTX 1080 - 5508 MHz - 256 Bit = 320 Gbyte/s

    2- GeForce GTX 980 Ti - 2816 Shader - 1500 MHZ po OC
    GeForce GTX 1080 - 2560 - Shader - 1733 MHz

    3- Tak wiem że GTX 1080 też się kreci ale jak będzie 10-20 % szybsza to max

    4- Mój EVGA 980Ti Hybrid zostaje i czeka na GTX 1080 Ti / Polaris

    Skomentuj Historia edycji

    1. jeomax.co.uk
      Oceń komentarz:

      1    

      Opublikowano: 2016-05-07 23:11

      Masz swietna karioche, ale az sie dziwie, czy nie wcisnal ci jej ktos w Tesco na przyklad, mowiac o wspanialej wydajnosci karty wynikajacej z samej przepustowosci pamieci. W Tesco sprzedaja na przyklad GT 520 z 4GB i ludzie to kupuja, bo przeciez jest tak duzo pamieci, co w komputerze. Innymi slowy - ten sam typ argumentacji.

      Skomentuj

        1. stomek007
          Oceń komentarz:

          2    

          Opublikowano: 2016-05-08 10:33

          GeForce GTX 980 Ti - 2816 Shader - 1500 MHZ po OC
          GeForce GTX 1080 - 2560 - Shader - 1733 MHz

          Po przeliczeniu Shader x MHz różnica jest bardzo mała, jedynie energetycznie GTX1080 bije na głowę, ale weź postaw się w mojej sytuacji gdzie różnica będzie 100W, kartę swoją sprzedam za 1800 zł za nową dam 3000zł to zakładając 1KWh kosztuje 50gr, i powiedzmy że gram 3 godziny dziennie to 1200zł zwróci mi się po 20 latach grania :)
          Poczekamy na testy zobaczymy :) Ale w sumie takie moce karty jak i tak gry przez konsole jadą na ostrym ręcznym.

          Skomentuj

      1. stomek007
        Oceń komentarz:

        -1    

        Opublikowano: 2016-05-08 10:20

        Witaj, jestem świadomym użytkownikiem i wiem co kupuję, na początku kupiłem GTX 970 potem udało się i w miarę okazyjnie kupiłem drugą GTX970. Tandem był fajny aczkolwiek nie bez wad ( trochę za głośny i karta nr 1 podgrzewała kartę nr 2, no i te niesławne 3,5 gb ram)
        Więc karty sprzedałem przez allegro, dołożyłem pięć stów i kupiłem GTX980Ti.
        Wydajność trochę spadła ale pozbyłem się wad.

        Skomentuj

        1. kitamo
          Oceń komentarz:

          0    

          Opublikowano: 2016-05-15 11:38

          ale ten niby proglem 3,5gb to nie byl problem podziału pamieci tylko jednego kolesia ktory zrobil filmik na YT i opisal go że jego problem wynikl z nagrywania shadowplayem.
          Wszystkie portale podłapały ze gry zacinaja sie po przekroczeniu 3,5gb na 970tkach i zaczely tworzyc artykuly - nikt tego nie zweryfikowal.
          Jak wszystko wyszlo na jaw to nagle "aha, no ok"

          Programem ktory zapoczatkowal tą cala afere byl maly programik do adresowania pamieci i sprawdzania jej przepustowosci (teoretycznie bo nkt nie wie co on tam sprawdzal).

          Co do wad SLI tych kart (tak jak i innych) doliczyl bym skalowanie ktore jest kiepskie. Problemu z podgrzewaniem kart nie ma w konstrukcjach referencyjnych i niereferencyjnych z turbiną.

          Skomentuj

  30. majki_majk
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-08 05:27

    Po przeliczeniu na funty wyszło tak tanio że się prawie poryczałem ze szczęścia :-D.

    Zadajecie takie pytania że głowa boli -_- tu macie konferencje Nvidii na której macie wszystko pokazane(nie tylko zdjęcia) i wytłumaczone https://www.youtube.com/playlist?list=PLZHnYvH1qtOZ0oLpKsdHWjw6rCRT2vhIM

    Skomentuj

  31. Marucins
    Oceń komentarz:

    1    

    Opublikowano: 2016-05-09 11:04

    "Dociekliwi internauci z zaKOPU łącząc i wytężając mózgi doszukali się na materiałach z sobotniej konferencji *.
    "Gwiazdki" wyjaśniającej skąd taka niesamowita moc przerobowa nowej 1080-tki. Jak wiemy GTX 1080 miał osiągać wydajność lepszą niż spięte w w SLI karty GTX 980"

    Mirrors Edge Catalyst, Quantum Break, Paragon, Forza Motorsport 6 Apex, DOOM

    http://gamegpu.com/images/stories/Test_GPU/Action/Mirrors_Edge_Catalyst_Beta/test/MirrorsEdge_1920.jpg
    http://gamegpu.com/images/stories/Test_GPU/Action/Quantum_Break_/test/QB_1920.jpg
    http://gamegpu.com/images/stories/Test_GPU/MMO/Paragon/test/paragon_1920.jpg
    http://gamegpu.com/images/stories/Test_GPU/Simulator/Forza_Motorsport_6_Apex/test/Forza_1920.jpg
    http://gamegpu.com/images/stories/Test_GPU/Action/doom_beta/test/DOOM_1920.jpg

    Wyniki są zachęcające :)))

    Skomentuj

  32. Geralt
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-09 14:33

    A ja na poczatku roku kupilem 970 ;). Ale szczerze mowiac to prawie jej nie wykorzystuje bo nie mam czasu grac (wiec troche zaluje, chociaz jednak zbyt czesto na poprzedniej brakowalo RAM :) ). Z drugiej strony to pozytyw jest taki, ze nie sadze ze zbyt szybko bede zmienal - rozwoj technologiczny znacznie zwolnil w ostatnich latach.

    Skomentuj

  33. thoorin
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-09 15:18

    Wiadomo kiedy można się spodziewać wersji mobilnych? Jestem na etapie wyboru laptopa i zastanawiam się czy poczekać :)

    Skomentuj

  34. gizmo84
    Oceń komentarz:

    1    

    Opublikowano: 2016-05-10 11:15

    No w końcu jakaś realna zmiana (proces technologiczny, wydajność). Posiadam Radeona 7850 i do tej generacji kart Polaris/Pascal jakoś nie widziałem sensu zakupu nowej karty graficznej.
    Widząc szczątkowe testy pewnie kupię Polarisa bo będzie tańszy, ale mniej wydajny. I tak pewnie wystarczy do grania w 1680x1050, którą obsługuje mój monitor :)
    Poczekajmy na realne testy :)

    Skomentuj Historia edycji

  35. hasati
    Oceń komentarz:

    0    

    Opublikowano: 2016-05-13 07:19

    Gry są sztucznie zaniżane do detali konsolowych, nie długo będą robić cap na 30 fps ... Po co w ogóle robią karty skoro i tak ich nie wykorzystamy (A sorry wykorzystamy bo wymagania podciągną specjalnie......) Wymagania są sztucznie zawyżane. Teraz między medium a ultra nie ma prawie różnic. A włączcie sobie jakąś starą grę i porównajcie jak kiedyś wyglądało medium vs ultra :)) 2 inne gry :) Teraz różnic to trzeba się doszukiwać, a najlepiej jak ktoś wypunktuje i oznaczy gdzie się coś różni :)) Dopiero kartę zmienię jak pojawią się nowe konsole (PS 5) Obecnie jest to bez celowe, tym bardziej że 4k w ogóle mnie nie interesuję na dzień dzisiejszy.

    Skomentuj

    1. kitamo
      Oceń komentarz:

      0    

      Opublikowano: 2016-05-15 11:31

      niech na PC wydadzą tego zaniżonego Uncharted 4, to chetnie bede grał. serio

      Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!