Na topie

Które karty graficzne Radeon i GeForce są zgodne z DirectX 12? [AKTUALIZACJA]

Autor:

więcej artykułów ze strefy:
Karty graficzne

Jak się okazuje, pełną kompatybilność gwarantują tylko najnowsze modele Radeon i GeForce.

Microsoft DirectX 12 logo

AA

DirectX 12 ma przynieść niemałą rewolucję w wyglądzie i płynności działania gier komputerowych. Które karty graficzne są zgodne z nowym API?

Jak się okazuje, pełną kompatybilność gwarantują tylko najnowsze akceleratory graficzne – w przypadku kart AMD są to wszystkie modele na bazie architektury GCN (1.0/1.1/1.2), natomiast w przypadku kart Nvidii są to najnowsze modele z generacji Maxwell 2.0. Warto również wspomnieć, że w przypadku kart Nvidii potwierdzono już zgodność z poziomem funkcji 12_1.

Podobnie wygląda kwestia układów graficznych zintegrowanych w procesorach AMD APU Temash, Kabini, Kaveri i Carrizo – oferują one pełne wsparcie dla DirectX 12.

DirectX 12 slajd - efekty graficzne
DirectX 12 pozwoli odciążyć procesor i wprowadzi nowe efekty wizualne dymu, ognia i oświetlenia/cieni

Co ze starszymi kartami? To zależy, bo kilkuletnie modele na bazie architektur AMD TeraScale lub Nvidia Tesla nie gwarantują żadnego wsparcia dla DirectX 12, natomiast w przypadku nieco nowszych GeForce'ów możemy liczyć na funkcjonalność ograniczoną do poziomu 11_0.

Modele Architektura Obsługa DirectX 12 Poziom funkcji
AMD Radeon
Radeon HD 6000, R5 210, R5 220, R5 230, R5 235(X) (i starsze) TeraScale NIE -
Radeon HD 7000, R7 240, R7 250(X/E), R7 265, R9 270(X), R9 280(X) GNC 1.0 TAK 12_0
Radeon HD 7790, R7 260(X), R9 290(X), R9 295X2 GCN 1.1 TAK 12_0
Radeon R9 285 GCN 1.2 TAK 12_0
Nvidia GeForce
GeForce 300, GeForce 405 (i starsze) Tesla NIE -
GeForce 400 (bez GeForce 405) Fermi TAK 11_0
GeForce 500 Fermi TAK 11_0
GeForce 600 Fermi/Kepler TAK 11_0
GeForce 700 Fermi/Kepler/Maxwell 1.0 TAK 11_0
GeForce 900 Maxwell 2.0 TAK 12_1

Na koniec warto jeszcze dodać, że nowe API będzie wspierane nie tylko przez komputery, ale też konsolę Xbox One – tutaj też powinniśmy się spodziewać nowych efektów wizualnych, a lepsza optymalizacja pozwoli na ustawienie wyższej rozdzielczości przy zachowaniu płynności animacji.

 

Aktualizacja 06.06.2015 14:00

Źródła bliskie firmie AMD potwierdziły, że wszystkie karty graficzne Radeon na bazie architektury GCN (również jej najstarszej wersji 1.0) są zgodne poziomami funkcji 11_0 i 12_0, a więc dwoma najważniejszymi z punktu widzenia użytkowanika - oferują one bowiem najważniejsze technologie, które wprowadza DirectX 12. Z tego względu poprawiliśmy treść wcześniejszego newsa.

Źródło: ComputerBase, Nvidia, AMD

Odsłon: 46594 Skomentuj newsa
Komentarze

176

Udostępnij
  1. johndobry
    Oceń komentarz:

    -14    

    Opublikowano: 2015-06-05 15:54

    Pokaż komentarz zakopany przez użytkowników

    Fajnie tylko że jak się okaże że te ceny jakie chcą za te kotlety (niektóre prawie 3-letnie) to kto to kupi?

    Skomentuj

    1. johndobry
      Oceń komentarz:

      -20    

      Opublikowano: 2015-06-05 15:57

      Pokaż komentarz zakopany przez użytkowników

      oczywiście chodzi mi tu o AMD

      Skomentuj

    2. AkaRyupl
      Oceń komentarz:

      4    

      Opublikowano: 2015-06-05 18:48

      Nie do końca "kotlety" bo nowa seria ma mieć pełną zgodność z DX 12 i FreeSync - teraz takowa mają tylko karty z GCN 1.1 i 1.2. Choćby z tego względu to nie będą "kotlety".

      Skomentuj

        1. AkaRyupl
          Oceń komentarz:

          7    

          Opublikowano: 2015-06-05 20:46

          No to czemu zatem nie nazywacie Geforców "odgrzewanymi kotletami"? Przecież to cały czas ta sama CUDA? Z założenia GCN miało być jak CUDA - technologią rozwijaną przez AMD, jak CUDA przez NVIDIę. Druga sprawa - już zgodność z nowym API i nową technologią jest powodem, by się zastanowić na ile te domorosłe informacje na temat odgrzewania są prawdą. Nie pomnę, że DX 12 bardzo dużo daje - więcej jak DX 11 czy DX 10. Zwłaszcza, że to nie jest jak Ty mówisz "nic nie dawanie" - m.in. dzięki DX 12 komputer wreszcie będzie używał pamięci vRAM jako całości w wypadku SLI, a nie jak do tej pory. Zmian technicznych polepszających sytuację jest więcej (np. dualizm producentów kart - choć mnie zastanawia jak to będzie zrobione). Więc nie jest to nic - nawet dla zestawów z wyższej półki.

          Skomentuj

          1. mjwhite
            Oceń komentarz:

            -13    

            Opublikowano: 2015-06-05 20:52

            Pokaż komentarz zakopany przez użytkowników

            "Nie pomnę, że DX 12 bardzo dużo daje"

            naprawdę w ilu grach można go już zobaczyć?

            Skomentuj

          2. AkaRyupl
            Oceń komentarz:

            7    

            Opublikowano: 2015-06-05 21:05

            Wiedźmin 3 na ten przykład. Właściwie sporo gier ma być kompatybilna z DX 12. Zaskoczony? Ja nie.

            Skomentuj

          3. mjwhite
            Oceń komentarz:

            -10    

            Opublikowano: 2015-06-05 21:42

            Pokaż komentarz zakopany przez użytkowników

            "ma być"

            to słowo klucz!

            Jak ktoś pisz o fury to go mieszasz z błotem że karty jeszcze nie ma i nic nie wiadomo, a sam opisujesz rzeczy których również jeszcze nie ma jako pewne... straszny z ciebie cynik

            PS. W3 ma już DX 12 jakoś nie zauważyłem.

            Skomentuj

          4. Ryuhoshi
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-06 01:54

            Przestań być ignorantem. Jak mają być już teraz gry w DX12 jak jeszcze nie było premiery Windowsa 10 który do DX12 jest potrzebny. Proszę, pomyśl zanim coś napiszesz.

            Skomentuj

          5. mjwhite
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-06 08:13

            spytaj tego gamonia AkaRyupl, przecież to on napisał że DX12 dużo daje a jeszcze nawet nie wyszedł....
            Właśnie o to mi chodzi, on swoje fantazje opisuje jako fakty a innych się czepia.

            Skomentuj

          6. znik70
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-08 12:45

            Wyszedł. Jak chcesz też możesz zainstalować developerską windę 10 i sam sprawdzić. Tak, zgadza się. to jest beta. I co z tego? DX12 oferuje wreszcie współbieżność. w DX11 współbieżności brak.

            Skomentuj

          7. AkaRyupl
            Oceń komentarz:

            3    

            Opublikowano: 2015-06-06 06:11

            Wiedźmin 3 ma łatkę gotową na premierę Windows 10 dającą obsługę DX 12 - od początku było wiadomo, że takową dostanie. Poza tym olbrzymia różnica jest w krytykowaniu idiotycznych komentarzy opartych na plotkach, a mówieniu o aspektach zwartych w API podanych przez oficjalne źródła - gdyby ktoś gadał o odgrzewaniu kotletów mając w ręku dokładną specyfikację to ok, ale takowej nie ma. Jeżeli ktoś mówi co ma zawarte API oparte na danych z pewnych źródeł (mianowicie Microsoftu i publikacji na temat tego API) to już nie jest plotka. Więc - naprawdę naucz się rozróżniać rzeczy i nie próbuj obrażać innych - bo to jest śmieszne. Aha - i DX12 już jest dostępny w Windows 10 preview, ale problemem jest to, że producenci kart graficznych jeszcze nie wydali sterowników pod tą platformę.

            Skomentuj

          8. mjwhite
            Oceń komentarz:

            -3    

            Opublikowano: 2015-06-06 08:16

            Drogi dziecko chyba nie wie, że przed każdą premierą produkt opisuje się jako, najlepszy, najszybszy, technologiczny cud tylko potem jakoś g...o z tego wychodzi.

            Skomentuj

          9. Eternal1
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-06 09:12

            Grubo przesadzasz.

            Skomentuj

          10. AkaRyupl
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-06 09:34

            No nie wiem - chciałbym być w wieku dziecięcym, bo już mi bliżej do emerytury jak do dnia narodzin. A tak poza tym - w wypadku tego co Microsoft prezentuje deweloperom to raczej jest pewne, że tak będzie - swoich partnerów się nie robi w jajo, bo można ich w tedy łatwo stracić. Nie zapominaj, że oprócz DX od Microsoftu jest jeszcze OpenGL i Mantle - robi się trochę tłoczno czyż nie?

            Skomentuj

          11. mjwhite
            Oceń komentarz:

            1    

            Opublikowano: 2015-06-06 11:05

            a od kiedy to co ms pokazuje deweloperom jest równe temu co deweloperzy pokazują później nam ?

            Skomentuj

          12. abukiewicz
            Oceń komentarz:

            -2    

            Opublikowano: 2015-06-06 10:31

            nie można w żadnej a głównie dlatego, że nie wyszedł jeszcze oficjalny windows 10. Dopiero po jego premierze można się będzie spodziewać jakiś gier, które będą wspierały dx12

            Skomentuj

          13. wild0ne
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-05 21:24

            Coś Ci się pomieszało GCN - Graphics Core Next; CUDA - Compute Unified Device Architecture to dwa różne sprawy odpowiednikiem dla CUDA jest OpenCL

            Skomentuj

          14. AkaRyupl
            Oceń komentarz:

            -3    

            Opublikowano: 2015-06-06 03:27

            Tobie się pomieszało. CUDA i GCN to są architektury rdzeni procesorów (można powiedzieć wyższy poziom) - w wypadku AMD wszystkie rdzenie od serii HD 7000 są GCN, a w wypadku NVIDII od serii 6000 wszystkie są CUDA. CUDA w skrócie to architektura rdzeni procesorów graficznych. W obu przypadkach zintegrowane z architekturą jest środowisko programowania. Pewnie też dla Ciebie Intelowskie procesory to nie są APU :).

            Skomentuj

          15. mjwhite
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-06 08:23

            @wild0ne oczywiście ma rację a ty jesteś kompletnym głąbem. CUDA architekturą procesora i to jeszcze od serii 8000? idź się lecz !!!

            Skomentuj

          16. tomacaster
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-06 09:22

            Moze lepiej sie doucz, zanim cos napiszesz. Cuda to kompletna technologia zawierajaca software i hardware.

            Skomentuj

          17. mjwhite
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-06 11:01

            tak i do tego dostępna od serii 8000....

            Skomentuj

          18. Krzychu2009
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-07 14:02

            Tak była dostępna od 8600GT bodajże, poniższe karty już były za słabe. Cuda V2.x

            Skomentuj

          19. mjwhite
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-07 16:10

            cuda 2.1 od geforce 420 wzwyż możesz sprawdzić na stronie nv.

            Skomentuj

          20. AkaRyupl
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-06 09:26

            Widać, że nawet nie potraficie czytać... CUDA jest architekturą procesorów wielordzeniowych zaprezentowaną przez NVIDIę - oczywiście w wypadku tego producenta jest to architektura procesora graficznego. Pierwszą serią w jakiej zaimplementowano to była seria 6000 Geforców. Jej głównym zadaniem było usprawnienie obliczeń - gdzie wykorzystano jako akcelerator do obliczeń rdzenie GPU. Wypowiadasz się o technologiach nie mając zielonego pojęcia o nich...

            Skomentuj

          21. mjwhite
            Oceń komentarz:

            -2    

            Opublikowano: 2015-06-06 11:02

            tak szkoda tylko ze nv podaje najstarszą kartę obsługującą cuda jako geforce 410

            Skomentuj

          22. AkaRyupl
            Oceń komentarz:

            1    

            Opublikowano: 2015-06-06 18:52

            Najstarszą kompatybilną z CUDA gen. 3.0... Chyba naprawdę nie umiesz czytać... Wcześniej były jeszcze 2 generacje - teraz jest bodajże 6.

            Skomentuj

          23. mjwhite
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-07 12:06

            3.0 było obsługiwane dopiero od keplera (gtx650)

            Skomentuj

          24. mjwhite
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-07 12:07

            980ti/tytanX obsługuje na razie 5.2

            Skomentuj

          25. AkaRyupl
            Oceń komentarz:

            1    

            Opublikowano: 2015-06-06 18:56

            Aha i powiedz mi zatem jak jest to możliwe, że karty pokroju GTX 8800 czy GTX 9800 obsługiwały PhysX, jak do obsługi PhysX potrzebne są CUDA? Podpowiedź - mogły, bo w tedy była ta architektura już zaimplementowana.

            Skomentuj

          26. Krzychu2009
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-07 14:11

            Zrozum, że cuda była wspierana już przy 8600GT To było raczkowanie, pierwszych wersji CUDA Mimo, że te karty wspierały cuda, to wcale ono wydajne nie było. Ale już było.

            Skomentuj

          27. AkaRyupl
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-07 19:04

            Zrozum, że kolega mjwhite gada herezje, że CUDA jest dopiero do serii 400. Większych bzdur ja nie słyszałem od lat.

            Skomentuj

          28. mjwhite
            Oceń komentarz:

            -2    

            Opublikowano: 2015-06-07 19:45

            CUDAk to ty jesteś idź pograj w wiedźmina na DX12, bo ci to dużo daje...

            Skomentuj

          29. kryst85
            Oceń komentarz:

            -2    

            Opublikowano: 2015-06-06 12:02

            Ja mam gf 7600gt i jakoś nie mam CUDA

            Skomentuj

          30. shakal84
            Oceń komentarz:

            -2    

            Opublikowano: 2015-06-06 12:10

            A mi się wydaję ze pierwsze CUDA były w serii 88XX GTX/GTS

            Skomentuj

          31. AkaRyupl
            Oceń komentarz:

            1    

            Opublikowano: 2015-06-06 18:54

            Masz połowicznie rację - pierwsze karty zgodne z CUDA były z serii 8xxx. Przyznaję się tutaj do pomyłki - z bardzo się cofnąłem.

            Skomentuj

          32. wild0ne
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-06 13:05

            Tobie chodzi chyba o Unified Shading Architecture ktore zostala zastosowana w mikroarchitekturach zarówno nv jak i ati/amd. CUDA to bardziej implementacja obliczeń równoległych w tej architekturze - dlatego nie można przyrównać CUDA do GCN (mikroarchitektury całego GPU) i mówić, że to jest to samo.
            Nvidia

            Tesla
            Fermi
            Kepler
            Maxwell

            ATI/AMD

            TeraScale
            Graphics Core Next

            Skomentuj

          33. AkaRyupl
            Oceń komentarz:

            -2    

            Opublikowano: 2015-06-06 18:44

            Można, bo CUDA to jest architektura i software - GCN też. Widać, że wszyscy coś tam wiedzą, ale w rzeczywistości nic nie wiedzą...

            Skomentuj

          34. wild0ne
            Oceń komentarz:

            1    

            Opublikowano: 2015-06-07 02:28

            spoko

            Skomentuj

          35. AkaRyupl
            Oceń komentarz:

            -2    

            Opublikowano: 2015-06-07 05:13

            Inaczej powiem - CUDA jak i GCN mają w sobie USA, ale to nie znaczy, że CUDA nie jest architekturą (co niektórzy uparcie twierdzą). Owszem są to dwie różne architektury procesorów graficznych za zintegrowaną w swojej architekturze USA. Ba GCN daje AMD to co CUDA NVIDII - wzrost w mocy obliczeniowej.

            Skomentuj

          36. mjwhite
            Oceń komentarz:

            2    

            Opublikowano: 2015-06-07 12:16

            CUDA =/= GNC to są zupełnie różne 2 rzeczy.

            Skomentuj

          37. AkaRyupl
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-07 18:59

            Tak tak - i CUDA jest dopiero od serii 400 - przestań już bredzić.

            Skomentuj

          38. AkaRyupl
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-07 19:05

            No i nie są to dwie różne rzeczy - obie to architektury wyższego poziomu. Tyle w temacie - nie mam już ochoty dyskutować z Tobą trollu.

            Skomentuj

          39. mjwhite
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-07 19:49

            to że oba rozwiązania są opisane słowem architektura to nie znaczy że są tym samym.

            Skomentuj

          40. AkaRyupl
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-06 18:59

            Dodam do tego - CUDA jest architekturą procesora wielordzeniowego zaprojektowaną przez NVIDIę - oczywiście mamy tu na myśli procesor graficzny. By go w pełni wykorzystać wykorzystuje się odpowiedni software - oparty na języku C\C++. Podobnie jest z GCN, tyle że GCN jest dużo młodsze niż CUDA.

            Skomentuj

          41. mjwhite
            Oceń komentarz:

            1    

            Opublikowano: 2015-06-07 12:43

            do ciebie to jak grochem o ścianę. Przecież wyraźnie Tobie napisał jakie były poszczególne architektury GPU.

            Nvidia

            Tesla
            Fermi
            Kepler
            Maxwell

            ATI/AMD

            TeraScale
            Graphics Core Next

            Ani słowa o cuda

            Skomentuj

          42. AkaRyupl
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-07 19:02

            To do Ciebie jak grochem o ścianę - Ty nie masz w ogóle pojęcia o architekturze procesorów graficznych - i to widać.

            Skomentuj

          43. mjwhite
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-07 19:53

            nie muszę mieć pojęcia o samy architekturach, wystarczy że je rozróżniam ale dla ciebie nawet to jest za trudne.

            Skomentuj

          44. janek102
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-08 10:40

            Wydaje mi się, że każdemu z Was chodzi o coś innego :) Jeden mówi o samym procesorze graficznym a drugi mówi o architekturze całych układów graficznych oraz technologiach rozwijających ich możliwości nie tylko w grach. To tak w bardzo dużym uproszczeniu :)

            Skomentuj

      1. johndobry
        Oceń komentarz:

        -3    

        Opublikowano: 2015-06-06 10:00

        A R9 370 z GCN 1.0 też dostanie freesync? - nie sądzę

        Skomentuj

        1. gamemaker95
          Oceń komentarz:

          -3    

          Opublikowano: 2015-06-06 12:13

          Freesync to kompletnie inna sprawa i obsługuje go większość Radeonów......

          Skomentuj

          1. johndobry
            Oceń komentarz:

            -2    

            Opublikowano: 2015-06-06 13:08

            No właśnie większość tak samo jak poprzednia seria. Co nie zmienia faktu że mamy tylko 2 NIE kotlety w postaci kart które są konkurencją dla Titana, czyli prościej mówiąc dla ludzi którzy śpią na forsie.

            Skomentuj

          2. AkaRyupl
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-06 19:10

            Najpierw niech będzie premiera i specyfikacja, a potem możemy płakać lub się cieszyć. Co jeśli te niby kotlety będą bić na głowę NVIDIę i będą tańsze? Co jeśli nie? Zobaczymy przy premierze.

            Skomentuj

    3. tazik21
      Oceń komentarz:

      6    

      Opublikowano: 2015-06-05 20:35

      AMD Radeon R9 FURY

      Memory Size: 4096 MB
      Memory Type: HBM
      Memory Bus: 4096 bit
      Bandwidth: 640 GB/s

      Floating-point performance: 8,192 GFLOPS

      no ten to rzeczywiście jest kotlet z kurczaka :D

      Released: Jun 16th, 2015

      Skomentuj

      1. johndobry
        Oceń komentarz:

        3    

        Opublikowano: 2015-06-06 10:03

        Sorry gościu ale jakim trzeba być burżujem żeby sobie pozwolić na taką kartę????

        Skomentuj

      2. janek102
        Oceń komentarz:

        0    

        Opublikowano: 2015-06-08 10:44

        Gdzie podali takie info?

        Skomentuj

  2. mgkiler
    Oceń komentarz:

    -2    

    Opublikowano: 2015-06-05 15:55

    Zastanawiam się jak to będzie. Czyli co. Jako programista proszę DirectX o interface Direct3D 12_0, ale nie mam zagwarantowane, że każda metoda z tego interface'u zadziała (np na Geforce 7xx)? Muszę jakieś dodatkowe sprawdzenia robić?
    Dziwne.

    To trochę jak kiedyś z kartami ATI, które niby były zgodne, a nie wszystko działało.

    Skomentuj

    1. suntzu
      Oceń komentarz:

      -1    

      Opublikowano: 2015-06-05 17:04

      Każda karta, która będzie działać w Win10 będzie działać na DX12 czyli dwunastej wersji, to tak jakbyś wgrał najnowszą aktualizację DX9...
      ale funkcjonalność jest zależna od feature lvl. Po prostu program nie uruchomi xyz funkcji, która nie jest obsługiwana. Pisząc daną funkcje nie uruchomi się i tyle.

      Nie bardzo rozumiem co masz na myśli w czym jest problem.

      Skomentuj

      1. szczurek1995
        Oceń komentarz:

        -2    

        Opublikowano: 2015-06-05 18:02

        Może chodzi mu o biblioteki jak je zaimplementować w silniku. Trochę dziwnie napisane, więc sam nie wiem w 100% xd

        Skomentuj

        1. mgkiler
          Oceń komentarz:

          -1    

          Opublikowano: 2015-06-05 20:10

          Już nic. Miałem chwilowe zaćmienie mózgowe :)
          Sorry. Komentarz nie aktualny.

          Skomentuj

          1. suntzu
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-06 07:51

            spoko każdemu się zdarzyło :)

            Skomentuj

    2. shusek
      Oceń komentarz:

      -1    

      Opublikowano: 2015-06-05 20:07

      O ile dobrze kojarzę to poprostu dana funkcja albo się nie uruchomi, albo zostanie podmieniona na inną robiącą to samo ale działającą na starych (nieoptymalnych) algorytmach. Brak danego efektu graficznego nie powinien zważać na resztę gry (brak mgły raczej ma znikomy wpływ na grę).

      Skomentuj

  3. Trisker
    Oceń komentarz:

    10    

    Opublikowano: 2015-06-05 15:59

    GTS 250 pozdrawia ;_;

    Skomentuj

    1. PL_SBX
      Oceń komentarz:

      6    

      Opublikowano: 2015-06-05 19:29

      8600gt pozdrawia młodszego brata :)

      Skomentuj

      1. Kryspix
        Oceń komentarz:

        3    

        Opublikowano: 2015-06-05 19:45

        Pozdro od 7800 GTX =]

        Skomentuj

      2. Matiziol
        Oceń komentarz:

        5    

        Opublikowano: 2015-06-05 19:48

        Także 8600GT, pozdrawiam :D

        Skomentuj

        1. MarTum
          Oceń komentarz:

          3    

          Opublikowano: 2015-06-05 20:08

          Dwie GF 4 MX400 pozdrawiają z szuflady, a S3 Virge z szafy.

          Skomentuj

          1. PrEzi
            Oceń komentarz:

            7    

            Opublikowano: 2015-06-05 21:16

            Przebijam Herculesem z... gdzies z piwnicy oraz podbijam stawke Adamem i Ewą ;-)
            Dla bezpieczenstwa dodam, ze mam jeszcze do rozegrania karty Bóg, Big Bang oraz Ewolucję - dającą losowe właściwości (a w rękawie kartę "Szatan" czyli nowe Fuji) ;-)

            Skomentuj

        2. stark2991
          Oceń komentarz:

          0    

          Opublikowano: 2015-06-08 09:43

          Pasywna 8600GT pozdrawia zza grobu :/

          Skomentuj

  4. bakczysaraj
    Oceń komentarz:

    12    

    Opublikowano: 2015-06-05 16:00

    Ech pamiętam jak u mnie na pixelshaderze 1.3 geforce 4ti nie miałem odbić w lustrach w Max Payne 2 za to kumpel na wolniejszym radeonie 9100 miał.

    Skomentuj

    1. metan
      Oceń komentarz:

      7    

      Opublikowano: 2015-06-05 17:05

      To samo tyczylo sie sie NFS Underground 1 badz 2 nie pamietam juz. Kolega na Gf 4 Mx (czworka tylko z nazwy blizej mu bylo do 2) mial slabe rozmycie obrazu i nie mial ludzi przy starcie/ na koncu wyscigu a ja na radku 9200 SE mialem.
      Ogolnie kiedys ATI bylo lepsze pamietam jak 9800pro to bylo cos a chyba jak wyszedl pierwszy GF 6800 Ultra strasznie pradozerny to zaczela sie dominacja nvidii.
      Stare dobre czasy :D

      Skomentuj

      1. Jozio
        Oceń komentarz:

        -3    

        Opublikowano: 2015-06-05 19:54

        Pamiętam to a najgorsze było z tą laską kumpel miał na starcie a ja nie :

        Skomentuj

    2. randallandhopkirk
      Oceń komentarz:

      -1    

      Opublikowano: 2015-06-05 22:41

      Jakim cudem ? grałem na 2MX i odbicia były 8-(0)

      Skomentuj

    3. randallandhopkirk
      Oceń komentarz:

      -1    

      Opublikowano: 2015-06-05 22:48

      Prawdopodobnie to był 4MX to wtedy się zgodzę że mogło nie być tych odbić.

      Skomentuj

      1. bakczysaraj
        Oceń komentarz:

        0    

        Opublikowano: 2015-06-06 10:10

        Mirrors are supported only by GeForceFX cards. Even then, we recommend keeping them disabled on GeForceFX 5200 for performance reasons. - Oj coś źle pamiętasz, to jest z readme Max Payne'a :P

        Skomentuj

        1. randallandhopkirk
          Oceń komentarz:

          0    

          Opublikowano: 2015-06-08 09:41

          Fakt, przepraszam pomyliło mi się, to w jedynkę grałem na 2MX a w drugą część na FX5600.

          Skomentuj

  5. ALEKS_D_RAVEN
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 16:02

    A co się stało z resztą poziomów dx12?? Mówiono o 3 Tierach dla tego API

    Skomentuj

  6. ALEKS_D_RAVEN
    Oceń komentarz:

    1    

    Opublikowano: 2015-06-05 16:11

    W sumie AMD lepiej przygotowane ze starszymi kartami, a pewnie Geforce`y będą lepiej wspierać Te bajery graficzne, ciekawe bo wyglądają jak te efekty które wycięto ostatecznie Wiedźmina 3, o których jeden z programistów CD projekt mówił ze bez dx12 nie da się ich przywrócić.

    Ciekawe

    Skomentuj

    1. Promilus
      Oceń komentarz:

      -1    

      Opublikowano: 2015-06-05 20:24

      Wszystkie efekty mogą być zrobione w DX11, problemem jest to, że będziesz potrzebował wykręconego proca i titana żeby mieć w miarę dobrą płynność. DX12 nie przeniesie tego oczywiście do poziomu średnich kart, ale powinno się przy b. mocnej grafice te same efekty zrealizować przy przeciętnym 4+ rdzeniowym procesorze (gdzie wcześniej sterownik i narzut API był wąskim gardłem). Tyle tylko, że o narzucie sterownika i narzucie API i jak nowe DX mają to zmienić słyszę od DX10 i zgadnij co się w przeciągu tych lat zmieniło?

      Skomentuj

      1. PrEzi
        Oceń komentarz:

        -1    

        Opublikowano: 2015-06-05 21:20

        Say whaaaaaat ?
        Pamietam demko technologiczne FurWorks (czesc GameWorkslow) gdzie to wszystko kulało przy prezentacji wilka z Wiedzmina 3... sztuk jeden... w rozdziałce chyba 1280x1024... na Titanie... ledwo im się udawało utrzymać 30 fps...
        Jak widzę po finalnej wersji - narzut jest niewiele mniejszy... ale dobrze, że można zoptymalizować edytując XMLe bądź w panelu CCC.

        Skomentuj

        1. Promilus
          Oceń komentarz:

          -1    

          Opublikowano: 2015-06-06 11:21

          No ale co to ma do tego o czym pisałem? Hairworks w Wiedźminie z targów E3 najprawdopodobniej miał wysoko ustawiony tess factor (więc włosów było więcej i poruszały się bardziej realistycznie, ale narzut obliczeń też był dużo większy). W tej chwili możesz z poziomu CCC ograniczyć tess factor i zobaczysz przy jakim poziomie włosy zaczynają wyglądać gorzej (iirc 8x i poniżej) oraz jakim spadkiem wydajności jest okupiony wyższy tess factor. GF mają ciągle polymorph engine (więc dużo rasteryzatorów i teselatorów) dlatego dla wyższych współczynników oferują stosunkowo mały spadek wydajności w porównaniu z radeonami - ale zawsze ten spadek jest. DX12 w tym konkretnym przypadku nic nie wniesie. Natomiast komponenty multibind/bindless owszem. Nie tyle zwiększają one wydajność samej karty co zmniejszają uzależnienie od prędkości CPU więc wszystkie sceny mocno zależne od wydajności CPU będą działać lepiej.

          Skomentuj

      2. ALEKS_D_RAVEN
        Oceń komentarz:

        -2    

        Opublikowano: 2015-06-05 23:45

        Są już testy pokazujące że ten patent działa. Nie powiesz mi że zaraz się okaże że Dx12 jest gorszy od AMD Mantle??

        Skomentuj

        1. Eternal1
          Oceń komentarz:

          -2    

          Opublikowano: 2015-06-06 09:21

          Gorszy/lepszy to chybione określenia.
          Niemniej Mantle w syntetykach jest nieco szybsze od DX12 i nic w tm dziwnego gdyż jest pisane pod jedną architekturę: GCN.
          DX12 musi obsłużyć nisko-poziomowo 2 różne archi.

          Skomentuj

        2. Promilus
          Oceń komentarz:

          -2    

          Opublikowano: 2015-06-06 11:36

          Wszystkie te testy pokazują jedynie określone sceny z naciskiem na to gdzie rzeczywiście jest konieczne rozbicie na wiele równoległych wątków. Problem jest taki, że nie zawsze:
          a - da się
          b - przynosi to równie wymierne zyski
          Więc nie ma czegoś takiego, że gra oferuje 3x tyle klatek w trybie DX12, natomiast MS i AMD ciągle uparcie przekonują że jest i 17x szybciej (w niektórych momentach) ...

          Skomentuj

  7. Omega93
    Oceń komentarz:

    9    

    Opublikowano: 2015-06-05 16:11

    A czym sie różni takie 12.0 od 12.1 ?

    Skomentuj

    1. ALEKS_D_RAVEN
      Oceń komentarz:

      7    

      Opublikowano: 2015-06-05 16:20

      http://postimg.org/image/fd4kuk85v/ tutaj masz krótko napisane
      Ale spokojnie, wszystkie wersje dx12 odciążają CPU i używają wielowątkowych sterowników. Ale z tego tez wynika że Tier 1 przez AMD będzie wspierany w przyszłym roku co oznacza zapewne Architekturę GCN 2.0, przy tych domniemanych 16 nm to rzeczywistsze będą Arctic Islands.

      Skomentuj

      1. suntzu
        Oceń komentarz:

        -2    

        Opublikowano: 2015-06-05 17:05

        albo w tym roku w końcu furry :)

        Skomentuj

        1. ALEKS_D_RAVEN
          Oceń komentarz:

          0    

          Opublikowano: 2015-06-05 17:31

          Jeśli nie zeszli z procesem technologicznym poniżej 28 nm to raczej nie. AMD tera oszczędza środki by robić DUŻE kroki ,a nie wiele małych.

          Skomentuj

          1. suntzu
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-06 13:24

            Lol...
            Czym było 7790, 290x, Tonga?
            Małymi krokami przecież....

            Tylko te kroki były mniejsze od kroków NV w postaci GK20x, GM-a.

            Skomentuj

          2. ALEKS_D_RAVEN
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-06 16:05

            Ale mimo wszystko połowa nowych radków to będzie rebrand poprzednich, tylko Tonga Odblokowana i Fiji to coś naprawdę nowego. Przyszły rok przyniesie nowa architekturę GCN, 16 nm w GPU, 14 nm w CPU, nowa uniwersalną architekturę CPU, Nowa uniwersalna podstawkę pod CPU. To będzie duży krok.

            Skomentuj

          3. suntzu
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-06 22:08

            Nie wiemy czym będzie nowe archi na miarę GCN-u o ile będzie. Jest duża szansa, że będzie to kolejny mały kroczek i tyle.

            AMD niczym się konkretnym nie chwali.

            Skomentuj

          4. janek102
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-08 10:58

            Może i dobrze, że się nie chwali. Po pierwsze lepiej żeby konkurencja nie wiedziała co się dzieje a po drugie ludzie nie będą zawiedzeni w razie ewentualnej wpadki jeżeli by im ten duży krok nie wyszedł jak trzeba :) Wolałbym żeby się pochwalili tym jak już będą mieli wszystko dopracowane i faktycznie nowa technologia dopiecze zielonym. W końcu dla nas to tylko lepiej jak będzie konkurencja, chore ceny pójdą się rypać, częściowo :D

            Skomentuj

          5. ALEKS_D_RAVEN
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-08 14:06

            Raczej chodziło mi o GCN 2.0

            Skomentuj

      2. Ryuhoshi
        Oceń komentarz:

        0    

        Opublikowano: 2015-06-06 01:59

        Grunt to żeby AMD przetrwało do przyszłego roku. Wszystko się rozegra właśnie na tych kartach, bo to najprawdopodobniej będą nowe karty z każdego segmentu(może nie licząc prawdopodobnie odświeżonego Fury, ale się zobaczy).
        Dlatego muszą nieźle wypaść teraz z tym Fiji. Mam nadzieje że się im uda, ceny zaczynają boleć.

        Skomentuj

        1. pongo
          Oceń komentarz:

          0    

          Opublikowano: 2015-06-06 21:01

          No właśnie. Aby AMD przetrwało. Jeżeli nie, może być nie fajnie z cenami kart gdy będzie je produkował monopolista.

          Skomentuj

        2. pongo
          Oceń komentarz:

          0    

          Opublikowano: 2015-06-06 21:01

          No właśnie. Aby AMD przetrwało. Jeżeli nie, może być nie fajnie z cenami kart gdy będzie je produkował monopolista.

          Skomentuj

  8. mpsk2
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 16:14

    Zobaczymy nowe radeony i się zastanowimy co kumpimy. 380 czy 970

    Skomentuj

    1. PrEzi
      Oceń komentarz:

      -2    

      Opublikowano: 2015-06-05 21:25

      970-tka jest w tej chwili coraz mniej oplacalna opcja... 3,5GB Ramu... pozostala czesc w sterownikach musi na twardo miec obnizony priorytet zagospodarowania (czyli musisz odpalic soft, ktory definitywnie _nakazuje_ zagospodarowanie pelnej puli.... bo inaczej sterownik sam narzuci czyszczenie pamieci - byleby tylko nie wyjsc poza zakres 3,5)... po obnizkach cen "pełna" 980-tka jest troche bardziej przystepna... ja bym sie wstrzymal jeszcze z 1,5 miesiaca. A 380 (bez X) nie bedzie za duzo nowego oferowac... wiec jak juz to albo 380X albo 390.

      Skomentuj

      1. cvbgvh
        Oceń komentarz:

        -4    

        Opublikowano: 2015-06-06 00:29

        hahaaha 970 nieopłacalna wręcz przeciwnie no chyba że wolisz kupować gtx 770 2gb za 1250zł (jak jeszcze gdzieś sprzedają) niż za tą samą cenę gtx970 3,5gb ramu ja wolę tą drugą chodź aktualnie posiadam gtx 770 w moim pc i zrobiłem błąd kupując bo mogłem poczekać półtora miesiąca i kupić gtx 970 no ale dobra moja strata zawsze mogę sprzedać i kupić gtx 970 jeżeli nie zostawię tego w spokoju i nie zacznę robić czegoś na świeżym powietrzu jak np kupienie i jazda na crossie :D

        Skomentuj

  9. Balrogos
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 16:39

    GNC 1.0 Obsługuje Directx 12 ale nie funkcjonuje dziwne :)

    Skomentuj

  10. kokosnh
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 16:39

    "Nvidia Fermi nie gwarantują żadnego wsparcia dla DirectX 12" ale z tabelki obsługuje DirectX 12 ?
    W sensie że może działać, ale zobaczymy, czy jak ?

    Skomentuj

    1. Paweł Maziarz
      Oceń komentarz:

      0    

      Opublikowano: 2015-06-05 17:22

      Oczywiście chodziło o generację Tesla - już poprawione ;)

      Skomentuj

  11. carbo888
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 16:40

    O w mordę nie wierze że mój gruchot pociągnie dx12, to mnie M$ zaskoczył :D

    Skomentuj

    1. Pepec9124
      Oceń komentarz:

      -1    

      Opublikowano: 2015-06-05 22:19

      Pewne funkcje są tylko kwestią sterowników.

      Skomentuj

  12. BariGT
    Oceń komentarz:

    -5    

    Opublikowano: 2015-06-05 17:32

    Radeonów serii 3xx nie podali, pewnie dlatego, że począwszy od 390X to odgrzana seria 2xx.

    Skomentuj

  13. Yadovid
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 17:34

    11_1 daje tą mityczną zwiększoną wydajność czy nie?

    Skomentuj

  14. ALEKS_D_RAVEN
    Oceń komentarz:

    0    

    Opublikowano: 2015-06-05 17:34

    Ale nie wierze że starsze geforce`y nie wspierają lepiej dx12.

    Skomentuj

  15. steny
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 17:38

    Żegnaj mój radeonku 7950 ;(

    Skomentuj

    1. Blashix
      Oceń komentarz:

      -1    

      Opublikowano: 2015-06-05 19:17

      Przeciez twoj radek wspiera dx12 :D

      Skomentuj

      1. kaczor112
        Oceń komentarz:

        -2    

        Opublikowano: 2015-06-05 21:21

        nie, nie ma pełnego wsparcia dla DX 12 bo to architektura GCN 1.0 a pełną obsługę dx 12 zapewnia GCN 1.1 i 1.2

        Skomentuj

        1. ALEKS_D_RAVEN
          Oceń komentarz:

          -1    

          Opublikowano: 2015-06-05 23:47

          Ale i tak Zmniejszy to narzut na procek i lepsze stery. Wiec spokojnie, będzie ok.

          Skomentuj

  16. Szymon331
    Oceń komentarz:

    2    

    Opublikowano: 2015-06-05 18:39

    Zanim to DX12 będzie miało sens i coś naprawdę konkretnego da w kilku grach to minie ze 2 lata. Do tego czasu pewnie zmienię kartę raz lub dwa razy...

    Skomentuj

  17. kokosnh
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 19:31

    Wątpię żeby chciało mi się Updatowac windows do 10-ki tylko po DirectX 12 ale zobaczymy...

    Skomentuj

  18. kokosnh
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 19:31

    Wątpię żeby chciało mi się Updatowac windows do 10-ki tylko po DirectX 12 ale zobaczymy...

    Skomentuj

    1. MarTum
      Oceń komentarz:

      -1    

      Opublikowano: 2015-06-05 20:07

      A WIN10 to tylko DX12? Nie.

      Skomentuj

      1. BariGT
        Oceń komentarz:

        0    

        Opublikowano: 2015-06-06 09:28

        A co jeszcze? Zabranie wiersza polecen, zabranie kontroli usera nad kompem, co jeszcze?

        Skomentuj

        1. kokosnh
          Oceń komentarz:

          0    

          Opublikowano: 2015-06-06 16:26

          nie ciekawie ( chcą żeby ludzie przesiedli się z siódemki )
          http://www.dsogaming.com/news/report-directx-12-to-be-exclusive-to-windows-10-nvidia-lists-dx12-compatible-gpus/

          Skomentuj

  19. mjwhite
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 20:50

    To w końcu lepszy jest 12_0 czy 12_1 ?

    Skomentuj

  20. teneo
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 20:55

    ja też pozdrowię radeon hd 4830

    Skomentuj

  21. Towarzysz Komisarz
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 20:57

    Zanim DX12 na dobre zagości w grach, to będziemy mieli już serię 4xx, 1xxx i problemy się same rozwiążą :D

    Skomentuj

    1. ALEKS_D_RAVEN
      Oceń komentarz:

      -1    

      Opublikowano: 2015-06-05 23:50

      W sumie tak, btw nie spodziewajmy się super efektów w wiesku 3, Batku 3 i PCCars. Nie wiadomo czy te studia same pracują and implementacją, w końcu to low level API, trza się bardziej przyłożyć.

      Skomentuj

      1. decorator12
        Oceń komentarz:

        -1    

        Opublikowano: 2015-06-06 12:36

        Wiesiek mało zyska jak coś - gra nie ciska CPU o ścianę. W PC jest inaczej - tam straszna jest jazda po procku, tutaj bedzie najwieksza różnica. A Batman... wyjdzie po testach. DX 12 odciaza CPU - czyli im bardziej gra na nim polega, tym efekt będzie większy.

        Skomentuj

        1. ALEKS_D_RAVEN
          Oceń komentarz:

          -1    

          Opublikowano: 2015-06-06 16:02

          Wiesiek Zyska w przypadku radków, bo ich stery pod Mantle/dx12/Vulkan już działają bardziej wielowątkowo (choć jeszcze to da się poprawić) Wiec przynajmniej nie będzie przycinek.

          Skomentuj

  22. superinferno
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 21:02

    Super r9 290 100% obsługuje dx12. TEgo się nie spodziewałem. Czyli przesiadkę odłożę na później.
    Ten artykuł sprawił że dzisiejszy dzień jest dobrym dniem .

    Skomentuj

  23. Bourbonnet
    Oceń komentarz:

    -2    

    Opublikowano: 2015-06-05 21:08

    Czyli rozumiem, że laptopówki w stylu GTX 860M nie obsługują DX12 pomimo swojej architektury?

    Skomentuj

    1. Paweł Maziarz
      Oceń komentarz:

      -1    

      Opublikowano: 2015-06-06 07:22

      Są dwie wersje 860M - z rdzeniem ba bazie Keplera lub Maxwella 1.0 (obydwie nie oferują pełnego wsparcia dla DX12 - funkcjonalność 11_0)

      Skomentuj

  24. Luiso
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 21:34

    z tymi efektami dla xbox one dodatkowymi pojechali. Konsola Ms nie zyska dodatkowych efektów tylko do 7% wydajności.

    Skomentuj

  25. oskarsom
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-05 23:30

    A mobilne 800? Co z nimi?

    Skomentuj

    1. Paweł Maziarz
      Oceń komentarz:

      -1    

      Opublikowano: 2015-06-06 07:20

      Obsługa jest, ale funkcjonalność ograniczona do poziomu 11_0 - karty bazują na architekturach Kepler i Maxwell 1.0

      Skomentuj

  26. Silver
    Oceń komentarz:

    -2    

    Opublikowano: 2015-06-05 23:51

    Informacja wymaga precyzji, bo nie cała rodzina HD7000 dostanie. O ile się nie mylę to modele wyższe od 7770 dostaną DX12. Zaskoczony za to jestem, że taki GTX460 miałby dostać nowego directa. Czyżby w ten sposób nvidia chciała zyskać u graczy po ostatnich wpadkach?

    Skomentuj

    1. Silver
      Oceń komentarz:

      -2    

      Opublikowano: 2015-06-05 23:53

      Zapomniałbym - pierwsze przypuszczenia snuły, że modele od GTX 660 i wyżej miałyby dostać wsparcie (nawet nie było pewne aby seria 600 takowe miała).

      Skomentuj

  27. AkaRyupl
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-06 06:08

    Wiedźmin 3 ma łatkę gotową na premierę Windows 10 dającą obsługę DX 12 - od początku było wiadomo, że takową dostanie. Poza tym olbrzymia różnica jest w krytykowaniu idiotycznych komentarzy opartych na plotkach, a mówieniu o aspektach zwartych w API podanych przez oficjalne źródła - gdyby ktoś gadał o odgrzewaniu kotletów mając w ręku dokładną specyfikację to ok, ale takowej nie ma. Jeżeli ktoś mówi co ma zawarte API oparte na danych z pewnych źródeł (mianowicie Microsoftu i publikacji na temat tego API) to już nie jest plotka. Więc - naprawdę naucz się rozróżniać rzeczy i nie próbuj obrażać innych - bo to jest śmieszne. Aha - i DX12 już jest dostępny w Windows 10 preview, ale problemem jest to, że producenci kart graficznych jeszcze nie wydali sterowników pod tą platformę.

    Skomentuj

    1. AkaRyupl
      Oceń komentarz:

      -1    

      Opublikowano: 2015-06-06 06:10

      Miało być do komentarza mjwhite.

      Skomentuj

      1. mjwhite
        Oceń komentarz:

        -3    

        Opublikowano: 2015-06-06 08:25

        a ati ma już gotowe karty fury(fiji) ?

        Skomentuj

        1. AkaRyupl
          Oceń komentarz:

          0    

          Opublikowano: 2015-06-06 09:36

          Widzę, że kończą się argumenty koledze i zaczyna zadawać niezrozumiałe retoryczne pytania (bo każdy zna na nie odpowiedź).

          Skomentuj

          1. mjwhite
            Oceń komentarz:

            -4    

            Opublikowano: 2015-06-06 11:00

            ty najwidoczniej nie, skoro nie potrafisz na nie odpowiedzieć.

            Skomentuj

          2. AkaRyupl
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-07 05:03

            Na retoryczne pytanie się nie odpowiada, ale widzę, że i opis terminu "pytanie retoryczne" jest Ci obce (jak i jakakolwiek kultura).

            Skomentuj

          3. mjwhite
            Oceń komentarz:

            -2    

            Opublikowano: 2015-06-07 16:11

            ty to już najlepiej w ogóle nie odpowiadaj, bo nie wiele masz do powiedzenia na temat.

            Skomentuj

        2. Yadovid
          Oceń komentarz:

          1    

          Opublikowano: 2015-06-06 14:53

          A co to ma do rzeczy?

          Skomentuj

          1. mjwhite
            Oceń komentarz:

            -1    

            Opublikowano: 2015-06-06 17:13

            to że jak powiesz jedno słowo o fury to ten spamer powie że tej karty jeszcze nikt nie widział i nic nie wiadomo, natomiast najwidoczniej grał już w wiedźmina z patchem na DX 12 i było dużo lepiej, chociaż tego patcha też jeszcze nikt na oczy nie widział.

            Skomentuj

          2. AkaRyupl
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-07 05:02

            Eh i dalej próbujesz obrazić innych - eh tak to jest jak się nie ma pojęcia o hardware i się wypowiada na forach.

            Skomentuj

          3. mjwhite
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-07 12:11

            a ty dalej spamujesz nie wiadomo po co.

            Skomentuj

          4. AkaRyupl
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-07 06:50

            Poza tym jak Ty dobrze wiesz co ja niby powiem - właściwie miałem powiedzieć, że premiera jest niedługo, bo 16 czerwca bieżącego roku - czyli coś kompletnie odmiennego. Nie pomne, że nigdy nie powiedziałem, że grałem z danym patchem, bo niestety mam kartę producenta, który ma w 4 literach wsteczną kompatybilność kart (po tabelce domyśl się kto to jest).

            Skomentuj

  28. PetBBB
    Oceń komentarz:

    4    

    Opublikowano: 2015-06-06 10:05

    Artykuł wprowadza błąd bo sugeruje jakoby karty AMD nie obsługiwały DX12 feature level 12_1(12.1) co jest nieprawdą. Tutaj tabelka pokazująca jak to w rzeczywistości wygląda:
    http://framebuffer.com.br/wp-content/uploads/2015/03/656x341xo4wOYxm.png.pagespeed.ic.6BBul3Zp0A.png
    W rzeczywistości to AMD jest przed Nvidią w obsłudze DX12. Maxell2 bez obsługi TIER 3 jest nadal przestarzały w stosunku do starszych konstrukcji AMD! Tu prezentacja w której jest wyjaśnione o co tutaj chodzi: http://channel9.msdn.com/Events/GDC/GDC-2015/Advanced-DirectX12-Graphics-and-Performance
    Zamiast obrazka z efektami trzeba było dać slajd z możliwościami kart Nvidii ale wtedy każdy by się od razu zorientować w nierzetelności artykułu ;) http://cdn3.wccftech.com/wp-content/uploads/2015/06/DirectX-12_GeForce-GTX-980-Ti-Support.png

    Powinniście sprawdzać sami informacje zanim przepiszecie wszystko co wam podyktują w dziale PR Nvidii.

    Skomentuj

    1. Paweł Maziarz
      Oceń komentarz:

      -6    

      Opublikowano: 2015-06-06 14:04

      News został zaktualizowany, ale na następny raz wstrzymaj się z bezpodstawnymi oskarżeniami - za takie coś u nas dostaje się bana

      Skomentuj

      1. PetBBB
        Oceń komentarz:

        3    

        Opublikowano: 2015-06-06 17:19

        I będziecie tą tabelkę poprawiać jeszcze wiele razy bo jest to napisane, przez kogoś bez zrozumienia tematu, wprowadzając w błąd czytelników.

        Skomentuj

      2. AkaRyupl
        Oceń komentarz:

        1    

        Opublikowano: 2015-06-07 06:52

        Ja bym poprosił o poprawę literówki - GCN, nie GNC.

        Skomentuj

      3. Bialy
        Oceń komentarz:

        3    

        Opublikowano: 2015-06-07 20:07

        Oj, nieźle panie Pawle.
        To oficjalna groźba redakcji, czy pańska inwencja twórcza?

        Już od dłuższego czasu prezentowane informacje posiadają mylące tytuły tylko po to by nabić licznik wejść.
        Przypominacie już tym wp i tvn24...

        Jednakże groźbami wznieśliście się na wyższy poziom.
        Ktoś wam zwraca uwagę, że podawane informacje mogą wprowadzać w błąd, to od razu może dostać bana?
        Zachowanie godne radia maryja, żeby nie rzec rycerzy natanka - kto nie jest z nami, ten parszywiec i wróg...
        (niektóre wyrazy z premedytacją zostały napisane małymi literami)

        A na koniec pozwolę sobie zacytować:
        "za takie coś u (mnie) dostaje się bana"

        Skomentuj

      4. janek102
        Oceń komentarz:

        1    

        Opublikowano: 2015-06-08 11:16

        Zamiast grozić sprawdźcie dokładniej źródła bo kolejny raz użytkownicy wytykają wam błąd i to dość poważny. Chyba powinniście docenić ludzi, którzy czytają to co piszecie bo większość z nich to ludzie, którzy lubią dokładnie potwierdzać informacje i szukają w różnych źródłach.

        Skomentuj

  29. kamild1996
    Oceń komentarz:

    0    

    Opublikowano: 2015-06-06 11:29

    HD7790 z większym wsparciem dla DX 12 niż R9 280X? Nie no spoko :D

    Skomentuj

  30. Blashix
    Oceń komentarz:

    1    

    Opublikowano: 2015-06-06 11:34

    750 Ti nie ma? Chyba tej karty nie kupie :(

    Skomentuj

  31. Marucins
    Oceń komentarz:

    0    

    Opublikowano: 2015-06-06 12:52

    Tyle się mówi o DX12... Zobaczymy jak to wyjdzie w praktyce, czy producenci zaczną pod to tworzyć gry a nie tylko dostaniemy Benchmarki.

    Kolejna sprawa to optymalizacja. Czy za sprawa odciążenia CPU nie dostanie potraktowana po macoszemu (nie pytam o firmę Ubisoft - dla nich to pytanie retoryczne)

    Skomentuj

  32. wild0ne
    Oceń komentarz:

    0    

    Opublikowano: 2015-06-06 13:02

    Tobie chodzi chyba o Unified Shading Architecture ktore zostala zastosowana w mikroarchitekturach zarówno nv jak i ati/amd. CUDA to bardziej implementacja obliczeń równoległych w tej architekturze - dlatego nie można przyrównać CUDA do GCN (mikroarchitektury całego GPU) i mówić, że to jest to samo.
    Nvidia

    Tesla
    Fermi
    Kepler
    Maxwell

    ATI/AMD

    TeraScale
    Graphics Core Next

    Skomentuj

  33. kaczor112
    Oceń komentarz:

    -1    

    Opublikowano: 2015-06-06 13:03

    Czas wywalić 280x i wydaje mi się, że będzie to moja pierwsza i ostatnia karta od AMD.

    Skomentuj

    1. Balrogos
      Oceń komentarz:

      1    

      Opublikowano: 2015-06-06 14:52

      Czemu?

      Skomentuj

      1. kaczor112
        Oceń komentarz:

        0    

        Opublikowano: 2015-06-06 16:39

        Po aktualizacji zaczynam patrzeć przychylniej na moją kartę, właśnie mnie to dziwiło, że nagle 280tka miała by nie obsługiwać dx 12 w pełni skoro na jednej z konferencji AMD mówiło że każdy GCN ma pełną kompatybilność do dx 12, ale mimo tego kolejna moja karta nie będzie na pewno z pod znaku AMD przez sterowniki, a raczej ich brak kiedy potrzeba, na same sterowniki do W3 trzeba było czekać ponad tydzień, a i tak nic nie zmieniły.

        Skomentuj

        1. kamaleon
          Oceń komentarz:

          0    

          Opublikowano: 2015-06-06 17:55

          No bo nie bedzie, w artykule nadal jest blad. 280/X to nadal GCN 1.0, a wiec karta sprzed prawie 4 lat i obsluga DX12 bedzie na poziomie 11_1.
          Czyli tak, gry z DX12 odpala, jednak pelnego wsparcia brak.

          Natomiast wszystko na GCN 1.1 i 1.2 to juz 12_0, z tym ze nadal nie ma pewnosci czy przypadkiem GCN 1.2 nie ma wiekszego wsparcia, w postaci 12_1, ktore jest juz malo istotne szczerze mowiac, bo glowne zmiany zachodza w 12_0.

          Skomentuj

          1. janek102
            Oceń komentarz:

            0    

            Opublikowano: 2015-06-08 11:24

            Bajki opowiadasz Panie. PetBBB opisał wszystko z podaniem źródeł. GCN będzie obsługiwał dx12.

            Skomentuj

        2. AkaRyupl
          Oceń komentarz:

          -2    

          Opublikowano: 2015-06-07 06:55

          Jakby sterowniki od NVIDII były lepsze - są, ale potrafią nieźle namieszać - uwierz mi. Miałem więcej problemów ze sterownikami od NVIDII niż od AMD.

          Skomentuj

          1. mjwhite
            Oceń komentarz:

            3    

            Opublikowano: 2015-06-07 12:10

            tak to się kończy jak laik zabiera się za poważne rzeczy.

            Skomentuj

        3. Balrogos
          Oceń komentarz:

          0    

          Opublikowano: 2015-06-07 07:56

          Własnie R9 280x to HD7970 ktorego ja mam :) 4 letnia karta graficzna :) ja sobie bardzo chwale stery pod wieska zmniejszyly stuttering w oknie i praktycznie go wyeliminowały na fullscreenie do tego mozesz wrzucic sobie DDLki z win10 z dx12 które poprawiaja co nieco FPSy.

          http://forums.guru3d.com/showthread.php?t=399547

          A w wieśka gram na wszytskich postprocesach ON, HBAO+ wszystkie ustawienia uber prócz cienie na wysokie i zasieg rysowanie roslinek wysoki in nawet moge wlaczyc hairworksa z teselacja x16 i miec nadal te 30fps ale mam wylaczonego dla wiekszego komfortu.


          Co jak co ale stery od AMD sobie chwale.

          Skomentuj

  34. kamil9186
    Oceń komentarz:

    3    

    Opublikowano: 2015-06-06 14:34

    Jupi moja sapphir-ka 7850 obsługuje w pełni directx -12 !!!:)

    Skomentuj

  35. Ragnar Lothbrok
    Oceń komentarz:

    5    

    Opublikowano: 2015-06-06 14:54

    Ale mi aktualizacja, to było wiadome od dawna że każdy GCN obsłuży DX 12, dlaczego miałoby nie obsłużyć podrobionego Mantle.

    Skomentuj

  36. ALEKS_D_RAVEN
    Oceń komentarz:

    2    

    Opublikowano: 2015-06-06 15:47

    AMD, son of a b*ith, You did it!!!!!

    Skomentuj

  37. Pider
    Oceń komentarz:

    1    

    Opublikowano: 2015-06-06 16:15

    Czyli AMD pełne wsparcie a u Nvidii tylko... maxwell 2.0. Brawo.

    Skomentuj

  38. TheEmperor
    Oceń komentarz:

    -5    

    Opublikowano: 2015-06-06 16:40

    Niestety w artykule po aktualizacji jest błąd. W rzeczywistości wygląda to tak:
    - Maxwell 2.0 (GTX9xx) - FL 12_1
    - GCN 1.1 i 1.2 - FL 12_0
    - GNC 1.0 - FL 11_1
    - Kepler, Maxwell 1.0 (GTX750) i Fermi - FL 11_0
    - AMD VLIW (HD6xxx/5xxx) - brak wsparcia DX12

    Błąd prawdopodobnie wynika z tego, że oficjalne stanowisko AMD można streścić mniej więcej tak: "GCN obsługuje DX11 i na ch... drążyć temat".

    Skomentuj

    1. TheEmperor
      Oceń komentarz:

      -2    

      Opublikowano: 2015-06-07 10:05

      Miało być oczywiście "GCN obsługuje DX12 (...)".

      Skomentuj

  39. DaroBenchmarkPC
    Oceń komentarz:

    0    

    Opublikowano: 2015-06-06 17:19

    Skoro r7 240 będzie miał dx12 to gtx 660 tez powinien mieć a nie 11_0

    Skomentuj

  40. pawlito011
    Oceń komentarz:

    0    

    Opublikowano: 2015-06-06 20:13

    Zawsze jak w tytule artykułu pojawia się coś w stylu "amd, a nvdia" to sa rekordy koemntarzy.

    Skomentuj

  41. superinferno
    Oceń komentarz:

    5    

    Opublikowano: 2015-06-06 21:48

    r9 290 daje rade :D dx12 100%
    Może i Amd nie jest liderem (aktualnie) ale za to nie naciąga klientów na niepotrzebne koszta jak Nv.
    Ja na starej karcie mam najnowsze technologie nV tylko na najnowszej karcie reszta nV dostanie cukierek na pocieszenie jak nie kupi nowej karty .

    Skomentuj

    1. hasati
      Oceń komentarz:

      1    

      Opublikowano: 2015-06-07 12:46

      A ja już widze te tłumy które lecą kupić serie 9xx ;) Dla paru gier w których różnica będzie zapewne znikoma. :) Zanim to wejdzie poważnie na rynek to 9xx będą tanie jak barszcz :)

      Skomentuj

  42. Luiso
    Oceń komentarz:

    2    

    Opublikowano: 2015-06-07 23:29

    Nie ma co gadać na AMD. W tej chwili to bardzo opłacalne karty, zwłaszcza r9 290/x. W tej cenie nic lepszego się nie dostanie. Ja wyrwałem nówkę

    Skomentuj

  43. marcadir
    Oceń komentarz:

    0    

    Opublikowano: 2015-06-08 07:36

    Mój radek 7790 ma wsparcie dx12, a myślałem że nie dostanie... także nadal czekam za czymś dość wydajnym i energooszczędnym, bo obecnie nie ma nawet na co się przesiąść.

    Skomentuj

  44. Ernestynian
    Oceń komentarz:

    0    

    Opublikowano: 2015-06-08 13:13

    Żałuję, że nie mogę zmienić odpowiedzi w sondzie :(

    Skomentuj

  45. st4lk3r
    Oceń komentarz:

    0    

    Opublikowano: 2015-06-08 13:55

    Nigdy nie miałem konsoli, zawsze grałem na PC, ale życzę MS, by DX 12 przyniósł rzeczywiście spory przyrost wydajności Xbox'a One, bo wszyscy na tym skorzystają i ewoluuje rynek gier.

    Skomentuj

  46. przemciuf
    Oceń komentarz:

    0    

    Opublikowano: 2015-06-10 11:16

    Po aktualizacji niusa powinno się zmienić również wyniki w sondzie- w świetle aktualnych danych zaznaczyłem poprzednio niewłaściwą odpowiedź

    Skomentuj

  47. Gloverek
    Oceń komentarz:

    0    

    Opublikowano: 2015-09-03 17:30

    W sieci robi się coraz głośniej na temat nvidii i kompatybilności DirectX 12.
    Chodzi mianowicie o Asynchroniczne przesyłanie danych, których Maxwelle nie supportują. Więc Nvidia nie jest w pełni kompatybilna z DirectX 12 i prosi o wyłączenie tej funkcji, bo dostaje po tyłku...
    http://www.eurogamer.pl/articles/2015-09-01-karty-nvidii-bez-wsparcia-dla-waznej-funkcji-directx-12-raport

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!