Na topie

Ray tracing na kartach GeForce i Radeon - Crytek prezentuje demo Neon Noir

Autor:

więcej artykułów ze strefy:
Gry

Zademonstrowane demo technologiczne Neon Noir prezentuje potencjał techniki śledzenia promieni w czasie rzeczywistym. Nie byłoby w tym nic nadzwyczajnego gdyby nie to, że nie musi ona działać na kartach Nvidia RTX.

  • Ray tracing na kartach GeForce i Radeon - Crytek prezentuje demo Neon Noir
A A

Śledzenie promieni w czasie rzeczywistym (ray tracing) to jedna z tych technologii, która pozwala poprawić realizm w najnowszych grach. Funkcja wymaga jednak odpowiedniej mocy obliczeniowej, więc można z niej korzystać tylko na najnowszych kartach graficznych Nvidii z dedykowanymi jednostkami RT… a przynajmniej tak było do tej pory.

Firma Crytek opublikowała nagranie z dema technologicznego Neon Noir, które wykorzystuje potencjał silnika CryEngine 5.5 i zaawansowanej funkcji odpowiedzialnej za pełne oświetlenie. Efekty możecie zobaczyć na poniższym filmiku.

Technologia Cryteka pozwala uzyskać efekt śledzenia promieni w czasie rzeczywistym, ale, w odróżnieniu od dotychczasowych rozwiązań stosowanych w grach (np. w Battlefield V), bazuje na interfejsie programowania – można z niej korzystać niezależnie od sprzętu, a według producenta wystarczy tutaj karta graficzna GeForce lub Radeon ze średniej półki zgodna z DirectX 12 lub Vulkan.

Wygląda więc na to, że Nvidia właśnie straciła główny atut swoich nowych kart graficznych. Oczywiście wszystko będzie zależeć od deweloperów i tego czy rzeczywiście chętniej będą korzystać z rozwiązania programowego (za którym na pewno przemawia szersza dostępność dla graczy).

Źródło: Crytek, Guru3D

Odsłon: 12232 Skomentuj newsa
Komentarze

57

Udostępnij
  1. leto1987
    Oceń komentarz:

    -13    

    Opublikowano: 2019-03-16 23:00

    Pokaż komentarz zakopany przez użytkowników

    Ray traced reflections.. to tylko same odbicia. O oświetleniu ray traced nigdzie na filmie nie ma mowy.

    Skomentuj

    1. GuyVer
      Oceń komentarz:

      14    

      Opublikowano: 2019-03-16 23:10

      W pierwszych demkach od Nvidii też nie było :P

      Skomentuj

    2. GuyVer
      Oceń komentarz:

      2    

      Opublikowano: 2019-03-16 23:10

      W pierwszych demkach od Nvidii też nie było :P

      Skomentuj

    3. Eternal1
      Oceń komentarz:

      1    

      Opublikowano: 2019-03-16 23:18

      To jest wysoko rozwinięte globalne oświetlenie.

      Skomentuj

    4. pablo11
      Oceń komentarz:

      12    

      Opublikowano: 2019-03-17 00:40

      RTX od Nvidii to też nie jest całe oświetlenie, w BF5tce są to odbicia, a w Metrze jest to globalna iluminacja, która jest jednym ze składników oświetlenia, widoczna głównie w zacienionych miejscach. Reszta jest wypalona starymi metodami.

      Skomentuj

    5. xbk123
      Oceń komentarz:

      5    

      Opublikowano: 2019-03-17 09:00

      Każdy to wie. Ale przekaz od premiery RTX był taki, że RT wymaga dedykowanego sprzętu, inaczej to dosłownie pokaz klatek albo jeszcze gorzej. BV też ma tylko odbicia robione z wykorzystaniem RT i spadek wydajności po ich włączeniu jest bardzo duży. Tutaj Crytek pokazuje naprawdę ładnie zrobione odbicia i co ważne, całość leci na starej karcie od AMD (Vega 56). Nie mówią też, że całej reszty (GI, cienie) nie można zrobić w ten sposób, po prostu ich nie ma w tym demie.

      Skomentuj

    6. eninede
      Oceń komentarz:

      -1    

      Opublikowano: 2019-03-17 11:27

      Przeciez to tylko okreslenie dla nazwy technologii sledzacych odbicia skierowanych do obserwatora. Myslisz, ze "Ray Tracecing" to rzeczywiste sledzenie "promieni"? Promieni czyli wiazek swiatla? Wiazek swiatla czyli - fotonow? Wirtualnych fotonow? :D

      Skomentuj Historia edycji

      1. Arael
        Oceń komentarz:

        2    

        Opublikowano: 2019-03-17 16:33

        To są właśnie skutki poziomu nauczania matematyki w Polsce.

        Skomentuj

      2. Mati-PL
        Oceń komentarz:

        1    

        Opublikowano: 2019-03-17 17:36

        To nie jest tylko nazwa marketingowa, to jest nazwa techniki, sposobu kalkulowania propagacji promieni w wirtualnej przestrzeni. I tak jak sama nazwa mówi, owszem, jest to śledzenie promieni ale nie świetlnych, są to promienie wystrzeliwane z kamery w stronę sceny i w zależności na co trafią, to takie informacje otrzymuje renderer. Taki promień może nieść bardzo wiele informacji, od GI i cieni po odbicia i refrakcje. W demo Crytek pokazał zapewne jakiś bardzo skuteczny algorytm na liczenie promieni dla odbić i pewnie tylko odbić, ale to się okaże. Ray-Tracing jest znany od dawna, ale sprzętowe implementacje tej techniki to już naprawdę nowość.

        Pozdrawiam

        Skomentuj

  2. Eternal1
    Oceń komentarz:

    15    

    Opublikowano: 2019-03-16 23:08

    Demo było renderowane przy użyciu Radeon Vega56.

    Czyli nowe konsole dostaną Ray-Tracing działający na standardowych jednostkach wykonawczych GPU.
    nVidia po raz kolejny zostanie z kwitkiem za swoje uber-luxury własnościowe technologie ograniczone dla najdroższego sprzętu.
    Co wybierze developer? RTX dla ledwie garstki najbogatszych graczy PC? Czy funkcje API DX12/Vulkan dostępne dla większości graczy PC oraz wszystkich nabywców nadchodzących konsol?

    Skomentuj

    1. pablo11
      Oceń komentarz:

      -21    

      Opublikowano: 2019-03-17 00:37

      Pokaż komentarz zakopany przez użytkowników

      Nie sądzę, by przyszłoroczne konsole dostały Raytracking, trzeba pamiętać, że nowa generacja konsol będzie posiadała APU, ale to APU nie będzie mocniejsze od dzisiejszego 2080Ti, który z wyspecjalizowanymi jednostkami ledwie radzi sobie z cząstkowym Raytrackingiem. Ogólnie dalej będzie się stosowało oszczędniejsze metody oświetlenia, tylko coraz bardziej rozbudowane. Jak dla mnie efekty RTX z Metra i BF5 są zbyt mało znaczące, by producenci się o nie zabijali. Lepiej uszczegółowić modele, aniżeli oświetlenie.

      Skomentuj

      1. Eternal1
        Oceń komentarz:

        1    

        Opublikowano: 2019-03-17 00:52

        Przecież to DEMO działa na Vega56, nowe konsole spokojnie dostaną GPU o podobnej mocy.

        Skomentuj

        1. awesome1337
          Oceń komentarz:

          -3    

          Opublikowano: 2019-03-17 00:56

          zgadzam się ze nowe konsole raczej na pewno jakaś formę RT dostana ale to jest demo, baardzo daleka droga do tego żeby użyc tego w grze i podobna wydajnością co obecnie nvidia

          Skomentuj

        2. darioata
          Oceń komentarz:

          -19    

          Opublikowano: 2019-03-17 09:40

          Pokaż komentarz zakopany przez użytkowników

          ''nowe konsole spokojnie dostaną GPU o podobnej mocy.''

          Padlem ze smiechu! Az ledwo z podlogi wstalem!
          Nie mistrzu. Konsole nowej generacji nie dostana GPU na poziomie RTX 2080 ale cos na poziomie co najwyzej GeForce 1070 TI!
          Koszty mistrzu nie pozwola na lepsze GPU! Procesor tak samo bedzie wykastrowanym 8 rdzeniowym Ryzenem z taktowaniem 2.2 Ghz maksymalnie 2.6 Ghz!
          Konsole mistrzu maja byc tanie i nie kosztowac wiecej niz 299-399$ w dniu premiery!

          Skomentuj

          1. Kenjiro
            Oceń komentarz:

            11    

            Opublikowano: 2019-03-17 10:34

            Od kiedy Vega 56 jest na poziomie RTX 2080? Przecież ona jest na poziomie 1070 Ti lub niższym (w wybranych tytułach tylko zdarza się jej pokonać 1080), a do RTX 2080 jej daleko.

            Innymi słowy, nie pij alkoholu z rana, to nie będziesz bełkotać.

            Skomentuj

          2. pablo11
            Oceń komentarz:

            1    

            Opublikowano: 2019-03-17 15:54

            Byś sie zdziwił. Obaj macie racje. Vega 56 rzeczywiście nie może się równać w grach z RTX 2080, ale jeśli wziąć pod uwagę obliczenia na uniwersalnych jednostkach, to sytuacja się wyrównuje i Vega 56 ma więcej suchej mocy obliczeniowej. To co będą posiadały Nextgeny to będzie raczej coś pokroju 2080, czyli raczej będą słabsze niż Vega 56 (Navi jako generacja ma być pozbawiona nadmiaru jednostek nieprzydatnych obecnie w grach, przez co ma zbliżyć się w kwestii wydajność/Wat do obecnych produktów Nvidii,a przy okazji ma być tańsza w produkcji- czy w sprzedaży, to się jeszcze okaże).

            To wszystko nie są oficjalne informacje, ale to jest bardzo prawdopodobne, szczególnie, że AMD coś wspominało, że Radeon VII ma być najmocniejszą kartą w tym roku. Co wcale nie oznacza, że Navi będzie słabsze od niego w grach.

            Skomentuj

    2. awesome1337
      Oceń komentarz:

      -16    

      Opublikowano: 2019-03-17 00:51

      Pokaż komentarz zakopany przez użytkowników

      >nVidia po raz kolejny zostanie z kwitkiem za swoje uber-luxury własnościowe technologie ograniczone dla najdroższego sprzętu.

      lol, ale ty specjalista w dziedzinie jesteś

      nvidia nie zostanie z kwitkiem bo nieżalenie jaka technologia przejdzie to mainstreamu to ich karty z RT cores będą ja wspierać i będą sobie z tym radzić lepiej niż karty bez wyspecjalizowanych jednostek

      poza tym bardzo ważne jest tu, ze jest to demo silnika bezpośrednio od jego twórców, każdy inny nie będzie musiał sie bawić w hardcoreowie kodowanie takich funkcji jezeli będzie mógł skorzystać z rozwiązań dostępnych w DXR dla DX12 i z których korzysta też nvidia ale z wsparciem hardwareu (RT cores)

      >Co wybierze developer? RTX dla ledwie garstki najbogatszych graczy PC?

      deweloper wybierze co chce i nie ma to znaczenia bo i karty amd i karty nvidi będa to wspierać kwestia tylko tego jak dobrze będa sobie z tym radzić


      Skomentuj

      1. kombajn
        Oceń komentarz:

        7    

        Opublikowano: 2019-03-17 06:32

        Tak? A ty skąd wiesz że rdzenie RT będą wspierały inne techniki ray tracingu? Nie przypominam sobie żeby karty Nvidii mające hardwarowego PhysX sprzętowo wspierały o niebo bardziej popularnego Havoc

        Skomentuj

        1. awesome1337
          Oceń komentarz:

          -9    

          Opublikowano: 2019-03-17 13:55

          stad wiem że RT nvidia działa przez DXR w DX12
          to jest standardowa implementacja ray tracingu dla win10
          KAŻDY kto korzysta z DX12 będzie się do tego podpiąć (o ile ma wystarczająco dużo mocy) i tak samo każda gra która będzie działać na DX12 i będzie miała ray tracing poprzez DXR będzie mogła być wspierana hardwareowo przez nvidie


          >PhysX sprzętowo wspierały o niebo bardziej popularnego Havoc

          bo było to zaimplementowane inaczej niż teraz
          zresztą, ostatecznie rozwiązanie nvidi wygrało, 90% gier dziś korzysta z physx

          Skomentuj

          1. kombajn
            Oceń komentarz:

            4    

            Opublikowano: 2019-03-18 07:35

            "90% gier dziś korzysta z physx" dzięki dawno się tak nie uśmiałem z rana
            lista gier obsługujących PhysX
            https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support
            lista gier obsługujących Havok:
            https://en.wikipedia.org/wiki/List_of_games_using_Havok

            Skomentuj

          2. awesome1337
            Oceń komentarz:

            -5    

            Opublikowano: 2019-03-18 08:00

            a przeczytałeś chociaż co linkujesz?

            to jest lista gier z hardware acceleration która rzeczywiście jest mała
            ale ilość gier które używają physx jako swojego silnika fizyki jest gigantyczna, obecnie physx nie działa tylko na kartach nvidi ale na cpu jako normalna cześć silnika gry
            a korzystają z niego wszystkie gry na silniku unreal, unity i cześć na cryengine

            samo unity i unreal dają bardzo duża listę gier

            https://en.wikipedia.org/wiki/List_of_Unreal_Engine_games

            https://en.wikipedia.org/wiki/List_of_Unity_games

            ale nice try

            Skomentuj

          3. kombajn
            Oceń komentarz:

            0    

            Opublikowano: 2019-03-18 18:34

            TY naprawdę do tego stopnia nie jesteś w stanie zrozumieć prostych argumentów czy robisz sobie jaja? Ja powiedziałem że obecność rdzeni RT wcale nie gwarantuje że te rdzenie będą wspierały obliczenia ray tracingu z wykorzystaniem innych technik niż te wymyślone przez Nvidię. Jako przykład podałem brak wsparcia dla innych silników fizyki przez sprzęt który wspomaga obliczenia fizyki w systemie PhysX a ty mi jako kontrargument podajesz że PhysX jest liczony na CPU. Człowieku a co ma piernik do wiatraka?

            Skomentuj

          4. awesome1337
            Oceń komentarz:

            2    

            Opublikowano: 2019-03-18 18:52

            > a ty mi jako kontrargument podajesz że PhysX jest liczony na CPU.

            chyba masz problem z czytaniem

            powiedziałem na marginesie że ostatecznie physx wygrał, jako że ewidentnie nie wiesz co to jest physx dziś i nie widzisz różnicy miedzy tym czym był 10lat temu to ci wytłumaczyłem

            to nie jest żaden kontrargument tylko dygresja na boku

            kontrargumentem jest to co napisałem wcześniej, physx był inaczej zaimplementowany niż obecnie RT od nvidi

            RT który oferuje nvidia działa poprzez DXR dla DX12
            to nie jest ograniczone tylko do nvidi a dostępne dla każdego kto chce stworzyć grę opierając się o DX12 i jest to również rozwiązanie otwarte dla AMD

            zestaw instrukcji na których działaniu opiera się DXR może byc wspierany przez software czyli po przez np. cuda cores które nie zostały stworzone do jednego zadania czyli liczenia promieni (czy raczej dla obliczeń na których działa przewidywanie jak odbija się światło, dzięki temu są też bardzo przydatne przy AI, machine learning etc) tak jak i AMD Stream Processors, tylko w przeciwieństwie do akceleracji hardwarem, czyli RT cores, radzą sobie z tym dużo gorzej (z oczywistych powodów, mam nadzieje)

            i działa to też w druga stronę, RT cores już teraz umożliwią obliczanie wielu innych rzeczy niż sam ray tracing (wspomniane wyżej AI) i ze względu na to jakie obliczenia wykonują mogą być zastosowane do innych technik RT niż tylko ta oferowana w tym momencie, to że beda wspierać wszystko co będzie szło przez DX12 i DXR to jest dość oczywistsze ale również inne autorskie rozwiązania będą mogły być wspierane niewielkim nakładem pracy


            dotarło teraz? czy 3 raz muszę to samo powtarzać

            Skomentuj

      2. BariGT
        Oceń komentarz:

        7    

        Opublikowano: 2019-03-17 06:40

        Karty mega drogie - > karty malo popularne -> male zainteresowanie technologia na nich rozwijana.

        Pamietasz jak bylo G-synciem?

        Skomentuj

        1. awesome1337
          Oceń komentarz:

          -9    

          Opublikowano: 2019-03-17 14:11

          jedyne co to porównanie pokazuje to ze nic nie wiesz na ten temat lol

          Skomentuj

          1. BariGT
            Oceń komentarz:

            5    

            Opublikowano: 2019-03-17 15:52

            Zakładam, ze zaraz sie dowiem ile ty wiesz na ten temat?

            Skomentuj

          2. awesome1337
            Oceń komentarz:

            -7    

            Opublikowano: 2019-03-17 16:15

            nie ja nie wiem jaka jest różnica między jednym a drugim

            Skomentuj

      3. awesome1337
        Oceń komentarz:

        0    

        Opublikowano: 2019-03-18 12:49

        może jakis argumenty przeciw zamiast samych minusów ?

        krzyczenie nie bo nie, nie sprawi nagle ze nie mam racji lol

        Skomentuj

  3. GuyVer
    Oceń komentarz:

    13    

    Opublikowano: 2019-03-16 23:08

    Dla mnie HIT tego roku, pozamiatali
    Znowu bełkot marketingowy sprawił że kazali nam wierzyć że tylko przeprojektowane karty że stajni Nvidii na to pozwalają..
    I jeszcze pokazali to na Vedze 56 , demo chodzilo w 4K niestety nieznane są klatki na sekundę... Podobno do końca następnego tygodnia ma być dostępny do pobrania benchmark na bazie tego dema...

    Skomentuj

    1. awesome1337
      Oceń komentarz:

      -2    

      Opublikowano: 2019-03-17 00:54

      >niestety nieznane są klatki

      znane, 30fps

      Skomentuj

  4. GuyVer
    Oceń komentarz:

    1    

    Opublikowano: 2019-03-16 23:08

    Dla mnie HIT tego roku, pozamiatali
    Znowu bełkot marketingowy sprawił że kazali nam wierzyć że tylko przeprojektowane karty że stajni Nvidii na to pozwalają..
    I jeszcze pokazali to na Vedze 56 , demo chodzilo w 4K niestety nieznane są klatki na sekundę... Podobno do końca następnego tygodnia ma być dostępny do pobrania benchmark na bazie tego dema...

    Skomentuj

  5. GuyVer
    Oceń komentarz:

    0    

    Opublikowano: 2019-03-16 23:09

    Dla mnie HIT tego roku, pozamiatali
    Znowu bełkot marketingowy sprawił że kazali nam wierzyć że tylko przeprojektowane karty że stajni Nvidii na to pozwalają..
    I jeszcze pokazali to na Vedze 56 , demo chodzilo w 4K niestety nieznane są klatki na sekundę... Podobno do końca następnego tygodnia ma być dostępny do pobrania benchmark na bazie tego dema...

    Skomentuj

  6. Michał 06
    Oceń komentarz:

    2    

    Opublikowano: 2019-03-16 23:27

    Wiecie dlaczego silnik Cry-engine ? Bo niemcy płakali jak tworzyli ,tak byli pewni sukcesu .

    Skomentuj

  7. suntzu
    Oceń komentarz:

    3    

    Opublikowano: 2019-03-16 23:32

    Nie wiem czy to jakiś przekaz dnia AMD, że NV oszukała itp...
    W grach dynamiczne oświetlenie czy odbicia są od dawna oraz "raytracing".

    W tym w Cryengine. Problemem było limitowanie funkcji do elementów statycznych i problematyczne działanie. Działało to na Maxwellach już, więc kij z tym.

    W Turningach NV wprowadziło dedykowane jednostki do liczenia pathtracingu i soft do wsparcia tego i tyle. Na jednostka SP i w OpenCL policzycie to nawet na radeonach HD48xx ale bardzo wolno.

    Skomentuj

    1. Chiny_X
      Oceń komentarz:

      4    

      Opublikowano: 2019-03-17 11:41

      GI było już w stalkerach tylko trzeba było sobie je włączyć z konsoli.
      Inna sprawa, że wraz z nowszymi sterownikami działało to coraz gorzej. A dziwnym zbiegiem GI W Call of Prip. na HD5770 i Phenom 2 955 działa z taką samą liczbą klatek na sekundę jak na 8700k + r9 390

      Skomentuj

      1. suntzu
        Oceń komentarz:

        2    

        Opublikowano: 2019-03-17 19:32

        Dlatego podstawowa różnica czy masz pathtracing czy też nie. GI jest od dawna.

        Skomentuj

  8. szymcio30
    Oceń komentarz:

    0    

    Opublikowano: 2019-03-17 00:46

    Zgadzam się;)

    Przecież raytracing można było uruchomić np na kartach Pascal !! Jednak to nie znaczy, że będzie działał tak szybko i wydajnie jak na Turingach. Kurcze przecież to było dawno powiedziane, a teraz będą teorie, że NVIDIA oszukuje

    Skomentuj

    1. Eternal1
      Oceń komentarz:

      2    

      Opublikowano: 2019-03-17 00:56

      DEMO było odpalone na Vega56 w 4K@30FPS.
      Podobną mocą dysponuje już Pascal GTX1070/1070Ti.

      Skomentuj

    2. suntzu
      Oceń komentarz:

      0    

      Opublikowano: 2019-03-17 08:41

      Tu jest inna technika raytracingu- jednostki RT nie będą wykorzystywane o ile Crytek nie wykorzysta ich.
      Przewaga TU będzie wynikała jedynie z archi.

      Skomentuj

  9. BariGT
    Oceń komentarz:

    2    

    Opublikowano: 2019-03-17 06:29

    Hurrrrrr durrrrrrrrrrrrrr RT, karty musza byc 2x drozsze niz kiedykolwiek bo jest RT - nowoczesnosc!!!!!111111oneone

    Skomentuj

  10. darioata
    Oceń komentarz:

    -17    

    Opublikowano: 2019-03-17 09:36

    Pokaż komentarz zakopany przez użytkowników

    ''Ray tracing'' dla ubogich i tyle w temacie!

    Skomentuj

    1. Kenjiro
      Oceń komentarz:

      7    

      Opublikowano: 2019-03-17 10:40

      Coś cię boli? Może są na to lekarstwa -> https://f.allegroimg.com/original/03b6aa/fac7a32645cf9d01f178c7936b3f

      Skomentuj

    2. xbk123
      Oceń komentarz:

      5    

      Opublikowano: 2019-03-17 14:20

      Czemu dla ubogich? Te odbicia wyglądają bardzo dobrze. To co masz w BV nie jest doskonałe, z tego co pamiętam w necie znajdziesz sporo filmików pokazujących niedoskonałości i artefakty. I o tym, ile do tego trzeba wybulić na "specjalną", "dedykowaną" kartę nawet nie wspomnę. Ciekawi mnie jak to się rozwinie i czy wypuszczą to demo i będzie można sprawdzić jak to chodzi.

      Skomentuj

    3. mobil12
      Oceń komentarz:

      4    

      Opublikowano: 2019-03-17 15:25

      Szkoda że w swojej zapalczywości w pochwałach dla marketingu zielonych nie bierzesz pod uwagę, że ci "ubodzy" mogą dostać to samo na ekranie co "bogaci", którzy zapłacili frycowe za reklamę :P

      Skomentuj

      1. EH_Gosu
        Oceń komentarz:

        0    

        Opublikowano: 2019-03-17 17:58

        Nie, nie tak to działa. DXR działa na wszystkich kompatybilnych z tą techniką kartach. Natomiast chodzi tutaj o jakość tego działania, że tak to określę.

        Suche demko technologiczne, nijak ma się do gry. Fakt, że Radeon VEGA 56 renderował to demko w 30 fps oraz 4k, jest przyjemny natomiast warto poczekać na to by zobaczyć jak to samo demko obsłuży chociażby RTX 2060, bo ten dzięki jednostkom RT całkowicie zdeklasuje tutaj nawet Radeona VII, czy TITAN Xp. Powiem więcej, w grach z DXR takich jak "Battlefiled V" czy "Metro Exodus", RTX 2060 z włączonym DXR rozjeżdża TITAN V. Akurat świeżo po testach jestem :)

        Trochę ludzie się pospieszyli z wyrokowaniem opinii, za kilka dni będzie GDC 2019 to wiele się wyjaśni.

        Skomentuj

    4. Eyesofthesouth
      Oceń komentarz:

      0    

      Opublikowano: 2019-03-18 09:15

      BUAHAHAHAH, widze ze dales sie nabrac obslizgłej zielonej firmie , kupiłes RTX 2080? Ngreedia powinna nazwac te karty znowu GTX 2080 hahah

      Skomentuj

  11. mobil12
    Oceń komentarz:

    7    

    Opublikowano: 2019-03-17 15:22

    Brawo dla Crytek, skoro AMD sobie z monopolem nie może poradzić :P
    A ja wciąż czekam na przyzwoitą kartę za przyzwoite (realną wartość) pieniądze bez marketingowego bełkotu o RT, tensorach i innych bzdurach.

    Skomentuj

    1. xbk123
      Oceń komentarz:

      2    

      Opublikowano: 2019-03-18 10:55

      Mnie też bawią te tytuły filmików, że AMD ma w końcu swój RT. Jakie AMD? AMD nic w tym kierunku nie zrobiło. To Crytek ma swój RT, w swoim silniku, dostępny do odpalenia na wszystkich kartach. To, że puścili to na AMD nie znaczy, że zrobili to pod AMD. To funkcjonalność dostępna tylko dla silnika CryEngine póki co, który IMO świetny, ale jakoś specjalnie popularny to nie jest. Ale moim zdaniem jakość tych odbić jest bardzo dobra. Chyba, że ktoś zamiast grać chce chodzić z lupą.

      Skomentuj

    2. Juan Sanchez Villa-Lobos Ramir
      Oceń komentarz:

      3    

      Opublikowano: 2019-03-18 11:20

      Musicie się wszyscy wiele nauczyć od JanuszJestem jako jedyny piszę największe komentarze w historii serwisu toż to prawie powieść!nie jakieś tam 3 zdaniowe popierdółki!

      Skomentuj Historia edycji

        1. mobil12
          Oceń komentarz:

          -1    

          Opublikowano: 2019-03-18 22:28

          Nie sztuką jest pisać dużo ... ważniejsze by pisać mądrze.
          Jest takie stare powiedzenie, że dzwon jest głośny, bo w środku pusty ...

          Skomentuj

  12. Blashix
    Oceń komentarz:

    0    

    Opublikowano: 2019-03-18 11:53

    Crysis 4.

    Skomentuj

  13. Dunny
    Oceń komentarz:

    1    

    Opublikowano: 2019-03-18 12:00

    Buahahaha az mi żal tej dzieciarni modlącej sie do nvidii :) RT w ich wydaniu to taki sam hit jak Hairworks ahahahahahahah

    Skomentuj

  14. Ciekawski_
    Oceń komentarz:

    1    

    Opublikowano: 2019-03-18 15:00

    Nie wchodząc w szczegóły. To uniwersalne rozwiązanie jest na pewno lepszym pomysłem niż wchodzenie w dedykowane specjalistyczne jednostki jak u Nvidii.
    Łatwiej tworzyć gry w oparciu o uniwersalne rozwiązania, które pójdą zarówno na PC jak i konsolach, niż tworzyć mocno dedykowane wersje z wykorzystaniem rdzeni RT i bez.

    Skomentuj

    1. awesome1337
      Oceń komentarz:

      0    

      Opublikowano: 2019-03-18 15:25

      ale jedno nie wyklucza drugiego
      nvidia korzysta z standardowej implementacji Ray tracingu dla win10, po prostu wspiera go hardwarem bo inaczej obecnym karta brakuje mocy
      to wszystko działa przez dx12 i konsole też mogą z tego korzystać i jak również karty amd

      to już jest uniwersalne rozwiązanie

      Skomentuj

      1. Ciekawski_
        Oceń komentarz:

        0    

        Opublikowano: 2019-03-18 16:05

        Od strony technicznej tak. Ale nie da się napisać jednego uniwersalnego kodu na RT i bez. Po prostu albo rdzenie RT będą się nudzić albo na GPU bez rdzeni RT gra zacznie bardzo mocno zwalniać w miejscach gdzie przewidziano wykorzystanie pełnej mocy rdzeni RT.
        Można to rozwiązać warunkowo if RT działaj tak else działaj inaczej. Ale wyobraź sobie ile takich miejsc będzie w grze, ile trzeba by testów aby je wszystkie wyłapać. To jest dodatkowy czas i koszty.
        Dużo łatwiej pisać kod od początku zakładający "liniową moc GPU" (bez skoków które dają rdzenie RT).
        No a nikt nie napisze gry na zasadzie "niech ci co nie mają rdzeni RT w GPU (95% po uwzględnieniu konsol) się męczą ze spadkami FPS". W ten sposób praktycznie zabili by sprzedaż gry, gdy w recenzjach pojawiło by się stwierdzenie "bez RTX nie podchodź". Reakcja klientów - w takim razie może kiedyś kupię.

        Skomentuj Historia edycji

          1. Ciekawski_
            Oceń komentarz:

            1    

            Opublikowano: 2019-03-18 19:16

            Ty to chyba masz braki z logiki.
            "Liniowo" było celowo użyte bo chodzi o to, że są różne GPU o różnej wydajności. Chodzi o to żeby nie było tak, że jedna karta jest powiedzmy x1,5 mocniejsza od drugiej, ale dzięki rdzeniom RT w momencie gry w którym "ray tracing" jest mocno wykorzystywany nagle różnica zmieniała się na x10.
            Nie da się tego zrobić inaczej niż przez opcjonalne, zapisane w kodzie, użycie jednostek RT.
            Widać, że ty nie masz pojęcia o programowaniu(instrukcje "if/else" są niemal "beznakładowe" dla współczesnych procesorów w porównaniu z niemal każdą inna linijką kodu, zwłaszcza jeśli sprawdzasz wartość "bool").
            Jeśli zrobisz to inaczej, bez warunkowania to będziesz miał to co napisałem wcześniej:
            "Po prostu albo rdzenie RT będą się nudzić albo na GPU bez rdzeni RT gra zacznie bardzo mocno zwalniać w miejscach gdzie przewidziano wykorzystanie pełnej mocy rdzeni RT."

            Skomentuj Historia edycji

          2. człowiek-taboret
            Oceń komentarz:

            0    

            Opublikowano: 2019-03-19 10:02

            Po pierwsze dostałem bana za słowo "udob*uchać", bo zawiera niecenzuralny wyraz, co pokazuje jak tragiczną walidację tu prowadzą. I oczywiście wszystkie moje komentarze zostały usunięte. Super Benchmark!

            Wracając do tematu...

            Nie rozumiem co ty starasz się tu wytłumaczyć. Po to masz opcje graficzne w grze, żeby dostosować je do swojego sprzętu. Dlatego np RT zaimplementowane w DX12 w bibliotece DXR mimo, że może być liczone przez każdą kartę graficzną jest np w BF5 dostępne tylko kart RTX, bo nie ma sensu używania tych efektów, gdyż żadne inne karty sobie z tym nie poradzą.

            "Ale nie da się napisać jednego uniwersalnego kodu na RT i bez."

            No jak to nie... to jak np wg ciebie pisze się kod na użycie 3 różnych typów AA? Albo Ambient Occlusion? Chcesz mi może powiedzieć, że użycie RT jakoś szczególnie się różni od innych ustawień graficznych, które w różnych miejscach mogą mieć różne wykorzystanie i różnie będą działać na różnych konfiguracjach sprzętowych?

            Zmieniasz jeden parametr w konfigu i program leci zupełnie inną ścieżką tam gdzie powinien. Jak wszystkie karty będą miały moc, żeby obsłużyć jakąś formę RT to nie będziesz miał w grze ograniczeń do kart z serii RTX. A to że teraz takie ograniczenie jest nie znaczy, że kod jest jakoś specjalnie napisany czy duplikowany.

            "Po prostu albo rdzenie RT będą się nudzić albo na GPU bez rdzeni RT gra zacznie bardzo mocno zwalniać w miejscach gdzie przewidziano wykorzystanie pełnej mocy rdzeni RT."

            To nie od dewelopera zależy które rdzenie w karcie graficzne będą liczyć daną rzecz. Właśnie w DX12+DXR chodzi o to, że to sterownik karty rozdziela pracę i jak w przypadku kart z RTX są dostępne specjalne rdzenie to przekieruje dane obliczenia na te rdzenie. Jak nie to nie. Jak AMD będzie miało jakieś swoje rdzenie to biblioteka DXR zostanie odpowiednio zmodyfikowana, żeby odpowiednio komunikowała się ze sterownikiem karty. Twórca gry, nie będzie w kodzie, żadnych ifów pisał. Aktualnie jest jeden globalny w konfiguracji, albo masz kartę RTX albo nie.

            Proponuję ci zapoznać się najpierw jak jest generowana w grze klatka obrazu to może zrozumiesz jak bardzo się mylisz w swoich wyobrażeniach i jakichś ifach.

            Skomentuj Historia edycji

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!