Na topie

AMD potwierdza - karty Navi zadebiutują w przyszłym kwartale [AKT.]

Autor:

więcej artykułów ze strefy:
Karty graficzne

Kategoria: Komputery Podzespoły Karty graficzne Tematyka: AMD Navi Na Topie Producenci: AMD

Producent uchylił rąbka tajemnicy o nadchodzących kartach graficznych z generacji Navi. Wygląda na to, że tym razem planuje zaatakować w średnim segmencie.

  • AMD potwierdza - karty Navi zadebiutują w przyszłym kwartale [AKT.]
A A

Premiera kart graficznych AMD Navi to jedno z najbardziej wyczekiwanych wydarzeń tego roku. Podczas ostatniej konferencji z inwestorami, producent ujawnił kilka nowych szczegółów o akceleratorach.

Nie od dzisiaj wiemy, że kolejna generacja układów graficznych ma bazować na całkowicie nowej architekturze Navi i zostanie wykonana w 7-nanometrowej litografii TSMC. Ostatnie przecieki zdają się również potwierdzać zastosowanie pamięci GDDR6 (przynajmniej w jednym z modeli).

Lisa Su zapowiedziała, że akceleratory Navi zaoferują dużo nowych funkcji. Szefowa AMD nie zdradziła jednak o jakie funkcje chodzi, a zapytana o Ray-tracing odmówiła komentarza, zapowiadając, że więcej szczegółów na ten temat zostanie ujawnionych w późniejszym terminie. Czyżby "czerwoni" mieli jakiegoś asa w rękawie?

AMD - plany wydawnicze GPU

W rozmowie potwierdzono również, że premiera kart nastąpi w trzecim kwartale bieżącego roku. Modele Navi mają uplasować się w segmencie cenowym poniżej Radeona VII (czyli poniżej 699 dolarów/3200 złotych).

Aktualizacja 03.05.2019 17:35

AMD Navi Q3

W najnowszej prezentacji dla inwestorów pojawiły się nowe informacje w temacie kart graficznych Navi. W trzecim kwartale bieżącego roku mają zadebiutować specjalne wersje akceleratorów, które będą napędzać infrastrukturę do grania w chmurze. Czyżby chodziło o usługę Google Stadia?

Niestety, na ten moment nie wiadomo czy w tym samym terminie zadebiutują również konsumenckie modele dla "tradycyjnych graczy".

Źródło: Overclock3D, AMD

Odsłon: 15945 Skomentuj newsa
Komentarze

68

Udostępnij
  1. ARTMAX
    Oceń komentarz:

    14    

    Opublikowano: 2019-05-01 08:38

    Skoro najmocniejsza karta z rodziny Navi ma mieć wydajność GTX 1080 to chyba oczywiste, że będą to karty poniżej Radeona VII ,którego wydajność jest gdzieś pomiędzy RTX 2070 a RTX 2080.
    Pomijając wyniki w Vulkanie, bo choć sam mam RTX'a to przyznam ,że w tym Api wyniki Radka są imponujące.Poza tym Radeon VII ma 16GB HBM2 a Navi ma mieć 8GB DDR6 więc nawet karta na tym samym poziomie musi być tańsza. Osobiście nie wierzę ,że Navi będą jakoś niewiarygodnie tanie. AMD zawsze dopasowuje cenę do odpowiedników konkurencji, nie sugerowałbym się niskimi cenami RX 570,RX 580 ,których AMD naprodukowało masę z myślą o rynku kryptowalut i po prostu muszą się tego towaru pozbyć. Wystarczy spojrzeć na premierowe ceny RX 590 i Radeon VII, trudno je nazwać super okazjami, po prostu dopasowane do cen konkurencji.

    Skomentuj

    1. hokopl
      Oceń komentarz:

      23    

      Opublikowano: 2019-05-01 10:05

      Nie do końca zgodzę się z tym stwierdzeniem:
      "AMD zawsze dopasowuje cenę do odpowiedników konkurencji, nie sugerowałbym się niskimi cenami RX 570,RX 580.
      Wystarczy spojrzeć na premierowe ceny RX 590 i Radeon VII, trudno je nazwać super okazjami, po prostu dopasowane do cen konkurencji"
      Z ceną RX 590 wygłupili się na starcie, ale Radeon VII chyba sam wiesz doskonale że pamięci HBM2 kosztowały około $350 więc to było niemożliwe aby cena była poniżej pułapu RTX 2080.
      1. RTX są przecenione i o tym trąbi cały internet, wykluczając jedynie fanbojów dla których ray-tracing jest wybawieniem lub ludzi dla których cena nie gra znaczenia
      2. Wiesz doskonale jaki jest marketshare Nvidii, a jaki AMD
      3. Co się stało gdy AMD wypuściło pierwsze Ryzeny? Dostaliśmy dobry produkt w bardzo dobrej cenie.
      Już od kilku miesięcy mówi się że Navi będzie bardzo agresywnie wycenione bo tylko w taki sposób AMD może przyciągnąć klienta i zwiększyć swój udział w rynku, a to że seria RTX kosztuje ile kosztuje, to tym bardziej czerwoni mają ułatwione pole do popisu.
      Jaki jest sens wypuszczenia dla przykładu karty o wydajności RTX 2070 w tej samej lub lekko niższej cenie? No tak naprawdę żaden. Aby AMD coś ugrało na rynku GPU, musi wydać produkt wyceniony o wiele korzystniej od konkurencji-to nie jest żadna filozofia tylko prawa rynku. W taki sposób udało im się wrócić na rynek procesorów i to samo chcą osiągnąć z nową architekturą.
      Czy tak się stanie? Poczekamy-zobaczymy.
      Prawda jest jedna, żaden normalnie myślący klient nie chce monopolu czy dominacji przez Nvidię bo jakimi cenami to się kończy, byliśmy w stanie się dowiedzieć podczas premiery i cen RTX 2080 Ti, 2080, 2070 itd.

      Skomentuj Historia edycji

      1. człowiek-taboret
        Oceń komentarz:

        -15    

        Opublikowano: 2019-05-01 10:33

        Pokaż komentarz zakopany przez użytkowników

        "1. RTX są przecenione i o tym trąbi cały internet, wykluczając jedynie fanbojów dla których ray-tracing jest wybawieniem lub ludzi dla których cena nie gra znaczenia"

        A AMD według ciebie to organizacja charytatywna, której celem jest dostarczenie kart graficznych dla najuboższych? Nvidia ustaliła nowe ceny za daną wydajność i nową technologię. Jak AMD będzie miało coś konkurencyjnego to myślisz, że dla jakiejś ideologii będą to rozdawać za pół darmo? Nie wiem jak głupim CEO byłoby trzeba być, żeby nie skorzystać na tym, że już ktoś inny zebrał cięgi za wyższe ceny. Jak będą więcej niż $50 tańsze od porównywalnych wydajnościowo modeli Nvidii to srogo się zdziwię.

        Skomentuj

        1. Kam9000
          Oceń komentarz:

          14    

          Opublikowano: 2019-05-01 12:36

          Wyluzuj chłopie. Nie AMD nie jest organizacją charytatywną, ale tak jak kolega wyżej napisał mają mniejszy udział rynku. Wystawienie kart o podobnej wydajności i podobnej cenie w stosunku do konkurencji tak naprawdę zrobi im więcej szkody niż dobrego. Są niejako zmuszeni do obniżki cen czy tego chcą czy nie, to jest logiczne. Przecież przez ostatnią dekadę (oprócz serii rtx 20x0) każda generacja wiązała się ze wzrostem wydajności i obniżką cen, jedyna różnica jest taka że Nvidia postanowiła tym razem kompletnie zniszczyć tą idee oferując praktycznie tą samą wydajność za taką samą cenę, jednocześnie argumentując to dodanymi rdzeniami do Ray Tracingu, mimo że większość tego nie chce. O cenie RTX 2080ti już chyba lepiej nie wspominać. Niecałe 25% więcej wydajności od 1080ti a cena wyższa o jakieś 75%.
          Powinniśmy trzymać kciuki za AMD bo jak tak dalej pójdzie kupowanie sprzętu na PC zacznie się mijać z celem.

          Skomentuj

          1. człowiek-taboret
            Oceń komentarz:

            -12    

            Opublikowano: 2019-05-01 13:37

            Pokaż komentarz zakopany przez użytkowników

            Trzymanie kciuków (nie robię tego ani dla jednych ani dla drugich) nic tu nie zmienia. Patrz realistycznie. Co z tego, że AMD ma niskie udziały w rynku... to nie jest ekonomicznie dobre posunięcie, aby zalać rynek tanim "szajsem". AMD ma niskie udziały, bo nie ma konkurencyjnego produktu. I sama cena tu nie wystarczy, żeby przekonać potencjalnych klientów do siebie. Jeżeli ich karty znów będą, relatywnie gorsze w poborze prądu, kulturze pracy, OC czy ogólnej wydajności, to rzucenie ich w niższej cenie wcale nie sprawi, że będą mieli większy udział. Wiesz ktoś te karty musi wyprodukować i za darmo tego nie robi.

            Eh co ja tam się będę produkował... zobaczy się już całkiem niedługo.


            "(...) argumentując to dodanymi rdzeniami do Ray Tracingu, mimo że większość tego nie chce."

            A ta większość to kto? Ty i twoi znajomi? Daj panie spokój, RT to krok na przód czy tego chcesz czy nie. Zresztą też zobaczysz za 2-3 lata, jak ogarną to na konsolach, to nagle nikt złego słowa nie piśnie.

            Nvidia dobrze wiedziała, że ma coś czego nie ma nikt inny. Więc sobie sami podyktowali warunki i ustalili ceny za nowość, którą wprowadzają. Wiesz, wolałbym żeby karty były tańsze, ba w ogóle, żeby sprzęt PC był tańszy. No ale rozumiem po prostu jak to działa, jak wprowadzasz innowacje i to jako pierwszy i jedyny to głupim by trzeba było być, żeby z tego nie skorzystać. Tacy jak ty pokrzyczą i pogrożą paluszkiem o jaka korporacja zła, AMD wszystkim pokaże! A AMD to dokładnie taka sama korporacja tylko na zgoła odmiennej pozycji, niezdolna do tego, żeby wytworzyć prawdziwie innowacyjny i konkurencyjny produkt. Ryzen jest ok, ale tylko ok, procesory Intela w dalszym ciągu są konkurencyjne, mimo że nic nie zmienili. Ryzen prześciga Intele tylko w jednym zastosowaniu - wielowątkowość. Co mnie zwykłego konsumenta nie interesuje, na pewno nie konstrukcje 16+ rdzeniowe. W segmencie Pro trochę kasy zgarną... ale czy będą w stanie utrzymać się w takiej tendencji wzrostowej dłużej niż przez najbliższy rok? Po wypuszczeniu przez Intela procesorów w 10nm? Zobaczymy. (oby)

            Natomiast AMD vs Nvidia to zupełnie inna liga. AMD nie sięga nawet do szyi stojąc na taborecie.

            A ja się obawiam, że wraz z Navi ta sytuacja się nie zmieni.

            Skomentuj

          2. człowiek-taboret
            Oceń komentarz:

            -10    

            Opublikowano: 2019-05-01 13:51

            Pokaż komentarz zakopany przez użytkowników

            Jeszcze tylko dodam, że nawet jeśli AMD wyceni swoje karty sporo niżej to pamiętaj, że Nvidia ma z czego schodzić i ostatecznie te różnice w cenie nie będą tak duże.

            A kolejna sprawa to to, że AMD, może nie sprostać popytowi jak karty będą zbyt dobrze wycenione. Co w takim przypadku odniesie przeciwny skutek, patrz boom na kryptowaluty.

            Skomentuj

          3. Kam9000
            Oceń komentarz:

            5    

            Opublikowano: 2019-05-01 14:07

            Czekaj skoro nie cena przemawia za produktem to w takim razie co? Czysto teorytycznie gdyby AMD Wydało kartę o wydajności 1660ti ale jednocześnie o 15% taniej i minimalnie większym poborem prądu to rozumiem że nadal wybierzesz Nvidie? Kultura pracy zależy często od wersji karty jaką kupisz, jeżeli ktoś kupuje najtańszego niereferenta to chyba logiczne że nie będzie odznaczał się taką samą kulturą pracy jak droższe wersje. Ta sama sytuacja zarówno po stronie AMD jak i Nvidii więc o czym mowa? Podkręcalność zwykle i tak zamyka się w 5-10% po obu stronach, jeszcze pozostaje kwestia na jaki silikon trafisz, a to loteria.

            Jeżeli chodzi o Ray Tracing. Jeżeli 3/4 moich znajomych uważa, że nie oferuje nic ciekawego w stosunku do wydajności jaką Ci realnie zabiera, to chyba jednak oznacza że większość przynajmniej w tej próbce (znajomi to jednak znajomi a nie np milion osób) wychodzi na to, że ludzie nie patrzą na to przychylnie (przynajmniej obecnie) i woleli by realny wzrost wydajności w niższej cenie, a nie coś co mogą sobie odpalić w kilku tytułach jednocześnie poświęcając granie w 4k bądz w 144hz+. Chyba ciężko zaprzeczyć że jeżeli rendering z użyciem RT nie stanie się wydajniejszy, to przez następne 5 lat + i tak go nie zobaczysz powszechnie a jedynie w grach opłacanych przez Nvidie, bo konsole tego nigdy nie zaaplikują, a to z myślą o nich są robione gry, a przynajmniej w większości.
            Gdyby to działało tak jak w demie od Crytek'a to jasne, nawet konsole mogłyby z tego skorzystać i wtedy miałbyś małą rewolucję. Ale na chwilę obecną jest to tylko ciekawostka, której ludzie nie chcą, ale jest im narzucana, praktycznie ta sama sytuacja jak z physx, który praktycznie umarł jako coś co miało sprzedawać karty Nvidii i obecnie jest wyliczany przez CPU i w mniej wymagających kwestiach, bo inaczej nie miałby racji bytu. Rozumiesz już problem?

            Nvidia próbuje zareklamować swoje karty jako REWOLUCYJNE tylko przez Ray tracing (pretekst do utrzymania cen), i jak widać skoro dla Ciebie ma to jakąś sporą wartość to chyba im się udało. A jestem prawie pewien że do momentu w którym będę chciał zakupić nową kartę graficzną (czyli pewnie okres 2-3 lat) ray tracing nadal nie będzie popularny lub będzie na tyle zoptymalizowany że ludzie którzy wydali kupę pieniędzy na nowe karty nvidii będą się czuli jak zrobieni w woła, bo będzie działał na większości kart przyzwoicie.

            Skomentuj

          4. awesome1337
            Oceń komentarz:

            0    

            Opublikowano: 2019-05-01 14:38

            > to chyba jednak oznacza że większość przynajmniej w tej próbce (znajomi to jednak znajomi a nie np milion osób) wychodzi na to, że ludzie nie patrzą na to przychylnie

            fajnie tylko ze developerzy gier chca RT bo ułatwia i to robote i to znacznie

            >bo konsole tego nigdy nie zaaplikują, a to z myślą o nich są robione gry, a przynajmniej w większości.

            omineła cie chyba zapowiedz specu playstation 5 gdzie mowa jest o ray tracingu

            xbox gorszy nie bedzie i nie ma opcji żeby brakowału mu RT

            poza tym nie rozumiesz chyba że ray tracing to nie jest technologia nvidi
            w tym momencie działa to przez DXR dla DX12 dla windowsa 10
            KAZDY producent gpu może sie do tego podpiac, to jest standardowa bilioteka dla DX12 czy to nvidia czy amd czy nawet intel za te kilka lat może z tego korzystac, poki co tylko nvidia zdecydował sie na wydanie kart które to wspieraja ale nikt amd nie zabrania, decyzja leży po ich stronie, już samo to kompletnie skresla porowanie do physx

            dodatkowo ponieważ DXR to dzieło microsoftu praktycznie mamy zagwaratnowne że kolejny xbox bedzie rownierz z tego korzystał (nawet jak jakims cudem nie ten next gen, to już napewno kolejny za nim)

            >Gdyby to działało tak jak w demie od Crytek'a

            czyli jak? ale konkretnie, powiedz jaka przewage ma demo cryteka

            Skomentuj

          5. Kam9000
            Oceń komentarz:

            6    

            Opublikowano: 2019-05-01 14:59

            A gdzie jest napisane w zapowiedzi PS5 iż ma coś poza "wsparciem" RT? Ma też wsparcie dla 8k ale gier z taką rozdzielczością to raczej nie zobaczysz. RT jest wpierany przez większość kart graficznych. Jedyna różnica jest taka że Nvidia ma osobne rdzenie, coś na wzór wsparcia sprzętowego, oczywiście jest to wydajniejsze, ale nadal jak widać wolne.
            To chyba normalnie w takim razie że konsole będą go wspierać skoro są na architekturze GCN, która również to wspiera, ale nie sprzętowo.

            Poczytaj sobie przy okazji wypowiedzi starszych programistów z niektórych większych firm developerskich. Wypowiedzieli się iż w obecnej formie ray tracing na konsolach jest po prostu niepraktyczny.
            Albo developerzy tak jak crytek zaprezentował, znajdą sposób, aby lepiej to zoptymalizować, albo nici z Ray Tracingiem na konsolach, a w konsekwencji też i na PC.
            AMD już zapowiedziało wcześniej, że nie mają takich planów jak Nvidia póki nie będzie to opłacalne dla mainstreamu, co oznacza tylko samo wsparcie, ale nic co miałoby zwiększyć wydajność.

            DXR to dzieło microsoftu, które zapewne było współtworzone przez nvidie. Przed zapowiedziami kart z serii RTX ani widu ani słychu o DXR. Zapaliła Ci się czerwona lampka prawda?

            Plus jak to sobie wyobrażasz. Założmy iż konsole będą na tyle mocne żeby osiągać 4k 60fps w każdej grze i nawet będą miały wsparcie sprzętowe dla Ray tracingu.

            Nagle będziesz miał praktycznie marnowanie całej tej mocy i cofnięcie się do ery 1080p 60fps kiedy przez ostatnie 2-3 lata, hasło 4K GAMING CONSOLE. Przewija się wszędzie. Nierealne.

            Jeżeli chodzi u ułatwianie roboty, to jesteś w błędzie, dopóki ray tracing nie stanie się mainstreamem, tak trzeba będzie stosować dalej znane do tej pory sztuczki bo większość tego po prostu nie odpali, a więc nie zagra. Więc skończy się na jeszcze większej ilości roboty dla developerów, co przy rosnących kosztach produkcji, jest nie na rękę.

            Skomentuj

          6. Kenjiro
            Oceń komentarz:

            0    

            Opublikowano: 2019-05-03 20:50

            > fajnie tylko ze developerzy gier chca RT bo ułatwia i to robote i to znacznie

            Bzdura, nawet deweloperzy pisali, że implementacja RTX to dodatkowa i mozolna robota, bo muszą napisać dwa niezależne tory renderingu niektórych/wybranych efektów, bo tylko tyle jest w stanie obsłużyć karta na dzień dzisiejszy.

            Gdyby cały rendering odbywał się z użyciem RT, to nawet na najszybszych obecnie kartach działałby z wydajnością na poziomie pojedynczych fps, a nawet rzec można, że spf (seconds per frame). Tak jak zresztą działają obecne programy do renderingu z użyciem np. CUDA.

            Skomentuj

          7. człowiek-taboret
            Oceń komentarz:

            -12    

            Opublikowano: 2019-05-01 14:57

            Pokaż komentarz zakopany przez użytkowników

            "Czekaj skoro nie cena przemawia za produktem to w takim razie co? Czysto teorytycznie gdyby AMD Wydało kartę o wydajności 1660ti ale jednocześnie o 15% taniej i minimalnie większym poborem prądu to rozumiem że nadal wybierzesz Nvidie?"

            W tej czysto teoretycznej sytuacji tak karta AMD będzie się cieszyła większym zainteresowaniem. Ale takiej sytuacji najprawdopodobniej nie będziesz miał. Bo nie rozumiem z jakiej paki AMD miałoby sprzedawać szczególnie taniej. Poza tym jak dopisałem, ceny kart Nvidii też mogą pójść 5-10% w dół a AMD w nieskończoność obniżać ceny nie będzie bo ich na to nie stać.

            A przy różnicy rzędu 50-100 przy wydatku 1000zł na kartę będą wpływać takie czynniki jak dostępność, czy bonusy dodawane do karty. Czy też jakość konkretnych modeli niereferencyjnych w danym przedziale wydajnościowym.

            Z twoją teoretyczną sytuacją jest problem taki, że jest życzeniowa, bo ja mogę zapytać, a co jeśli będzie karta o wydajności 1660Ti o 15% tańsza, ale tylko w przypadku najtańszych najuboższych modeli niereferencyjnych, których pobór prądu czy kultura pracy znacznie odstaje. Bez możliwości OC, bo się ugotuje. Też wybierzesz AMD?

            Można się tak wymieniać jakimiś wymyślonymi przykładami w nieskończoność. Co nie ma sensu, bo mi chodzi o to jaka jest faktycznie realna sytuacja a nie to co ty byś sobie wyobrażał co by było gdyby.


            "bo konsole tego (RT) nigdy nie zaaplikują"

            A to ciekawe dlaczego Sony o nim wspomina przy zapowiedziach PS5...

            Czy 3/4 twoich znajomych ma te RTXy? Czy taką po prostu sobie opinię wyrobili?

            Twoja argumentacja odnośnie RT jest bezsensu... Równie dobrze mogę powiedzieć, że wszyscy co kupili CS'a zostali zrobieni w wała, bo teraz to darmowa gra. Ba w ogóle wszyscy którzy kupują gry na premierę a nie po roku to idioci, bo po roku można dostać na przecenie taniej. Ba nawet ty dałeś się zrobić w konia, bo większość rzeczy które kupiłeś rok czy dwa lata temu teraz jest tańsza lub lepsza. Otóż nie, jak ktoś się decyduje na zakup tu i teraz, korzysta z zakupionego towaru czy usługi tu i teraz. Kiedy ty czekasz na swoją "tańszą" kolej.

            I zapewniam cię, że wszyscy których znam, którzy kupili sobie kartę RTX są zadowoleni z wydajności i czekają na kolejne tytuły z RT, które zapewne przyjdą w ciągu tego czy następnego roku.

            Skomentuj

          8. kitamo
            Oceń komentarz:

            0    

            Opublikowano: 2019-05-01 13:51

            @kam9000 czekaj czekaj, chcesz mi powiedziec ze seria 20x0 jest tak samo wydajna jak 10x0?
            Chyba przespałem coś ale z mojej praktyki wynika że jednak jest nieco inaczej i wydajnosc RTX względem GTX pascala to jakies 35-40% w samym 4k więc jak mozna mowic ze tym razem NV nie dała kart wydajniejszych?
            Roznica jest dokłądnie takka sama jak w przypadku poprzednich generacji czyli np 980ti vs 1080ti.

            https://www.youtube.com/watch?v=ZtfPqNzqJqA

            https://www.youtube.com/watch?v=4q12IYZgmyw


            https://www.youtube.com/watch?v=s4cbUUOiAK8

            No jesli nie widzisz roznicy w wydajnosci to faktycznie.

            Skomentuj Historia edycji

          9. Kam9000
            Oceń komentarz:

            7    

            Opublikowano: 2019-05-01 14:41

            Nie, mówię że za taką samą cenę dostaniesz taką samą wydajność jaką miałeś 2 lata temu z poprzednią generacją w wyższym segmencie, jedyne co dostajesz to rdzenie RT.
            Zauważ że 980ti oraz 1080ti na swoich startach kosztowały tyle samo, ale miałeś wzrost wydajności i to spory. Teraz 2080 o prawie identycznej wydajności co 1080ti kosztuje dokładnie tyle samo. Wzrostu nie ma, praktycznie wcale.
            RTX 2080ti jasne jest wzrostem wydajności ale maks do 30%, w niektórych grach różnice są znacznie mniejsze. Kosztuje ona grubo ponad 50% więcej.
            Kompletnie omijasz fakt że nvidia reklamą niechcianego przez większość osób RT, dała sobie pretekst do utrzymania cen. 2 lata i zero, powtórzę zero zwiększenia wydajności w stosunku do ceny w wyższym segmencie. Jeżeli według Ciebie nowa generacja powinna tak wyglądać to rozumiem że byłbyś szczęśliwy gdyby trzeba było jeszcze w następnej generacji wydać kolejne to 2000zl na następne średnie 25% przyrostu wydajności? Mnie to raczej niepokoi.

            Skomentuj

          10. blebleble
            Oceń komentarz:

            -7    

            Opublikowano: 2019-05-01 16:06

            Kam9000

            RayTracing to przełomowa technologia w grach.

            Dla takich Ameb jak Ty mam jedną propozycję.

            Idź do sklepu i kup sobie Sudoku.

            Skomentuj

          11. Eternal1
            Oceń komentarz:

            5    

            Opublikowano: 2019-05-01 16:20

            @ blebleble
            Kompletnie mordować wydajność w grze dla ledwie jednego subtelnego efektu graficznego i to za grubą kasę - gdzie za cenę samej karty grafiki można by postawić całego przyzwoitego PC-ta (albo kilka konsol).
            Widać marketingowe pranie mózgu na niektórych działa w pełni skutecznie.

            Skomentuj

          12. kitamo
            Oceń komentarz:

            2    

            Opublikowano: 2019-05-01 16:22

            @Eternal1 no tak bo AMD powiedziało że nie będa bawić się w RT bo to bez sensu.
            Jak za 3 lata obudza się z kartami do RT to pewnie bedziesz pierwszy pisał o tym jakie to było potrzebne i przełomowe.
            Gdzie jest vulkan się pytam? miał byc w 2017 roku wszechobecny w grach.
            Wszystkie karty AMD miały przyspieszac wraz z wiekiem a NV zwalniac przeciez dzieki vulkanowi :)

            Skomentuj Historia edycji

          13. blebleble
            Oceń komentarz:

            -4    

            Opublikowano: 2019-05-01 16:32

            Eternal1

            Następna bezmózga Ameba.

            Jeśli to dla ciebie subtelny efekt to tak samo proponuję ci kupić Sudoku.

            Masz. Poczytaj sobie.

            Cienie, światło i rozbłyski. Jak ray tracing zmieni oblicze gier.

            https://naekranie.pl/artykuly/cienie-swiatlo-i-rozblyski-jak-ray-tracing-zmieni-oblicze-gier

            Skomentuj Historia edycji

          14. kitamo
            Oceń komentarz:

            2    

            Opublikowano: 2019-05-01 16:18

            @KAM9000 ale chlopie, nie patrz na to co było kiedys.
            Kiedys masło kosztowało 3,50zł a dzisiaj 6,50 a jest to to samo masło.

            Kiedys karty topowe kosztowały 1200zł i chocbys chciał dac 5000zł za topową karte to jedyne co mogłes zrobić to dokupić druga i sobie SLI zrobic bo wydajniejszych juz nie było.

            TO nie jest tak że dostaniesz rok w rok fps/$ i wspolczynnik bedzie taki sam. Nie da sie.
            AMD pomimo że ledwo co wlecze się na tym polu tak samo ma wyzsze ceny w stosunku do oferowanej wydajnosci.

            Średnia krajowa tez wzrosła w stosunku do tego co było 3 lata temu jak pojawił się pascal. Prąd tez kosztuje wiecej, wszystko kosztuej wiecej. Na szczescie ramy chociaz spadły ;)

            Skomentuj

          15. Kam9000
            Oceń komentarz:

            4    

            Opublikowano: 2019-05-01 17:17

            Vulkan nie jest rozpowszechniony dlatego że:
            - Trzeba się go nauczyć, jest bardziej skomplikowany niż nasze kochane DX11, które zna praktycznie cały rynek
            - Konsole mają procesory niskiej wydajności, tabletowej wręcz, vulkan ma głównie odciążyć procesor, ale jaki jest sens kiedy większość braci pecetowej (mówię tu o typowych gamerach, a nie o niedzielnych graczach counter strike'a na laptopie za 2500zl) ma komputery (w tym procesory) na tyle potężne że nawet pisząc gry pod DX11 osiągana jest zadowalająca wydajność (z pewnymi wyjątkami- assassin creed np.)
            - Koszty produkcji gier rosną, teraz wyobraź sobie że musiałbyś wydać jeszcze więcej pieniędzy żeby Twoi programiści ogarnęli nowe rozwiązanie, kiedy możesz wykorzystać fakt że wydanie gry na Dx11 jest tańsze a i tak to jakoś zadziała.

            Wszystko rozchodzi się o pieniądze.

            Prawdopodobnie popularność DX12 oraz Vulkana się zwiększy dopiero po premierze następnej generacji konsol, bo tam procesor już będzie znacznie wydajniejszy, więc odwalenie portu na Dx11 jako tako żeby działał już nie przejdzie, albo nie tak jakbyśmy sobie tego życzyli.

            Nie wiem kiedy AMD doda sprzętowe wsparcie dla RT, nie jestem jasnowidzem, ale jeżeli nie kłamali to zapewne wtedy kiedy będzie to tańsze, lepiej rozpowszechnione i zapewne wydajniejsze niż obecnie.
            Czy konsole będą coś takiego mieć? Ja wątpię, ale to Sony i Microsoft ustalają co chcą tam mieć, na razie wiadomo że to obsługują, czyli jak większość kart graficznych i tyle. Nie jestem jasnowidzem tylko podchodzę realistycznie do tego tematu.

            Nie bardzo rozumiem co ma sytuacja ekonomiczna w Polsce do faktu że producent nagle w tej generacji sprzedaje to same za tyle samo mimo 3 lat rozwoju technologicznego? Taka sama sytuacja jest na zachodzie. Dolar chyba wzrósł od tamtego czasu o zaledwie 0.1? Więc tutaj też nie szukałbym winy. Dodatkowo marketingowo chyba im się powodzi, skoro ludzie tak tego bronią.

            @blebleble
            Wiem co to jest Ray tracing, to nie jest żaden przełom, jest już od dawna, wiem na czym polega, 100% ray tracingu to my jeszcze w grach nie zobaczymy przez wiele lat.
            Dostaliśmy namiastkę RT w grach komputerowych, która dodatkowo musi łączyć stare i nowe rozwiązania żeby to w ogóle działało, to nie jest jakaś czarna magia. Jakością do prawdziwego RT się to nie umywa tak czy siak. Gdyby nie ten marketing, który każdemu próbuje wmówić że to jest przyszło

            Skomentuj

          16. kitamo
            Oceń komentarz:

            -2    

            Opublikowano: 2019-05-01 17:34

            @Kam9000 ze jak? trzeba się go nauczyc?
            Nie nie nie:) nie dlatego jest nierozpowszechniony - powód jest zupełnie inny.
            Powodem dla którego nie jest popularny jest powód dla którego powstał.
            Powstał nie po to by graczom było dobrze - powstał dlatego by zamarkować problem z jakim borykało się AMD.

            Wada Vulkana jest prozaiczna - po prostu wszyscy korzystają z directx bo jest to bardzo rozbudowane API i ma bardzo szeroki asortyment jesli chodzi o bliblioteki.
            Vulkan tutaj sie nie przebije.
            Directx działa wydajnie na NV od samego poczatku, AMD ma udział rynkowy znacznie słabszy a więc nie ma powodu by developerzy pisali silniki gier pod vulkana.

            Zauważ że brakuje na rynku silników DX12 z prawdziwego zdarzenia które też cechują się odwołaniami na najniższym poziomie i zapewniaja podobne rezultaty w wydajnosci co vulkan.

            Dlatego juz w 2016 roku po premierze polarisa pisałem że własnie tak skonczy vulkan podczas gdy rzesza fanów AMD rozpływała się w marzeniach o tym jak to vulkan zmieni swiat gamingu i bedzie dostepny juz po 2017 roku w kazdej grze.
            Tyle vulkana widzieli.

            Nie mowie tez o sytuacji ekonomicznej w Polsce - na calym swiecie sytuacja jest podobna.
            Wszedzie wszystk drożeje a nie tanieje.

            Skoro wszyscy chca miec zyski a nie straty to siłą rzeczy wszystko musi drożec.
            Produkcja nie tanieje - tez rosną koszta własne, a więc produkt finalny musi wiecej kosztowac.

            Wez pod uwagę ile zarabiało się w PL 10lat temu a ile zarabia się dzisiaj.
            Było by nierozsądne gdyby topowa karta graficzna kosztowala dzisiaj tyle ile kosztowała topka 10lat temu.

            Skomentuj Historia edycji

          17. gormar
            Oceń komentarz:

            3    

            Opublikowano: 2019-05-01 18:06

            Do Kitamo. Tu nie chodzi o sytuację, która była dwa lata wcześniej a o wszystkie poprzednie premiery kart graficznych, gdzie wydajność wzrastała a cena odpowiadała kartom z poprzedniej generacji o jeden segment niżej. Już nie mówiąc, że to nie ma nic wspólnego z inflacją, gdyż takie porównanie można było zrobić dla kart z poprzedniej generacji i ich cen tuż przed premierą nowego sprzętu. To właśnie Nvidia RTX złamał tę regułę.

            Skomentuj Historia edycji

          18. kitamo
            Oceń komentarz:

            -3    

            Opublikowano: 2019-05-01 18:22

            ehh, przeciez od czasów Maxwella segmenty się zmieniły juz przy pascalu .Halooo :)
            GTX 1070 to nie był odpowiednik GTX970 z poprzedniej generacji.
            dlatego kalkulacje się Wam nie zgadzaja.


            Od Pascala segmenty sa pozmieniane i będa dalej zmieniane bo teraz utrzymywane będzie zarowno GTX jak i RTX zapewne.

            Skomentuj

          19. gormar
            Oceń komentarz:

            3    

            Opublikowano: 2019-05-01 20:39

            Kitamo, nieco źle napisałem. Powinno być: we wszystkich poprzednich dużych premierach cena pozostawała na podobnym poziomie a wydajność wzrastał do poziomu odpowiadającemu segment wyżej. Tak dokładnie było w przypadku premiery GTX 10x0 jak i poprzednich GTX 9x0.

            A teraz co mamy? Cena wyższa o 10% i wydajność o tę samą wartość (1060 vs 1160). A 1160 Ti ledwie dochodzi do 1070.
            https://www.pcgamer.com/nvidia-geforce-gtx-1660-review/

            Skomentuj Historia edycji

          20. kitamo
            Oceń komentarz:

            -2    

            Opublikowano: 2019-05-02 10:04

            "Early benchmarks show that the GTX 1660 has about a 20% lower effective speed than the 1660 Ti, but with an entry price of $219 USD, the 1660 is also about 20% cheaper. Further, the 1660 has a 12% effective speed advantage over the ~$230 USD 6GB 1060 and a similar real world effective speed to AMD's $265 USD RX 590. NVIDIAs strategy of offering great value Turing products at all price tiers can only be good for competition and consumers. [Mar '19 GPUPro]"

            1160 jest szybszy i jednoczesnie tanszy niz 1060 ;)
            To zamiennik za 1060 a nie jego nastepca.
            1160TI jest minimalnie drozszy ale tez znacznie wydajniejszy.
            Nastepca dla 1060 jest dopiero 2060 który jest droższy od tych wymienionych powyzej nawet o 45-60%

            Skomentuj

      2. Sharimsejn
        Oceń komentarz:

        2    

        Opublikowano: 2019-05-01 13:34

        Mimo posiada drugiej grafiki od AMD nie wybiorę kolejnej od nich, chyba że nastąpi przełom. Po co mam kupować RX 480 8gb jak za tą cenę mogę mieć gtx 1060 6gb, które wygrywa w większości tytułów. Dla mnie jako gracza liczą się tylko fps w grach bo do tego mi głównie służy karta. Nigdy nie byłem fanem jakiejś konkretnej marki. Jestem świadomym konsumentem po prostu.

        Skomentuj

        1. hokopl
          Oceń komentarz:

          0    

          Opublikowano: 2019-05-01 16:16

          "Po co mam kupować RX 480 8gb jak za tą cenę mogę mieć gtx 1060 6gb.
          Jestem świadomym konsumentem po prostu."
          No sorry, ale ja na ceneo czy skąpcu nie widzę żadnego RX 480 w sprzedaży, a RX 580 który go zastąpił, ma taką samą wydajność jak GTX 1060 6GB i kosztuje min. 100-150zł mniej ( 8GB vs 6GB )
          Tak więc jak na "świadomego konsumenta", chyba coś się pogubiłeś

          Skomentuj

          1. kitamo
            Oceń komentarz:

            1    

            Opublikowano: 2019-05-01 16:21

            Czyli mowisz mu ze ma czekac rok albo dwa z zakupem pascala bo AMD potrzebuje roku na to by dopracowac polarisa i zrobic z niego 580tke?
            Serio?

            Przeciez on kupił to po premierze a nie wczoraj.

            Skomentuj

          2. Sharimsejn
            Oceń komentarz:

            1    

            Opublikowano: 2019-05-02 16:32

            Chłopie, chyba logiczne, że mówię o momencie kiedy rx480 i gtx 1060 pojawiły się na rynku, a nie teraz kiedy mało kto to kupuje już. Geez.

            Skomentuj

  2. awesome1337
    Oceń komentarz:

    6    

    Opublikowano: 2019-05-01 09:11

    poor Volta

    Skomentuj

    1. Eternal1
      Oceń komentarz:

      8    

      Opublikowano: 2019-05-01 10:28

      A niedługo potem nVidia anulowała premierę owej Volty. Historia się kłania.
      Jeśli firma odwołuje premierę bądź nagle mocno odwleka ją w czasie, zwykle coś jest "poor".

      Skomentuj

      1. awesome1337
        Oceń komentarz:

        6    

        Opublikowano: 2019-05-01 10:48

        anulowała premiere czego?

        volta istnieje w segmencie pro, nigdy nie była zapowiadana jako karty geforce, wiec nvidia nie mogła anulowac czegos czego nigdy nie zapowiadała wiec rzeczywiście "Historia się kłania" lol

        zreszta nawet to pomijając to hasło "poor volta" powstało zanim wyszła oficjalna zapowiedz volty dla pro, amd zakładało ze tak się bedzie nazywała kolejna generacja kart dla graczy

        >zwykle coś jest "poor".

        mhm, to dlatego titan v jest gorszy od vegi64, ma to sens

        Skomentuj

        1. Eternal1
          Oceń komentarz:

          8    

          Opublikowano: 2019-05-01 11:05

          nVidia anulowała "Voltę dla graczy" co w praktyce oznaczało znaczne odsuniecie premiery w czasie.

          Samo hasło padło w spocie reklamowym - adekwatnie - gaming-owych wersji GPU Vega.

          Skomentuj

          1. awesome1337
            Oceń komentarz:

            4    

            Opublikowano: 2019-05-01 11:14

            >nVidia anulowała "Voltę dla graczy" co w praktyce oznaczało znaczne odsuniecie premiery w czasie.

            pokaż mi chociaż slad oficjalnej zapowiedzi i potem anulowania volty dla graczy

            i jakie odsuniecie premiery w czasie skoro te karty w lini geforce sie nigdy nie pojawiły?

            wiemy za to ze i tak były by wydajniejsze niż vega wiec skad twój wniosek ze były "poor" ?

            (a wiemy bo karty pro bazuja na tych samych gpu -GV100 - co te dla graczy, titan V to była by Volta XX80ti tylko pewnie z ggdr6)

            Skomentuj

          2. Eternal1
            Oceń komentarz:

            9    

            Opublikowano: 2019-05-01 12:34

            "Volta dla graczy" została dość wcześnie anulowana, w jej miejsce miał się potem pojawić Ampere i no pojawił się, tyle że nazywa się Turing. Posiada tensory spotykane dotąd jedynie w kartach PRO oraz kosztuje tyle co karta klasy PRO.
            Jakieś skojarzenie z Voltą?

            Skomentuj

          3. awesome1337
            Oceń komentarz:

            1    

            Opublikowano: 2019-05-01 12:49

            >Jakieś skojarzenie z Voltą?

            zadne, to kompletnie inna architektura i wyraznie to widac w tym jak zbudowane sa SM w turingu a jak w volcie czy pascalu

            i albo dobrze o tym wiesz i trollujesz albo nie wiesz wiec w ogole po co komentujesz ?

            >"Volta dla graczy" została dość wcześnie anulowana

            czekam na linka w ktorym nvidia mowi cokolwiek na ten temat

            >kosztuje tyle co karta klasy PRO.
            no rzeczywiscie RTX 2060 stoi za 3k USD, każdy to wie

            ale zeby za bardzo nie zbaczac z tematu, twoim zdaniem volta miała rzeczywiscie być poor

            fakt jest taki że nie jest bo znamy wydajnosc tych kart

            jeżeli uwazasz inaczej to pokaz mi jakikolwiek benchmark ktory to pokazuje np. stała przewage vega 64 vs titan v

            Skomentuj Historia edycji

          4. Eternal1
            Oceń komentarz:

            3    

            Opublikowano: 2019-05-01 13:20

            Turing jest tym czym wiele miesięcy wcześniej miała być "Volta dla graczy". To jakieś ogniwo pośrednie pomiędzy Voltą PRO (rdzenie tensor) a Pascalem (optymalizacja i kastracja pod gaming dla obniżenia TDP).

            O Volcie dla graczy mówiło się szeroko w branży przez jakiś czas, wystarczy wpisać w wyszukiwarce oczywiste sława kluczowe.

            >"no rzeczywiscie RTX 2060 stoi za 3k USD, każdy to wie"
            Widząc mizerną wydajność RT najdroższego modelu (68 tensr), o wydajność RT w 2060 nawet nie pytam (30 tensr).

            Skomentuj

          5. awesome1337
            Oceń komentarz:

            1    

            Opublikowano: 2019-05-01 13:35

            >Turing jest tym czym wiele miesięcy wcześniej miała być "Volta dla graczy". To jakieś ogniwo pośrednie pomiędzy Voltą PRO (rdzenie tensor) a Pascalem (optymalizacja i kastracja pod gaming dla obniżenia TDP).

            nie, volta wprowadziła tensor cores które nie są potrzebne w kartach dla graczy o ile jednoczesnie nie mamy tez RT cores, które wprowadził dopiero Turing (bo sa używane do denoisera w ray tracingu)
            a Turing jest nowa architektura, to widac jak tylko spojrzy sie na budowe GPU

            >>"no rzeczywiscie RTX 2060 stoi za 3k USD, każdy to wie"
            Widząc mizerną wydajność RT najdroższego modelu (68 tensr), o wydajność RT w 2060 nawet nie pytam (30 tensr).

            zdecyduj się, dopiero co pisałes o tensor cores

            czekam na te benchamrki vegi vs titan v

            daruj sobie odpowiadanie jak nie pokażesz benchamrka mi który udowadnia ze volta była niewypałem

            Skomentuj

          6. Eternal1
            Oceń komentarz:

            1    

            Opublikowano: 2019-05-01 16:12

            >"daruj sobie odpowiadanie jak nie pokażesz benchamrka mi który udowadnia ze volta była niewypałem "

            Czytaj ze zrozumieniem.
            Chodziło o Voltę dla graczy a sam tekst pojawił się gdzie? Podczas spotu reklamowego kart dla graczy.
            Więc nie mieszaj do tego Volty PRO.

            Skomentuj

          7. kitamo
            Oceń komentarz:

            1    

            Opublikowano: 2019-05-01 16:34

            @eternal co Ty wymyslasz za legendy.

            Przeciez RT które jest w Turingu to cos zupelnie innego niz to co ma Volta :D
            Zupelnie inne zastosowanie.

            Poor Volta to był marketingowy BS i kazdy dobrze to wie. TO było w 2017roku i zaloze się ze AMD dobrze wiedziało że nie bedzie i tak Volty dla gamingu.
            Samo nawet Poor Volta nie wiadomo czy pochodzi od PRowcow AMD czy tez nie jest dziełem fanmade.
            Ogarnij sie troche bo w tym trollingu to juz nawet sie gubisz.

            Skomentuj

          8. awesome1337
            Oceń komentarz:

            2    

            Opublikowano: 2019-05-01 16:37

            nie ma czegos takiego jak volta dla graczy
            ale możemy dosc precyzyjnie okreslic jej teoretyczna wydajnosc bo wyszły karty z segmentu pro

            amd wywaliło debilna kampanie marketingowa i tyle (przynajmniej pozbyli sie osoby za nia odpowiedzialnej)

            Skomentuj

          9. kitamo
            Oceń komentarz:

            -1    

            Opublikowano: 2019-05-01 17:22

            Z Ampere będzie dokładnie tak samo - wyjdzie Ampere jako GPU do zastosowan tylko profesjonalnych (superkomputery itp) i nie będzie wersji dla graczy.
            Dla graczy bedzie oddzielna architektura ktora bedzie czerpala pewien element z Ampere (bo to co bedzie w ampere nie bedzie uzyteczne dla graczy tak jak jest w Volcie).

            Pisałem juz długo przed pojawieniem sie RTX że NV słusznie bedzie utrzymywała kilka nazewnictw dla swoich kart i to sie sprawdza. SAm fakt ze wprowadzili dodatkowo RTX do istniejącego juz GTX i utrzymuja jak widac GTXa przy zyciu jako odrebna linię dla graczy.
            Ma to teraz sens.

            Skomentuj

  3. n4zgul
    Oceń komentarz:

    4    

    Opublikowano: 2019-05-01 09:37

    Trzeba czekać na next-gen Navi+ w 2020 to wtedy może po konkurują z 2080ti , ale wtedy to już zieloni będą szykować 3080ti i znów amd głęboko w d... :D

    Skomentuj

    1. Eternal1
      Oceń komentarz:

      12    

      Opublikowano: 2019-05-01 10:34

      Jeszcze nie ma ani jednego GPU z tą architekturą na rynku a Ty już wieścisz porażkę jej dalszej iteracji. Wróć na Ziemię i ogarnij się.

      Skomentuj

      1. człowiek-taboret
        Oceń komentarz:

        -14    

        Opublikowano: 2019-05-01 12:33

        Pokaż komentarz zakopany przez użytkowników

        Mam nadzieję, że też będziesz się stosował do tego co napisałeś i nie będziesz wyrokował na podstawie swoich przypuszczeń i pisał debilnych komentarzy o jakichś backdoorach itd.

        Skomentuj

        1. Eternal1
          Oceń komentarz:

          5    

          Opublikowano: 2019-05-01 12:50

          Układy Core są dziurawe jak ser szwajcarski, można się włamywać i kraść dane na dziesiątki sposobów. Wiele z podatności można wykorzystać zdalnie, wiele w ogóle nie można połatać. Jazda bez trzymanki.

          W kwestii podejścia do mechanizmów zabezpieczeń danych, zarówno AMD, ARM i IBM w swoich odmiennych architekturach procesorów stoją wiele poziomów wyżej nad Intelem.

          Zrozum, każdy ma prawo do błędów, lecz to jak intel potraktował kwestie bezpieczeństwa w swojej architekturze już nawet nie mieści w kategoriach fuszerki. Taka nawałnica podatności i dziur może być jedynie celowym działaniem.
          Pozdrowienia z Izraela (gdzie powstał Core).

          Skomentuj

          1. awesome1337
            Oceń komentarz:

            4    

            Opublikowano: 2019-05-01 13:01

            >Pozdrowienia z Izraela (gdzie powstał Core).

            xD wiadomo, wina illuminati

            Skomentuj

          2. człowiek-taboret
            Oceń komentarz:

            -10    

            Opublikowano: 2019-05-01 14:00

            Pokaż komentarz zakopany przez użytkowników

            Tak Żydzi, Illuminati, Masoni, Reptilianie i szczepionki z autyzmem. O AMD czy ich produktach nie można nic powiedzieć, bo są święci i nie wolno przede wszystkim wyciągać jakichkolwiek wniosków na podstawie przecieków, bo to za wcześnie rokować. Ale o Intelu czy Nvidii można powiedzieć wszystko i zawsze i w 99% na pewno to będzie prawda. Nawet jak nie będzie to pewnie ktoś ukrywa tą prawdziwszą prawdę.

            Takiego fanboya jak ty to jeszcze nie widziałem.

            Skomentuj

          3. kitamo
            Oceń komentarz:

            -3    

            Opublikowano: 2019-05-01 18:19

            tak tak ,mozna się włamywac na miliardy sposobow - włam się chociaz na jeden.

            Skomentuj

          4. człowiek-taboret
            Oceń komentarz:

            -9    

            Opublikowano: 2019-05-01 18:40

            Stary, on się już tam włamał i wyszedł backdoorem.

            Skomentuj Historia edycji

    2. hokopl
      Oceń komentarz:

      3    

      Opublikowano: 2019-05-01 12:36

      "Trzeba czekać na next-gen Navi+ w 2020 to wtedy może po konkurują z 2080ti"
      Gdyż większość ludzi wydaje 5 tys. zł na GPU....
      :)

      Skomentuj

  4. człowiek-taboret
    Oceń komentarz:

    -14    

    Opublikowano: 2019-05-01 09:37

    Pokaż komentarz zakopany przez użytkowników

    "Wygląda na to, że tym razem planuje zaatakować w średnim segmencie."

    A czy ktoś się spodziewał kart wydajności 2080? lul


    "Szefowa AMD nie zdradziła jednak o jakie funkcje chodzi, a zapytana o Ray-tracing odmówiła komentarza, zapowiadając, że więcej szczegółów na ten temat zostanie ujawnionych w późniejszym terminie. Czyżby "czerwoni" mieli jakiegoś asa w rękawie?"

    Ta, teraz ludzie będą kręcić hype, co to AMD nie ma w rękawie a potem znów wyjdzie RX680 w Cross-Fire, żeby zrównać się z RTX 2070.
    Wierzcie mi chciałbym, żeby było inaczej, ale w ich karty graficzne nie wierzę.

    Co do RT od AMD... to zapewne mają jakieś softwarowe rozwiązanie, z którego i tak nikt nie będzie korzystał (vide Vulkan).

    Skomentuj

  5. PITUCH3
    Oceń komentarz:

    -1    

    Opublikowano: 2019-05-01 12:22

    Co tak mało slajdów ?
    Zanim navi to VEGA i 32GB :P
    Ale po co to wszystko jak i tak z 300W nie schodzi :P
    Czyli pierwsze low end 250W a high 500W ?
    pdziękuję

    Skomentuj

    1. Eternal1
      Oceń komentarz:

      1    

      Opublikowano: 2019-05-01 16:28

      Produkt jeszcze nawet nie wyszedł na rynek a już zlatują się ociemniali umysłowo i z pełnym przekonaniem przewidują przyszłość przy kompletnym braku danych, wedle własnego "widzi mi się". Ludzie co z Wami? 0_0

      Jeśli spojrzeć na wpływ konkretnych grup społecznych na zbiorową kolektywną świadomość Ziemi, ze ogromnym smutkiem przyznaję że społeczność graczy znacznie zaniża średnią.

      Skomentuj

      1. człowiek-taboret
        Oceń komentarz:

        -8    

        Opublikowano: 2019-05-01 16:56

        Nie chce mi się ciebie cytować... ale pie... stary aż żal to czytać. Wyliczanek, spekulacji i wyciągania wniosków z czapy to ty tutaj przodujesz.

        Skomentuj

      2. PITUCH3
        Oceń komentarz:

        -1    

        Opublikowano: 2019-05-02 22:12

        popatrz na slajdy AMD jakie spekulacje :P
        300W nie schodzi :P

        Skomentuj

  6. jungle1804
    Oceń komentarz:

    -2    

    Opublikowano: 2019-05-01 13:23

    Niech amd chociaż porządne procesory wypuści i już będzie dobrze. W kwestji GPU nie mają szans z nvidia na razie.

    Skomentuj Historia edycji

  7. lkozierowski
    Oceń komentarz:

    7    

    Opublikowano: 2019-05-01 16:15

    sam mam RTX'a 2080 Ti, zapłaciłem za niego tyle, że sam dziwię się swojej głupocie...jak ja bym chciał, żeby AMD wydało jakieś topowe karty,....

    Skomentuj

    1. Eternal1
      Oceń komentarz:

      3    

      Opublikowano: 2019-05-01 16:30

      Not this time. TOP-owe NAVI pojawią się później, na przełomie 2019/2020 albo w 2020.
      Na razie AMD-RTG będą atakować MidRange a to zdecydowanie największy segment rynku.

      Skomentuj

      1. człowiek-taboret
        Oceń komentarz:

        -9    

        Opublikowano: 2019-05-01 16:58

        Będą atakować, a Nvidia zapowie kolejną generację RTX, która poskłada wszystkie te ataki zanim zostaną wyprowadzone.

        Nie wiem jak tak można ślepo iść za słabszym i jeszcze wciskać innym, że słabszy jest lepszy.

        Skomentuj Historia edycji

        1. gormar
          Oceń komentarz:

          2    

          Opublikowano: 2019-05-01 18:09

          Jeżeli słabszy wydajnościowo produkt oferuje lepszy stosunek możliwości do ceny to nie widzę problemu, aby go polecić.

          Skomentuj

          1. człowiek-taboret
            Oceń komentarz:

            -7    

            Opublikowano: 2019-05-01 18:38

            No i komu go polecisz? Komuś kto oczekuje konkretnej wydajności? Nie wiem jak ty, ale ja jak mam coś kupić to wybieram to co spełnia moje zapotrzebowania, a nie bo ma trochę lepszy współczynnik ceny do możliwości.

            - Pociągnie to 4k?
            - Nie, ale ma lepszy stosunek ceny do wydajności.
            - Aha...

            Jizas skąd tacy ludzie się biorą...

            Skomentuj

          2. kitamo
            Oceń komentarz:

            -2    

            Opublikowano: 2019-05-02 09:59

            @gormar - maluch ma lepszy stosunek wydajnosci do ceny niz lamborghini ale to nie oznacza ze nikt nie kupi lamborghini i ze nie jest ono tego warte.

            Jak bys chciał skorzystac z RT to na AMD tego nie zrobisz i chocby było tansze 10 krotnie to i tak dalej jest nieoplacalne.

            Skomentuj

          3. Eternal1
            Oceń komentarz:

            1    

            Opublikowano: 2019-05-04 00:04

            @! Kitamo
            "Maluch"? "Lamborgini"? Popadasz w bezsensowne skrajności.
            Nikt nie stawia RyzenMobile 15W "U" z ThreadRipperem czy EPYC-em porównując opłacalność skoro, no litości.

            Skomentuj

          4. kitamo
            Oceń komentarz:

            0    

            Opublikowano: 2019-05-04 23:47

            @eternal1 a Ty jak zwykle czytasz bez zrozumienia co nie :D
            Wez przeczytaj ze 2-3 razy zanim skomentujesz bo taki bzdet napisales ze nawet nie wiem jak do tego sie odniesc.

            Skomentuj

  8. Wasek
    Oceń komentarz:

    0    

    Opublikowano: 2019-05-01 18:30

    "Wygląda na to, że tym razem planuje zaatakować w średnim segmencie."

    A czy AMD nie zawsze wchodzi tylko na średni, lub średnio-wysoki segment?

    Skomentuj

    1. dragzor
      Oceń komentarz:

      -1    

      Opublikowano: 2019-05-04 19:58

      Tak. Odstają od topowego gpu, i nie widać światełka w tunelu by to miało się zmienić. Radeon 7 jest ponoć szybszy od najszybszego Navi - bo nadal to GCN a architektura niejako limituje wartość CU do 64. Kiedy użyją 64 CU w najlepszym navi i tak będzie brakować przepustowości pamięci, którą daje HBM2, by jakoś przeskoczyć 7. 7 to wersja z 56CU, gdyby wypuścili 64CU z 32GB byłoby szybciej ale cena by chyba zawstydziła 2080Ti;p
      Ogólnie nie najlepsza architektura by cisnąć w highend, bo jest prądożerna i zawsze mało jej pamięci. Oby odrobili lekcje i wykombinowali coś jak w Ryzen z CCX czy zen2. Bo tędy droga.
      Więc będzie walka vs 1660, 2060, 2070. Jak cena będzie odpowiednia to czemu nie.

      Skomentuj

  9. kitamo
    Oceń komentarz:

    -1    

    Opublikowano: 2019-05-01 23:29

    @gormar zle mówisz.
    Zapominasz ze NV wydało 2 linie obecnie.
    RTX i GTX.

    RTX to następca pascala
    RTX to nie następca a zastępca za pascala.

    W chwili obecnej wróciły dobre ceny takie jakie były za czasów maxwella i GTX970.

    https://gpu.userbenchmark.com/Compare/Nvidia-GTX-1060-6GB-vs-Nvidia-GTX-1660-Ti/3639vs4037

    1160 i TI to po prostu refreshe pascali 1060 ale na nowej architekturze.
    To samo zrobiło przeciez AMD (no prawie to samo) podrasowali polarisa i zrobili z RX480 po roku RX580.


    Dzis zamiast kupowac pascala po prostu kupujesz jego szybszy odpowiednik czyli GTX1160 który jest w tej samej cenie i zyskujesz ok 20% na wydajnosci (czyli wlasnie ten skok jednej półki o której napisałes).
    Jak chcesz kupić następce pascala to wybierasz RTX2060 który jest droższy ale o kolejne 20% wydajniejszy + posiada RT.
    Idealna obecnie sytuacja dla klienta i powrót do dobrze wycenionej karty wzgledem mozliwosci czyli taki 1160 własnie.


    https://gpu.userbenchmark.com/Compare/Nvidia-GTX-1060-6GB-vs-Nvidia-GTX-1660-Ti/3639vs4037

    Przeczytaj podsumowanie dotyczace 1160ti - oddaje dokładnie to o czym mówie.

    Skomentuj Historia edycji

  10. Sander Cohen
    Oceń komentarz:

    -2    

    Opublikowano: 2019-05-03 21:25

    Rok za pozno. Ciekawe natomiast czy planuja Navi dla laptopow. Nie zebym byl zainteresowany, bo czekalem, czekalem i kupilem lapka z RTX 2060... Myslalem o laptopie z Radeonem RX 580, ale mimo ze wydajnosc dobra, to zuzycie pradu jak w desktopie i w gre praktycznie wchodzil tylko jeden Asus...
    Szkoda, ale coz. Nie zaluje, bo wydajnosc przy RTX 2060 zarabista, a po undervoltingu, przy pelnym obciazeniu procek nie przekracza 78-80 stopni a karta 75-78 stopni.

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!