Na topie

Radeon VII w końcu dostępny w Polsce - czy jest warty zakupu?

Autor:

więcej artykułów ze strefy:
Karty graficzne

Kategoria: Komputery Podzespoły Karty graficzne Tematyka: AMD Radeon AMD Vega Producenci: AMD MSI

Radeon VII powinien konkurować z modelem GeForce RTX 2080. Czym kusi producent i ile trzeba zapłacić za nowy model?

  • Radeon VII w końcu dostępny w Polsce - czy jest warty zakupu?
A A

Od premiery Radeona VII minął już ponad miesiąc, ale zainteresowani kartą musieli uzbroić się w cierpliwość. W końcu jednak doczekaliśmy się i nowy model jest dostępny na naszym rynku. Czy jest warty zakupu?

Radeon VII to topowa propozycja AMD, która sprawdzi się w wydajnych komputerach do grania oraz stacjach roboczych do profesjonalnych zastosowań (tym bardziej, że można tutaj korzystać z pakietu Radeon Pro Software).

Model Radeon VII RX Vega 64 RX Vega 56
Architektura Vega 20 XT Vega 10 XT Vega 10 XL
Litografia 7 nm 14 nm 14 nm
Tranzystory 13,2 miliarda 12,5 miliarda 12,5 miliarda
Rozmiar 331 mm2 495 mm2 486 mm2
NGC 60 64 56
Procesory strumieniowe 3840 4096 3584
Bazowe taktowanie 1400 MHz 1274 MHz 1156 MHz
Boost 1750 MHz 1546 MHz 1471 MHz
Max. taktowanie 1800 MHz 1630 MHz 1590 MHz
ROP 64 64 64
Rozmiar VRAM (HBM2) 16 GB 8 GB 8 GB
Przepustowość VRAM 1 TB/s 483,8 GB/s 410 GB/s
Interfejs VRAM 4096-bit 2048-bit 2048-bit
TDP 300 W 295 W 210 W

Na pokładzie znalazł się układ graficzny Vega 20 XT z 3840 jednostkami cieniującymi oraz 16 GB pamięci HBM2 4096-bit. Nie bez znaczenia jest też wysoka wydajność w obliczeniach podwójnej precyzji.

AMD Radeon VII

Radeon VII teoretycznie powinien konkurować z modelem GeForce RTX 2080, ale w praktyce w grach jest od niego ciut słabszy. Zainteresowanych szczegółami na temat wydajności odsyłamy do naszej premierowej recenzji.

AMD Radeon VII karta graficzna

Karta jest też wyraźnie droższa od konkurenta – ceny w polskich sklepach zaczynają się od około 3400-3500 złotych, podczas gdy najtańsze wersje GeForce’a RTX 2080 kosztują około 3100-3200 złotych (za te lepsze pokroju Gigabyte Gaming OC trzeba wyłożyć właśnie 3400-3500 złotych). Być może z biegiem czasu (i pojawieniem się kolejnych modeli) cena Radeona spadnie do bardziej akceptowalnego poziomu.

Warto również wspomnieć, że obydwaj producenci kuszą też atrakcyjnym pakietem gier. Za wyborem Radeona przemawia The Division 2, Resident Evil 2 i Devil May Cry 5, natomiast przy zakupie GeForce'a można otrzymać Battlefield V, Anthem i Metro: Exodus.

Źródło: inf. własna, ASRock (foto)

Odsłon: 7992 Skomentuj newsa
Komentarze

34

Udostępnij
  1. levusek1992
    Oceń komentarz:

    4    

    Opublikowano: 2019-03-13 12:30

    Czekam na cos pokroju 1070 od Radeona

    Skomentuj

    1. BrumBrumBrum
      Oceń komentarz:

      1    

      Opublikowano: 2019-03-13 12:39

      ja też czekam od radeona na vegę refresh 3x lub 2x zamiast 56, mają to zrobić już w 7nm. a jak nie to rx580 z OC i pozamiatane.

      Skomentuj

      1. roman106
        Oceń komentarz:

        11    

        Opublikowano: 2019-03-13 13:18

        Czekajcie... czekajcie... Tuż po premierze ci co czekali mówią: a poczekam jeszcze na następną generację... i tak czekają od kilku generacji.

        Skomentuj

        1. BrumBrumBrum
          Oceń komentarz:

          0    

          Opublikowano: 2019-03-13 14:24

          ja mam konkretny termin zakupu, to będą wakacje. jeśli nie będzie jakiegoś krachu pod tytułem "z powodu tego że przed kadencją PiS Polska była eksporterem i miała dodatni bilans płatniczy w handlu zagranicznym 5mld zł a teraz po 3.5 roku rządów PiS jest 5mld ale na minusie", i kurs złotówki nie poleci na łeb w dół, to kupuję to co będzie.

          tak więc czekał nie będę bo nie mam na co. to będzie platforma na bazie ryzen. jaki, zobaczę. zależy od budżetu. to samo z grafiką, na teraz jest to rx580 a co będzie, to się okaże.

          to samo z laptopem. mogłem czekać i czekać, ale potrzebowałem nówki sztuki nieśmiganej, i mam od kwartału lapka z ryzen5 i wbudowaną vegą. pomimo ramu obciętego przez leńowo (szkoda) do 1 kanału, działa to nadspodziewanie dobrze, porównywalnie z intelem, a lapek drogi nie był. modele z 2 kanałami były wtedy sporo droższe więc dałem sobie spokój.

          mam nadzieję że z powodu niedoborów inteli, producenci wreszcie sięgną szerzej po procki AMD, i przestaną się wygłupiać z jednym kanałem RAM.

          Skomentuj

          1. BrumBrumBrum
            Oceń komentarz:

            0    

            Opublikowano: 2019-03-14 09:55

            i tu też minusowy przegryw :) któremu nie pasuje że kupuję kompa w wakacje :D w końcu zazdrość cię zje.

            Skomentuj

          2. BariGT
            Oceń komentarz:

            0    

            Opublikowano: 2019-03-15 10:26

            Jaki jest problem w dołożeniu kosci ramu?

            Skomentuj

  2. mutissj
    Oceń komentarz:

    10    

    Opublikowano: 2019-03-13 12:32

    [1.] ::::::::::::: Nano / Fury / Fury X :::::::::::::
    - gorąco
    - drogo
    - niewystarczająca wydajność na tle konkurencji w tym segmencie cenowym (GTX970 / GTX980 lepszy i tańszy)



    (zmieniamy nazwę żeby ludzie zapomnieli wpadkę)


    [2.] ::::::::::::: VEGA56, VEGA64 :::::::::::::
    - gorąco
    - drogo
    - słaba dostępność
    - niewystarczająca wydajność na tle konkurencji w tym segmencie cenowym (GTX1080 lepszy i tańszy)



    (i znowu zmieniamy nazwę żeby ludzie zapomnieli wpadkę)


    [3.] ::::::::::::: Radeon VII :::::::::::::
    - trochę gorący
    - drogo
    - trochę słaba dostępność
    - niewystarczająca wydajność na tle konkurencji w tym segmencie cenowym (RTX2080 lepszy i w tej samej cenie)



    i co teraz będzie? powtórka z rozrywki?

    Skomentuj

    1. BrumBrumBrum
      Oceń komentarz:

      4    

      Opublikowano: 2019-03-13 12:42

      zależy co chcesz taką grafiką robić. dla tytułów natywnych w Vulkan jest ok, dla udawanego DX12 wypada słabiej. dlaczego udawanego? niestety wiele tytułów obsługuje DX12 tak jakby to był tryb DX11, z dodatkowymi efektami z DX12. dlatego taki DX12 nie będzie wiele szybszy od DX11.

      tak samo, jeśli karta ma robić za liczydło, wygrywa vega. ale tu też po stronie GTX/RTX jest oprogramowanie którego jest więcej, i wszyscy nauczyli się już dawno omijać jego problemy.

      Skomentuj

      1. kitamo
        Oceń komentarz:

        1    

        Opublikowano: 2019-03-13 16:29

        ważne że ten vulkan tak dobrze na nich działa. uff
        Jego dominacja jest nieunikniona.

        Skomentuj

      2. bullseye
        Oceń komentarz:

        1    

        Opublikowano: 2019-03-13 19:23

        Dokładnie, moc ma dużo lepsza niż RTX, to że sztucznie jest okrajany przez gry to już inna bajka.
        Nie mniej, dla gracza będzie gorsza, dla kogoś kto grafiki używa nie tylko do generowania FPS w BF 1, bedzie idealnym wyjściem :)

        Skomentuj

    2. LuckyNumber888
      Oceń komentarz:

      2    

      Opublikowano: 2019-03-13 13:04

      Nie w każdym aspekcie RTX 2080 jest lepsze. Pamięci na radosławie jest dużo więcej, a to zawsze realna zaleta, bo już dziś wychodzą gry, które potrafią zjeść 8GB na śniadanie nawet w 1440p, a co dopiero za rok, gdy nowe konsole wyjdą z jakimiś 16 czy nawet 24 GB. Powtórzy się wówczas sytuacja z 2012 roku, gdzie karty Nv kupione tuż przed wyjściem konsol nie radziły sobie z wysokimi detalami tekstur pomimo dobrej wydajności. Ja sam w 2012 (czyli tuż przed wyjściem PS4) kupiłem GTX 680, a po wyjściu PS4 i xboxa nagle zaczęły się poważne problemy z vramem na tej karcie i żałowałem, że nie kupiłem wersji z 4GB.

      Gamersnexus ostatnio nawet nagrali filmik, gdzie przedstawili problemy w battlefieldzie 5 na RTX 2080 z uwagi na małą ilość vramu. Po pewnym czasie gra dobijała do 8GB vramu i wydajność spadała o połowę. Nvidia przy takich cenach powinna dać przynajmniej 12 GB do 2080 i 16 GB do 2080ti, ale najwyraźniej chcą, aby za niedługi czas ludzie pozbywali się turinków i byli zmuszeni kupić coś nowszego :P.

      Skomentuj Historia edycji

      1. awesome1337
        Oceń komentarz:

        -3    

        Opublikowano: 2019-03-13 13:35

        >a to zawsze realna zaleta, bo już dziś wychodzą gry, które potrafią zjeść 8GB na śniadanie nawet w 1440p, a co dopiero za rok, gdy nowe konsole wyjdą z jakimiś 16 czy nawet 24 GB.

        to nie jest realna zaleta, w obu przypadkach 2080 i R7 wydajność tych kart skończy sie zanim ograniczenie ramu będzie sprawiało jakikolwiek problem
        nawet grając na 8k 8gb ramu w 2080 spokojnie starcza a mamy poniżej 10fps, jakakolwiek gra która będzie wymagać więcej tej pamieć nie będzie działac w grywalnych fps wiec nawet 64gb nic ci nie da

        poza tym to że gry zabierają te 8gb vramu nie znaczy że go potrzebują, w tej samej grze na tej samej karcie gdzie jedna ma 8gb a druga 16gb będziesz miał rożne zużycie pamieć mimo takich samych fps

        >Gamersnexus ostatnio nawet nagrali filmik, gdzie przedstawili problemy w battlefieldzie 5 na RTX 2080 z uwagi na małą ilość vramu

        tam to chyba był problem z memory leakiem a nie tym ze 2080 ma za mało pamieć lol


        https://www.gamersnexus.net/guides/3438-amd-radeon-vii-anti-aliasing-5k-8k-benchmarks-vs-2080

        >The one instance where we saw massive uplift for Radeon VII was when we exhausted the VRAM on the RTX 2080, which was done by operating Firestrike Ultra at 8K resolution and 8x MSAA. This is, of course, entirely unplayable, and so we point again toward the phrasing that this is really just an exercise in research, not one which particularly practical. At 8K/8xMSAA, we did see that Radeon VII operated around 4.7-4.8FPS AVG to the 2080’s ~1-1.7FPS AVG. This is a “large” improvement in percent, and is because we exhausted the framebuffer on the 2080, but is clearly not playable on either device.


        Skomentuj

        1. LuckyNumber888
          Oceń komentarz:

          2    

          Opublikowano: 2019-03-13 14:04

          Odkąd tylko kupuje karty graficzne, to napotykałem z czasem na te memory leaki, ale one występowały wtedy, gdy vramu brakowało, a kupno nowszej karty z większą ilością vramu rozwiązywało definitywnie problem. Tak więc bez wątpienia wyszła już niedoskonałość tego RTX 2080 już teraz w tym battlefiedzie 5, a w niedalekiej przyszłości nie będzie lepiej.

          "to nie jest realna zaleta, w obu przypadkach 2080 i R7 wydajność tych kart skończy sie zanim ograniczenie ramu będzie sprawiało jakikolwiek problem"

          Od dawna większość gier obecnie na PC to multiplatformy z konsol i gdy wychodzi nowa generacja konsol, a wtedy wymagania zaczynają stać w miejscu. Podobnie mówili mi kiedyś ludzie zanim kupiłem GTX 680, że przecież gry nie używają więcej jak 2GB, więc po co więcej, a już rok później byłem zmuszony ustawiać tekstury w niektórych grach na niski poziom, bo inaczej stuttering czy dropy pomimo rewelacyjnej wydajności samego GPU. W takim GTA5 np. w 2015, a więc w 3 lata po kupnie GTX 680 miałem te 60fps w 1080p i w ustawieniach większych jak na konsoli, ale wszystko psuł stuttering. Zostałem zmuszony zmienić GPU nie dlatego, że sama wydajność mi przeszkadzała, a z uwagia vram.

          Z nowymi konsolami będzie to samo. Zakładam, że wydajność GPU w nowych konsolach będzie na poziomie mniejszym jak te RTX 2080 i choć posiadacze takich kart na PC nie powinni się martwić brakiem mocy GPU, to jednak będą się martwić brakiem vramu, bo tego akurat na pewno nie będzie brakować na nowych konsolach.

          Skomentuj Historia edycji

          1. awesome1337
            Oceń komentarz:

            -4    

            Opublikowano: 2019-03-13 14:13

            >to napotykałem z czasem na te memory leaki, ale one występowały wtedy, gdy vramu brakowało, a kupno nowszej karty z większą ilością vramu rozwiązywało definitywnie problem. Tak więc bez wątpienia wyszła już niedoskonałość tego RTX 2080 już teraz w tym battlefiedzie 5

            lol, ale memory leak to jest bug w kodzie GRY a nie problem z karta

            Skomentuj

          2. LuckyNumber888
            Oceń komentarz:

            1    

            Opublikowano: 2019-03-13 15:08

            Możliwe, że jest to bug, ale większa ilość pamięci załatwiała sprawę tak czy inaczej i tak samo byłoby z tym battlefieldem 5, gdyby tylko karta nie miała vramu na styk (bo z RTX gra alokuje jednak te 8 GB od początku i też sam fakt, ze ludzie opisują stuttering też jednak sugeruje, że jest faktyczny problem z brakiem vramu).

            Najbardziej utkwił mi w pamięci crisis 1, gdzie na 8800 ultra z 768MB miałem po kilkunastu minutach 2x mniej fps i trzeba było wszystko przeładować, aby fps wróciły do normy. Problem nie występiwał gdy zmniejszyłem jakość grafiki i nie występował już zupełnie, gdy kupiłem nowszą kartę.

            Skomentuj

          3. kitamo
            Oceń komentarz:

            -2    

            Opublikowano: 2019-03-13 16:47

            memory leak to kwestia zle napisanego kodu gry.
            Jak gra jest dobrze napisana to wykorzystuje max vramu jaki się da by zminimalizować wymiane tekstur pomiędzy ram a vram.

            Skomentuj

    3. Eyesofthesouth
      Oceń komentarz:

      0    

      Opublikowano: 2019-03-13 22:35

      sory ale Vega 56 kopie dupe gtx 1070ti a ten gtx 1080 to juz wogole niedostepny a jak juz jest dostepny to w takiej cenie ze ta karta okazuje zwykłym niewypałem na chwilę obecną. Tylko z mi nie wyskakuj z tym dennym 6 gigabajtowym RTX 2060. To juz na starcie jest jakis żart

      Skomentuj

  3. rlego
    Oceń komentarz:

    1    

    Opublikowano: 2019-03-13 12:42

    o panie, kto panu to tak spie...

    Skomentuj

    1. BrumBrumBrum
      Oceń komentarz:

      -6    

      Opublikowano: 2019-03-13 13:00

      trafiłeś w 10tkę. żebra w chłodzeniu są ustawione pionowo. to pogarsza chłodzenie.

      Skomentuj

      1. awesome1337
        Oceń komentarz:

        -1    

        Opublikowano: 2019-03-13 14:26

        nie pogarsza

        Skomentuj

      2. BrumBrumBrum
        Oceń komentarz:

        -6    

        Opublikowano: 2019-03-13 14:30

        minusowy przegryw widzę nie rozumie jakie wady mają żebra pionowe, a jakie zalety poziome :)

        z tego co widzę, wielu producentów w grafach generujących więcej ciepła stosuje żebra poziomo. przypadek?

        także często się zdarza że w drugich rewizjach tych samych grafik, też zmieniają użebrowanie na poziome.

        Skomentuj

        1. awesome1337
          Oceń komentarz:

          1    

          Opublikowano: 2019-03-13 14:33

          jeszcze cie nie zminusowałem ale dzieki za przypomnienie

          Skomentuj

  4. BrumBrumBrum
    Oceń komentarz:

    0    

    Opublikowano: 2019-03-13 12:43

    aha, ankieta jest do kitu, bo ostatnia opcja jak zwykle "nie mam zdania na ten temat", tyle że ja mam. za to nie ma opcji "nie jestem zainteresowany tak drogimi kartami grafiki", i to jest akurat prawda u mnie, i u wielu czytelników.

    Skomentuj

    1. Legiu
      Oceń komentarz:

      0    

      Opublikowano: 2019-03-13 21:55

      Pytanie to "czy jest wart zakupu", a nie "czy jesteś zainteresowany zakupem". Tak samo w każdej innej ankiecie trzeba by dawać opcję "nie interesuję się motoryzacją" czy "a po co mi projektor"...
      I wg mnie Radeon VII nie byłby wart nawet jakby był rywalem RTX 2070, no chyba że cenowo by go lepiej usytuowali niż teraz względem 2080.

      Skomentuj

  5. mjwhite
    Oceń komentarz:

    -4    

    Opublikowano: 2019-03-13 13:50

    Sam chip znacznie mniejszy od vegi a cena wyższa... koszt podnoszą pamięci hbm.
    Nie tędy droga... "drogie" amd

    Skomentuj

    1. BrumBrumBrum
      Oceń komentarz:

      1    

      Opublikowano: 2019-03-13 14:36

      nie tylko pamięci HBM które są składane z plasterków, ale też bardzo cienki i kruchy tzw. interposer który robi połączenie na 4096 "przewodach" pomiędzy HBM a GPU. to wszystko podnosi koszty i widać tu wyraźnie, że to grafa zasadniczo przeznaczona dla segmentu biznesowego. niestety tutaj zalety HBM nie są wykorzystane w pełni, bo taktowanie HBM zostało tak wykręcone, że jest na styk z założonym TDP, nawet pomimo tego, że koszt transferu danych w HBM wymaga mniejszej ilości energii niż w GDDR.

      no cóż, tylko czekać na wersje bazujące na GDDR, w końcu się pozbierają. z informacji na różnych forach wynika, że vegaVII jest projektem z górnej półki, zaś niższe vegi 3x i 2x mają już zaprojektowane. ale kiedy odpalą z produkcją nie wiadomo.
      problemem amd i nvidii są magazyny zapchane starą produkcją. obydwie firmy przejechały się na górnikach, a górnicy na rynku krypto. w tej chwili doszło już do tego, że nawet koszt prądu się nie zwraca jak się używa GPU. jedynie bardzo kosztowne specjalizowane ASIC przynosi zyski, ale to nie jest zabawa na małą skalę.

      Skomentuj

  6. xbk123
    Oceń komentarz:

    -4    

    Opublikowano: 2019-03-13 14:36

    Nie warto. Niech ktoś poda chociaż jedną zaletę tej karty względem 2080-ki. Nie ma.

    Skomentuj

    1. BrumBrumBrum
      Oceń komentarz:

      0    

      Opublikowano: 2019-03-13 14:37

      do zastosowań domowych czyli do gier, faktycznie nie ma jeśli o to ci chodzi.

      Skomentuj

  7. Kapitan Nocz
    Oceń komentarz:

    4    

    Opublikowano: 2019-03-13 14:50

    ta karta ze wsparciem pro od AMD i 16GB ramu będzię bardzo łakomym kąskiem dla ludzi zajmujących się edycją video. W tym segmencie cenowym raczej nie będzie miała konkurencji pod tym względem. Tak, że o to czy AMD się sprzeda to bym się nie martwił.

    Skomentuj

  8. jacy4
    Oceń komentarz:

    -3    

    Opublikowano: 2019-03-13 16:46

    2080 jest tańszy o nawet 500zł, ma mniejsze zużycie prądu, jest wydajniejszy nawet o 15% w niektórych grach i jak komuś sie nudzi to może dodatkowe efekty RTX odpalić, więc wybór jest raczej oczywisty. Powtórka z Vegi gdzie karty były drogie, prądożerne i słabe.

    Skomentuj

    1. szymcio30
      Oceń komentarz:

      -1    

      Opublikowano: 2019-03-13 17:23

      Tutaj się zgadzam. Gdyby karta kosztowała max 2800zł byłaby konkurencją. A tak dojść, że przestarzała konstrukcyjnie to jej wydajność kuleje i potrafi przegrać z dwuletnią już na rynku GTX 1080 Ti !!!

      Skomentuj

  9. hideo
    Oceń komentarz:

    1    

    Opublikowano: 2019-03-13 18:05

    drogo, i weź człowieku graj na pececie przy takich cenach graf (pozostaje konsola co nie znaczy że w mniej wymagające gry na pc się nie gra)

    Skomentuj

    1. Legiu
      Oceń komentarz:

      1    

      Opublikowano: 2019-03-13 21:59

      Przecież to są już karty do grania na szalonych ustawieniach. Wiesiek 3 na ultra w 4K i te sprawy... Do grania w FullHD na ultra styka nawet RTX 2060, którego cena przecież zabójcza nie jest.

      Skomentuj

  10. Eyesofthesouth
    Oceń komentarz:

    0    

    Opublikowano: 2019-03-13 22:31

    w naszym kraju to zawsze wszystko na odwrót i do góry kołami

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!