Na topie

AMD na temat dostępności Radeona VII - producent dementuje plotki

Autor:

więcej artykułów ze strefy:
Karty graficzne

Kategoria: Komputery Podzespoły Karty graficzne Tematyka: AMD Radeon AMD Vega Producenci: AMD

Radeon VII to jedna z najważniejszych premier tego roku. Producent postanowił jednak ustosunkować się do najnowszych plotek odnośnie dostępności karty.

  • AMD na temat dostępności Radeona VII - producent dementuje plotki
A A

Premiera karty Radeon VII zbliża się coraz większymi krokami, a w sieci pojawia się coraz więcej zaskakujących informacji na temat akceleratora. Jak jest w rzeczywistości?

Według nieoficjalnych doniesień, nowa karta miałaby być dostępna wyłącznie w referencyjnej postaci i to w sprzedaży prowadzonej bezpośrednio przez AMD. Serwis Tweak Town dotarł również do informacji, jakoby producent miał przygotować mniej niż 5000 sztuk nowej karty – dużo mniej niż wcześniejszych modeli z serii Fury/Fury X czy Radeon RX Vega. Co więcej, miałby jeszcze dopłacać do każdej sztuki.

Producent postanowił odnieść się do tych plotek i wydał w tej sprawie oświadczenie:

Co prawda nie uwzględniamy zewnętrznej produkcji, ale w dniu premiery 7 lutego będziemy oferować kartę za pośrednictwem partnerów AIB oraz strony AMD.com. Spodziewamy się, że podaż Radeona VII zaspokoi popyt graczy.

AMD Radeon VII

Kwestia sprzedaży na wyłączność została tutaj zdementowana. Nadal jednak nie wiadomo co z niereferencyjnymi modelami takich producentów, jak: ASUS, Gigabyte czy Sapphire.

Źródło: TweakTown, Overclockers3D

Odsłon: 5262 Skomentuj newsa
Komentarze

17

Udostępnij
  1. slo1q
    Oceń komentarz:

    -8    

    Opublikowano: 2019-01-16 16:00

    Chcesz być jak firma AMD? Oto 3 proste kroki:
    1. weź broń palną,
    2. strzel sobie w stopę,
    3. profit!

    A tak serio. Jako wieloletni użytkownik i wielki fan AMD, serdecznie im kibicuję. Jednak z taką praktyką biznesową GPU, daleko nie dojadą.

    Skomentuj

    1. BrumBrumBrum
      Oceń komentarz:

      0    

      Opublikowano: 2019-02-01 11:43

      mają ograniczoną moc produkcyjną, więc się nie dziw takiemu zachowaniu. gdyby AMD miało wystarczającą moc produkcyjną, to nikt by nie narzekał na niedobór procesorów intela na rynku, lecz by w dużej ilości wydał komputery bazujące na ryzenie. niestety producenci są uwiązani jak krowy do intela, do tego stopnia, że np. takie MSI nie ma ochoty wydawać laptopów z ryzenem. taki dell wydaje tylko jednego biznesowego lapka z ryzenem po koszmarnej cenie i to na zamówienie itd. w zasadzie na rynku laptopów dla mas z ryzenem zostaje hp, lenowo, acer, asus a reszta jest w zasadzie planktonem, a i to aby takiego laptopa kupić, nie ma sensu patrzeć na półkę w sklepie bo ich nie ma, trzeba zamawiać. jednak to wszyscy płaczą że jest za mało procków intela na rynku, a nie procków amd.

      i to wszystko niestety odbija się na grafice.

      Skomentuj

  2. CoyotePL
    Oceń komentarz:

    4    

    Opublikowano: 2019-01-16 16:10

    Ech... Plotki plotki plotki... To samo co z Ryzenami. Mimo że kibicuje mocno dla AMD by w końcu Intel i NV trochę ochłonęli, to jednak dopiero po premierach wyjdzie dokładnie co i jak. Bo jak pokazała przeszłość nieraz było tak że im bliżej premiery tym było mniej kolorowo i wychodziły dziwne decyzje tak jak tutaj.

    Skomentuj Historia edycji

    1. Eyesofthesouth
      Oceń komentarz:

      -5    

      Opublikowano: 2019-01-16 23:11

      intel juz ochłoną

      Skomentuj Historia edycji

        1. BrumBrumBrum
          Oceń komentarz:

          0    

          Opublikowano: 2019-02-01 11:44

          ok, oto poprawna wersia: ohłonou :) wprost z mojego genialnego swofnika.

          Skomentuj

  3. mutissj
    Oceń komentarz:

    -6    

    Opublikowano: 2019-01-16 16:26

    jak będą znowu pamięci HBM to będzie powtórka z VEGY I FURY, czyli:


    [1.] przez pierwszy rok niska dostępność

    [2.] wysoka cena zakupy

    [3.] nie w każdej grze będzie skok wydajności

    [4.] wysokie temperatury i pobór energii



    = wniosek ? niech przejdą lepiej na GDDR6

    Skomentuj

    1. awesome1337
      Oceń komentarz:

      2    

      Opublikowano: 2019-01-16 16:37

      >[4.] wysokie temperatury i pobór energii
      = wniosek ? niech przejdą lepiej na GDDR6



      no to akurat nie jest prawda, HBM daje im dużo niższy pobór energii, w teorii gdyby wsadzili to tej karty gddr6 to te 300w TDP skoczyło by jeszcze do góry

      i tak o ile generalnie powinni wypuścić kartę z ggdr6 to ten radeon bez HBM by sobie po prostu nie radził, wydajność spadła by drastycznie , tak naprawdę jedyne co daje mu wydajność na poziomie 1080ti/2080 to 1TBs memory bandwidth czego nie da się osiągnąć na gdrr6 (bo po prostu nie ma tak szybki kości pamięci a nawet jak byś miał to skończyło by ci się miejsce na karcie)

      Skomentuj Historia edycji

      1. rahl_r
        Oceń komentarz:

        -3    

        Opublikowano: 2019-01-16 18:24

        Właśnie spora część budżetu energetycznego to pamięci HBM, co prawda sam GPU ma mniejszy (energochłonnie) kontroler ale pamięci z nawiązką nadganiają.
        Do tego HBM jest co nadal znacznie droższy niż nawet gddr6,
        i wpakowali 16GB tej pamięci (nie wiadomo właściwie po co) i z karty, która mogła pomieszać szyki nvidii (a przynajmniej zmusić ich do obniżek cen) wyszedł kolejny rynkowy niewypał.

        P.S.
        Przy 8GB gddr6 karta mogła się spokojnie zmieścić poniżej 500$.

        Skomentuj Historia edycji

        1. awesome1337
          Oceń komentarz:

          0    

          Opublikowano: 2019-01-16 18:36

          >i z karty, która mogła pomieszać szyki nvidii (a przynajmniej zmusić ich do obniżek cen) wyszedł kolejny rynkowy niewypał.
          Przy 8GB gddr6 karta mogła się spokojnie zmieścić poniżej 500$.

          nie bo z ggdr6 spadła by za bardzo wydajność, do poziomu niższego niż vega64 co by kompletnie nie miało sensu a już tym bardziej nie za 500$ (bo tyle kosztuje 64)

          tego radeona ratuje tylko ten 1TB memory bandwidth


          tak powinni wypuścić kartę która leci na ggdr6 i dzięki temu jest dużo tańsza ale to musi być inny produkt od początku zbudowany z innymi pamięciami


          Skomentuj Historia edycji

          1. rahl_r
            Oceń komentarz:

            -2    

            Opublikowano: 2019-01-16 22:05

            Architektura jest słaba i źle się skaluje.
            Pisałem już wcześniej, karta w 7nm z dwa razy większą przepustowością pamięci ledwie mieści się w podobnym budżecie energetycznym i ma 20-30% więcej wydajności. Porażka.

            P.S. Mam coraz poważniejsze przeczucia, że to GPU to nic innego tylko przeskalowana na siłę do 7nm Vega, ale bez żadnych optymalizacji(bo kto by je miał zrobić skoro połowa ludzi co przy tym pracowała odeszła) i zmian konstrukcyjnych pozwalających na efektywne wykorzystanie tego procesu technologicznego.
            Vega VII = "Hail Mary" na przeczekanie do premiery dużego NAVI (albo jak to tam nazwą).

            Mam nadzieję, że Lisa Su da na drugi cud w postaci odpowiednia Ryzena dla GPU.

            Skomentuj Historia edycji

        2. Leader86
          Oceń komentarz:

          -2    

          Opublikowano: 2019-01-17 09:40

          Zarty sobie stroisz ??? Na GTX1080 8GB to za malo.

          Nie mowiac o AI bo tam 8GB to nic.

          Obecnie 16-24GB to powinno byc minimum i titanium 48GB.

          Cena nie gra roli bo i tak to nie karty dla plebsu, wiec niech narzekaja przy GTX1050 lub co tam AMD ma slabego.

          Skomentuj

    2. lucullus
      Oceń komentarz:

      -3    

      Opublikowano: 2019-01-16 16:37

      Nie mają kasy na R&D aby przerobili na GDDR6.

      Skomentuj

      1. BrumBrumBrum
        Oceń komentarz:

        0    

        Opublikowano: 2019-02-01 11:53

        GCN ssie w DX11 i udawanym DX12, który jest tak naprawdę DX11 okraszonym elementami DX12, tzw. DX12 transitional.

        w czystym DX12 oraz w Vulcan, Vega56 spokojnie stoi na równi z GTX 1080Ti, więc wiele wskazuje na to, że to samo będzie z Navi o RTX. Tyle że Navi nie ma raytrace, za to RTX ma raytrace. jak to działa, to już inna kwestia :)

        fakt faktem, mogliby spokojnie wydać architektury mniejsze na bazie Navi, ale z GDDR6. Tak się składa że HBM jest drogie, ale jest oszczędne przy założeniu, że wyciągamy podobny transfer danych z GDDR6 i z HBM. Tyle że HBM ma o wiele szerszą szynę, więc AMD tak wszystko dostroiło, aby z HBM wyciągnąć max transferu, o wiele więcej niż by się dało z GDDR6, w dodatku ze znacznie mniejszymi opóźnieniami. Efekt jest taki, że w tej konfiguracji HBM żre prąd jak smok, i to są niestety fakty a nie brednie.

        jak ktoś jest minusowym przegrywem, niech klika co uważa i się kłóci z faktami. Fakt faktem, HBM przy przesyle jednostkowego bajta, zużywa na to mniej prądu, ale z uwagą powyżej, sumarycznie żre więcej.

        Skomentuj

    3. chrisplbw
      Oceń komentarz:

      -2    

      Opublikowano: 2019-01-16 19:50

      tak, tak jak już nie ma czego się czepić, to trzeba wyjechać z poborem prądu. Ma być jak Vega64 czyli ~300W.
      Czekaj, czekaj a 2080 to ile bierze?:
      https://www.tomshardware.com/reviews/gigabyte-geforce-rtx-2080-gaming-oc-8g,5879-4.html
      https://www.tomshardware.com/reviews/nvidia-geforce-rtx-2080-ti-founders-edition,5805-10.html
      https://www.anandtech.com/show/13346/the-nvidia-geforce-rtx-2080-ti-and-2080-founders-edition-review/16
      https://wccftech.com/review/nvidia-geforce-rtx-2080-ti-and-rtx-2080-review/17/

      Poza tym wszyscy wiedzą, że kasa na R&D poszła w ZEN, a karty dla graczy mają być w połowie roku.

      Kurde nie robią źle, robią jeszcze gorzej. Najlepiej marudzić i narzekać.
      Możesz spokojnie kupić RTX i dać sobie spokój, będziesz czekał na obsługę RT w normalnej wydajności, może uda Ci się sprzedać monitor z G-Sync. Za 2 lata jak oprócz odbić zrobią jeszcze cienie, to kupisz np. 4080 za 7/8k PLN - przecież to takie proste. EOT.

      Skomentuj

      1. rahl_r
        Oceń komentarz:

        1    

        Opublikowano: 2019-01-16 22:17

        Nie ma to jak samodzielnie obalić swoje argumenty przy pomocy lików DDDDDD:

        2080Ti ma pobór 280W czyli niższy niż się spodziewamy po Vedze VII, ale to nie ta liga wydajnościowa.

        Tymczasem bezpośredni konkurent:
        2080 bierze około 230W, bo takie ma TDP mimo, że jest zrobiona w 12nm i ma chip o 70% większy.

        Jeszcze jakieś uwagi ??

        Skomentuj Historia edycji

  4. Eyesofthesouth
    Oceń komentarz:

    -1    

    Opublikowano: 2019-01-16 23:16

    skoncz juz pan piardy puszczac

    Skomentuj

  5. voxcordi
    Oceń komentarz:

    0    

    Opublikowano: 2019-01-16 23:20

    "przygotować mniej niż 5000 sztuk nowej karty"...
    No i tyle wystarczy. Reszta graczy kupi co innego. Nie AMD. :-P

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!