Na topie

AMD znowu w grze - producent chce powrócić do udziałów z czasów Athlona 64

Autor:

więcej artykułów ze strefy:
Procesory

Procesory Ryzen okazały się strzałem w dziesiątkę. Teraz producent ma ambitne plany na kolejne lata - kluczową rolę mają w nich odegrać kolejne generacje układów.

  • AMD znowu w grze - producent chce powrócić do udziałów z czasów Athlona 64
A A

Ubiegły rok był wyjątkowo udany dla firmy AMD. Producent nie zamierza jednak spoczywać na laurach i dąży do jeszcze większego zwiększenia udziałów – według Jima Andersona, starszego wiceprezesa i głównego menedżera działu Computing and Graphics, nie ma przeszkód, aby firma powróciła do historycznych udziałów w rynku, jakimi AMD cieszyło się w erze procesorów Athlon 64 – ponad 20% w sektorze komputerów stacjonanych i bez mała 20% w sektorze laptopów.

W 2017 roku udział AMD w rynku procesorów dla komputerów stacjonarnych skoczył o 50% rok do roku, co przełożyło się na wzrost z 8 do 12% porównując czwarte kwartały lat 2016 i 2017. Niektórzy sprzedawcy, zwłaszcza popularni wśród świadomych entuzjastów, w tym czasie sygnalizowali, że nawet połowa sprzedawanych przez nich procesorów to produkty AMD.

AMD - plany wydawnicze na 2018

AMD - plany wydawnicze na 2018

W tym roku partnerzy OEM przewidują wprowadzenie nawet 60 nowych platform bazujących na procesorach Ryzen, z których większość będzie sprzętem przenośnym. To oznacza otwarcie przed AMD perspektyw rozwoju na kolejnym rynku, którego wartość wynosi 10 miliardów.

Rynek komputerów stacjonarnych wart jest odpowiednio 9 miliardów, a do tego dochodzi jeszcze perspektywa rozwoju platformy Ryzen PRO, która przewidziana jest dla klientów korporacyjnych i administracji państwowych. Tutaj spodziewamy się premiery drugiej generacji układów Ryzen (kwiecień dla modeli konsumenckich i druga połowa roku dla modeli biznesowych) oraz topowych Ryzen Threadripper (druga połowa roku).

Przy okazji zachęcamy do zapoznania się naszym wywiadem z producentem, w którym mieliśmy okazję zapytać o podsumowanie ubiegłego i plany na obecny rok.

Źródło: AMD

Odsłon: 10095 Skomentuj newsa
Komentarze

63

Udostępnij
  1. Sharimsejn
    Oceń komentarz:

    13    

    Opublikowano: 2018-03-17 19:05

    Ta generacja jest naprawdę udana z tego co mówią użytkownicy. Osobiście jadę jeszcze na i5-3570k 4,5GHz ale powoli trzeba myśleć chyba o zmianie. Dlatego zaznaczyłem opcję "Wszystko zależy od kolejnych premier". Jeśli będą również udane lub nawet lepiej to bez cienia żalu zmienię mojego i5 na kolejną generację od AMD. Swoją drogą Ivy Bridge naprawdę udane ;p

    Skomentuj

    1. r_e_s_e_t
      Oceń komentarz:

      4    

      Opublikowano: 2018-03-17 20:49

      Ivy były równie udaną generacją, co core2. SB było rewolucyjne, ale z niskimi zegarami, a w Ivy już poprawiono takty i wydzielanie ciepła.

      Skomentuj

      1. r_e_s_e_t
        Oceń komentarz:

        2    

        Opublikowano: 2018-03-18 10:32

        A później były już tylko kotlety i totalna stagnacja, aż do ósmej generacji. Nagle okazało się, że da się zaprojektować układy z większą liczbą rdzeni, a przy tym mocno poprawić takty. Np. w mobilnych prockach od Ivy, aż do siódmej generacji można było najwyżej kupić quada i7, 45W z turbo do ~4GHz i do tego za 999$. AMD wydało nowe procki i jednak intel potrafił dać 6 rdzeni, 45W i z turbo do 4,7GHz.

        Skomentuj

  2. hideo
    Oceń komentarz:

    2    

    Opublikowano: 2018-03-17 19:07

    w tytule jest błąd, powinno być "do"

    Skomentuj

    1. Paweł Maziarz
      Oceń komentarz:

      2    

      Opublikowano: 2018-03-17 19:08

      Racja! Poprawione :)

      Skomentuj

  3. Eternal1
    Oceń komentarz:

    25    

    Opublikowano: 2018-03-17 19:11

    Trzymam kciuki za sukces AMD bo solidnie i uczciwie na niego zapracowali, w dodatku w bardzo trudnych warunkach.
    Takie coś się ceni.

    Jeśli tym razem Intel nie zacznie znów korumpować i przekupywać największych producentów OEM i sieci handlowych na 5 kontynentach, uda się.

    Skomentuj

    1. Gajjjeno
      Oceń komentarz:

      2    

      Opublikowano: 2018-03-18 23:01

      Eternal1 z takimi poglądami myślę że koniecznie powinieneś odwiedzić pewne bardzo ciekawe miejsce ;-)

      https://discord.gg/ucZhKBM


      Intel i tak się w końcu doigra i padnie. To jest tylko kwestia czasu. Za dużo złej reklamy wokół tej skorumpowanej do szpiku kości korporacji i nawet zwykli konsumenci nie interesujący się komputerami, zaczynają się odwracać od intela. Po prostu ludzie z natury nie lubią oszustów i tyle.

      Skomentuj Historia edycji

      1. Finear
        Oceń komentarz:

        -1    

        Opublikowano: 2018-03-19 00:01

        >nawet zwykli konsumenci nie interesujący się komputerami, zaczynają się odwracać od intela.

        a to bardzo ciekawe bo intel co kwartał notuje rekordowe zyski i mają się świetnie (już nie mówiąc o tym że mainstream cpu to ułamek ich zysku wiec nawet jak by amd ich wyparło w 100% to firma będzie sobie nadal spokojnie istnieć)

        >Po prostu ludzie z natury nie lubią oszustów i tyle.
        większość ludzi ma to gdzieś, kupią to co jest lepsze/tańsze

        typowe pier***enie fanboya który nie ma o niczym pojęcia

        Skomentuj

        1. marcadir
          Oceń komentarz:

          0    

          Opublikowano: 2018-03-19 07:53

          Opanuj się Finear z wulgaryzmami... jakie rekordowe zyski jak sprzedaż PC maleje i będzie maleć chociażby ze względu na wysokie ceny grafik i pamięci... sporo osób przesiada się na konsole.

          Skomentuj

          1. Finear
            Oceń komentarz:

            0    

            Opublikowano: 2018-03-19 08:16

            no patrz to zupełnie jak by Intel sprzedawał więcej niż mainstream cpu

            masz publicznie dostępne wyniki finansowe za 2017, Intel zanotował rekordowy rok, z roku na rok rosną więc nie widzę tego że niby ludzie się od nich odwracają i powtarzam. to co dotyczy mainstream pc to. jest ułamek ich biznesu. upadek Intela bo ktoś sobie wymyśla że ludzie mają dość "nieczystych zagrywek" to śmieszny żart

            Skomentuj

          2. taki_jeden
            Oceń komentarz:

            -1    

            Opublikowano: 2018-03-19 10:09

            A jeszcze większym żartem jest przesiadka na konsole... Chyba w twoim bieda otoczeniu.

            Skomentuj

  4. Dudi4Fr
    Oceń komentarz:

    15    

    Opublikowano: 2018-03-17 19:36

    Oby powróciły czasy kiedy Intel z AMD potrafili co roku robić nowsze i dużo wydajniejsze konstrukcje napędzane walką o klienta.

    Intel od Sandy siedział i zawijał w sreberka, a tu proszę ledwo co AMD wyskoczyło z Zen a mainstream przeskoczył na 6 jajek, lapki zaraz będą z sześciopakiem a HEDT w jednej generacji przeszło z 10 na 18 rdzeni.

    Skomentuj

    1. r_e_s_e_t
      Oceń komentarz:

      1    

      Opublikowano: 2018-03-17 20:54

      Z najnowszymi mobilnymi six-core intel dał rady tym razem. Największe wrażenie robi 8950HK: 6 rdzeni, turbo 1/6 4,7GHz, turbo 6/6 4,3GHz, 45W. Szkoda tylko, że tak wolno pojawiają się na rynku, a na dodatek tylko BGA.

      Skomentuj

      1. kero8
        Oceń komentarz:

        4    

        Opublikowano: 2018-03-18 00:31

        Podobno throttlują ze względu na zbyt niskie tdp po 28 sekundach :/ gdzieś w necie czytałem test z tym prockiem.

        Skomentuj

        1. r_e_s_e_t
          Oceń komentarz:

          0    

          Opublikowano: 2018-03-18 10:44

          W HK można samodzielnie konfigurować parametry pracy procesora wiec throttling w ogóle mnie nie martwi. Ludzie na to narzekają od lat, a jakoś w żadnym laptopie, który kupiłem, nie było takiego problemu. Wystarczy wybrać odpowiedni sprzęt.

          Skomentuj

  5. Finear
    Oceń komentarz:

    2    

    Opublikowano: 2018-03-17 20:26

    z jednej strony cieszy większą konkurencja z drugiej trochę średnio czekam na czasy gdzie znowu będzie trzeba wymieniac procka co 2-3 lata, 7 lat na 2600k to jednak sporo zaoszczędzonej kasy na potencjalnych upgradach

    Skomentuj

    1. Eternal1
      Oceń komentarz:

      6    

      Opublikowano: 2018-03-17 22:20

      Rozwój sektora X86 wcale nie jest jakiś specjalnie szybki, po prostu wracamy do normalnego stanu konkurencji. ZEN zmusił Intela aby ten ruszył tyłek i wprowadził 6-rdzeniowe CPU do mainstreamu, a przecież mainstream-owe 6-rdzeniowe procesory AMD zaczęło produkować już w 2010 roku (PhenomII X6 Thuban 45nm).

      Skomentuj

      1. Finear
        Oceń komentarz:

        3    

        Opublikowano: 2018-03-17 22:26

        > a przecież mainstream-owe 6-rdzeniowe procesory AMD zaczęło produkować już w 2010 roku (PhenomII X6 Thuban 45nm).

        ok ale co to ma do rzeczy?



        Skomentuj

        1. Fenio
          Oceń komentarz:

          9    

          Opublikowano: 2018-03-17 23:13

          Czasy gdy tylko sprzęt ograniczał rozwój gier to lata 90'te. W 1997r można było wydać fortunę i kupić platformę pod najnowszy procesor Pentium 166 MMX, do tego topowy akcelerator 3DFX Voodoo aby po 2 latach mieć sprzęt typu low-end na którym Unreal Tournament ledwo działa :) To dopiero było tempo rozwoju.

          Można sobie wyobrazić jak wyglądałoby to dzisiaj gdy ktoś kupuje nowego kompa z i7 albo Ryzen 7, do tego GTX 1080ti i po 2 latach nowa część Battlefielda działa w 25fps z przycięciami :)

          Skomentuj

          1. Finear
            Oceń komentarz:

            -4    

            Opublikowano: 2018-03-17 23:27

            >Można sobie wyobrazić jak wyglądałoby to dzisiaj gdy ktoś kupuje nowego kompa z i7 albo Ryzen 7, do tego GTX 1080ti i po 2 latach nowa część Battlefielda działa w 25fps z przycięciami

            no a czy tak nie było jeszcze pare lat temu jak amd stanowiło konkurencje dla nvidi? karty starzały się bardzo szybko

            dopiero seria 1000 to był na tyle duży skok do przodu a amd nie pokazało ze swoja strony nic co by wymusiło na nvidi kolejny że mamy znów zastój

            dont get me wrong, chce żeby technologie szły do przodu, po prostu jeżeli mam coś w miarę często zmieniać w kompie to niech to będzie gpu, cpu to dużo bardziej problematyczna i często droższa wymiana (a dwóch naraz wolałbym uniknąć mimo że generalnie mnie stać)

            Skomentuj

          2. Eternal1
            Oceń komentarz:

            -1    

            Opublikowano: 2018-03-18 01:02

            "karty starzały się bardzo szybko"

            WARTO znać specyfikę danego GPU żeby chronić go od "wąskich gardeł", żeby przez cały czas, w każdej grze GPU mógł pokazać się od najlepszej strony.
            Np. w przypadku Radeona HD5870/1GB (pierwsza karta DX11 na rynku) w nowszych grach wystarczyło obniżyć Tesselację, Ambient Occlusion i efekty pokroju Bloom czy SoftShadow aby działając w 1920x1200 cieszyć się wysokim teksturami, AA, AF, i stabilnym 60FPS.
            HD5870 przeżył generację HD6000, HD7000 i poddał się dopiero gdy zabrakło mu pamięci VRAM.

            Skomentuj

        2. Eternal1
          Oceń komentarz:

          -1    

          Opublikowano: 2018-03-18 01:10

          "ok ale co to ma do rzeczy? "

          To że Intel niby przyspieszył, podniósł liczbę rdzeni do 6-cie w mainstream-ie, lecz to i tak żadna nowość bo 6 rdzeni x86-64 było w mainstream-ie już 8 lat temu, w erze 45nm.
          IMO rozwój rynku x86 przeszedł ze "ślimaczego" na "sensowny", lecz o żadnych rewolucjach jak na razie nie ma mowy.
          Do tempa rozwoju jakie było w latach 90-tych prędko nie wrócimy.
          Pomyśl: eksperymentalne procesory IBM-a oparte na grafenie tykały z zegarami 40-50GHz pobierając mniej energii niż obecne krzemowe układy (!). To się dopiero nazywa "rewolucja".

          Skomentuj

          1. Finear
            Oceń komentarz:

            1    

            Opublikowano: 2018-03-18 11:49

            >To że Intel niby przyspieszył, podniósł liczbę rdzeni do 6-cie w mainstream-ie, lecz to i tak żadna nowość bo 6 rdzeni x86-64 było w mainstream-ie już 8 lat temu, w erze 45nm.

            i po co mi to mówisz przecież to oczywiste? że intel nie był pierwszy z 6c tylko co to w ogole ma do tego co powiedziałem wcześniej, walisz jakiś losowy tekst i potem rozwijasz z niego jakieś wnioski które nie maja nic wspólnego z głównym tematem

            ale jak już tak bardzo chcesz o tych phenomach to kogo obchodzi czy miały 4c, 6c czy nawet 12c skoro były mocno średnie i jeżeli mnie pamieć nie myli to w wielowątkowych aplikacjach core quad wypadał lepiej lol
            dopiero teraz amd i intel dały więcej niż 4c (tak wiem bulldozer 4/8) z porządna wydajnością nadającą się na high end

            Skomentuj

          2. Eternal1
            Oceń komentarz:

            -1    

            Opublikowano: 2018-03-18 13:33

            @ Finear
            Daje Ci przykład że Intel (w praktyce) przyspieszył pomnażając jedynie rdzenie. Żadnych rewolucji tutaj nie ma, więc nie narzekaj że "teraz za szybko" i że "trzeba będzie częściej zmieniać".
            Rewolucja była u AMD bo zaliczyli największy skok IPC, wydajności i sprawności energetycznej w swojej historii lecz w kontekście całego sektora spowodowało to po prostu powrót do "normalnego tempa" rozwoju x86.

            Ludzie zdecydujecie się, wpierw marudzicie że AMD Bulldożer nie wypalił i był zastój w x86 bo Intel przez 5 lat niemal stał w miejscu, a nawet cofał się (Broadwell-Skylake) (źle), teraz AMD ZEN skutecznie rozruszał rynek to "trzeba będzie częściej zmieniać" (też źle).
            To jest już objaw choroby psychicznej.

            Skomentuj

          3. Foxy the Pirate
            Oceń komentarz:

            1    

            Opublikowano: 2018-03-18 12:56

            Bredzisz, to nie były procesory tylko pojedyncze tranzystory, co najwyżej zespół bramek logicznych. Nie przyrównuj tego do współczesnych czipów z miliardami tranzystorów w krzemie.

            Skomentuj

          4. Eternal1
            Oceń komentarz:

            0    

            Opublikowano: 2018-03-18 13:23

            Wrocławski oddział IBM utrzymuje że centrala posiada działający PROCESOR (CPU, Central Processing Unit) grafen-owy. Chcesz się z Nimi spierać o ich własne dokonania?

            Skomentuj

          5. Foxy the Pirate
            Oceń komentarz:

            0    

            Opublikowano: 2018-03-18 17:38

            Nie oni tak twierdzą, tylko ty. Niczego takiego nie można znaleźć w necie, są jedynie wzmianki o grafenowych TRANZYSTORACH, tak, POJEDYNCZYCH TRANZYSTORACH.
            Po za tym, problem z grafenem jest taki, że nie posiada przerwy energetycznej, co deklasuje go jako potencjalny materiał na przyszłe procesory, o ile ktoś tego nie obejdzie, co jak na razie nie nastąpiło.
            Co do 50Ghz w latach dziewięćdziesiątych to nie dość, że jest to bzdura, to nawet się do tego nie odniosłeś.

            Skomentuj

          6. Eternal1
            Oceń komentarz:

            -4    

            Opublikowano: 2018-03-18 18:32

            1. Powiedziałem Ci jakie było stanowisko IBM Wrocław. A co piszą lub nie piszą w sieci tego nie wiem, Ty byś bazował na materiałach prasowych czy bezpośrednim stanowisku firmy?

            2. 50GHz w latach 90-tych? dość niezdarnie odebrałeś kontekst.
            Pisałem o szybkości rozwoju układów x86 w latach 90-tych a potem w osobnym akapicie o IBM i grafenie, zupełnie tych spraw nie łącząc. Czytanie ze zrozumieniem drogi Panie.

            Skomentuj

          7. Foxy the Pirate
            Oceń komentarz:

            2    

            Opublikowano: 2018-03-18 19:16

            >Do tempa rozwoju jakie było w latach 90-tych prędko nie wrócimy.
            >eksperymentalne procesory IBM-a oparte na grafenie tykały z zegarami 40-50GHz

            Tykały
            Tykały...czas przeszły użyty w zdaniu nawiązującym do lat 90-tych.
            Diagnozę problemu proponuje zacząć od własnej osoby, szczególnie, że nieumiejętność rozdzielenia czasu akcji w 2 kolejnych zadaniach podchodzi pod schizofrenie.

            Moją ocenę drugiego rzekomego argumentu podtrzymuje - nie masz dowodu - to nic takiego nie miało miejsca.

            Dziękuje, dobranoc.

            Skomentuj Historia edycji

          8. Eternal1
            Oceń komentarz:

            -3    

            Opublikowano: 2018-03-18 21:52

            Człowieku, 2 zdania, jedno mówi o wydajności w latach 90-tych, drugie o IBM i układach grafen-owych.
            Zdania dzieli KROPKA co już samo w sobie wystarczy.
            Mało tego, zdania dzieli też nowy akapit, co tym bardziej podkreśla oddzielną myśl.
            Ogarnij się.

            Skomentuj

    2. Hans Olo
      Oceń komentarz:

      0    

      Opublikowano: 2018-03-17 22:24

      Nie będzie trzeba, bo niby w jakim celu? CPU już nigdy nie będzie tak wysoce obciążony jak ponad 15 lat temu. Jak kupisz procka za te 1400 zł, to w zasadzie tylko jakieś rewolucje w systemach operacyjnych mogą Cię zmusić do zmiany, ale te rewolucje bardziej i częściej obejmują GPU niż CPU.

      Skomentuj

      1. kitamo
        Oceń komentarz:

        2    

        Opublikowano: 2018-03-17 23:14

        nie do konca.
        Mocny i wydajny CPU caly czas jest potrzebny w wielu zadaniach.
        GPu może przejąc tylko bardzo małą czesc zadań z którymi cpu by się męczył

        Skomentuj

        1. Hans Olo
          Oceń komentarz:

          1    

          Opublikowano: 2018-03-18 23:11

          No taaa, bo tutaj sami chemicy, co syntezy białek liczą. Już widzę tych wszystkich profesjonalistów, co latają raz do roku, żeby wymienić cały sprzęt w firmach.

          Skomentuj

          1. kitamo
            Oceń komentarz:

            0    

            Opublikowano: 2018-03-18 23:42

            czemu od razu tak radykalnie?

            kazdy składa sobie komputer do tego co potrzebuje ale pisanie ze CPU juz mocniejszy nie jest potrzebny bo GPU przejmuje jego role to nadużycie.

            Skomentuj

          2. taki_jeden
            Oceń komentarz:

            0    

            Opublikowano: 2018-03-19 11:10

            Prawda jest po środku. Obaj macie racje. Zdecydowana większość domowych użytkowników, która kupiła parę generacji wstecz i5 albo i7 nie ma po co w dalszym ciągu procesora zmieniać. Można, ale jak ktoś na takim sprzęcie powiedzmy tylko gra i korzysta do typowych biurowych zadań to zmiany nie zauważy. Prędzej właśnie zmiana GPU czy dysku będzie miała znaczenie. Ale wiadomo też, że jak ktoś faktycznie używa trochę bardziej zaawansowanych narzędzi to może sobie przyspieszyć pracę, nie każdy program ma wsparcie dla GPU na przykład.

            Skomentuj

          3. Hans Olo
            Oceń komentarz:

            0    

            Opublikowano: 2018-03-19 13:17

            Nigdzie nie napisałem, że GPU przejmuje jego funkcje. Dzisiaj już nawet rendering nie jest takim problemem jak 15-20 lat temu, ale pewnie tutaj nadal można zauważyć najczęstsze zmiany CPU, ale wierz mi np. firmy zajmujące się CADem jakiegokolwiek typu nie liczą każdej sekundy wczytywania ani dodatkowych klatek odświeżania. U mnie w firmie chociażby do takiego process simulate czy robcada spokojnie wystarczają lapki nawet pięcioletnie (PCty często nawet starsze). Owszem, mocniejszy pójdzie szybciej, ale te parę % niewiele tu zmienia, bo jedyne co tu można przyspieszyć to wczytywanie projektu, na którym i tak później siedzi się cały dzień. Może za mało wyraźnie napisałem taki_jeden praktycznie uzupełnia tutaj moje zdanie. A serio, znam człowieka, który liczy syntezy białek i zawsze ma mocarnego PCta, ale on zawsze mówi, że to zabawka, żeby mieć co w domu porobić, zazwyczaj i tak musi się w Warszawce do kolejki ustawić przy superkomputerze.

            Skomentuj Historia edycji

      2. Finear
        Oceń komentarz:

        4    

        Opublikowano: 2018-03-17 23:24

        >CPU już nigdy nie będzie tak wysoce obciążony jak ponad 15 lat temu.

        no nie wiem, przecież ewidentnie widać różnice w grach zależną od cpu
        już nie mówiąc o czymkolwiek innym renderowanie etc.

        Skomentuj

      3. r_e_s_e_t
        Oceń komentarz:

        0    

        Opublikowano: 2018-03-18 10:53

        Ale Ty piszesz jedynie o gierkach i pasywnym konsumowaniu treści.

        Skomentuj

    3. zeniu
      Oceń komentarz:

      2    

      Opublikowano: 2018-03-18 00:10

      Teoretycznie, biorąc pod uwagę że w porównaniu do kart graficznych to w procesorach od lat panuje zastój, producenci powinni coraz lepiej optymalizować gry, tak żeby wycisnąć z CPU ostatnie soki. Tymczasem jest odwrotnie, taki Crysis 3 ma grafikę nieustępującą wielu dzisiejszym tytułom AAA, mimo że ma od nich znacznie mniejsze wymagania.

      Skomentuj

      1. kitamo
        Oceń komentarz:

        4    

        Opublikowano: 2018-03-18 00:53

        Po pierwsze CPU nie robi się tylko i wylacznie pod kątem gier.
        Po drugie, zrobienie gry ktora korzysta z wielu watków efektywnie jest trudne i czasem duzo bardziej opłaca się zrobić grę która korzysta z 4 wątków bo synchronizacja pomiedzy wątkami związana z danym zadaniem potrafi byc nie raz dłuższa niz samo wykonywanie zadania.
        Po 3 Crysis 3 korzysta z wielu rdzeni bez problemu, graficznie ustępuje dzis wielu grom AAA pod względem grafiki.
        Nie mówie że to brzydka gra ale jest dziś sporo ładniejszych i lepiej wyglądających tytułów.
        Całe piękno crysisa to umiejętne skorzystanie z kilku trików które powodują że gra wizualnie prezentuje się bardzo ładnie, jednak sama złozonosc obiektów, modeli w terenie i ilosci wszystkich tych elementów które wymagają dzis mocnego CPU jest w crysisie tak naprawde uboga.
        Przełomem to był pierwszy Crysis ale trójka to juz tylko poprawiony pierwowzór.

        Skomentuj

    4. Silverstar
      Oceń komentarz:

      1    

      Opublikowano: 2018-03-18 15:49

      Dobra konkurencja zawsze jest potrzebna i to cieszy że jest a procka co 2-3 lata wcale wymieniać nie musisz. To kiedy wymienisz swój sprzęt na nowszy zawsze zależy tylko od Ciebie niezależnie od tego jaką konkurencje mamy na rynku.

      Skomentuj

  6. kitamo
    Oceń komentarz:

    0    

    Opublikowano: 2018-03-17 23:12

    I nagle nikt nie zauwazył jednej rzeczy - AMD codziennie na widelci, nonstop jakies nowosci, jakies sukcesy itp.
    Nagle intel juz im nie zagraza a od miesięcy wiemy o tym że Intel i AMD będa mieli wspolne dziecko w postaci procesorów intela i gpu AMD.
    Kiedy widzieliscie ostatnio jakies newsy o intelu, jakis wymuskany PR i inne cuda?

    intelowi baaardzo jest teraz potrzebny dobry PR po stronie AMD mam wrazenie.
    Ciekawe jak to wszystko sie skonczy i jak wygląda obecnie "rywalizacja" od strony zaplecza.

    Skomentuj

    1. mjwhite
      Oceń komentarz:

      -1    

      Opublikowano: 2018-03-18 07:53

      Ludzie powoli mają już dość PRu. Jak produkt będzie dobry to się sprzeda zarówno od jednych jak i od drugich bez względu na PR.

      Skomentuj

      1. Tabalan
        Oceń komentarz:

        -1    

        Opublikowano: 2018-03-18 20:25

        To jest nieprawda. Słabszy produkt z lepszym PR się sprzeda w większych ilościach od lepszego produktu z gorszym PR lub gorzej postrzeganą marką. Tak było przy Kartach GPU AMD z serii 7000 oraz 4000. Sprzedały się one gorzej od odpowiadającym im kartom Nvidii pomimo że były lepsze lub znacznie bardziej opłacalne.

        Skomentuj

        1. Finear
          Oceń komentarz:

          0    

          Opublikowano: 2018-03-19 00:08

          przecież przy serii 4000 amd prawie dobiło do 50% market share

          przy serii 7000 to bym tak nie powiedział że były lepsze

          Skomentuj

  7. michael85
    Oceń komentarz:

    7    

    Opublikowano: 2018-03-17 23:35

    Jestem użytkownikiem procesorów AMD od 2001 roku. Wtedy zakupiłem jeszcze jako dzieciak AMD Duron. Była to bardzo udana przesiadka z Pentium II 333 MHz. Później były kolejne i tak do dziś do Ryzena 1600. Wiem że na przestrzeni lat głównie to Intel posiadał najszybsze procesory ale z drugiej strony nie kupowałem nigdy tych najdroższych a AMD wcale tak źle nie sprawdzało się w użytkowaniu jak wielu ma w zwyczaju twierdzić. AMD ma jedną dużą zaletę... rzadko zmieniają podstawki.

    Skomentuj

    1. kitamo
      Oceń komentarz:

      -2    

      Opublikowano: 2018-03-18 00:42

      Ta zaleta to tak naprawde nie jest az taka zaleta.

      Jedna podstawka oznacza ze tak naprawde niewiele zachodzi w samej architekturze.
      Te czasy gdzie zmienialo się procesor np. z 486DX2 na 486DX4 który to pasowal w ta sama podstawke i dawało to wielkiego kopa bezpowrotnie minely.
      Teraz nie ma juz takiego przyrostu mocy z generacji na generacje i nie zmienisz w ciągu roku jednego procesora na drugi 50% mocniejszy od poprzednika by mieć problem z podstawką.

      Teraz bardziej oplaca sie zmienić procesor co 3-4 nawet generacje gdzie to raczej płyta głowna zaczyna Cie ograniczać a nie sam CPU.
      Jak spojrzysz tak wstecz to zauwazysz ze od czasów sandy bridge dokładnie tak jest.
      2600k jest wydajnym procesorem nawet do dzis a to chipset ktory miał razem z nim premiere bardzo mocno się zestarzał.
      Wszystkie nastepne generacje także.
      Ja zmieniłem SB dopiero na 6700k poniewaz brakowało mi tak naprawde kilku nowinek, takich jak chocby port m.2 pod nvme oraz chęc zmiany na DDR4.
      Procesor był nadal bardzo wydajny.

      Dzis mysle ze duzo bardziej oplaca sie zmienic własnie procesor wraz z płytą niz bawić się w skakanie procesorami w jednym gniezdzie.

      Tak więc to samo gniazdo w przypadku AMD ktore faktycznie kiedys było zaleta dzisiaj to już raczej bardziej nostalgiczna zaleta a nie cos na co nalezało by zwracać uwagę.
      no chyba ze ktos lubi co roku zmieniac cpu bo liczy ze bedzie roznica w wydajnosci jakas kosmiczna ;)

      Skomentuj

      1. tazik21
        Oceń komentarz:

        0    

        Opublikowano: 2018-03-19 08:29

        W przypadku intela to tak jest. Z270(1151) gen.6 i 7, Z370(1151) gen. 8, tragicznie to wygląda, jedna płyta od drugiej niczym się nie różni.

        nie przekładaj tego na AMD


        Skomentuj

        1. Finear
          Oceń komentarz:

          0    

          Opublikowano: 2018-03-19 12:55

          różni sie tym że 270 ma słabsze zasilanie, i o ile non-k procki jako tako na niej pojde to tez z K już nie wyrobia

          Skomentuj

  8. cinyrk
    Oceń komentarz:

    4    

    Opublikowano: 2018-03-18 01:38

    "Jedna podstawka oznacza ze tak naprawde niewiele zachodzi w samej architekturze."

    A czy w Intelu aż tyle zachodziło tych zmian żeby uzasadnić te wszystkie sockety i braki kompatybilności?

    "Dzis mysle ze duzo bardziej oplaca sie zmienic własnie procesor wraz z płytą niz bawić się w skakanie procesorami w jednym gniezdzie."

    Może tak myślisz bo do tego przyzwyczaił Cię rynek (czyt. Intel)? Można było dostać płyty główne obsługujące cpu od AM2 do AM3+ i zarówno ddr2 jak ddr3. Oczywiście nie było aż takiego wyboru w takich płytach i wiązało się to z pewnymi ograniczeniami, ale nie można nie docenić takiej elastyczności.

    Intel ma olbrzymie możliwości, ale to przede wszystkim od jego dobrej woli zależy jak wygląda kompatybilność między generacjami cpu.

    Skomentuj

    1. kitamo
      Oceń komentarz:

      2    

      Opublikowano: 2018-03-18 02:08

      "A czy w Intelu aż tyle zachodziło tych zmian żeby uzasadnić te wszystkie sockety i braki kompatybilności?"

      Tak, bo intel robi dalej swój tic-toc, więc nieuzasadnionym to jest zmienianie CPU z generacj ina generację.

      "Może tak myślisz bo do tego przyzwyczaił Cię rynek (czyt. Intel)? Można było dostać płyty główne obsługujące cpu od AM2 do AM3+ i zarówno ddr2 jak ddr3. Oczywiście nie było aż takiego wyboru w takich płytach i wiązało się to z pewnymi ograniczeniami, ale nie można nie docenić takiej elastyczności.
      "
      Przeciez Ty mowisz o 7 latach wstecz, a ja napisałem wyżej wyraźnie o obecnych czasach gdzie praktycznie od czasów SB nie ma juz problemu z socketem, bo razem z procesorem jest duzy sens w tym by własnie wymienic plyte.
      Sprawdz tak z łaski swojej co zmieniło się od pierwszych płyt dla SB w stosunku do dzisiejszych i zastanów się które z obecnych fuknkcji mają dla Ciebie uzasadnienie przy zakupie.
      Ja dodam że jakby dzisiejsze płyty wspierały wstecznie procesory typu SB to by czesc ludzi szybciej wymieniła płytę główną niz procesor.

      Po drugie jaki jest problem w wymianie płyty i procesora w stosunku do wymiany samego procesora?
      Jak ktos ma obsesje na punkcie wymieniania procesora co rok i stac go na to to nie widze problemu by kupił sobie także płytę, więc naprawde nie rozumiem tego jojczenia o to że podstawka inna.

      Jak wyzej napisałem - ja przeskoczylem z SB na Skylake bo uznałem że ma to dopiero wtedy sens. Nie widzial bym sensu ładowac skylake do płyty na P67 którą miałem pod SB.

      Skomentuj

      1. Finear
        Oceń komentarz:

        2    

        Opublikowano: 2018-03-18 11:53

        >Sprawdz tak z łaski swojej co zmieniło się od pierwszych płyt dla SB w stosunku do dzisiejszych i zastanów się które z obecnych fuknkcji mają dla Ciebie uzasadnienie przy zakupie.

        to, dużo bardziej zależy mi teraz na wymianie płyty bo jej możliwości są po prostu biedna jak na obecne czasu. 2600k pewnie jeszcze trochę będę używał

        Skomentuj

        1. kitamo
          Oceń komentarz:

          0    

          Opublikowano: 2018-03-18 23:49

          Ja to zawsze pytam ludzi argumentujących zaletę jednej podstawi u AMD ile raz ywymieniali procesor na swojej płycie którą posiadają w komputerze. Na ogół w 85% słysze że nie wymieniali bo nie ma takiej potrzeby ;)
          Szybciej zestarzeje im się sama płyta niz ten procesor.

          Skomentuj

    2. Finear
      Oceń komentarz:

      0    

      Opublikowano: 2018-03-18 11:57

      > Można było dostać płyty główne obsługujące cpu od AM2 do AM3+ i zarówno ddr2 jak ddr3. Oczywiście nie było aż takiego wyboru w takich płytach i wiązało się to z pewnymi ograniczeniami, ale nie można nie docenić takiej elastyczności.

      sam miałem taka płytę i intela lga775 ddr2/3 i w praktyce w obu przypadkach miałem tyle problemów z kompatybilnością że po prostu kupiłem kompletnie nowa (to się przydaje raz dla jednej osoby na tysiąc i też nie widzę jednego socketu na tyle lat jaka zalete), już nie mówiąc o tym że płyta dla intela zjadała ram bo miała jakieś problemy z regulacja napiec dla ddr3 (póki używałem dd2 było ok, potem straciłem 2 sety pamięci)

      Skomentuj

  9. Silver
    Oceń komentarz:

    1    

    Opublikowano: 2018-03-18 11:25

    Niestety Athlony 64 w laptopach to był niewypał. Cieszą wiadomości, że Ryzen wręcz przeciwnie - w mobilnych urządzeniach świetnie się sprawuje. Jeśli będą w takim tempie szli z następnymi premierami, tj taki skok wydajności (aniżeli max 3-5% wydajności następnej platformy jak niebiescy) to mają bardzo duże szanse.

    Skomentuj

  10. stach122
    Oceń komentarz:

    1    

    Opublikowano: 2018-03-18 13:58

    W sumie mój następny komputer może być na AMD. Jak na razie nie ma potrzeby przesiadki z mojego Xeona 1230v2. (przesiadłem się na niego jakieś 3 miechy temu :v)

    Skomentuj

  11. ammarmar
    Oceń komentarz:

    -2    

    Opublikowano: 2018-03-18 14:05

    Jeszcze trochę im brakuje. W czasach Athlonów AMD miało produkt, który był dużo, dużo lepszy od konkurencji i do tego tańszy. Ba, nawet budżetowe Durony zostawiały procesory Intela z tyłu (jako biedny student złożyłem swój pierwszy komputer kupiony za własne pieniądze właśnie na Duronie 1200 MHz).

    W tej chwili mogą się pochwalić produktem co najwyżej nie odbiegającym znacząco od konkurencji a cenowo też nie jest tak atrakcyjnie, jak niegdyś bywało.

    Osobiście uważam, że na CPU nie należy oszczędzać i należy kupować najlepszy, jaki jest w zasięgu portfela. W komputerze wymienia się dyski, karty graficzne, a dobry CPU i płyta zostają z nami na lata.

    Biorąc pod uwagę, że najmocniejszy "cywilny" CPU kosztuje w tej chwili poniżej 1500zł, nie ma sensu w ogóle kupować niczego słabszego.

    Skomentuj

    1. marekxdx
      Oceń komentarz:

      -1    

      Opublikowano: 2018-03-18 15:09

      Musze ci przyznać racje ale wolalbym dolozyc wiecej do karty graficznej niz do procesora bo w dzisiejszych czasach wystarczą cztery mocne rdzenie do gier bo wielordzenowosc wciaz slabo sie rozwija, co nie zmienia faktu ze AMD jest teraz mocne

      Skomentuj

      1. ammarmar
        Oceń komentarz:

        0    

        Opublikowano: 2018-03-18 17:56

        Niezależnie od tego, ile wydasz na kartę graficzną, za rok będą modele mocniejsze o 30% a za dwa-trzy lata ta karta będzie zupełnie przestarzała. Inwestowanie w GPU nie ma sensu.

        Natomiast mocny procesor posłuży Ci przez lata. Nie chodzi o to, czego gry i programy wymagają dzisiaj, tylko czego będą wymagać za 5 lat. Wymiana CPU zazwyczaj pociąga za sobą wymianę płyty głównej oraz pamięci, więc trzeba tego unikać tak długo, jak się da.

        Jak kupowałem Sandy Bridge 2600K, to ogólna opinia była "po co Ci i7, przecież i5 wystarczy". A i3 Ivy Bridge, który wyciągnąłem kiedyś z komputera w firmie przy okazji upgrade'u to dzisiaj nadaje się tylko na breloczek.

        Skomentuj

  12. mjwhite
    Oceń komentarz:

    0    

    Opublikowano: 2018-03-18 20:41

    @Tabalan

    Ciekawe co prawisz bo akurat po tych seriach o których mówisz amd zyskiwało udział w rynku więc chyba nie sprzedawały się gorzej.
    http://www.game-debate.com/news/16613/12-year-gpu-market-share-history-of-nvidia-and-amd-revealed

    Zresztą mowa o tym, co jest tu i teraz a nie o tym co 10 lat temu(seria 4xxx) no i mowa o procesorach a nie o kartach.

    Jaki PR proponujesz do procesorów? oprócz taktowania(które praktycznie się zrównało i stoi w miejscu) i ewentualnie liczby rdzeni.

    Skomentuj Historia edycji

  13. corrino
    Oceń komentarz:

    0    

    Opublikowano: 2018-03-18 20:59

    Ale mam dylemat :( Brać 2400G czy czekać na 2600 i dokupić tanią grafę. Nie interesuje mnie granie ale od czasu do czasu lubię uruchomić jakieś wyścigi.. Procka używałbym do konwersji domowych wideo i czasem do kompilacji i testów aplikacji wielowątkowych.. Wiem, że 2400G jest wydajne, ale dostaję erekcji jak widzę przecieki odnośnie ryśka 2600...

    Skomentuj

  14. Finear
    Oceń komentarz:

    0    

    Opublikowano: 2018-03-19 00:08

    przecież przy serii 4000 amd prawie dobiło do 50% market share

    przy serii 7000 to bym tak nie powiedział że były lepsze

    Skomentuj

  15. welll1
    Oceń komentarz:

    1    

    Opublikowano: 2018-03-19 00:33

    AMD obecnie jest najbardziej opłacalnym procesorem nie tylko konsumenckim, dla graczy ale również dla wielu platform biznesowych.
    6 rdzeni i 12 wątków w cenie do 800 zł lub 4 i 8 wątków plus przyzwoita karta graficzna za 650 zł to okazje przy cenie i7.
    Jeszcze 2-3 lata temu nie do pomyślenia :D

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!