Na topie

Intel planuje wejść na rynek kart graficznych - Nvidia i AMD mają się czego bać?

Autor:

więcej artykułów ze strefy:
Karty graficzne

Kategoria: Komputery Podzespoły Karty graficzne Tematyka: Na Topie Producenci: intel

Pierwsze szczegóły na temat karty Intela ujawniono na konferencji ISSCC 2018. Póki co są to informacje o prototypie, ale czekamy na prezentację gotowej konstrukcji.

  • Intel planuje wejść na rynek kart graficznych - Nvidia i AMD mają się czego bać?
A A

Do tej pory głównymi graczami na rynku kart graficznych pozostawały firmy Nvidia i AMD. Wygląda jednak na to, że do walki planuje dołączyć Intel – na konferencji IEEE International Solid-State Circuits Conference (ISSCC) w San Francisco ujawniono pierwsze szczegóły na temat nowej karty graficznej.

Co prawda na konferencji jeszcze nie zaprezentowano gotowej karty graficznej, ale za to ujawniono sporo slajdów z informacjami na temat specyfikacji i budowy nowego GPU (w fazie prototypowej). Warto jednak podkreślić, że jest to słabsza, energooszczędna konstrukcja, więc póki co nie ma mowy o nawiązywaniu walki z GeForce GTX 1080 czy Radeonem RX Vega 64.

Intel - karta graficzna

Nowa karta graficzna korzysta z dwóch układów: głównego procesora graficznego oraz mostka do obsługi magistrali PCI-Express (taki interfejs będzie wykorzystywany do komunikacji z komputerem).

Intel - karta graficzna

Procesor graficzny został wykonany w technologii 14nm LP i składa się z przeszło 1,5 mld tranzystorów (z czego spora część obejmuje pamięć podręczną SRAM). Sam układ jest niewielki, bo ma wymiary 8 x 8 mm (czyli jest mniejszy nawet od low-endowego Nvidia Pascal GP108 wykorzystywanego m.in. w karcie GeForce GT 1030).

Intel - karta graficzna

Jeżeli chodzi o budowę, całość bazuje na układzie graficznym 9. generacji (znanym z iGPU w procesorach Skylake i Kaby Lake). Producent zastosował tutaj trzy bloki SS, z których każdy obejmuje po sześć jednostek wykonawczych EU (te w blokach SS1 i SS2 zostały przeprojektowane).

Intel - karta graficzna

Co istotne, konstrukcja została tak zaprojektowana, aby pobierać możliwie mało energii elektrycznej. Świadczą o tym również stosunkowo niskie częstotliwości, które mają wynosić 50-400 MHz (przy napięciu zasilajacym 0,51-1,2 V).

Warto dodać, że nie jest to pierwsza karta graficzna konstruowana przez Intela. W 1998 roku zaprezentowano akcelerator Intel 740, który jednak nie odniósł większego sukcesu. Miejmy nadzieję, że tym razem „niebieskim” się powiedzie i rynek stanie się jeszcze bardziej konkurencyjny. Tym razem producent ma jednak asa w rękawie - mowa o Raja Kodurim, który niedawno objął stanowisko głównego architekta i wiceprezesa nowego działu Core and Visual Computing Group (wcześniej pełnił on rolę szefa w AMD Radeon Technologies Group).

Zainteresowanych szczegółami na temat nowego projektu odsyłamy do artykułu na PC Watch (w języku japońskim).

Źródło: PC Watch

Odsłon: 7968 Skomentuj newsa
Komentarze

29

Udostępnij
    1. mjwhite
      Oceń komentarz:

      -6    

      Opublikowano: 2018-02-20 11:49

      To teraz się zastanów dlaczego z kilku nastu producentów CPU i GPU lat 90tych zostało nam 3.

      Skomentuj

      1. bartekmustach
        Oceń komentarz:

        8    

        Opublikowano: 2018-02-20 13:27

        Prawo rynku?

        Albo górujesz albo wypadasz albo wchłoną Ciebie inni.

        Skomentuj

        1. mjwhite
          Oceń komentarz:

          0    

          Opublikowano: 2018-02-20 19:26

          Dokładnie jeden góruje a reszta wypada z rynku więc skąd ma się brać nowa konkurencja?
          To co jemu wydaje się dobre, czyli niższe ceny dla niego, jest szkodliwe dla producentów i w długim terminie prowadzi ich do upadku.
          Mówiąc inaczej chcieć to sobie może ale to nie realne.

          Skomentuj

        2. BrumBrumBrum
          Oceń komentarz:

          0    

          Opublikowano: 2018-02-26 12:30

          niestety nie tylko prawo rynku, ale reż chore prawo patentowe w USA, które niestety ma ogromny wypływ na całą resztę kontynentów.

          najbardziej to widać na rynku CPU, gdzie można sobie opatentować listę instrukcji. prawo UE raczej na to nie pozwala. na rynku GPU też jest mnóstwo patentów. To dlatego Nvidia wygrała z Intelem i Intel musiał (musi?) płacić haracz, to dlatego Intel zablokował inicjatywę Nvidii, typu matryca czegoś co emuluje ogromną ilość x86. To dlatego Microsoft ściągał haracz m.in. z Samsunga za ..... sprzedaż urządzeń z Androidem, to dlatego w Windows S w wersji ARM, emulacja win32api nie obejmuje aplikacji 64bit.

          Skomentuj

    2. Finear
      Oceń komentarz:

      3    

      Opublikowano: 2018-02-20 12:19

      to wcale nie jest tak zawsze różowo jak jest duże rozdrobnienie rynku

      Skomentuj

      1. Michał 06
        Oceń komentarz:

        0    

        Opublikowano: 2018-02-20 22:27

        Hmmm... teraz mamy tylko 2 liderów kart graficznych ..... i pomyślcie sobie o takim czymś jak zmowa cenowa hi hi hi :P

        Skomentuj

        1. Finear
          Oceń komentarz:

          -2    

          Opublikowano: 2018-02-20 23:05

          której nie ma, a nawet jak by była to wole zapłacić trochę więcej niż bujać się z kiepska wydajnością i ruletka sterowników czy dana gra dobrze wspiera czy nie specjalnie

          teraz mamy 2 graczy i przynajmniej mam pewność że jak kupie kartę to nie będzie z nią większych problemow

          Skomentuj

          1. Michał 06
            Oceń komentarz:

            2    

            Opublikowano: 2018-02-21 14:00

            Tak niema zmowy, bo świat jest piękny wszyscy się kochają , a po ulicach biegają tęczowe jednorożce. W świecie ku....w i złodziei taki pan marketingu złapie się dosłownie wszystkiego żeby zarobić ,a ty człowieczku jesteś tylko jednostką podaną w średniej na wykresie hi hi hi :P

            Skomentuj

          2. Finear
            Oceń komentarz:

            -1    

            Opublikowano: 2018-02-21 14:04

            aha

            Skomentuj

    3. kitamo
      Oceń komentarz:

      1    

      Opublikowano: 2018-02-21 02:29

      No wlasnie wieksza konkurencja na rynku nie przekłada się na korzyści dla konsumenta.
      Fragmentacja rynku wiąże się niestety z niskiej jakosci produktami, z reszta duzo mowić nie trzeba wystarczy zobaczyć co robią chiny i w jaki sposób rodzimy producent musi walczyć o klienta ich własną bronią (czyli niską ceną co wpływa na jakosc produktu).

      Wszyscy chca miec produkty trwałe, dobre i tanie ale z tych 3 elementów mozna wybrać tylko 2 albo nawet i 1 najczesciej.
      Nie ma wszystkiego na raz.

      Gydyby nagle konkurencja wpłyneła na to że produkty są dobre, trwałe i tanie to bardzo szybko by bankrutowali niestety.
      Obecnie na rynku jesli idzie o sprzet jest wrecz skandalicznie wysoka podaż a popyt nie zwiększa się adekwatnie.
      Dlatego tez produkowanie produktów niskiej jakosci ma olbrzymie znaczenie dla samej nawet gospodarki (ale nie dla klienta). Po prostu produkt nie może być trwały, ale dla klienta który patrzy tylko na cenę, to ona gra gówną rolę.

      Tak wiec wieksza konkurencja nie zawsze wpływa pozytywnie na kieszeń konsumenta.
      Kazdy mysli ze jak jest wieksza konkurencja to firmy bić się będą o konsumenta za pomocą ceny - błedne myślenie. Oni nie biją się o konsumenta - dziś wystarczy wytworzyć popyt na produkt bo to jest najważniejsze.

      Doskonały przykład - Apple czy Samsung. Obie firmy kreuja popyt zamiast go wykorzystywać.
      Nie muszą walczyć cenowo z nikim, pomimo że graczy na rynku nie brakuje.
      Z roku na rok ich flagowe modele są co raz to droższe a mimo to ludzie kupują.
      Jesli nie stać ich na flagowca to zadowolą się niższym modelem.

      Zastanówcie sie lepiej czy tak naprawde co roku potrzebujecie nowego telefonu - no raczej nie, a mimo to schodzą na pniu a czasami to wrecz ich brakuje.

      Tutaj firma XY która wejdzie dzisiaj na rynek nic nie znaczy, nie stanie się zagrożeniem dla dużych gigantów.
      Tu nie ma już miejsca na rozpychanie sie łokciami. Żeby dziś coś sprzedać nie ucinasz innym dochodów tylko kombinujesz jak rozszerzyć rynek.
      Dlatego tak wiele firm plajtuje - nie zdają sobie sprawy z tego że łatwiej jest rynek poszerzyć niż wyrywac innym ich pieniądze.

      Intel wpasuje się doskonale tam gdzie jest potrzeba - nie będzie tu bicia się ani z NV ani z AMD bo to nie ma sensu. Cała ta trójca jest potrzebna na rynku dla dobra ich samych.

      Skomentuj Historia edycji

  1. stach122
    Oceń komentarz:

    0    

    Opublikowano: 2018-02-20 09:56

    Jak się przebije przez patenty to może być ciekawie

    Skomentuj

  2. Smuga
    Oceń komentarz:

    8    

    Opublikowano: 2018-02-20 09:58

    Od lat czytam o takich planach intela (choćby swego czasu Larrabee). Ciekawe co z tego wyniknie, bo kto jak kto ale oni - mają szansę stać się nowym graczem (powiedzmy sobie szczerze - to już nie lata 90 gdzie ludzie byli skłonni kupować jakieś nieznane marki bo w powszechnej świadomości scena ta nie była jeszcze tak zabetonowana).

    Skomentuj

  3. Warmonger
    Oceń komentarz:

    -2    

    Opublikowano: 2018-02-20 10:04

    Jakich kart graficznych? Na rynku działa już kilkudziesięciu producentów układów graficznych do różnych systemów wbudowanych, ale z "kartami graficznymi" nie ma to wiele wspólnego. Na pewno nie z punktu widzenia graczy.

    Skomentuj

  4. rob 25
    Oceń komentarz:

    -6    

    Opublikowano: 2018-02-20 12:17

    To teraz wszyscy mogą zobaczyć gdzie idą ich pieniądze ,kiedy przepłacają za procesory .W Intelu postanowiono inwestować w rozwój GPU - ok. Ale do jasnej cholery z takim zapleczem i funduszami atakuje się szczyt ,a nie babra w piaskownicy .W Intelu brak jest ludzi z wizją ,głodnych sukcesu dlatego przewiduję klęskę projektu na całej linii .Nawet Koduriego musieli importować by ruszyć. Tylko dokąd, skoro tak słaby pułap jest na tapecie nikt tego nie kupi .No może muzeum techniki !

    Skomentuj

    1. Finear
      Oceń komentarz:

      -3    

      Opublikowano: 2018-02-20 12:23

      >przepłacają za procesory

      xD?

      nie masz zielonego pojęcia jak prowadzi się taki biznes

      zdecydowanie lepszym ruchem jest stworzenie czegoś w niszy w której konkurencja jest dużo słabsza. celowanie od razu w high end zdecydowanie szybciej skończyło by się porażka

      Skomentuj

    2. kitamo
      Oceń komentarz:

      0    

      Opublikowano: 2018-02-21 02:37

      Masz zasciankowe myslenie.

      Ludzi sukcesu dziel isię na kilka kategorii. Nie koniecznie człowiekiem sukcesu jest ten który jest na szczycie u samej góry.
      Częściej człowiekiem jest ten który jest na drugim miejscu ze względu nie na pozycję ale na znacznie mniejszą ilość porażek i wyrzeczeń które ponosi każdego dnia.
      To jest miara sukcesu a nie pozycja w lini prostej.

      Intel niskim kosztem wprowadzi się na rynek gdzie nie będzie musiał się szarpać z nikim i to jest własnie sukces.

      Partyzantka nie polega na zabijaniu wroga tylko na tym by krwawił.
      Intel właśnie prowadzi takie działania w tym temacie.

      Skomentuj

  5. kaylo
    Oceń komentarz:

    -6    

    Opublikowano: 2018-02-20 12:17

    Niech się wezmą za lutowanie IHS'ów lepiej.

    Skomentuj

  6. Chong-li
    Oceń komentarz:

    14    

    Opublikowano: 2018-02-20 12:55

    Intel to bardzo bogaty i poważny gracz który posiada bardzo nowoczesne laboratoria do rozwoju technologi myślę że AMD i Nvidia ma się czego bać,niedawno czytałem jak bardzo rozwinięte są badania wojskowe najnowszej technologi dla armii stanów zjednoczonych prowadzonych przez tą właśnie firmę posiadając takie zasoby i takich naukowców da się konkurować a nawet wygrać,to że wszytko na rynku kart jest opatentowane niczego nie zmienia i napewno intel ma asa w rękawie skoro wkracza w ten sektor.

    Skomentuj

    1. Himoto
      Oceń komentarz:

      2    

      Opublikowano: 2018-02-20 17:21

      Patenty, patentami. To tylko jedno z ograniczeń które napotka Intel.
      Jeśli chcą wejść na rynek konsumencki i nie grzebać się 10 lat tylko uderzyć z zaskoczenia [1-3 lata wdrążania] to sorry memory, ale chyba VR i inne takie im pozostają.
      W świecie profesjonalistów ciężko będzie dotrzeć do wszystkich twórców oprogramowania by ci poprawnie zaimplementowali sterowniki pod GPU Intela [choć jest to wykonalne], tak by te nie powodowały problemów.
      Najgorszym będzie przebicie się w świecie Windowsa i Mac'a. Niestety praktycznie wszystkie narzędzia w obu tych platformach opierają się o Direct, OpenGL/CL. Niby to nie problem i niby nawet te niesławne grafiki HD intela dawały sobie z tym radę. Niestety wszystko rozbija się o to "niby".

      Ktoś rzuci tekstem Laboratoria, kasa itd. Co wy myślicie ze Nvidia i AMD spały przez te 20 lat? Że Koduri sam wszystko w AMD GPU robił?
      Popatrzcie na przykład Samsunga który mógłby wchłonąć bez problemu Intela, a zrozumiecie czemu to nie wystarczy. Firma która jest mocniej powiązana z własnym państwem niż Intel z USA, która najprawdopodobniej ma tyle samo patentów co intel i 2x więcej kasy a ma problemy wejść na rynek cpu do telefonów [który jest łatwiejszym rynkiem niż rynek GPU].
      Podobnie jest w przypadku GPU tylko ze tutaj ogranicza ich klient który jest na tyle wybredny że wymaga dużej wydajność niskiej ceny niskiego poboru prądu + żeby najlepiej gry sprzed 30 lat chodziły tak samo dobrze jak najnowsze produkty.

      Intel w GPU bawi się już około 30 lat i nigdy nie odniósł na nim spektakularnego sukcesu. Gdyby aktualnie miało się to zmienić to już byście widzieli zapowiedzi podobne do tych a'la AMD z Vega vs Volta czy takie jak te Nvidii. Zaprezentowane rozwiązani ma najprawdopodobniej znaleźć się tam gdzie aktualna seria 1030 i 550[AMD] tylko po to by sprawdzić czy są w stanie wbić się w rynek GPU.

      Skomentuj

  7. KENJI512
    Oceń komentarz:

    0    

    Opublikowano: 2018-02-20 13:01

    Oby uderzyli w segment kryptowalut, intel -> kryptowaluty, amd -> ekonomiczni gracze, nvidia -> entuzjasci, i wszyscy szczesliwi

    Skomentuj

      1. mjwhite
        Oceń komentarz:

        -1    

        Opublikowano: 2018-02-20 19:34

        Od kiedy intel ma problemy z pamięciami? to nie amd.....

        Skomentuj

  8. Himoto
    Oceń komentarz:

    0    

    Opublikowano: 2018-02-20 16:46

    Już widzę w mojej kryształowej kuli jak GPU AMD i NV na najnowszych CPU Intela z 2025r mają gorsze wyniki niż GPU Intela, a na CPU AMD które teoretycznie jest słabsze - GPU AMD i NV gromią Intelowskie bez najmniejszych problemów :).

    Teraz poważnie. Intel ma szanse coś tam ugrać, ale z powodu ograniczeń patentowych raczej nie da rady wejść na poziom Vegi 64 czy GTX 1080 i wyżej. Zaś wprowadzenie całkowicie nowego środowiska opartego o własne pateny itd. w ciągu mniej niż 10 lat to nie realna sprawa. Pozostaję więc albo turlanie się po segmencie niskim oraz rynku profesjonalnym, albo to w czym Intel zawsze brylował "nieczyste zagrania".

    Pamiętajmy że postęp w GPU przez ostatnie 20 lat, był jednak większy niż w CPU. Większość nowinek technicznych trafiała własnie do GPU jako pierwszych [w formie pola testowego]. Dopiero później do innych segmentów. Dodatkowo weźmy pod uwagę jak skomplikowane są aktualne układu w stosunku do tych sprzed 10 lat i jako taki obraz tego jak trudno innym firmom będzie się wybić w tej branży. Oczywiście można postawić na środowiska całkowicie nie związane z Directem, OpenGL/CL ale ostatecznie spowoduję to że takie GPU zanim wybije się na rynku konsumenckim to albo minie 5-10 lat albo umrze z niedofinansowania.

    Jeśli ktoś myśli inaczej chętnie przeczytam coś konstruktywnego "czemu Intelowi może się udać", bo sama kasa nie wystarczy [gdyby tylko o kasę chodziło to samsung już dawno by był królem CPU do telefonów].

    Skomentuj

    1. mjwhite
      Oceń komentarz:

      0    

      Opublikowano: 2018-02-20 19:50

      "z powodu ograniczeń patentowych"

      Jakich ograniczeń? po prostu trzeba będzie wykupić licencję.

      Skomentuj

      1. Himoto
        Oceń komentarz:

        0    

        Opublikowano: 2018-02-20 21:24

        mjwhite - może nie do końca to jasno opisałem, ale cóż no chyba większość zorientowanych w temacie załapie całokształt.
        Co do tych ograniczeń Patentowych, to mamy trzy typy patentów [tak ogólnie przyjmując jako firma wchodząca na dany rynek] :
        1 - Otwarte Patenty - czyli coś opatentowanego ale wolnego do użytku
        2 - Półotwarte Patenty - czyli takie za których użycie trzeba płacić pewne wynagrodzenie np. licencję
        3 - Zamknięte - takie z których dobrodziejstw może korzystać tylko osoba/firma posiadająca prawa do patentu.

        Jest jeszcze podtyp wygasłych ale to można by je bez problemu wcisnąć w pierwszy typ. Gdyby się tak rozdrabniać to byśmy doszli do segregowania na zasadzie katalogowania a to nie ma najmniejszego sensu w tym wypadku.

        [uwaga jest to bardzo duży skrót myślowy]

        Wracając do głównego wątku, AMD i Nvidia mimo dość sporych działań w kierunku pomocy programistom itd. [zwłaszcza AMD], posiada dość spory zasób patentów na pewne rozwiązania strict'e zamknięte których nawet za grube pieniądze nie udostępnią, bo to by znaczyło że sami chcą wyprodukować sobie sztuczną konkurencję z identycznymi rozwiązaniami. Duża część osób zapomina o tym że nawet układ TMU względem reszty części chipu, jest w dokumentacji patentowej architektury danego GPU. AMD jak i Nvidia maja wiele dobrych jak i ciężkich lat za sobą w których poczyniły nie lada postęp w tworzeniu i rozwoju GPU by te prezentowały to co dziś mamy na rynku.
        Wbrew pozorom mimo że jako wrogie obozy, powinny być mocno powiązane wyglądem architektury samego GPU, wykonują większość instrukcji inaczej [część tych rozwiązań jest opatentowana]. Ten właśnie "elosystem" musi teraz utworzyć Intel, by nie robić GPU które poziomem obliczeń jest lepsze od najnowszego Titana, a w grach i programach ledwie dogania 1050Ti, biorąc przy tym pokaźne ilości energii elektrycznej.
        Teoretycznie Intel'a stać na to, dzięki sugerowanej kasie wspartej fabami oraz labami które posiadają, ale z drugiej strony rozwojowo są kilkanaście lat z tyłu i sama kasa na rozwój może nie wystarczyć.
        Tutaj pojawia się mniej lub bardziej istotne pytanie "na ile intel chce zmienić aktualne środowisko graficzne?", by być w stanie zacząć walczyć o klienta.

        Skomentuj Historia edycji

        1. mjwhite
          Oceń komentarz:

          0    

          Opublikowano: 2018-02-21 05:15

          Zatem czy vega8/10 jest aż tak różna w budowie od vega 56/64?
          Bo intel jest swoimi układami na poziomie tych mniejszych, a jeśli są one tylko pociętą wersją tych większych to intel nie musi robić zbyt wiele a jedynie powielić jednostki w swoich małych układach.
          Wiem to wszystko dużo uproszczenie ale nie przesadzał bym z tym kilkunastoletnim opóźnieniem bo układy graficzne tworzą cały czas a DX12 obsługuje nawet GPU z haswella.
          Tak, nie wyskoczą nagle z super TOPem ale jakieś szanse mają, szczególnie że ostatnio właśnie zrobił się wyścig na puste FLOPSy a gry jakoś lepiej wcale nie wyglądają.

          Skomentuj

          1. Himoto
            Oceń komentarz:

            0    

            Opublikowano: 2018-02-21 14:23

            żeby nie było to nie ja ci dałem minusa :)

            pytanie dobre, ale jest dość znaczna różnica pomiędzy Intelowskimi a AMDowskimi GPU, i o ile w 2016 roku AMD udostępniło Intelowi swoje GPU i technologię na zasadzie ograniczonej umowy, o tyle nie wiemy na ile ta umowa pozwala Intelowi bawić się tymi GPU [być może AMD jakoś sensownie się zabezpieczyło] jak zwykle diabeł tkwi w szczegółach.

            Miedzy Vega8/10 a większymi Vegami jest dość spora różnica w układzie ale to proponuję zajrzeć w dokładny opis układów. Intelowskie odpowiedniki Vegi 8/10 wcale nie są na tym samym poziomie [nie chodzi o sama wydajność lecz całokształt], owszem o ile grafika GPU z procków intela jest w stanie konkurować z Vegą 8 [czy się do niej zbliżyć] o tyle przeniesienie tego na większy chip czy też wzmocnienie go o większą ilość bloków wcale nie musi dać przyrostu mocy. To tak jakbyśmy wzięli Fermi i chcieli z kilku fermi zrobić Maxwella [taki troszkę odrealniony i mocno przerysowany przykład]. Niektórzy w sieci podejmowali się obliczania tak teoretycznie przyrostu mocy i jeśli Intel odpowiednio by zwiększył ilość bloków i bezproblemowo je powiązał to wydajność całego GPU byłaby na poziomie 570-580 przy zużyciu prądu na poziomie Vegi 64 lub więcej. Niektórzy snują teorie że Intel musi znaleźć rozwiązanie bo ich GPU o ile jest wystarczająco dobre przy małych rozmiarach i niskim poborze prądu o tyle nie będzie się dobrze skalować do większych chipów.

            Popatrz na RX580, Vega 56 i GTX 1070, karty różne w grach 1070 mniej więcej równo z Vega 56, a 580 daleko w tyle [wiadomo]. Problem się pojawia gdy zaczynamy bawić się w inne zastosowania niż gry. Symulacje cząsteczkowe, renderowanie w czasie rzeczywistym i inne takie na GPU, tutaj 1070 [mimo że jest dobrym GPU] bliżej nawet do rx580 aniżeli do Vegi. [tak wiem nie każdy bawi się w takie rzeczy ale warto zwórcić też i na ten aspekt uwagę]

            Skomentuj

  9. Gatts-25
    Oceń komentarz:

    -3    

    Opublikowano: 2018-02-20 17:59

    INTEL to pewnie niedługo podejmie decyzje ,że wszystkie wysokowydajne jednostki CPU a w przyszłości GPU będzie produkować u zewnętrznych korporacji ponieważ co raz bliżej mamy moment kiedy będzie z tyłu w litografii.Mi się podoba SAMSUNG bo wziąć CPU ARM i zaczął sam ulepszać a tego efekty zaraz będą dostępne w EXYNOS 9810.Myślę ,że rynek GPU także będzie dla niego łakomym kąskiem.

    Skomentuj

    1. Ruter19
      Oceń komentarz:

      3    

      Opublikowano: 2018-02-21 01:46

      :D w testach wydajnosciowych jest zmiazdzony przez iPhona :) 8Plus i X

      Skomentuj

  10. jakub1t
    Oceń komentarz:

    -1    

    Opublikowano: 2018-02-21 10:43

    Intel już raz miał kartę o niezłej wydajności, mianowicie Intel 740, nie pociągneli projektu dalej. Na pewno to była jakaś lekcja dla nich.

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!