Na topie

Intel opóźnia wprowadzanie nowych litografii - trzy generacje procesorów w 10 nm

Autor:

więcej artykułów ze strefy:
Procesory

Złamanie strategii TICK-TOCK ma dotyczyć również 10-nanometrowej technologii - w nowym procesie pojawią się aż trzy generacje procesorów.

Intel - wafel krzemowy

AA

Wszystko na to wskazuje, że Intel złamie strategię TICK-TOCK – zamiast wydawania dwóch generacji procesorów w jednym procesie technologicznym, koncern wydłużył daną technologię na trzy generacje procesorów. Nowe założenie ma również dotyczyć układów wykonanych w 10-nanometrowej litografii.

Do tej pory producent wydawał procesory w ramach strategii TICK-TOCK, gdzie krok TICK oznaczał zmniejszenie procesu technologicznego, a krok TOCK wprowadzenie nowej mikroarchitektury. Przykładowo procesory Sandy Bridge wprowadziły nową mikroarchitekturę, Ivy Bridge zmniejszyły litografię, Haswell wprowadziły kolejną mikroarchitekturę, Broadwell znowu zmniejszyły litografię i obecne modele Skylake wprowadziły nową mikroarchitekturę (przy zachowaniu 14-nanometrowej litografii).

Co czeka nas po układach z generacji Skylake? W drugiej połowie bieżącego roku planowana jest premiera modeli Kaby Lake, które nadal będą bazować na mikroarchitekturze Skylake i zostaną wykonane w 14-nanometrowej litografii. Można zatem mówić o odświeżeniu obecnej generacji i złamaniu strategii TICK-TOCK (choć producent zapowiedział wprowadzenie pewnych udoskonaleń pod kątem wydajności).

Intel TICK-TOCK schemat

Najnowsze przecieki wskazują na to, że nie będzie to jednorazowy przypadek. W przyszłym roku doczekamy się procesorów Cannonlake w 10-nanometrowej litografii, natomiast rok później pojawią się układy Icelake na bazie nowej mikroarchitektury. W 2019 roku znowu przyjdzie czas na udoskonalenie procesorów – tym razem będą to modele o nazwie kodowej Tigerlake, które będą bazować na mikroarchitekturze Icelake i 10-nanometrowej litografii. Później zapewne doczekamy się układów w 7-nanometrowej litografii, ale jeszcze przyjdzie nam na nie trochę poczekać - nastąpi to dopiero najwcześniej w 2020 roku.

Wygląda więc na to, że wprowadzenie niższych procesów technologicznych zajmuje coraz więcej czasu i rozwiązaniem tego problemu może być właśnie wydawanie odświeżonych generacji procesorów. Oczywiście można się burzyć z tego powodu i zarzucać tzw. odgrzewanie kotletów. Pytanie tylko, czy taki pośpiech rzeczywiście jest nam potrzebny? Chyba nie do końca, skoro kolejne generacje procesorów są konstruowane z myślą o klientach wymieniających kilkuletni sprzęt, a nie dopiero co kupiony z poprzedniej generacji.

Źródło: WCCFTech, inf. własna

Odsłon: 11740 Skomentuj newsa
Komentarze

37

Udostępnij
  1. Stasiek_Zabojca
    Oceń komentarz:

    19    

    Opublikowano: 2016-01-21 16:48

    Wymienianie podzespołów co rok-dwa już od dawna nie ma sensu. Ja po wielu latach z dobrym, lecz leciwym już niestety Intel Core 2 Quad Q6600 przesiadałem się od razu na i7 4770k.

    Skomentuj

    1. Orlyyyy
      Oceń komentarz:

      3    

      Opublikowano: 2016-01-21 16:58

      Mój kolega jeszcze używa mojego C2Q Q6600 3.5 GHz z Mugenem II ;)

      Skomentuj

    2. welll1
      Oceń komentarz:

      2    

      Opublikowano: 2016-01-21 17:10

      Dokładnie też mojego Q6600 na Spartanie wymieniłem jeszcze w tamtym roku. Lekko dopłaciłem i wybrałem diabła czyli 4790k ;)
      Stary komputer na Q6600 miałem wrażenie, że bardziej ograniczała grafa i 4 GB ramu niż ten poczciwy procesor.

      Skomentuj

      1. BrumBrumBrum
        Oceń komentarz:

        -2    

        Opublikowano: 2016-01-22 10:51

        technologicznie wydajność x86 dobiła niestety dna. o ile jeszcze za czasów Prescoot topowy cpu można było kupić za 1000 PLN, to teraz topowiec kosztuje znacznie więcej, nawet jeśli uwzględnimy inflację. jak się zestawi cenę i śladowy postęp w wydajności, to wymiana gratów co 3 lata mija się z celem. chociaż ja zwykle robiłem wymiankę co 5 lat lub nawet dłużej, bo na jednej podstawce dawało się wymieniać CPU na coraz szybsze. niestety od dawna tak już się nie da.

        Skomentuj

      2. mjwhite
        Oceń komentarz:

        2    

        Opublikowano: 2016-01-22 20:29

        od tego q6600 to nawet 2 rdzeniowy pentium będzie szybszy, przestań trolować.

        Skomentuj

    3. kiziamizia2
      Oceń komentarz:

      2    

      Opublikowano: 2016-01-21 18:03

      Ja jadę na platformie x58 i mam xeona oc na 4.4ghz i nie planuje przesiadki bo jak narazie idzie lep w lep z najnowszymi generacjami to nie ma sensu może poczekam na następcę Brodwell-E

      Skomentuj

      1. RPRT07
        Oceń komentarz:

        0    

        Opublikowano: 2016-01-21 20:42

        Mam podobnie W3530@4,2GHz :) ale nie zgodzę się że idzie w łeb w łeb z najnowszymi produkcjami

        Skomentuj

      2. Vieworld
        Oceń komentarz:

        0    

        Opublikowano: 2016-03-25 10:25

        też miałem wziąć xeona z serii W lub X ale prądożerne strasznie one są... ostatecznie wybór wypadł na 4790K ze względu na właśnie ekonomiczność i jednak ten ostatni jest wydajniejszy niż nawet taki X5675 - oczywiście dwa takie xeony zjadają go ale za co wzamian? "prundu" bierze strasznie dużo, w zasilaczu nawet 1kW tryb pasywny się wyłącza itd... dużo minusów, ale jeśli komuś nie zależy na hałasie to dalej można siedzieć na X58

        Skomentuj

    4. DexEngineer
      Oceń komentarz:

      -1    

      Opublikowano: 2016-01-22 08:13

      Od 2011 używam i7-2600K przetaktowany do 4,7 GHz... wciąż ok

      Skomentuj

    5. Arek13022
      Oceń komentarz:

      -1    

      Opublikowano: 2016-01-22 17:34

      Ja nadal siedzę na C2Q Q6600, jedyny mankament jest w grafice bo nie obsługuje DX11, ale w większość nowych gier w tym GTA V da się jeszcze grać na znośnych detalach

      Skomentuj

  2. Orlyyyy
    Oceń komentarz:

    2    

    Opublikowano: 2016-01-21 16:48

    Jak AMD pokaże ZEN i znowu będzie klapa to może i nawet 6 geenracji będziemy siedzieć na 10nm.

    Skomentuj

  3. PROCTON
    Oceń komentarz:

    2    

    Opublikowano: 2016-01-21 16:53

    Jestem ciekaw co się stanie jak nie będzie się już dało robić mniejszych :P

    Skomentuj

    1. Orlyyyy
      Oceń komentarz:

      9    

      Opublikowano: 2016-01-21 16:58

      Nagle się okaże, że można bo dymanie klientów musi trwać.

      Skomentuj

    2. pablo11
      Oceń komentarz:

      0    

      Opublikowano: 2016-01-22 00:41

      Przejdą na inny materiał. Krzem nie jest najlepszy. Pierwszy procesor z germanku krzemu w 7nm juz pokazało już ibm. Od ok 7nm ciężko będzie robić wydajne procesory, więc całkiem możliwe że kolejne procesy będą związane ze zmianą materiału. np. na german, który pomimo, że znany od dawna, od niedawna może być wykorzystywany w CMOS. Materiałów jest więcej. Ale częśc jest bardzo rzadka i droga, częśc toksyczna a część po prostu w jakiś tam sposób sie nie nadaje, lub zwieksza koszty.

      Skomentuj

      1. BariGT
        Oceń komentarz:

        1    

        Opublikowano: 2016-01-22 09:35

        Albo po prostu coś się ruszy w wielowątkowości i rozwiązania oparte na 8 słabszych rdzeniach (vide konsole) zaczną dominować.

        Skomentuj

        1. BrumBrumBrum
          Oceń komentarz:

          0    

          Opublikowano: 2016-01-22 11:06

          dokładnie tak. teraz procki i tak się grzeją na potęgę, i właśnie z tym trzeba coś zrobić. może więcej rdzeni, proces zostanie ale cpu stanie się wielowarstwowy tak jak HBM ?
          także dużo jest do zrobienia w samej architekturze procków, bo to co jest ciągle powiela stare schematy ze sztucznymi obecnie podziałami na pamięć wewnętrzną (RAM+ROM), zewnętrzną (FLASH, HDD), przestrzeń I/O i tak dalej. a już mamy pamięć Optane która stoi okrakiem pomiędzy FLASH i RAM.
          sama architektura też musi być przemodelowana, i coraz większą rolę powinny tu odgrywać kompilatory. x86 szczerze mówiąc jest już wypalone, bo powiela stary schemat rodem z i4004 ! i kilka pomysłow z odskoku w bok czyli Z80. jest to architektura CISC, tyle że jest to realizowane przez mikrokod na wewnętrznym RISC. ot taka ciekawostka. Konkurencyjne do tego są architektury z bardzo długimi instrukcjami, gdzie jedna instrukcja robi na raz wiele operacji za jednym razem.
          Na dobrej drodze jest tu ARM, który okazuje się być obecnie najbardziej efektywną energetycznie architekturą. i te właśnie army dopiero zaczynają wchodzić do serwerowni, po porażce takich architektur jak alpha, itanium i wiele innych czy ultrasparc które z powodu ceny nie przyjęły się na rynku konsumenckim.

          bez tego nie ma co marzyć o procesorach wielowarstwowych, bo przy przykładowym x86 okaże się że odprowadzenie ciepła będzie barierą nie do pokonania.

          co do germanu, tu jest dosyć poważny problem. po pierwsze jest to materiał bardzo rzadki, czyli bardzo drogi. po drugie nie znosi tak wysokich temperatur pracy jak krzem. po trzecie jest to materiał bardzo toksyczny, i aż strach będzie uszkodzić taki scalak aby się nie otruć. po czwarte wreszcie, któreś ze złączy działa znacznie wolniej. jedno chyb PNP działa b.szybko, a drugie odwrotne NPN działa bardzo powoooooli. przy współczesnych technologiach typu CMOS (mieszanie obydwu typów) powoduje to konieczność przeprojektowania dosłownie wszystkiego aby jeden z typów tranzystorów wyeliminować. nie zawsze się da.
          germanek krzemu może być dobrym kompromisem. ale czy takim będzie ? jak popatrzymy na wymogi do ROHS to się okaże, że stosowanie germanu jest krokiem wstecz.

          I deser na koniec. cały potencjał wytworzony przez elektronikę jest skutecznie trwoniony przez programistów. z tym koniecznie trzeba coś zrobić.

          Skomentuj

          1. mjwhite
            Oceń komentarz:

            0    

            Opublikowano: 2016-01-22 20:33

            fajnie to wszystko opisałeś tylko co z tego? Kilka rodzajów pamięci jest nie przypadkiem podobnie architektura cisc i razem to wszystko fajnie funkcjonuje. W kilku dziedzinach to rozwiązanie zostanie zastąpione innym bardziej specjalistycznym ale miejsce dla x86 w obecnym kształcie zawsze się znajdzie.

            Skomentuj

    3. baniol81
      Oceń komentarz:

      0    

      Opublikowano: 2016-01-22 19:41

      właśnie teraz to siedzieje; wydłużanie życia litografii; kolejny proces 7 jest nie dopracowany i długo nie będzie istnieje jedynie na papierze; chodzi o elektrony które w sposob nie kontrolowany przeskakują z trnzystora na tranzystor w 7n doszliśmy prawie do bezpiecznej bariery krzemu. jedynie nowe materiały mogą pomóc ale na razie ich nie ma; sa jedynie testowane.

      Skomentuj

  4. marian84
    Oceń komentarz:

    -7    

    Opublikowano: 2016-01-21 17:06

    Wtedy bedze wincyj rdzeniuf...

    Skomentuj

    1. tazik21
      Oceń komentarz:

      -3    

      Opublikowano: 2016-01-21 18:41

      wincej rdzeniowy, to nie takie proste. początki intela to sklejka C2Dx2

      Skomentuj

      1. Orlyyyy
        Oceń komentarz:

        -2    

        Opublikowano: 2016-01-21 20:43

        I tak lepiej chodziły niż pierwsze phenomy

        Skomentuj

  5. welll1
    Oceń komentarz:

    5    

    Opublikowano: 2016-01-21 17:07

    Seria "i" Intela jest na tyle dobra, że Ci co zakupili pierwszą lub drugą generację procesorów mogą myśleć dopiero nad zmianą.
    Intel bodaj od premiery serii "i" ściga się sam ze sobą.
    Dopiero teraz z procesem technologicznym ;)

    Skomentuj

    1. Adriian
      Oceń komentarz:

      4    

      Opublikowano: 2016-01-21 18:31

      Chociaż między pierwszą, a drugą generacją Core "i" była jeszcze duża różnica wydajnościowa, pozwalająca myśleć o wymianie, ale potem już zeszli do wzrostu o 5-10% na generację.

      Skomentuj Historia edycji

    2. NoobIsAlwaysWithYou
      Oceń komentarz:

      5    

      Opublikowano: 2016-01-21 19:08

      Ja siedzę nadal na i5-3570 i mam zamiar zmieniać dopiero za dwie generacje, bo póki co procesor absolutnie komputera nie ogranicza.

      Skomentuj

  6. kaalus
    Oceń komentarz:

    -3    

    Opublikowano: 2016-01-21 19:11

    Od kilku lat wygląda na to że proces przyspieszania procesorów, zarówno graficznych jak i CPU uległ zatrzymaniu. Albo przez to że Intel nie ma konkurencji, albo co bardziej prawdopodobne, są fundamentalne problemy i technologia nie skaluje się dalej.

    Jeżeli tak jest naprawdę, to kiepsko z nami. Od prawie 100 lat długoterminowy wzrost gospodarczy i generalna poprawa warunków życiowych na świecie były napędzane w dużej mierze przez wykładniczy postęp w dziedzinie elektroniki, zaczynając od radia a kończąc na procesorach. Zatrzymanie tego oznacza zapaść gospodarczą i wszystko co się z tym wiąże.

    Nie znajdziemy na przykład lekarstwa na raka (bo superkomputery nie będą w stanie szybciej przeliczać konfiguracji białek), nie polecimy na Marsa (bo nowe technologie napędu wymagają wielkich mocy obliczeniowych do modelowania procesów), nie zbudujemy elektrowni napędzanych fuzją jądrową.

    Wspominanie w takiej sytuacji o "odgrzewaniu kotletów" to niedocenienie wagi problemu.

    Skomentuj

    1. welll1
      Oceń komentarz:

      3    

      Opublikowano: 2016-01-21 19:20

      Wszystkie te problemu dotyczą krzemowych procesorów.
      Koncepty grafenowe czy kwantowe dają ogromny przeskok mocy na już istniejących procesach technologicznych.
      Pytanie komu, kiedy i za ile będzie opłacało się to upowszechnić.
      Skoro do 2020 roku będzie zabawa na 10 nm to szybciej konsumenckich PC w innym wydaniu niż krzemowe nie ujrzymy.

      Skomentuj

      1. BrumBrumBrum
        Oceń komentarz:

        2    

        Opublikowano: 2016-01-22 11:09

        ten przeskok mocy z pewnością zauważą programiści. softu już od dawna się nie optymalizuje, tylko żąda coraz wydajniejszego sprzętu. nie tak to powinno wyglądać.

        Dla przykładu popatrz na iphone. sprzęt wydajnościowo taki sobie, bardzo drogi, z bardzo dobrze dopasowanym softem.
        Z drugiej strony masz androida. sprzęt znacznie tańszy, zwykle wydajniejszy od iphone, i ....... w porównaniu z nim się strasznie muli.

        niestety technologia rozleniwiła programistów. to co kiedyś działało płynnie na 8bitówkach, teraz się tnie na super sprzęcie.

        Skomentuj

        1. rqtdev
          Oceń komentarz:

          0    

          Opublikowano: 2016-01-22 18:11

          Optymalizacja zajmuje dużo czasu, dużo czasu to wysoka cena wytworzenia oprogramowania. Ktoś zapłaci za Windows czy grę 4x więcej niż obecnie?

          Skomentuj

      2. Foxy the Pirate
        Oceń komentarz:

        0    

        Opublikowano: 2016-01-22 23:23

        Nie dają, bo nie działają. Bo co komu układ zdolny pracować w maks 100 stopniach kelwina lol.

        Skomentuj

  7. Kynareth
    Oceń komentarz:

    1    

    Opublikowano: 2016-01-21 22:01

    Po zmniejszaniu tranzystorów dzięki fotolitografii w CMOS (prawo Moore'a) prawdopodobnie będziemy robili coś innego, co pozwoli na dalsze zwiększanie wydajności na wat komputerów. A możliwości jest wiele i w laboratoriach są prototypy różnych urządzeń, dających nadzieję, że po wejściu w proces 7nm/5nm będzie jeszcze co robić. Np. dla komputerów kwantowych istnieje "prawo Rose'a", które utrzymuje się od 2003 roku.
    Poza tym jest optoelektronika, optyka kwantowa, są nowe materiały, komputery neuromorficzne, spintronika, naprzewodnictwo, przełączniki miliwoltowe i więcej.

    Skomentuj

    1. BrumBrumBrum
      Oceń komentarz:

      0    

      Opublikowano: 2016-01-22 11:11

      tyle że te wszystkie cuda nie mają takiej skali miniaturyzacji jak krzem.

      przyszłością mogą być też memrystory, lub pamięci typu MRAM które przy odpowiedniej konstrukcji mogą pełnić rolę obliczeniową.

      programiści też powinni zmienić technologie programowania. obecne produkują silnie zasobożerny kod.

      Skomentuj

  8. cyberant
    Oceń komentarz:

    2    

    Opublikowano: 2016-01-22 11:11

    dawniej wymiana generowała znaczny skok jakościowy i wydajnościowy... teraz róznice zanikają. ale miło powspominać :)

    w szkole jeszcze XT, w domu pierwszy 386 SX, potem kolejno Pentium 60 -> AMD K6 II 400, Duron 600 po miesiącu okazyjna wymiana na Athlona 700 po kilku latach Athlon XP 1600, potem AMD Athlon 64 X2 4600+ -> iCore i5 2500 -> Teraz od ok. 3 lat intel Core i7 3770k i raczej nie mam potrzeby na szybką wymianę...

    Skomentuj

    1. BrumBrumBrum
      Oceń komentarz:

      1    

      Opublikowano: 2016-01-22 11:17

      moja historia jest krótsza :) ale: w szkole ZX Spectrum i jego klon Timex, jakieś SpectraVideo na Z80 tez się przytrafiło, przynajmniej dyskietki to miało. szkolny XT z i8088 to była tragedia na którą się patrzeć nie chciało. zmiana szkoły, nadal XT które potem były wymieniane.
      a w domu? pierwszy to i486SX pożyczony po uzbieraniu kasy wymieniony na i486DX. potem wymiana na pentium classic 133, Celeron i wymiana na Prescoot 3GHz, potem coś pożyczonego na AMD a teraz jakaś linia DualCore z 2x rdzeniami jeszcze z DDR2 na której wiesiek2 ciągnie bez problemu w FHD na średnich. Czy te nowsze są tak szalenie szybsze? jakoś tego nie widzę. niby jest DDR3 a nawet 4 i co z tego ? jak mnie mój stary złomek zacznie zawodzić, to go wtedy wymienię.

      Skomentuj

  9. neXt___
    Oceń komentarz:

    0    

    Opublikowano: 2016-01-22 11:14

    Zależy od zastosowań. W grach, ten Twój Xeon pewnie przegrywa z i3-6100, bo ma znacznie niższą wydajność pojedynczego rdzenia, a zdecydowana większość gier jedzie na 4/4. No chyba, że pracujesz z komputerem i masz Xeona mocniejszego niż 4/8, wtedy faktycznie nie ma sensu zmiany. Jednak nawet grubo podkręcone Xeony 4/8 (dalej mowa o x58) przegrają w zaawansowanych zastosowaniach z głupim i5-4460, no i w całej reszcie zastosowań.

    Skomentuj

    1. maniakOC
      Oceń komentarz:

      1    

      Opublikowano: 2016-01-26 21:01

      niestety jesteś w błędzie i5 wypada gorzej niż xeon l5520@3815Mhz w programie HEVC Decode benchmark cobra V1.61 miał wynik 588.36 (dane własne)
      i5 4460 (stock):359.27 (hwbot.org) jedyne co mogę się zgodzić to że wydajność pojedynczego rdzenia jest gorsza, ale to jest inna litografia, arch itd.

      Skomentuj Historia edycji

  10. SirMichael
    Oceń komentarz:

    -4    

    Opublikowano: 2016-01-22 13:42

    intel jak i nvidia chcą jak najwięcej się nachapać bez wydawania kasy na nowe technologie i dlatego tak to powoli idzie. Teraz AMD trochę ruszyło do przodu to NV WOOOW planuje wprowadzić pamięci HBM a gdyby nie to do dalej by nas dymali ile wlezie wciskając nam co roku odrobinę lepszy sprzęt.

    Skomentuj

    1. Foxy the Pirate
      Oceń komentarz:

      0    

      Opublikowano: 2016-01-22 23:27

      Jesteś pełnoletni? Wątpię, gdyż nawet w gimnazjum są podstawy fizyki, których ty nie opanowałeś.

      Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!