Na topie

Wielordzeniowość

Autor:
Marcin Bienkowski

więcej artykułów ze strefy:
Procesory

A A

Naturalnym, wykorzystywanym powszechnie sposobem na zwiększenie wydajności procesora jest zastosowanie w nich architektury wielordzeniowej. W obecnie produkowanych wielordzeniowych procesorach wykorzystuje się prostą w sprzętowej i programowej implementacji architekturę SMP (Symmetric MultiProcessing), która pozwala na symetryczne, jednoczesne przetwarzanie wielu wątków na kilku procesorach lub rdzeniach należących do jednego układu. Rdzenie w układach wielordzeniowych współdzielą ze sobą zasoby komputera, takie jak: pamięć operacyjna RAM, pamięć masowa (m.in. dyski twarde, pamięć flash, napędy optyczne) oraz interfejsy I/O. Co ważne, w architekturze SMP rdzenie (lub procesory) komunikują się ze sobą używając wspólnej magistrali systemowej. Charakterystyczną cechą architektury SMP jest to, że procesory (lub rdzenie) do poszczególnych zadań przydzielane są przez system operacyjny.

Wszystkie produkowane obecnie układy wielordzeniowe są tak naprawdę kilkoma połączonymi na jednej strukturze krzemowej niezależnymi procesorami, zwanymi tutaj rdzeniami lub jądrami. Każdy z rdzeni procesora wielordzeniowego jest identyczny i komunikuje się z pozostałymi jądrami za pomocą jednej wewnętrznej magistrali systemowej. Obecnie produkuje się procesory dwu-, trzy-, cztero-, sześcio-, ośmio- i dwunastordzeniowe. Układy z pojedynczym rdzeniem obecnie spotkać można już jedynie w najprostszych netbookach.

Struktura krzemowa procesora AMD Bulldozer z zaznaczonymi blokami architektury
Struktura krzemowa procesora AMD Bulldozer z zaznaczonymi blokami architektury

Bardzo ciekawe rozwinięcie architektury wielordzeniowej przygotowali inżynierowie firmy AMD w wypadku procesorów z rdzeniem Bulldozer (np. ośmiordzeniowy układ AMD FX-8150). Zastosowano tutaj modułową, znaną dokładnie z architektury serwerów konstrukcję. Każdy z modułów (który tak naprawdę jest niezależnym, dwurdzeniowym procesorem) zawiera dwa rdzenie wraz ze wszystkimi potrzebnymi do ich działania elementami – w tym pamięcią cache L2. Ponieważ moduły zawierające dwa rdzenie są w bardzo dużym stopniu niezależne, bardzo łatwo jest skalować cały układ produkując procesory o dowolnej parzystej liczbie rdzeni. Resztę procesora stanowi pamięć cache L3, kontrolery magistrali systemowej Hyper-Transport i kontroler pamięci.

Mikroarchitektura procesora AMD Bulldozer
Mikroarchitektura procesora AMD Bulldozer

Mikroarchitektura dwurdzeniowego modułu układu AMD Bulldozer
Mikroarchitektura dwurdzeniowego modułu układu AMD Bulldozer

Nieco wcześniej bardzo podobnie do modułowości procesorów wielordzeniowych podeszli inżynierowie Intela. W wypadku najnowszej architektury Sandy Bridge rdzenie procesorów są również niezależne, ale „przypięte” zostały one do znacznie bardziej zintegrowanego „systemowego” otoczenia, a mianowicie jednostki nazywanej agentem systemowym (ang. system agent), która zastąpiła mostek północny montowany niegdyś na płytach głównych. Poza agentem w rdzeniu procesora znalazł się kontroler pamięci i układ graficzny. 

Modułowa mikroarchitektura układu Intel Sandy Bridge
Modułowa mikroarchitektura układu Intel Sandy Bridge

Jak widać w kolejnych generacjach procesorów zgodnych z architekturą x86 pojawiają się coraz to nowsze elementy odmładzające tę architekturę. Nic nie wskazuje na to, żeby układy zgodne z listą rozkazów x86 miały odejść do lamusa. W najbliższym czasie powinniśmy doczekać się kolejnych jej rozszerzeń związanych ze strumieniowym i wektorowym przetwarzaniem danych. 

Lubisz cykl hardcore IT? Poleć go znajomym na Facebooku (kliknij "Lubię to!" na górze artykułu) oraz przeczytaj inne artykuły:

Procesory wielordzeniowe - co szykuje przyszłość? Intel Thunderbolt - transfer danych na całego OLED - ekrany przyszłości

 

 

Odsłon: 114340 Skomentuj artykuł
Komentarze

74

Udostępnij
  1. Minimal
    Oceń komentarz:

    4    

    Opublikowano: 2012-02-20 13:46

    Fajny tekst, dla laika takiego jak ja ciekawy artykuł do poczytania :)

    Skomentuj

    1. kolo2255
      Oceń komentarz:

      2    

      Opublikowano: 2012-04-08 22:11

      Mnie też się bardzo podoba.

      P.S.
      Przydałby się tak obszerne opracowanie architektury ARM.

      Skomentuj

    1. losarturos
      Oceń komentarz:

      3    

      Opublikowano: 2012-02-20 14:30

      Tak potęga do n dążącym do minus nieskończoności;-) Mieli szczęście, że jakiś umysłowo sprawny inaczej w IBM wybrał taką paść do tworzonego peceta i wkopał nas w ten złom na całe lata. Dzięki temu, że sprzedawali te procki na tony mieli kasiorę na projektowanie nowych a i tak sporo czasu zajęło im zrobienie ze swojego projektu coś w miarę przyzwoitego. Szkoda, że IBM nie wybrał motoroli 68000. Intel wtedy dalej mógłby się bawić projektowaniem procesorów do kalkulatorków i innych zabawek.

      Skomentuj

      1. sony75
        Oceń komentarz:

        -26    

        Opublikowano: 2012-02-20 14:42

        Ciekawe ile lat jeszcze będą trzepać ten złom :)

        Skomentuj

          1. sony75
            Oceń komentarz:

            -2    

            Opublikowano: 2012-02-27 01:48

            lubie trzepać koniorka nad moją ps3 i nic na to nie poradze :*

            Skomentuj

        1. MKjanek32
          Oceń komentarz:

          2    

          Opublikowano: 2012-02-20 16:09

          A co Ci się w architekturze x86 nie podoba? Moim zdaniem to dobra i wydajna architektura, i można ją jeszcze mocno rozbudować. Nie rozumiem więc po co z niej rezygnować.

          A teraz w kwestii poboru prądu - poniżej zestawienie dotyczące TDP procesorów w dwóch wydajnych architekturach + Core i7 Nehalem:
          -Core i7 875K - 95 W (2010)
          -Itanium 9330 - 155 W (2010)
          -UltraSPARC T2 (nowszych nie znalazłem) - ~100 W (2007/08)
          Jak widać TDP jest podobne, a w przypadku IA-64 sporo wyższe. Tak więc x86 wypada tutaj nieźle. Co prawda ARM jest bardziej energooszczędny, ale też ma mniejszą wydajność.

          Skomentuj

          1. Promilus
            Oceń komentarz:

            1    

            Opublikowano: 2012-02-20 16:22

            "Moim zdaniem to dobra i wydajna architektura, i można ją jeszcze mocno rozbudować"
            Tak, z 30 letnim narzutem antycznych rozkazów, trybów adresowania itp. itd. które w ramach kompatybilności wstecznej zostać muszą, a część nowości jest wprowadzana poprzez wykorzystanie illegal opcode czyli metodę dość nieelegancką :P Gdyby zredukować naleciałości dawnych lat i zrewidować arch pod kątem obecnych aplikacji to rzeczywiście x86 byłoby niezłe, tylko pewnie przestałoby być x86 :>

            Skomentuj

          2. NuCore
            Oceń komentarz:

            0    

            Opublikowano: 2012-02-21 01:53

            Nic nie poradzisz na specjalistów takich jak MKjanek32, co o prockach wiedzą tyle, że było takie coś jak Pentium;) A to co było wcześniej i alternatywne, to nawet nie słyszał.

            Historia już nieraz pokazywała, że nie wygrywa lepsze rozwiązanie, tylko to co się ludziom wpoi i do czego się ich przyzwyczai.

            Skomentuj

          3. gregory003
            Oceń komentarz:

            0    

            Opublikowano: 2012-02-21 23:51

            Acha. A zauważyłeś ile kosztuje ten procesor z czterema wątkami na rdzeń i IPC około wartości 6? Wszystko rozbija się o TDP, skomplikowanie układu, jego powierzchnię, jednym słowem uzysk (czyli kasę).

            Skomentuj

          4. gregory003
            Oceń komentarz:

            0    

            Opublikowano: 2012-02-21 23:48

            No ale powiedz, co ma do wydajności architektury jej model programowy? A w takim razie w czym przeszkadzają ci te 30/40 letnie naleciałości? Bo wszystkie one sprowadzają się do modelu programowego.

            Skomentuj

          5. Promilus
            Oceń komentarz:

            0    

            Opublikowano: 2012-02-22 04:26

            Przerośnięty i dostosowany do nich dekoder, a przy okazji częśćiowo rejestry, scheduler, cache... Pewnie, tego już nie dostrzegasz więc co ci za różnica.

            Skomentuj

          6. gregory003
            Oceń komentarz:

            0    

            Opublikowano: 2012-02-22 07:54

            Przerośnięty dekoder to tak, ale scheduler? Co ma do tego scheduler? Czy jeszcze lepiej cache? Którego poziomu? Nie mówiąc już o tym, że liczba rejestrów zewnętrznych procesora nie musi być stałą dla architektury i wystarczy żeby tylko Intel i AMD się dogadali i nie ma dużych przeszkód w zwiększeniu ich liczby.

            Skomentuj

          7. Promilus
            Oceń komentarz:

            0    

            Opublikowano: 2012-02-22 16:08

            [quote]Czy jeszcze lepiej cache? Którego poziomu?[/quote]
            Każdego, bo tam cały czas są rozkazy x86 (ewentualnie dane dla tych rozkazow w L1D, ale to już inna sprawa oraz rozwiązanie nazwane przez intela L0 cache albo level zero cache które przechowuje bodajże 128 uOps czyli wyników tłumaczenia x86 na mikrokod). Co ma do tego scheduler? No jak to co... zobacz co to za element i co robi to będziesz wiedział.
            Dalej - liczba rejestrów w modelu programowym - no kurka masz już dwa razy poszerzane GPRy (z 16 na 32 i z 32 na 64bit).W x86-64 masz też GPRy dodane. No tak, zajebiaszczy wzrost mocy przy rekompilacji typowych appsów :P Tak samo masz 2x więcej rejestrów XMM, a w prockach z AVX masz dodatkowo 2x poszerzone te rejestry tworząc YMM. I co z tego wyniknęło? Zmienił się procek w RISCa?

            Skomentuj

          8. gregory003
            Oceń komentarz:

            0    

            Opublikowano: 2012-02-22 21:36

            O schedulerze to sobie może ty poczytaj, bo ten zarządza już mikrokodem, nie instrukcjami x86. Więc co ma piernik do wiatraka. Cache to również żadna różnica - nie ma znaczenia czy będzie przechowywać kod x86 czy mikrokod. Wiele instrukcji x86 przekłada się na jedną mikroinstrukcje. W pozostałych przypadkach nie ma większej różnicy czy będziemy przechowywać większą ilość prostych instrukcji, czy kilka bardziej złożonych - wymagania co do pojemności i przepustowości są podobne. Pozostaje kwestia rejestrów, ale rozszerzenia x86 wprowadzane są właśnie po to, by załatać braki pierwotnej wersji architektury. Właściwie wszędzie, po zdekodowaniu instrukcji x86 mamy już do czynienia z mikrokodem, więc x86 nie ma większego wpływu na przetwarzanie.

            Skomentuj

        2. amb00
          Oceń komentarz:

          2    

          Opublikowano: 2012-02-20 17:55

          To wymyśl coś lepszego.

          Skomentuj

          1. pablo11
            Oceń komentarz:

            -6    

            Opublikowano: 2012-02-20 18:36

            On nie musi wymyślać ARM jest lepszy architektury GPU są lepsze...

            Skomentuj

          2. saddam
            Oceń komentarz:

            1    

            Opublikowano: 2012-02-20 19:04

            Te swoje teksty szyfrujesz 3DES'em, czy po prostu nie potrafisz pisać?

            Skomentuj

          3. pablo11
            Oceń komentarz:

            1    

            Opublikowano: 2012-02-21 13:08

            Intel raczej atomami duzo nie zdziała... Szczególnie przy obecnej strategii produkcji atomów (czyt. zamiast być produkowane w nowym procesie produkcyjnym, oni produkują je chyba w fabrykach po architekturze która była przed Westmere). Co do szyfrowania to faktycznie pozapominałem znaków interpunkcyjnych wstawić...

            Skomentuj

          4. predek
            Oceń komentarz:

            0    

            Opublikowano: 2012-02-21 20:39

            GPU nie jest lepsze do zastosowań do jaki używa się x86. GPU wykonuj wiele prostych operacji. We wszystkich 'rdzeniach' wykonuje tą samą operację tylko w każdym na innych liczbach.

            Skomentuj

        1. jaro777
          Oceń komentarz:

          3    

          Opublikowano: 2012-02-21 06:55

          Morgi - prawdziwi uczeni to byli tylko w CCCP, jeśli chodzi o inżynierów i naukowców to śmiem twierdzić że AMD miało/ma bardziej błyskotliwych i dalekowzrocznych niż intel, intel zawsze miał menadżerów potrafiących za wszelką cenę i na granicy prawa lub poza nią, kierować rynkiem. U AMD zawsze brakowało tak bezwzględnych i zmotywowanych zarządzających. I taka była różnica - piszę "była" bo obecnie ani intel nie może za bardzo stosować metod znanych z przeszłości (i bardzo dobrze - dlatego zaczął w końcu robić konkretne układy za adekwatną cenę) ani AMD nie musi jak widać się kulić pod siebie bo w końcu chyba zatrudnia pewnych siebie i jasno zorientowanych menadżerów. Bo o technologię w AMD od dawna nie musimy się obawiać.

          Skomentuj

  2. jewgienij
    Oceń komentarz:

    6    

    Opublikowano: 2012-02-20 14:55

    10-20 lat temu mniej wiecej takie tematy czesto byly poruszane w "prasie komputerowej". Zadnych wojen polglowkow utozsamiajacych sie z tajwanskimi czy amerykanskimi spolkami akcyjnymi. Przypomnialo mi sie, ze prawie rok temu zapowiadaliscie artykuly dla "pauer juzerow"(chyba jeden nawet juz byl?). Ciekawe, czy x86 nadal bedzie popularne, gdy broda mi zsiwieje. Pewnie tak.
    Pejsbuk tu, pejsbuk tam...

    Skomentuj

  3. afaik11
    Oceń komentarz:

    3    

    Opublikowano: 2012-02-20 15:02

    AAAAaaaaa, co ja pacze? O_o
    Chowajcie szybciutko ten artykuł, bo komuś pomyliło się TLB(Translation Lookaside Buffer) z mechanizmem Branch prediction!!!

    Skomentuj

  4. Rakieta1
    Oceń komentarz:

    -7    

    Opublikowano: 2012-02-20 15:07

    Tylko patrzeć jak AMD stworzy odpowiednik System Agent.

    AMD lata świetności za sobą.

    Premiera Bulldozera tylko to potwierdziła. 6-cio rdzeniowy procesor z nową architekturą gorszy od poprzednika...tyle o AMD. Hector i Rory sprowadzą świetną niegdyś firmę na kozi róg.

    Rezyganacja Dirka Meyera oznacza end świetnej niegdyś firy.

    Intel obecnie będzie liderem CPU - x86.

    Moim zdaniem powinno się już odejść od x86, ale nie w stronę ARM.

    ARM nie ma układów zamiany instrukcji i jeynąich zaletą jest energooszczędność.

    Powinno się stworzyć nową listę instrukcji ale pod kątem oprogramowania - jak to miało mniejsce w 1978 roku.

    Intel mający ogrom środków powinien coś zdziałać, bo w końcu rozwój ich produktów stanie w raz z procesem technologicznym.

    Skomentuj

    1. jewgienij
      Oceń komentarz:

      5    

      Opublikowano: 2012-02-20 15:21

      Tak, juz intel zdzialal. Nazywa sie to ITANIC. Okazalo sie, ze nikomu nie chce sie przepisywac calego istniejacego softu na nowa hajendowa platforme.

      Skomentuj

      1. Rakieta1
        Oceń komentarz:

        -5    

        Opublikowano: 2012-02-20 15:29

        Trzeba stopniowo w porozumieniu z Microsoftem. Najlepiej wypadałoby zacząć od urządzeń mobilnych w stronę większego kalibru komputerów. ARM z Windows 8 to tylko początek. A tak po za tym obecne procesory przekrajaczają i to znacznie wymaganą od nich wydajność - w przeciwieństwie do kart graficznych.

        Skomentuj

      2. gregory003
        Oceń komentarz:

        1    

        Opublikowano: 2012-02-22 00:10

        Itanic? Może Itanium? A właściwie nie Itanium (bo to nazwa mikroarchitektury) a IA-64. I owszem, pod wieloma względami było lepsze/ciekawsze niż to co zaproponowało AMD. AMD wprowadziło w AMD64 16 rejestrów ogólnego przeznaczenia, IA-64 ponad 500 podzielonych na typy. Niestety AMD zostało wprowadzone na masowy rynek, bo intelowskie Itanium okazało się kiepskim produktem (ale to nie oznacza, że samo IA-64 było złe, tak wyprzedzając), posiadającym błędy projektowe i nikt z odrobiną rozumu nie chciał tego brać. Tak więc, jak napisał trochę wcześniej NuCore, wygrała nie lepsza architektura, a ta która pierwsza się upowszechniła.

        Skomentuj

  5. Promilus
    Oceń komentarz:

    14    

    Opublikowano: 2012-02-20 15:33

    Ładnie, ale parę zastrzeżeń mam:
    1. AMD64 zostało opracowane przez AMD, a nie w kooperacji z Intelem. Intel promował rozwiązanie swoje i HP pod tytułem IA64. Intel za pomocą cross license zyskał prawo do własnej implementacji instrukcji x86-64 i zrobił to w formie EM64T. Ale w opracowaniu tej technologii nie kiwnął paluszkiem :)
    2. MMX mapowało WSZYSTKIE swoje 64 bitowe rejestry (a nie część) na 80 bitowe rejestry x87 (ST0-ST7) a dodatkowo operowało jedynie na liczbach stałopozycyjnych więc rola była ogółem niewielka, a rewolucja żadna (choć Intel z MS, a później kolejno AMD, IDT itp. starali się z MMX zrobić super bohatera). Małe rewolucje to 3DNow!, SSE, a trochę większa SSE2.
    3. Rdzenie RISC - tutaj też trochę fantazja ponosi. Mikrokod ma każdy procesor, czy to CISC, czy RISC, czy VLIW, czy SIMD. Mikrokod ma to do siebie, że jest RISC like - tzn. zazwyczaj jednej instrukcji RISC odpowiada 1 mikrooperacja (ale nie zawsze!) Nowoczesny x86 nadal nie ma w środku tylu rejestrów co typowe RISC. Jedyne eksperymenty z jądrem RISC to AMD K5, K6 i Nx586 - pozostałe proce to łączenie zalet CISCa i RISCa (pipeline, superscalar, register rename etc. etc), ale nie jądro RISC.
    4. K5 nie opierało się o nx586 tylko AM29k, dopiero K6 bazowało na projekcie nexgena, którego AMD przejęło. Wszystkie te konstrukcje łączyła świetna wydajność pure x86, natomiast daremne FPU x87 o ile w ogóle było.

    Skomentuj

    1. jewgienij
      Oceń komentarz:

      3    

      Opublikowano: 2012-02-20 16:27

      A i przypomnial mi sie procesor pentium M (pierwsze centrino), ktory byl posrednim ogniwem miedzy PIII i core. W czasach gdy przyszli informatycy mieli mokre sny na temat P4 EE i AMD FX, chyba w enterze przeczytalem wzmianke o typie, ktory podkrecil pentium M (bez helu, azotu itp) i okazalo sie, ze ten laptopowy procesorek wydajnoscia zmiata flagowe proce chipzilli i amd po $1000 sztuka.

      Skomentuj

      1. Promilus
        Oceń komentarz:

        3    

        Opublikowano: 2012-02-20 17:46

        Pentium Pro->Pentium II (Klamath, Deschutes?)->PIII (Katmai, Coppermine, Tualatin) -> Pentium M (Banias, Dothan, Yonah) -> Core (Conroe, Wolfdale) -> Nehalem (Nehalem 45nm, Westmere 32nm)-> Sandy Bridge (Sandy Bridge, Ivy Bridge)-> ... Cały czas rodzina dobrych proców. Może AMD wróci do tego co czyniło z K7 killera i też pokaże znowu konkret konkurencję.

        Skomentuj

        1. pablo11
          Oceń komentarz:

          1    

          Opublikowano: 2012-02-20 18:45

          AMD żeby pokazać pazur musiałoby odzyskać Global Fundries lub po prostu zmienić architekturę. Bo jak wiadomo Intel jest jak narazie grubo przed AMD w procesie technologicznym. Jedyną przewaga jaką ma teraz AMD to to że może rozmieść po włożeniu do APU serii 7000 całkowicie GMA. Bo jak wiadomo wiekszosci ludzi nie jest już potrzebny dużo szybszy procesor ale GPU w nim by sie przydało wydajniejsze.

          Skomentuj

          1. karer
            Oceń komentarz:

            -1    

            Opublikowano: 2012-02-20 23:30

            Kolejna przewaga jest PATENT na architekture ktora zaklada wspolistnienie 2 niezaleznych rdzeni z ktorych oba moga wspoldzielic osobna jednostke wykonawcza. Moim zdaniem takie zapis ustawia ich na przyszlosciowej pozycji :)

            Skomentuj

          2. gregory003
            Oceń komentarz:

            1    

            Opublikowano: 2012-02-22 00:31

            No nie bardzo, bo GMA też przyśpieszyły. Wzrost wydajności pomiędzy HD4000 a HD3000 będzie chyba wyższy niż pomiędzy GPU w Trinity a Llano, ale to oczywiście tylko przypuszczenia (Trinity będzie miało GPU w VLIW4 tak jak Llano ma we VLIW5, więc można co nieco już o nim powiedzieć).

            Skomentuj

          3. gregory003
            Oceń komentarz:

            1    

            Opublikowano: 2012-02-22 00:34

            Inna sprawa, że Intel sam się wkopuje dając słabsze IGP do słabszych procesorów, a to mocniejsze i ciekawsze do wydajniejszych, gdy tymczasem to taki Core i3 miałby większy pożytek z HD300/HD4000, bo w i7 IGP i tak służą tylko jako grafika zapasowa lub swoisty tryb oszczędzania energii.

            Skomentuj

        2. Marcin Jaskólski
          Oceń komentarz:

          0    

          Opublikowano: 2012-02-20 19:10

          Taa Klamath biegał na FSB 66MHz, a Deschutes na 100. To były czasy, łezka się w oku kręci ;)

          Skomentuj

          1. Promilus
            Oceń komentarz:

            4    

            Opublikowano: 2012-02-20 19:39

            Celeron 300A, OC i jazda ;) 128KB L2 IIRC pełnej prędkości proca (w Pentium II Klamath leciał L2 na osobnym układzie o połowie częstotliwości proca jak dobrze kojarzę, podobny patent miało AMD K7 SlotA gdzie L2 latał na bodajże 1/2-2/3 CPU freq)
            Ech, to były czas. Reset itp. dla siebie, szkolna prenumerata chipa na czytelni ... internet w szkole i kafejkach, ewentualnie model i magiczne 0 20 21 22 (a później szaleństwo ISDN oraz SDI!)
            Ha! To były dobre czasy, ale jak to mawiają nasi sąsiedzi... to se ne vrati.

            Skomentuj

          2. saddam
            Oceń komentarz:

            1    

            Opublikowano: 2012-02-20 22:53

            Miałem Celerona 300A w 1998 roku i procek nieźle wymiatał jak na tamte czasy. Bez problemu kręcił się do 466MHz, a system bootował się nawet na 533MHz ale później wykładał się system i potrzebna była reinstalka. Oczywiście wszystko na domyślnym napięciu i boxowym coolerze. Ludzie nie wierzyli jak widzieli 466MBz i 64MB RAM, bo wtedy wszyscy siedzieli na jakichś pentium 1 166MHz albo K5 + 16MB SIMM.

            Skomentuj

          3. Marcin Jaskólski
            Oceń komentarz:

            1    

            Opublikowano: 2012-02-21 00:01

            Ja bawiłem się w odpalanie Coppermine'a na 440LX :)

            Skomentuj

          4. NuCore
            Oceń komentarz:

            2    

            Opublikowano: 2012-02-21 01:59

            Łezka sie kręci, to w takim razie, ktor napisał te babole o których wspommina Promilus?;) No chyba, że tych łez było tak wiele, że aż (one) wzrok przyćmiły;)

            Skomentuj

          5. saddam
            Oceń komentarz:

            -1    

            Opublikowano: 2012-02-21 08:40

            440LX miałem na samym początku ale FSB nie dało się ruszyć z 66MHz i zaklejanie pinu B21 nie przynosiło żadnych efektów. BX oficialnie wspierał FSB 66 i 100 ale mieszająć zworkami udało mi się znaleźć kombinacje na 75, 105, 112 i 133. Później już przlutowałem sobie przełączniki do pinów na płycie głównej i zamontowałem je na przednim panelu żeby nie otwierać non stop obudowy.

            Fajne czasy były wtedy. Włącznie z początkami internetu i rozpowszechnianiem się komputerów. Szukając dodatkowych informacji na temat OC znalazłem stronę - wojo benchmark 3d czy jakoś tak - pierwotny benchmark.pl

            Skomentuj

      1. karer
        Oceń komentarz:

        0    

        Opublikowano: 2012-02-20 23:32

        Otoz mozna bez zgody intela rozwijac x86 i ewentualnie odprowadzac oplaty licencyjne ktorych wysokosci nie ustala intel.

        Skomentuj

      2. jaro777
        Oceń komentarz:

        1    

        Opublikowano: 2012-02-21 07:11

        no właśnie AI-64 to była tak rewolucyjna architektura że jak ktoś kto musiał na nią dłubać stwierdził że co z tego że jest bardzo wydajna jak pisanie/testowanie oprogramowania zajmuje więcej co ewentualny zysk z szybkości wykonywania programu.
        Swego czasu tak sie redaktorzy zachwycali i przepowiadali dominację Merceda (I itanium, później II itanium) że przyszedł AMD Opteron z AMD64 i całe miliardy $ zainwestowane w to całe itanium zostało zredukowane do naukowego eksperymentu.

        Skomentuj

        1. gregory003
          Oceń komentarz:

          1    

          Opublikowano: 2012-02-22 00:42

          Nie, po prostu implementacja w postaci Itanium była do d...
          W sumie szkoda, że się nie przyjęło. Moim zdaniem architektura lepsza i nowocześniejsza niż AMD64. No i wprowadzała(by) do x86 to uporządkowanie, o które ciągle ma pretensje Pomilus. Choć moim zdanie obecnie też nie jest źle a następna okazja do rewizji x86 da przejście na CPU 128bit.

          Skomentuj

      3. Promilus
        Oceń komentarz:

        3    

        Opublikowano: 2012-02-21 15:03

        Bzdura, 3DNow!, SSE4A, XOP, CVT16 i właśnie x86-64 są przykładem, że żadnego przyklepania intela nie potrzeba.

        Skomentuj

    2. gregory003
      Oceń komentarz:

      0    

      Opublikowano: 2012-02-22 00:21

      Z wszystkim zgoda, tylko nie nazwałbym 3DNow rewolucja. W sumie ciekawe twórcze rozwinięcie MMX, ale i tak prawie nie było softu, który by z niego nie korzystał.

      Skomentuj

      1. Promilus
        Oceń komentarz:

        1    

        Opublikowano: 2012-02-22 04:34

        Oprócz m.in. idtech2, idtech 3 engine, Unreal engine i drajwerów 3dfx. A rewolucja polegała na SIMD FP zrobionego z szczególnym uwzględnieniem generowania grafiki, czego MMX nie miało, a AMD wprowadziło pierwsze. Jasne? Jasne. Jasno na ten temat napisałem? JAsno i wyraźnie. To do czego chcesz mnie przekonać?

        Skomentuj

        1. gregory003
          Oceń komentarz:

          0    

          Opublikowano: 2012-02-22 07:47

          ?
          Napisałem po prostu, że:
          1) to rozwinięcie MMX;
          2) standard zabił brak implementacji Intela i dość szybkie wprowadzenie SSE (z którym zresztą 3DNow był częściowo zgodny)
          3) ostatecznie nie pojawiło się zbyt dużo softu wykorzystującego 3DNow, bo prawie wszyscy szybko przerzucili się na SSE, które weszło w rok po 3DNow.
          Czy ja napisałem gdzieś że zle, bo od AMD? AMD w tamtym okresie miało wiele ciekawych projektów, które często wyprzedzały działania Intela, np. K5 - pierwszy szeroko dostępny x86 w mikroarchitekturze RISC, choć uważam, że akurat wprowadzenie AMD64 było decyzją krótkowzroczną.

          Skomentuj

          1. Promilus
            Oceń komentarz:

            1    

            Opublikowano: 2012-02-22 16:25

            Napiasałeś: "Z wszystkim zgoda, tylko nie nazwałbym 3DNow rewolucja"
            A ja napisałem "małe rewolucje to 3DNow! i SSE, a trochę większa SSE2" (bo jako pierwsza rzeczywiście nadawała się jako zastępca x87 dzięki FP64).
            *Rozwinięciem MMX jest każde SSE z AVX zresztą włącznie ;)
            *3DNow! wspiera praktycznie każda gra na idtech3 a jest ich sporo
            *SSE samo w sobie też nigdy wielkich rzeszy wielbicieli nie zdobyło (MMX podobnie) ale obie technologie z 3DNow! włącznie położyły kamienie milowe pod dzisiejsze SIMD w CPU x86.

            Skomentuj

  6. Slayer
    Oceń komentarz:

    6    

    Opublikowano: 2012-02-20 16:25

    Kompletnie nic z tego nie rozumiem ale + za chęci napisania czegoś takiego ;)

    Skomentuj

  7. Benny
    Oceń komentarz:

    3    

    Opublikowano: 2012-02-20 16:25

    Jak komuś jeszcze mało to polecam to poradniki Agnera :) http://www.agner.org/optimize/

    Skomentuj

  8. pomidor
    Oceń komentarz:

    -4    

    Opublikowano: 2012-02-20 16:31

    Średni artykuł. Jak w tego typu przypadkach (zwłaszcza tego autora), za dużo jest lania wody, tzn. przytaczania powszechnie dostępnych informacji.
    Twierdzenie że to artykuł dla hardkorowców jest śmieszne.

    Umieszczajcie artykuły poruszające tematy mniej oklepane ale dotyczące równie ciekawych koncepcji - VLIW, FPGA, OOP, AOP, problematyka tworzenia aplikacji wielowątkowych, pamięć transakcyjna, tworzenie gramatyki języka i działanie kompilatora, metaprogramowanie itp
    Niestety na chwilę obecną jest nudny przekładaniec: budowa CPU, budowa GPU, budowa CPU, budowa GPU, itd




    Skomentuj

    1. Baleryon
      Oceń komentarz:

      2    

      Opublikowano: 2012-02-20 17:12

      Jak rozumiem, masz pretensje, bo artykuł ciebie akurat nie zainteresował. W porządku.

      Ale "lanie wody" to wcale nie jest "przytaczanie powszechnie dostępnych informacji". Jak ostatnio sprawdzałem, to informacje na wszystkie tematy, które sugerujesz redakcji, też są powszechnie dostępne (nawet jeśli nie jest to pierwsza strona wyników z Google). Oczywiście z zainteresowaniem nimi laików już nie tak hop-siup, i pewnie jakiś artykuł sygnalizujący te zagadnienia by się przydał.

      Skomentuj

  9. spock2
    Oceń komentarz:

    3    

    Opublikowano: 2012-02-20 16:59

    "Co ciekawe, pierwszym układem zgodnym z architekturą x86, który wewnętrznie był procesorem RISC był NextGen Nx586 z 1994 roku, na bazie którego powstał w 1995 roku AMD K5"

    Moim zdaniem to nie K5 ale K6 który powstał gdy AMD przejęło NextGena

    Skomentuj

  10. domelmel
    Oceń komentarz:

    1    

    Opublikowano: 2012-02-20 23:28

    Ciekawy artykuł. Oby jak najwiecej takich.

    Skomentuj

  11. NuCore
    Oceń komentarz:

    2    

    Opublikowano: 2012-02-21 02:06

    "Lubisz cykl hardcore IT? Poleć go znajomym na Facebooku (kliknij "Lubię to!" na górze artykułu) oraz przeczytaj inne artykuły:"

    Skomentuj

    1. NuCore
      Oceń komentarz:

      0    

      Opublikowano: 2012-02-21 17:01

      Widać na benchmarku panuje jeszcze socjalism i cenzura. W dodatku brak jakiegokolwiek info o grzebaniu w niewygodnych komentarzach.

      Skomentuj

  12. jaro777
    Oceń komentarz:

    0    

    Opublikowano: 2012-02-21 07:01

    "A tak po za tym obecne procesory przekraczają i to znacznie wymaganą od nich wydajność" - zgadza się i te od intela i te od AMD.

    Skomentuj

  13. robosibcop
    Oceń komentarz:

    -5    

    Opublikowano: 2012-02-21 09:17

    jak się komuś chciało to czytać to widać że nie ma ani dziewczyny ani kolegów nara

    Skomentuj

    1. Marcin Jaskólski
      Oceń komentarz:

      5    

      Opublikowano: 2012-02-21 11:44

      taa przecież przeczytanie paru stron to taki potworny wysiłek i strata czasu ;)

      Skomentuj

      1. Blue AMD ATI Radeon
        Oceń komentarz:

        3    

        Opublikowano: 2012-02-21 22:11

        Zróbcie coś z robosibcop. Spójrzcie na jego profil, i komentarze. FULL BODY ERECTION. Wtf?

        Skomentuj

        1. gregory003
          Oceń komentarz:

          1    

          Opublikowano: 2012-02-22 00:47

          Nastolatek...

          Skomentuj

    2. pershing6
      Oceń komentarz:

      3    

      Opublikowano: 2012-02-21 12:37

      strasznie ograniczone myslenie masz...

      Skomentuj

  14. Bany_krk
    Oceń komentarz:

    3    

    Opublikowano: 2012-02-21 15:01

    dla zainteresowanych i nieco bardziej obeznanych polecam dwa atykuły

    Szczgółowy opis architektury Sandy Bridge
    http://realworldtech.com/page.cfm?ArticleID=RWT091810191937

    Szczegółowy opis architektury Bulldozer
    http://realworldtech.com/page.cfm?ArticleID=RWT082610181333

    Skomentuj

  15. dysan112
    Oceń komentarz:

    3    

    Opublikowano: 2012-02-21 16:32

    Architektura architekturą, ale i tak wszystko się opiera na złączu PN.

    Skomentuj

  16. infinitimind
    Oceń komentarz:

    0    

    Opublikowano: 2012-02-21 21:14

    Wie może ktoś czy w obecnych czasach powstały jakieś nowe architektury które x86 mogłyby zdeklasować?

    Ta ma przeszło 30 lat a jak wiadomo 30 lat w świecie techniki to milenium w normalnym świecie ;)

    Skomentuj

    1. Bany_krk
      Oceń komentarz:

      1    

      Opublikowano: 2012-02-21 21:24

      jest taka i nazywa się SPARC

      tu kiedyś newsa o tym pisałem http://www.benchmark.pl/aktualnosci/Pogrom_na_Top_500_-_nowe_superkomputery-35704.html

      Skomentuj

    2. gregory003
      Oceń komentarz:

      0    

      Opublikowano: 2012-02-22 00:58

      x86 to tylko oficjalna lista rozkazów zewnętrznych procesora. Sama mikroarchitektura może być zdjęta żywcem z Power czy SPARC (no może trochę przesadzam). W sumie to jaką listę rozkazów widzi programista nie ma większego znaczenia dla wydajność czy energooszczędności, bo mikroinstrukcje podepniesz pod to, jakie chcesz, a to one są tak naprawdę wykonywane. Ale jak chcesz poczytać o czymś ciekawym i pomażyć, ile by to miało FPS w Crysisie, poczytaj sobie o Power7.

      Skomentuj

    3. sony75
      Oceń komentarz:

      -2    

      Opublikowano: 2012-02-22 11:21

      "Wie może ktoś czy w obecnych czasach powstały jakieś nowe architektury które x86 mogłyby zdeklasować?"

      Trzeba być takim PC-towcem zatwardziałym żeby o tym nie wiedzieć :) CELL już dawno zdeklasował intelki amdeki. Zaprojektowanie CELL'a trwało od 2001-2004.

      I deklasuje do tej pory Intel Core i7 980X Extreme Edition.

      CELL = 218 GFLOPS

      Intel Core i7 980X Extreme Edition = 107,55 GFLOPS.

      Cell jest o 35 razy (3500%) bardziej wydajny w Terrain Renderingu od procesora IBM G5 @2,7Ghz (single core). Masz pełne 30fps bez użycia w ogóle GPU (czyli możesz renderować teren na samym procesorze). Część rzeczy można na Cell'u streamować jak np. tekstury, levele i nawet po części animacja.

      Poczytajcie w sieci o wydajności CELL'a to 400%-1000% większej wydajności względem tradycyjnych rozwiązań komputerowych ;)

      Wiadomo CELL ma swoje lata ale szykuję jego następca bardziej wydajna jednostka na poziomie 1 TeraFlopa. CELL2 który znajdzie się w konsoli nowej generacji PS4
      to będzie kolejny potwór który zmiażdży architekturę x86.

      Skomentuj

      1. e8.root
        Oceń komentarz:

        0    

        Opublikowano: 2012-02-24 22:35

        Cell to badziew dzisiaj bo GPGPU ma tych "GFLOPS" wielokrotnie więcej i podobne ograniczenia więc stosowanie tego typu rozwiązań w CPU mija się całkowicie z celem.

        Cell w zwykłych operacjach nie SIMD/wektorowych ma wydajność gorszą od Pentium 4 2GHz...

        Skomentuj

        1. sony75
          Oceń komentarz:

          0    

          Opublikowano: 2012-02-27 01:47

          Masz całkowitą racje :) Ależ jestem głupcem, przepraszam mame i tate, że się urodziłem :D

          Skomentuj

  17. pawelr18r
    Oceń komentarz:

    2    

    Opublikowano: 2012-02-22 10:43

    No tutaj pare osób podziałało na wspomnienia. Jak to tata pamietam do domu przyniósł peceta z Celeronem 300A i 32mb ram cos pieknego. Potem tylko dokupiłem 2 kości ram po 32 mb i była maszyna. No i wtedy nadszedł dzień gdy dowiedziałem się o OC ahh... piękne czasy...

    Skomentuj

  18. IronFe
    Oceń komentarz:

    1    

    Opublikowano: 2012-02-23 07:31

    Szkoda ze autor nie wspominał o świństwie jakie intel zafundował swoim użytkownikom wraz z wprowadzeniem pentium. Dla tych co nie wiedzą to w pierwszych pentiumach był uszkodzony blok arytmetyczny i podczas robienia obliczeń w kalkulatorze windowsa wychodziły dziwne wyniki. Pierwsze oficjalne stanowisko intela brzmiało "Nie będziemy wymieniać uszkodzonych procesorów bo domowi użytkownicy nie będą wykonywać na nich skomplikowanych operacji". Dopiero pod naciskiem opinii publicznej i jechaniu po nich w prasie jak i tv ugiął się i zaczął wymieniać.

    Skomentuj

    1. Promilus
      Oceń komentarz:

      0    

      Opublikowano: 2012-02-23 08:04

      fdiv bug i dotyczył dość specyficznych operacji, a nie przekłamywał KAZDE wyniki. Zapomniałeś też o F00F ;) Ale tak to było, tak to jest. Nadal są anomalie w procach, zobacz erraty do core 2 :) Patrz TLB bug Phenomów. Tego się nie da uniknąć gdy przynajmniej częściowo idzie projektowanie przez automat :)

      Skomentuj

      1. e8.root
        Oceń komentarz:

        0    

        Opublikowano: 2012-02-24 22:38

        Intel od czasów Pentium Pro zamieszcza w procesorach małą pamięć na mikrokod który może być aktualizowany przez BIOS i/lub system operacyjny. Generalnie więc jak znajdzie się jakiś błąd to można bez wymieniania procesora a nawet bez robienia wokół tego szumu zaktualizować mikrokod i dać producentom OEM aby zrobili nowy BIOS, dlatego też warto BIOSy aktualizować jak jest informacja że zaktualizowano tenże mikrokod :)

        Skomentuj

  19. Maciej Lewczuk
    Oceń komentarz:

    0    

    Opublikowano: 2012-02-23 12:07

    No i miło Cię Marcinie znów poczytać. Ciekawe jak to dalej będzie brnęło i kiedy x86 odejdzie w niebyt...

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!