Ciekawostki

Nadchodzi nowy rodzaj mikroprocesorów

Jakub  | Redaktor serwisu benchmark.pl
Autor: Jakub
52 komentarze Dyskutuj z nami

Świat mikroprocesorów praktycznie od zawsze opierał się na algebrze Boole'a, w której dane elementy przyjmują tylko wartości logiczne 1 lub 0, czyli albo warunek został spełniony, albo nie.

 Czy możliwe jest zatem stworzenie czegoś, co dawałoby wyniki pośrednie - "może jeden", "może zero"?

Okazuje się, że odpowiedź jest jak najbardziej pozytywna. Udowodniła to założona w 2006 roku firma Lyric Semiconductor (LS). Pokazała ona pierwszy na świecie procesor probabilistyczny, który trafi na rynek komercyjny. Jego działanie opiera się na rachunku prawdopodobieństwa, a nie logice binarnej. Można powiedzieć, że tak jak "zwykła" bramka tranzystora może reprezentować stany 1 lub 0, tak bramka bayesowska (od Thomasa Bayesa) przyjmuje dowolną wartość pomiędzy tymi stanami. W oświadczeniu porównuje się to do przełącznika włączone/wyłączone i pokrętła zmieniającego jasność świecenia. Czyżby rewolucja?

Jak mówi założyciel oraz obecny prezes Lyric Semiconductor, Ben Vigod, stworzenie takich rozwiązań nie było czymś prostym. Trzeba było zaczynać od zera, mając tylko "strzępki" wiedzy teoretycznej, a dokładnie badania do pracy doktorskiej Vigoda. Jednak z pierwszych informacji wnioskujemy, że warto było inwestować czas w to innowacyjne rozwiązanie.

Układ Lyric LEC

Porównanie wielkości obecnych korektorów błędów z układem Lyric LEC
 

Na razie LS ma na swoim koncie tylko układ Lyric Error Correction (LEC) do korekcji błędów odczytu danych, ale już on pokazuje pazur nowej technologii - jest 30 razy mniejszy, 12 razy bardziej energooszczędny, a przy tym szybszy niż wykonujący identyczne operacje tradycyjny chip.

Obrazowe przedstawienie korekcji błędów

Obecnie podczas odczytywania danych z pamięci masowych średnio jeden na 1000 bitów zostaje błędnie zinterpretowany i zamiast jedynki mamy zero, lub odwrotnie. Według Bena Vigoda, wkrótce w wyniku zmniejszania skali produkcji, zwiększania upakowania danych i tym podobnym zabiegom będzie to 10 razy częstsze. Bez zaawansowanej korekcji błędów nie powstaną większe, szybsze i tańsze dyski SSD. Na szczęście pierwsze produkty z układami LEC będzie można znaleźć już za rok.

Dodatkowo firma zapowiada, że w 2013 pokażą się pierwsze programowalne procesory typu GP5 (General-Purpose Programmable Probability Processing Platform), które przede wszystkim będą liczyć prawdopodobieństwo i będą one w tym 1000 razy szybsze niż jednostki AMD czy Intel. Wbrew pozorom prawdopodobieństwo występuje praktycznie wszędzie - od wyszukiwarek, przez filtry spamu, aż do analiz finansowych.

Układ Lyric LEC
 

GP5 będzie miał również znaczenie dla gier komputerowych. Przykładowe zastosowania to chociażby przewidywanie i lepsze odczytywanie naszych gestów dla takich platform jak Microsoft Kinect. Nowy procesor bez problemu poradziłby sobie z wieloma graczami naraz, a do jego zasilenia wystarczyłoby nawet kilka zwykłych baterii. Ponadto dzięki temu rozwiązaniu może nastąpić znaczna poprawa w odwzorowywaniu realistycznego świata.

Prace nad procesorami probabilistycznymi zostały wsparte finansowo przez - wspominaną na naszym portalu - Agencję Zaawansowanych Obronnych Projektów Badawczych (Defense Advanced Research Projects Agency) prowadzoną przez Departament Obrony Stanów Zjednoczonych. Ben Vigod twierdzi, że DARPA jest zainteresowana gadżetami rodem z Jamesa Bonda, ale głównie chodzi o korekcję dźwięku i obrazu.

Obecnie jedynym problemem zdaje się integracja procesorów probabilistycznych z obecną elektroniką, która przecież funkcjonuje na zupełnie innych zasadach. Jednak nie ma się co zamartwiać - na pewno panowie z Lyric są na to przygotowani i łatwo się nie poddadzą.

Źródło: Lyric Semiconductor, Technology Review

Polecamy artykuły:    
Programy dla pasjonatów fotografii cyfrowej 100 najlepszych gier XX wieku cz. 3 Sztuczki i porady do Windows 7 na lepszą pracę

 

Komentarze

52
Zaloguj się, aby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    sevae
    "Może zero może jeden" to komputery kwantowe. Jest prototyp nawet gdzieś w europie.
  • avatar
    Konto usunięte
    taką to ja jednordzeniówką się zadowolę, 2000GHz ;o
  • avatar
    b4rt3k
    myslace maszyny coraz blizej :)
  • avatar
    Konto usunięte
    Zobaczycie za pare lat przez przypadek wymyśla komputer o nazwie "SKYNET" a potem?!!?!?!? :D
  • avatar
    Warmonger
    Technologia bardzo obiecująca, ale niestety nie we wszystkich zastosowaniach. Czasami po prostu musimy mieć pewność, a nie dostawać wynik z pewnym prawdopodobieństwem.

    Czekam na zintegrowane układy łączące oba rozwiązania :)
  • avatar
    Eddek
    Z drugiej strony, "moze masz na koncie 100, a moze 200" :P
  • avatar
    Konto usunięte
    "Obrazowe przedstawienie korekcji błędów"- naprawde, bardzo obrazowe i jak wiele wyjasnia :)
  • avatar
    Konto usunięte
    Warmonger -> jeżeli sądzisz że procesory zwracają wyniki o 100% "pewności" to jesteś w błędzie. Każdy procesor daje wynik poprawny z pewnym prawdopodobieństwem i w oparciu o pewne założenia będące poprawnymi też tylko z pewnym prawdopodobieństwem. Jak dołożysz do tego problem maszynowego zera i niedookreśloności algorytmów, to wiara w "dokładnie" liczące procesory ulatuje jak mgiełka. Na to nakłada się praktyczna niemożność przetestowania poprawności działania procesora. Niejedna rakieta poleciała gdzie indziej niż powinna z powyższych poowodów.
  • avatar
    toniek-94
    Może szykuje się rewolucja ? poczekamy zobaczymy.
  • avatar
    SoundsGreat
    Hmm... gry? A więc czeka nas zakup karty prawdopodobieństwa na PCI?
  • avatar
    Konto usunięte
    niech zrobią układ z czterema takimi procesorami ; p
  • avatar
    Dexterr
    Idealnie rozwiązanie do liczenia fizyki w grach i na dodatek byłoby super wydajne. Może za 10 lat?
  • avatar
    Gasek
    Moim zdaniem to będzie rewolucja.
  • avatar
    Konto usunięte
    Stany pomiędzy 0 a 1 (czyli wspomniane pokrętło do światełka) są charakterystyczne dla logiki rozmyte (fuzzy logic) - np. (w elementarnym najprostszym przykładzie) w niej można być jednocześnie w stopniu 0,7 włączonym i 0,3 wyłączonym, co zaobserwujemy jako świecienie na 70%, probabilistyka mówi o prawdobodobieńswie, stan 0,7 oznacza ,ze w 7 na 10 przypadkach światełko jest włączone. Ktoś gdzieś nie wiedział o czymś i jest niedopatrzenie powielane
    /Student PP
  • avatar
    Konto usunięte
    [quote]"Może zero może jeden" to komputery kwantowe. Jest prototyp nawet gdzieś w europie.[/quote]

    Gdzieś czytałem że stworzyli pierwszy procesor kwantowy. Ale kwantowy jak dobrze pamiętam działa tak że 1 i 0 mogą być przetwarzane w tej samej chwili.
  • avatar
    Konto usunięte
    komputery kwantowe są znane od dawna!
    W drugiej klasie technikum (7 lat temu!) przyjechał do naszej szkoły profesor zajmujący się sztuczną inteligencją i humanoidalnymi twarzami do efektów specjalnych. Opowiadał on także o komputerach kwantowych. Wyjaśniał nam zasadę ich działania. Opowiadał też, że procesor 3bitowych jest "już" w pełni rozpracowany przez USA. Japonia natomiast pracowała wtedy nad 2 bitowych a USA miało w planach kolejne wersje. Bity - tak nazywał je profesor - miały kilka stanów a moc obliczeniowa rosła do potęgi 8 i więcej, więc skok mocy jest ogromny.

    Ps: niestety było to dawno i wiele informacji (a wielu nie rozumiałem:P) mi umknęło;)
  • avatar
    Kenjiro
    Mylisz się, najpowszechniejsze wykorzystanie floatów w obliczeniach już powoduje błędy, które jest w zasadzie 'by design'. Jeśli nie chcesz mieć błędów obliczeniowych, to albo jedziesz na integerach (i liczysz, że nic więcej nie będzie trzeba), albo z góry określasz gdzie i jaki błąd może się pojawić, i odpowiednio zaokrąglasz wynik. Głupie dodawanie na floatach może dać bardzo niespodziewany wynik.

    Do tego techniczne sztuczki mające na celu wykrywanie i poprawę błędów pojawiających się w układach wewnętrznych procesora też mają swoją cenę, którą może poznać chyba tylko programista assemblera.
  • avatar
    przede wszystkim będą liczyć prawdopodobieństwo i będą one w tym 1000 razy szybsze niż jednostki AMD czy Intel
    Marketingowcy lubią te tricki - "1000x szybsze". Teoria, a praktyka...

    Była jakaś firma co miała stworzyć karty grafiki ileś razy mocniejsze od obecnie najlepszych. Gdzie ona jest ?
  • avatar
    Niech ktoś przypomni, czy kiedykolwiek zdarzyło się, by z roku na rok ktoś stworzył dziesięciokrotnie mocniejszy(e)/szybszy(e) niż wcześniej dostępne podzespoły np. dysk, karta graf. pamięć, procesor? Chyba takiej rewolucji jeszcze nie było, więc małe szanse że będzie. Postęp odbywa się wolniej i płynniej by wykorzystać (głównie finansowo) to co aktualnie jest dostępne, stopniowo wdrażać nowinki by zawsze być o krok przed konkurencją. Największym impulsem do rozwoju w technice od zawsze były wojny, obyśmy żadnej takiej rewolucji nie doczekali.
  • avatar
    Konto usunięte
    To raczej wysoce wyspecjalizowany układ mający przy niskim zapotrzebowaniu na energię realizować w miarę dobrze pewne funkcje. Pewnie świetnie sprawdzi się przy przetwarzaniu obrazu i dźwięku w urządzeniach przenośnych ale jednostkom binarnym raczej nie zaszkodzi. Po prostu wszelkie tendencje w elektronice binarnej prowadzą do zrównoleglenia jednostek co pozwala na 30 krotnie szybsze obliczenia statystyczne niż w owym układzie
  • avatar
    Konto usunięte
    fajnie by było jakby ps4 miała taki procesor :)
  • avatar
    Konto usunięte
    transmeta crusoe to był niezły programowalny procesor ;) a czy ktoś go jeszcze pamięta?
  • avatar
    Konto usunięte
    Tacy ludzie tworzą historie świata. To jest moim zdaniem wielki przełom, a jego skutku zobaczymy dopiero za kilka, kilkanaście lat.
  • avatar
    infango
    no niby wszystko pięknie ale programowanie jednostek wektorowych stanowi poważny problem, tak samo operacje na qbitach a tu zupełnie nowe podejście, na rynku korporacyjnym może w aplikacjach naukowy może ale w warunkach domowych pomarzyć piękna rzecz
  • avatar
    Konto usunięte
    Taki procesor opisany dwuwymiarową przestrzenią Hilberta, wykonując operacje na kubitach ocenia na dżem dobry każde zdarzenie jako prawdziwe w stosunku 50/50, nie widzicie tutaj zagrożenia np. przy zastosowaniu tej technologii na lotnisku?

    Zgadzam się, że opierając działania na rachunku prawdopodobieństwa, dla złożonych przypadków można osiągnąć szybciej pożądany efekt, natomiast jest to możliwe z poziomu kodu programu, a seryjne zastosowanie dla procesorów, wydaje mi się, że jest kolejnym krokiem, by zmusić użytkowników do zmiany platformy.