Ciekawostki

Nadchodzi nowy rodzaj mikroprocesorów

przeczytasz w 2 min.

Świat mikroprocesorów praktycznie od zawsze opierał się na algebrze Boole'a, w której dane elementy przyjmują tylko wartości logiczne 1 lub 0, czyli albo warunek został spełniony, albo nie.

 Czy możliwe jest zatem stworzenie czegoś, co dawałoby wyniki pośrednie - "może jeden", "może zero"?

Okazuje się, że odpowiedź jest jak najbardziej pozytywna. Udowodniła to założona w 2006 roku firma Lyric Semiconductor (LS). Pokazała ona pierwszy na świecie procesor probabilistyczny, który trafi na rynek komercyjny. Jego działanie opiera się na rachunku prawdopodobieństwa, a nie logice binarnej. Można powiedzieć, że tak jak "zwykła" bramka tranzystora może reprezentować stany 1 lub 0, tak bramka bayesowska (od Thomasa Bayesa) przyjmuje dowolną wartość pomiędzy tymi stanami. W oświadczeniu porównuje się to do przełącznika włączone/wyłączone i pokrętła zmieniającego jasność świecenia. Czyżby rewolucja?

Jak mówi założyciel oraz obecny prezes Lyric Semiconductor, Ben Vigod, stworzenie takich rozwiązań nie było czymś prostym. Trzeba było zaczynać od zera, mając tylko "strzępki" wiedzy teoretycznej, a dokładnie badania do pracy doktorskiej Vigoda. Jednak z pierwszych informacji wnioskujemy, że warto było inwestować czas w to innowacyjne rozwiązanie.

Układ Lyric LEC

Porównanie wielkości obecnych korektorów błędów z układem Lyric LEC
 

Na razie LS ma na swoim koncie tylko układ Lyric Error Correction (LEC) do korekcji błędów odczytu danych, ale już on pokazuje pazur nowej technologii - jest 30 razy mniejszy, 12 razy bardziej energooszczędny, a przy tym szybszy niż wykonujący identyczne operacje tradycyjny chip.

Obrazowe przedstawienie korekcji błędów

Obecnie podczas odczytywania danych z pamięci masowych średnio jeden na 1000 bitów zostaje błędnie zinterpretowany i zamiast jedynki mamy zero, lub odwrotnie. Według Bena Vigoda, wkrótce w wyniku zmniejszania skali produkcji, zwiększania upakowania danych i tym podobnym zabiegom będzie to 10 razy częstsze. Bez zaawansowanej korekcji błędów nie powstaną większe, szybsze i tańsze dyski SSD. Na szczęście pierwsze produkty z układami LEC będzie można znaleźć już za rok.

Dodatkowo firma zapowiada, że w 2013 pokażą się pierwsze programowalne procesory typu GP5 (General-Purpose Programmable Probability Processing Platform), które przede wszystkim będą liczyć prawdopodobieństwo i będą one w tym 1000 razy szybsze niż jednostki AMD czy Intel. Wbrew pozorom prawdopodobieństwo występuje praktycznie wszędzie - od wyszukiwarek, przez filtry spamu, aż do analiz finansowych.

Układ Lyric LEC
 

GP5 będzie miał również znaczenie dla gier komputerowych. Przykładowe zastosowania to chociażby przewidywanie i lepsze odczytywanie naszych gestów dla takich platform jak Microsoft Kinect. Nowy procesor bez problemu poradziłby sobie z wieloma graczami naraz, a do jego zasilenia wystarczyłoby nawet kilka zwykłych baterii. Ponadto dzięki temu rozwiązaniu może nastąpić znaczna poprawa w odwzorowywaniu realistycznego świata.

Prace nad procesorami probabilistycznymi zostały wsparte finansowo przez - wspominaną na naszym portalu - Agencję Zaawansowanych Obronnych Projektów Badawczych (Defense Advanced Research Projects Agency) prowadzoną przez Departament Obrony Stanów Zjednoczonych. Ben Vigod twierdzi, że DARPA jest zainteresowana gadżetami rodem z Jamesa Bonda, ale głównie chodzi o korekcję dźwięku i obrazu.

Obecnie jedynym problemem zdaje się integracja procesorów probabilistycznych z obecną elektroniką, która przecież funkcjonuje na zupełnie innych zasadach. Jednak nie ma się co zamartwiać - na pewno panowie z Lyric są na to przygotowani i łatwo się nie poddadzą.

Źródło: Lyric Semiconductor, Technology Review

Polecamy artykuły:  
Programy dla pasjonatów fotografii cyfrowej 100 najlepszych gier XX wieku cz. 3Sztuczki i porady do Windows 7 na lepszą pracę

 

Komentarze

52
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    sevae
    0
    "Może zero może jeden" to komputery kwantowe. Jest prototyp nawet gdzieś w europie.
    • avatar
      Konto usunięte
      0
      taką to ja jednordzeniówką się zadowolę, 2000GHz ;o
      • avatar
        b4rt3k
        0
        myslace maszyny coraz blizej :)
        • avatar
          Konto usunięte
          0
          Zobaczycie za pare lat przez przypadek wymyśla komputer o nazwie "SKYNET" a potem?!!?!?!? :D
          • avatar
            Warmonger
            0
            Technologia bardzo obiecująca, ale niestety nie we wszystkich zastosowaniach. Czasami po prostu musimy mieć pewność, a nie dostawać wynik z pewnym prawdopodobieństwem.

            Czekam na zintegrowane układy łączące oba rozwiązania :)
            • avatar
              Eddek
              0
              Z drugiej strony, "moze masz na koncie 100, a moze 200" :P
              • avatar
                Konto usunięte
                0
                "Obrazowe przedstawienie korekcji błędów"- naprawde, bardzo obrazowe i jak wiele wyjasnia :)
                • avatar
                  Konto usunięte
                  0
                  Warmonger -> jeżeli sądzisz że procesory zwracają wyniki o 100% "pewności" to jesteś w błędzie. Każdy procesor daje wynik poprawny z pewnym prawdopodobieństwem i w oparciu o pewne założenia będące poprawnymi też tylko z pewnym prawdopodobieństwem. Jak dołożysz do tego problem maszynowego zera i niedookreśloności algorytmów, to wiara w "dokładnie" liczące procesory ulatuje jak mgiełka. Na to nakłada się praktyczna niemożność przetestowania poprawności działania procesora. Niejedna rakieta poleciała gdzie indziej niż powinna z powyższych poowodów.
                  • avatar
                    toniek-94
                    0
                    Może szykuje się rewolucja ? poczekamy zobaczymy.
                    • avatar
                      SoundsGreat
                      0
                      Hmm... gry? A więc czeka nas zakup karty prawdopodobieństwa na PCI?
                      • avatar
                        Konto usunięte
                        0
                        niech zrobią układ z czterema takimi procesorami ; p
                        • avatar
                          Dexterr
                          0
                          Idealnie rozwiązanie do liczenia fizyki w grach i na dodatek byłoby super wydajne. Może za 10 lat?
                          • avatar
                            Gasek
                            0
                            Moim zdaniem to będzie rewolucja.
                            • avatar
                              Konto usunięte
                              0
                              Stany pomiędzy 0 a 1 (czyli wspomniane pokrętło do światełka) są charakterystyczne dla logiki rozmyte (fuzzy logic) - np. (w elementarnym najprostszym przykładzie) w niej można być jednocześnie w stopniu 0,7 włączonym i 0,3 wyłączonym, co zaobserwujemy jako świecienie na 70%, probabilistyka mówi o prawdobodobieńswie, stan 0,7 oznacza ,ze w 7 na 10 przypadkach światełko jest włączone. Ktoś gdzieś nie wiedział o czymś i jest niedopatrzenie powielane
                              /Student PP
                              • avatar
                                Konto usunięte
                                0
                                [quote]"Może zero może jeden" to komputery kwantowe. Jest prototyp nawet gdzieś w europie.[/quote]

                                Gdzieś czytałem że stworzyli pierwszy procesor kwantowy. Ale kwantowy jak dobrze pamiętam działa tak że 1 i 0 mogą być przetwarzane w tej samej chwili.
                                • avatar
                                  Konto usunięte
                                  0
                                  komputery kwantowe są znane od dawna!
                                  W drugiej klasie technikum (7 lat temu!) przyjechał do naszej szkoły profesor zajmujący się sztuczną inteligencją i humanoidalnymi twarzami do efektów specjalnych. Opowiadał on także o komputerach kwantowych. Wyjaśniał nam zasadę ich działania. Opowiadał też, że procesor 3bitowych jest "już" w pełni rozpracowany przez USA. Japonia natomiast pracowała wtedy nad 2 bitowych a USA miało w planach kolejne wersje. Bity - tak nazywał je profesor - miały kilka stanów a moc obliczeniowa rosła do potęgi 8 i więcej, więc skok mocy jest ogromny.

                                  Ps: niestety było to dawno i wiele informacji (a wielu nie rozumiałem:P) mi umknęło;)
                                  • avatar
                                    Kenjiro
                                    0
                                    Mylisz się, najpowszechniejsze wykorzystanie floatów w obliczeniach już powoduje błędy, które jest w zasadzie 'by design'. Jeśli nie chcesz mieć błędów obliczeniowych, to albo jedziesz na integerach (i liczysz, że nic więcej nie będzie trzeba), albo z góry określasz gdzie i jaki błąd może się pojawić, i odpowiednio zaokrąglasz wynik. Głupie dodawanie na floatach może dać bardzo niespodziewany wynik.

                                    Do tego techniczne sztuczki mające na celu wykrywanie i poprawę błędów pojawiających się w układach wewnętrznych procesora też mają swoją cenę, którą może poznać chyba tylko programista assemblera.
                                    • avatar
                                      0
                                      przede wszystkim będą liczyć prawdopodobieństwo i będą one w tym 1000 razy szybsze niż jednostki AMD czy Intel
                                      Marketingowcy lubią te tricki - "1000x szybsze". Teoria, a praktyka...

                                      Była jakaś firma co miała stworzyć karty grafiki ileś razy mocniejsze od obecnie najlepszych. Gdzie ona jest ?
                                      • avatar
                                        0
                                        Niech ktoś przypomni, czy kiedykolwiek zdarzyło się, by z roku na rok ktoś stworzył dziesięciokrotnie mocniejszy(e)/szybszy(e) niż wcześniej dostępne podzespoły np. dysk, karta graf. pamięć, procesor? Chyba takiej rewolucji jeszcze nie było, więc małe szanse że będzie. Postęp odbywa się wolniej i płynniej by wykorzystać (głównie finansowo) to co aktualnie jest dostępne, stopniowo wdrażać nowinki by zawsze być o krok przed konkurencją. Największym impulsem do rozwoju w technice od zawsze były wojny, obyśmy żadnej takiej rewolucji nie doczekali.
                                        • avatar
                                          Konto usunięte
                                          0
                                          To raczej wysoce wyspecjalizowany układ mający przy niskim zapotrzebowaniu na energię realizować w miarę dobrze pewne funkcje. Pewnie świetnie sprawdzi się przy przetwarzaniu obrazu i dźwięku w urządzeniach przenośnych ale jednostkom binarnym raczej nie zaszkodzi. Po prostu wszelkie tendencje w elektronice binarnej prowadzą do zrównoleglenia jednostek co pozwala na 30 krotnie szybsze obliczenia statystyczne niż w owym układzie
                                          • avatar
                                            Konto usunięte
                                            0
                                            fajnie by było jakby ps4 miała taki procesor :)
                                            • avatar
                                              Konto usunięte
                                              0
                                              transmeta crusoe to był niezły programowalny procesor ;) a czy ktoś go jeszcze pamięta?
                                              • avatar
                                                Konto usunięte
                                                0
                                                Tacy ludzie tworzą historie świata. To jest moim zdaniem wielki przełom, a jego skutku zobaczymy dopiero za kilka, kilkanaście lat.
                                                • avatar
                                                  infango
                                                  0
                                                  no niby wszystko pięknie ale programowanie jednostek wektorowych stanowi poważny problem, tak samo operacje na qbitach a tu zupełnie nowe podejście, na rynku korporacyjnym może w aplikacjach naukowy może ale w warunkach domowych pomarzyć piękna rzecz
                                                  • avatar
                                                    Konto usunięte
                                                    0
                                                    Taki procesor opisany dwuwymiarową przestrzenią Hilberta, wykonując operacje na kubitach ocenia na dżem dobry każde zdarzenie jako prawdziwe w stosunku 50/50, nie widzicie tutaj zagrożenia np. przy zastosowaniu tej technologii na lotnisku?

                                                    Zgadzam się, że opierając działania na rachunku prawdopodobieństwa, dla złożonych przypadków można osiągnąć szybciej pożądany efekt, natomiast jest to możliwe z poziomu kodu programu, a seryjne zastosowanie dla procesorów, wydaje mi się, że jest kolejnym krokiem, by zmusić użytkowników do zmiany platformy.