Ciekawostki

IBM: optyka wkracza do mikroprocesorów

przeczytasz w 2 min.

"Błękitnemu gigantowi" udało się opracować technologię umożliwiającą łączenie elektrycznych i optycznych elementów w jednym kawałku krzemu. Stało się to możliwe dzięki ogromnemu zapleczu naukowemu jakim dysponuje IBM.

 Warto przeczytać:
 


Intel nieugięty - transfer 10 Gbps w poł. 2011

Skonstruowanie 1000-rdzeniowych procesorów jest możliwe

To, co do tej pory - przynajmniej oficjalnie - nie udało się Intelowi, Samsungowi, czy wielu innym firmom, udało się właśnie IBM. Stworzona technologia CMOS Integrated Silicon Nanophotonics (CISN) pozwala na współprace części elektroniczny z optycznymi w ramach jednego układu scalanego. Oznacza to, że chipy mogą się komunikować za pomocą impulsów światła zamiast sygnałów elektrycznych. Według twórców skutkuje to nie tylko zwiększeniem prędkości przesyłu danych, ale także daje możliwość wyprodukowania mniejszych, szybszych i bardziej energooszczędnych układów scalonych.

Bardzo ważną informacją jest fakt, iż CISN może być zastosowane bez zmieniania technologii produkcji, co wiąże się bezpośrednio z łatwym wdrożeniem tego rozwiązania. Zapewne dlatego IBM zapowiedział, że ten projekt może pojawić się w komercyjnych urządzeniach już za rok.

Już teraz IBM twierdzi, że CISN będzie prawdopodobnie wykorzystane do zbudowania superkomputera, którego moc obliczeniowa byłaby mierzona w eksaflopsach, co oznacza tysiąckrotny wzrost wydajności. Widać IBM ma ochotę wrócić na pierwsze miejsce rankingu TOP500.

Technologia CISN zintegrowana z 65 nm procesorem.

Ważną częścią tego projektu było opracowanie elementu konwersującego sygnały elektryczne na impulsy świetlne i na odwrót, który mógłby być produkowany w obecnych fabrykach, a przy tym byłby mały i szybki. Kluczowe okazało się odpowiednie zastosowanie komponentów z zakresu krzemowej nanofotoniki zgodnej z CMOS, które już od dekady były w zakresie zainteresowania IBM. Dzięki temu uzyskano powierzchnię równą około pół milimetra kwadratowego. Cztery takie moduły pozwalają na transfer rzędu jednego terabita na sekundę.

Warto wspomnieć, że IBM będzie oczywiście starało się w najbliższych latach prężnie rozwijać swoją technologię. Planuje się, aby nie ograniczać opracowanej komunikacji optycznej do przesyłu danych między chipami. Ma ona wejść wgłąb mikroprocesorów i zostać wykorzystana do połączenia samych rdzeni. Jednak to nastąpi dopiero po 2016 roku.
 

Źródło: IBM

Polecamy artykuły:  
Karta do bicia rekordów - MSI GTX 480 Lightning
20 bezpłatnych aplikacji do Androida
Intel Core i7 970 - potwór wydajności w niższej cenie

Komentarze

43
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Krzysiek07
    0
    Ładnie to wygląda :D
    • avatar
      d i l
      0
      Szybki postęp, albo newsy z opóźnione.
      • avatar
        Konto usunięte
        0
        Jeśli ktoś lubi mięsko, to tu jest więcej:
        http://www.research.ibm.com/photonics/publications/SEMICON_Tokyo_12_1_2010.pdf

        IBM potrafi pokazać pazur. Szkoda, że marketingowo nie są tak dobrzy jak Intel.
        • avatar
          wstrzasmen
          0
          i tak za 5-10 lat na rynek suerkomputerów wkroczą konsole Sony i MS i zatrzymają postęp - nie będzie już "1000 krotnego wzrostu wydajności w ciągu roku", za to działy księgowe firm-klientów się ucieszą że nie trzeba zmieniać serwerów przez 30 lat hehe
          • avatar
            Grinch
            0
            Jeszcze trochę to im jednostek miary zabraknie.
            Teraz mowa o Eksa'ch co będzie za 5 lat ? :)
            • avatar
              hideo
              0
              żadne tam intele, to IBM rządzi technologią :)
              • avatar
                Konto usunięte
                0
                Jeśli gracze liczą na fotorealistyczną grafikę, to mówię im - nie tędy droga. To nie fotorealizm zaskakuje, tylko model wirtualnego świata. Im bardziej schematyczny, liniowy, tym mniej pociągający. Grafika mogłaby pozostać na tym poziomie, co jest obecnie, gdyby zostały doprowadzone do perfekcji algorytmy generujące wirtualne środowisko w sposób kompletnie nieschematyczny, aż po najmniejsze szczegóły. Jeśli programistom uda się przy obecnych standardach graficznych wyprodukować świat tętniący życiem, zaś sami projektanci gry nie będą w stanie przewidzieć finału gry (element nieprzewidywalności), wtedy będzie można mówić o rewolucji w świecie wirtualnej rozrywki.

                A do tej pory czekają nas kotlety i nic poza tym...
                • avatar
                  wstrzasmen
                  0
                  cos to da ale SVO to jest tylko i wylacznie algorytm renderingu sceny; taki okrojony raytracing gdzie nie liczy sie wszystkich odbic. dla vertexow niewidocznych w scenie przyjmuje sie przyblizenia.

                  jednak to nie to decyduje o fotorealizmie - albo nie tylko to lub nie w glownej mierze to.

                  to co naprawde decyduje o fotorealizmie numero uno to jest zlozonosc geometrii obiektow. ilosc poligonow na ktore nalozone sa tektury jest na pewno numero uno

                  fotorealizmu nie da sie osiagnac bez zwiekszenia liczby poligonow - jak meshe w grach np FPS beda tak zlozone jak w dobrych scenach w 3dsmax czy mayi (np postac humanoida 500tys poligonow) + tekstury beda o bardzo wysokiej rozdzilczosci + i do tego bedzie symulacja roznych zrodel swiatla (kierunkowe, rozproszone, odbite vide RT czy SVO, + zrodla swiatla kolorowe i cienie liczone dynamicznie znowu RT) to wtedy troche to pojdzie do przodu
                  na dzien dzisiejszy jednak nie ma kart graficznych ktore sa w stanie wyrenderowac 40 razy na sekunde scene o stopniu zlozonosci fotorealistycznej sceny z 3Dsmax gdzie trzeba policzyc dla calej sceny ruch meshy o lacznej wielkosci paru-parunastu milionow poligonow + swiatlo i cienie
                  • avatar
                    dnetsky
                    0
                    @Grinch

                    a jak nam monetarny system się skończył to co zrobiliśmy ??

                    DE nominację
                    :)

                    zaczniemy liczyć od jetta - 10^24
                    :)

                    i będzie to dla nas jak chleb powszedni
                    • avatar
                      dnetsky
                      0
                      @Touldie

                      niektóre tytuły już są nie przewidywalne
                      :)

                      na przykład:
                      grasz pare set godzin a potem Ci konto banują
                      :)

                      albo grasz 150h a tutaj bluescreen i wszystkie save-y zrobiły papa
                      :)
                      • avatar
                        Konto usunięte
                        0
                        Platforma x64 intela byla duzo wydajniejsza. x86-64 od AMD daje wzrost wydajnosci wgledem x86 rzedu 2%? 5%? Jedyna realna korzysc z tego rozwiazania to mozliwosc zaadresowania wiecej niz 3.5GB pamieci. Poza tym AMD chyba nie ma zadnych technologii, przez co ich topowy 6-cio rdzeniowy procesor ma wydajnosc na poziomie 4-rdzeniowego intela.
                        • avatar
                          krzywyzielarz
                          0
                          literówka. jednego układu scalanego.
                          scalonego.
                          • avatar
                            Konto usunięte
                            0
                            az dziwne ze nikt nie napisal jeszcze ciekawe jak chodzilby na tym crysis :)
                            • avatar
                              Bosman
                              0
                              Jak to mawiał Sin vel Jabu74 - Expert: IBM jest wielki !
                              • avatar
                                Konto usunięte
                                0
                                No nie powiem ciekawa ciekawostka zobaczymy co z tego wyjdzie z czasem :) szacun dla IBM

                                Ps.PranK napisz coś ciekawego jeszcze. Widze że jesteś oddanym fanem intela ;)