• benchmark.pl
  • artykuły
  • Super computing - skrócona historia, teraźniejszość i wizja przyszłości technologii obliczeniowych
Komputery

Super computing - skrócona historia, teraźniejszość i wizja przyszłości technologii obliczenio

przeczytasz w 3 min.

Kiedy tylko zaczęły pojawiać się skomplikowane obliczeniowo problemy kwestią czasu było powstanie sprzętu, który by znacznie ułatwił ich rozwiązywanie. Obecnie super computing wykorzystuje się w prawie każdym aspekcie naszego życia: począwszy od przewidywania pogody, poprzez wyszukiwanie surowców mineralnych, aż do symulacji detonacji broni nuklearnej.

Trudne początki

Początków „prawdziwych” superkomputerów należy się doszukiwać w 1942 roku, kiedy to został przetestowany komputer Atanasoff-Berry Computer (wyprodukowany w 1937). Maszyna ta niestety nie była programowalna, ponieważ została zaprojektowania do rozwiązywania równań liniowych. Rezultaty zwracała na dziurkowanych kartach, których nie można nazwać trwałymi. Gdy twórca owego pierwszego superkomputer - Atanasoff odszedł ze stanowego uniwersytetu Iowa, prace nad komputerem zostały wstrzymane.

Replika Atanasoff-Berry Computer w Durham Center

Pierwszy z superkomputerów dysponował niewiarygodną jak na tamte czasy mocą obliczeniową na poziomie 30 OPS (operations per second). Gdy porównamy ten wynik do obecnych osiągów sprzętu, to nie wygląda on imponująco. Trzeba jednak pamiętać o tym, że ABC stworzono ponad 60 lat temu, co w świecie super szybkich komputerów stanowi całe lata świetlne.

Prawdziwym przełomem w obliczeniach komputerowych były lata siedemdziesiąte i osiemdziesiąte. Wtedy to opinia publiczna mogła zobaczyć, do czego zdolne są komputery. Wszystko dzięki komputerowi Belle - pierwszemu grającemu w szachy komputerowi, któremu udało się osiągnąć poziom mistrzowskiego ludzkiego mózgu. W tych właśnie czasach prym wiodła firma-legenda, czyli Cray Inc. Ich superkomputery utrzymywały tytuł najszybszych na świecie najdłużej w historii.

Wielki przełom – początek Cray Inc.

Założyciel firmy, Seymour Cray, zaczął swoją przygodę z rynkiem super computing w latach 50, kiedy to dołączył do Engineering Research Associates (ERA) w Saint Paul w Minnesocie. Pomógł w tworzeniu ERA 1103, który to system określono mianem pierwszego udanego komputera naukowego. W 1972 roku Cray założył własną firmę – Cray Research Inc. Pierwszym sukcesem firmy było zaprezentowanie Cray-1, który był najszybszym superkomputerem swoich czasów. Dysponując mocą obliczeniową na poziomie 250 MFLOPS, sprzedał się w przeciągu miesiąca za 8,8 milionów dolarów.

Cray XT Jaguar

Produkty z logo Cray biły kolejne rekordy wydajności - w 1983 roku najszybszym komputerem był Cray X-MP dysponując mocą 941 MFLOPS, dwa lata później pojawił się Cray-2, który z mocą 3.9 GFLOPS utrzymał miejsce najszybszego komputera świata przez 4 lata. Niestety, od tego czasu firmie nie udało się zdobyć chlubnego tytułu „najszybszych”. Nawet ich najnowszy produkt, Cray XT „Jaguar”, nie dał rady pokonać dominującej od ostatnich 4 lat firmy IBM.

Wszechobecne IBM

IBM (International Business Machines) jest firmą, dzięki której narodził się termin „super computing”. Właśnie takiego określenia użył dziennikarz New York World w 1929 roku, podczas opisu maszyny liczącej stworzonej przez IBM na potrzeby uniwersytetu Columbia.

Podium w dziedzinie obliczeń IBM zdobył w 1954 roku, kiedy to ich NORC osiągnął status najszybszego superkomputera, z mocą 67 kOPS. Można zaryzykować stwierdzenie, że dobra pass rozwiązań IBM trwa do dziś. W końcu to ich sprzęt, IBM Roadrunner, uznawany jest za najszybszy na świecie.

IBM NORC - zdjęcie z epoki

Obecnie IBM utrzymuje pierwsze miejsce na arenie super computingu przez ostatnie 4 lata i nic nie wskazuje na to, że w najbliższym czasie ta sytuacja się zmieni. Ich Roadrunner dysponuje niewyobrażalną mocą obliczeniową 1.105 PFLOPS. Wystarczy tylko wspomnieć, że ich poprzedni komputer, Blue Gene, skończył swój żywot osiągając 478.2 TFLOPS w 2007 roku.

Plan rozwoju super computingu

Rynek HPC (high performance computing) jest obecnie jedną z najprężniej rozwijających się branż IT. Wynika to z faktu, że zapotrzebowanie na moc obliczeniową ciągle rośnie i potrzebne są nowe pomysły na jej uzyskanie. W branżach, gdzie szybkie pozyskiwanie wyników jest niezwykle istotne(finanse, medycyna, geologia, itp.) superkomputer jest wręcz niezastąpiony. Dlatego też zauważalny jest trend miniaturyzowania urządzeń służących do obliczeń. Idealnym przykładem jest strategia wielkich graczy w świecie super maszyn.

Podczas targów SC08, które odbyły się w dniach 15-21 listopada 2008 w Austin w Teksasie, został zaprezentowany Cray CX1. Komputer typu deskside, który z powodzeniem może zastąpić duże klastry obliczeniowe w pracowniach naukowych. Maszyna ta może się pochwalić maksymalną wydajnością 4 TFLOPS, co przy tych rozmiarach stanowi nie lada wyczyn. Jest to głównie zasługa procesora obliczeniowego NVIDIA Tesla C1060, który potrafi dostarczyć 1 TFLOPS mocy obliczeniowej. Mimo dużej wydajności cena takiego rozwiązania jest niezwykle przystępna w porównaniu z kosztami budowy i utrzymania klastrów.

Jednak stworzenie takiej maszyny nie byłoby możliwe gdyby nie postęp, jaki dokonał się w dziedzinie kart graficznych i specjalnych procesorów obliczeniowych. Nie od dziś wiadomo, że karty graficzne dysponują o wiele większą ilością jednostek obliczeniowych niż jakikolwiek procesor główny. Dlaczego więc nie wykorzystać ich do obliczeń?

NVIDIA jest na razie jedynym producentem, którego karty graficzne mogą być używane przy skomplikowanych obliczeniach (odpowiedź AMD/ATI ma się dopiero pojawić). Jest to możliwe dzięki technologii CUDA, która, poprzez wykorzystanie języka C, pozwala na wykorzystywanie jednostek obliczeniowych GPU.

Realnym przykładem zastosowania tej technologii jest program Folding@home opracowany w uniwersytecie Stanforda. W sierpniu ogłoszono, że projekt ten osiągnął wydajność obliczeniową na poziomie 3.3 PTFLOPS – jest to wynik prawie trzykrotnie większy niż w przypadku Roadrunnera! Dzięki zaangażowaniu użytkowników (zarówno komputerów, jak też konsol Playstation 3) możliwe, że już niedługo zostaną wynalezione leki na dotychczas nieuleczalne choroby.

Podsumowanie

W obecnych czasach bardzo istotne jest dbanie o środowisko, a w wypadku budowania potężnych superkomputerów nie da się uniknąć dużego poboru mocy. W związku z tym niezwykle cieszy dynamiczny rozwój branży quasi cloud computing, której przykładem jest właśnie Folding@home. W tym rozwiązaniu widzę przyszłość - połączenie wszystkich komputerów świata w jedną wielką „chmurę” obliczeniową uruchamia niewyobrażalne pokłady mocy. Jednak czy każdy będzie chciał udostępnić swój PC dla tych celów?

Komentarze

7
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Darxis
    0
    Chce taki w domu. :D
    • avatar
      Konto usunięte
      0
      warto wspomniec o SETI@home ktore korzysta z setek tysiecy kompoe na calym swiecie, ale mnie dziwi ze nie udostepnili jeszcze klienta ktory korzysta z mocy GPU.....
      sam liczylem przez ladnych kilka lat SETI - swietny tester predkosci procesora i do zabaw w podkrecanie :) - ale mysle ze niezly postep w tym temacie by sie zrobili gdyby wykorzystac nasze grafy :)
      • avatar
        Konto usunięte
        0
        "NVIDIA jest na razie jedynym producentem, którego karty graficzne mogą być używane przy skomplikowanych obliczeniach (odpowiedź AMD/ATI ma się dopiero pojawić)."

        Tu chyba autor nie odrobił lecji
        • avatar
          Dzban
          0
          Chodziło o kompilator brook+ który AMD opracowało 2 lata temu i wykorzystano go właśnie w Folding@home przy użyciu serii 1xxx Radeonów.
          • avatar
            Konto usunięte
            0
            nie porownujcie panowie standardowych GPU do kart TESLA !
            to mala pomylka ! :)

            nie ta moc, nie to przeznaczenie :)