• benchmark.pl
  • Komputery
  • Dzisiejsi astronomowie to magicy w porównaniu z tymi sprzed 100 lat. Oto jak komputery zmieniły tę naukę
Dzisiejsi astronomowie to magicy w porównaniu z tymi sprzed 100 lat. Oto jak komputery zmieniły tę naukę
Komputery

Dzisiejsi astronomowie to magicy w porównaniu z tymi sprzed 100 lat. Oto jak komputery zmieniły tę naukę

przeczytasz w 10 min.

Astronomia wyjątkowo dobrze nadaje się do zilustrowania postępu jaki stał się możliwy w nauce dzięki komputeryzacji. I nie mówimy tu tylko o maszynach biurkowych, ale też o potężnych superkomputerach.

Komputery zmieniły nasz świat w stopniu, który trudno było sobie wyobrazić sto lat temu. Owszem hasło automatyzacja już kiełkowało w głowach nawet zwykłych ludzi, ale już dzięki pierwszym komputerom osiągnięto znacznie więcej. Szczególny wpływ komputeryzacja wywarła na wszelkie dziedziny naukowe, w tym astronomię. Komputery wykorzystywane są dziś również przez artystów, ale sztuka, na przykład twórczość literacka nie potrzebowała ich w takim stopniu jak nauka.

Dobrą ilustracją tej różnicy jest dzisiejsza kinematografia. Dzięki grafice komputerowej jesteśmy w stanie wyczarować dowolnie fantastyczne światy na ekranie i umieścić w nich aktorów. Jednak taki nawet najlepszy film, bez dobrego scenariusza nie będzie niczym więcej poza wizualną ucztą dla oczu. Filmowy scenarzysta nie potrzebuje komputera w tak dużym stopniu jak astronomowie. Podobnie pisarz, dzięki komputerom, czyli takim zaawansowanym maszynom do pisania, może wygodniej tworzyć nowe dzieła, być może i bestsellery, ale lepszym autorem dzięki temu nie będzie.


Komputer jako element warsztatu pracy filmowca

Nauki i to nie tylko astronomiczne, można podzielić oczywiście również na część typowo techniczną, obserwacyjną, gdzie komputeryzacja jest bardzo pomocna, a także część teoretyczną, w której wystarczy kartka papieru i ołówek, by tworzyć bardzo postępowe teorie. Jednak tylko do czasu. Na nic byłyby teorie Einsteina, gdybyśmy nie mogli ich sprawdzić. Owszem, o poprawności części z nich udało się nam przekonać jeszcze zanim nadeszła era komputerów, ale wiele z nich dopiero dzięki nowoczesnej astronomii obserwacyjnej możemy weryfikować, a nawet podważać.

Dlatego dziś teoretyk to nie ten sam człowiek co kiedyś. Pewnie są tacy, co lubią pławić się wyłącznie w domysłach na papierze, ale prawdziwa astronomia teoretyczna wymaga bardzo dużej mocy obliczeniowej. Właśnie po to, by te teorie zweryfikować, a dzięki giętkości komputerowego umysłu stworzyć nowe jeszcze lepiej opisujace rzeczywistość. Zanim jednak zagłębimy się w świat komputerów i astronomii, przypomnijmy sobie jak to było w tej nauce, wcale nie tak dawno, bo jeszcze kilkadziesiąt lat temu.

Dlaczego superkomputery okazały się przeznaczeniem astronomii

Czasy Kopernika, Keplera, to moment, gdy dokonywała się rewolucja w astronomii, ale i w fizyce, matematyce, przede wszystkim w rozumowaniu, choć powoli także technologiczna. Galileusz w końcu jako pierwszy skorzystał z lunety do obserwacji astronomicznych i opisał swoje obserwacje.

Nas interesują jednak czasy, gdy komputery już istniały w naszej świadomości, a pierwsze maszyny pomagały w rozwiązywaniu problemów natury astronomicznej, czyli początkom II połowy XX wieku. Wtedy astronomowie obserwowali na kliszach, czyli szklanych płytach, które po wywołaniu, podobnie jak film małoobrazkowy, można było analizować. Jednak nie było im dane jeszcze korzystać z cyfrowych technologii. Dziś można zeskanować starą kliszę i jeszcze raz podjąć się analizy zarejestrowanych na niej informacji.

Jednak przez sporą część XX wieku, astronomowie każdą gwiazdę lub inny kosmiczny obiekt, zarejestrowany na kliszy oglądali gołym okiem. Porównań pomiędzy kolejnymi obserwacjami (poszczególnymi kliszami) dokonywano w tak zwanych blinkometrach. Ich działanie przypominało szybkie przełączanie pomiędzy obrazkami w przeglądarce zdjęć. W ten sposób można było dostrzec łatwo, które obiekty zmieniają jasność, oszacować z rozmiaru tworzonej na kliszy plamki jasność itd.


Nawet taka prosta dziś dla nas czynność jak porównywanie kolejnych klisz z obrazami nieba kosztowała astronomów sporo czasu i energii

Tym na co chcemy zwrócić wasza uwagę to skala w jakiej przetwarzane były dane. Kiedyś teoretycy siedzieli w swoich gabinetach i snuli teorie na papierze, co podówczas im wystarczało, ale astronomowie obserwatorzy marzyli o tym, by móc szybko analizować dane dla jak największej liczby gwiazd. Niestety ich praca była ograniczona do pomiarów dla pojedynczych obiektów, a jeśli były to gromady gwiazd to czas pracy wydłużał się niemiłosiernie. Brak możliwości komfortowego prowadzenia badań na większej bazie obiektów utrudniał wnioskowanie i weryfikowanie teorii.

Gdy w astronomii obserwacyjnej pojawiły się sensory CCD, a wraz z nimi pierwsze komputery, nastąpił można powiedzieć cud. Bo oto zamiast analizować żmudnie światło pojedynczych gwiazd, astronom mógł nie tylko zlecić to zadanie komputerowi, który mierzył jasność dla całej sekwencji obrazów i wypuszczał gotowe kolumny liczb. Mógł to zrobić dla wszystkich gwiazd jednocześnie, które były w polu widzenia teleskopu i kamery CCD.

Ciekawostka: choć kamery CCD kojarzą się nam z cyfrowymi detektorami to proces, który odpowiada za powstawanie w nich sygnału, czyli zjawisko fotoelektryczne, jest całkowicie analogowy. Również wyjście sygnału jest analogowe. Dopiero elektronika obsługująca sensor CCD generuje dane cyfrowe

Ta zmiana, która zaszła mniej więcej w latach 80. XX wieku, choć pierwsze obserwacje z pomocą CCD wykonano już w 1976 roku, to na swój sposób rewolucja na miarę kopernikańskiej. Komputery w tych czasach nie były oczywiście tytanami wydajności, ale nawet ograniczony jeszcze stopień automatyzacji był nieoceniony, a cyfrowy interfejs komunikacyjny jaki zapewniały komputery doskonale pasował do sposobu gromadzenia informacji jaki umożliwiła kamera CCD.

sensory CCD Kepler
Mozaika sensorów CCD zastosowanych w obserwatorium kosmicznym Kepler

Komputery w miarę upływu lat przyśpieszały, zwiększały się też pojemności baz danych obserwacyjnych. Pojawił się nowy problem, którym było przechowywanie obserwacji. Bo o ile zachowywanie klisz było czymś normalnym w ich epoce, to w początkach obserwacji cyfrowych wiele obserwacji po analizie było po prostu kasowanych z mało pojemnych komputerowych dysków. Dotyczyło to szczególnie masowych przeglądów nieba, które w latach 90. XX wieku jeszcze raczkowały. Jednymi z pierwszych, którzy docenili wagę zachowania danych na przyszłość, by jeszcze lepsze komputery i sprytniejsze algorytmy mogły je przetworzyć, byli polscy astronomowie z zespołu OGLE.

Dziś superkomputery dysponują ogromnej pojemności pamięcią masową co ułatwia sprawne przetwarzanie danych. Jednak, gdy mowa o archiwizacji, to wciąż spora ilość danych naukowych jest przechowywana na pamięciach taśmowych. Te nadal potrafią być ekonomiczniejszym rozwiązaniem niż jakiegokolwiek typu pamięć dyskowa

Z tego pierwszego problemu, przechowywania danych, wynikał drugi, czyli konieczność zaprzęgnięcia coraz wydajniejszych komputerów w miarę jak obserwowano jednocześnie coraz więcej obiektów. Doskonałym przykładem jak zmieniła się skala obserwacji są poniższe zdjęcia. Na pierwszym z nich widać miliony gwiazd, których światło dzięki komputerom można zanalizować. Astronomowie są w stanie stworzyć modele populacji gwiazd, katalogi obiektów z podziałem na konkretne ich własności. Takie jedno zdjęcie to niesamowita kopalnia informacji, niemal niczym DNA żywego organizmu.

Dziś taką analizę dzięki superkomputerom można przeprowadzać już prawie w czasie rzeczywistym, ale jeszcze pod koniec XX wieku było to zadanie czasochłonne. Jednak i tak wykonalne, czego nie mogliby powiedzieć astronomowie z czasów przed komputerowych. Dla nich nawet stworzenie krzywych zmian jasności dla tysiąca gwiazd, a nie miliardów jak dziś, oznaczało zaangażowanie ogromnej ilości czasu. Nie mówiąc już o kosztach i zużytej energii.

Centrum Galaktyki
Choć to zdjęcie to złożenie wielu mniejszych to doskonale ilustruje złożoność dzisiejszej astronomii obserwacyjnej. Widać na nim w rzeczywistości miliony gwiazd, a każdą z nich astronomowie mogą w detalach zbadać


Wykonywanie takich zdjęć, z taką liczbą gwiazd jest dziś proste także dzięki komputerom

Niedługo ruszy obserwatorium Very C Rubin z największym w historii 3,2 Gpix sensorem. Teleskop będzie w ciągu nocy obserwował całe dostępne niebo w ciągu około trzech dni (dziennie uzyskane będzie 20 TB surowych danych) i praktycznie od razu wstępnie je analizował. W ciągu 10 lat obserwacji skatalogowane zostanie w ten sposób około 6 milionów obiektów w Układzie Słonecznym, 20 miliardów galaktyk, 17 miliardów gwiazd. W ciągu nocy spodziewane jest 10 milionów alertów dotyczących zmian, nowych obiektów. Taki postęp w porównaniu z czasami, gdy astronom miał do dyspozycji zeszyt i ołówek, nie byłby możliwy dzięki komputerom i ciągłemu postępowi w tej branży.

Komputery umożliwiły powstanie niespotykanej wcześniej synergii pomiędzy teorią, a obserwacjami astronomicznymi. Dziś astronomia to przede wszystkim obliczenia i jeszcze raz obliczenia. Niektóre po to by tworzyć modele teoretyczne, inne po to by z danych obserwacyjnych wyciągać wnioski i porównywać z teorią, a jeszcze inne po to, by móc zestawy danych obserwacyjnych przygotować do analizy. Dzięki komputerom astronomowie mogą skupić się na tej mniej żmudnej i dziś bardziej romantycznej stronie astronomii

Jednak nie tylko obserwatorzy zyskali na komputerach, ale również teoretycy. Bo oto ich teorie, wcześniej często pozostające jedynie w formie papierowych zapisków, mogły być weryfikowane nie tylko przez obserwacje, ale wstępnie poprzez symulacje. Numeryczne obliczenia przyśpieszyły przejście od etapu założeń do realnego wykorzystania teorii w praktyce.


Symulacja wczesnego wszechświata. Gdyby nie komputery, większość założeń teoretyków pozostałaby domysłami na papierze

Procesory serwerowe, które oferują dziś najlepszą efektywność energetyczną to AMD Epyc

Kilka akapitów wcześniej padło słowo energia. Owszem energię można utożsamiać różnie, nawet z paliwem zużytym przez samolot, a potem samochód (kiedyś do wysoko położonych obserwatoriów wjeżdżano na osłach), którym astronom podróżuje do miejsca pracy. Jednak w dzisiejszej astronomii jak i każdej innej dziedzinie nauki słowo energia kojarzy się z efektywnością. Coraz szybszy postęp naukowy jest możliwy między innymi dzięki tworzeniu coraz efektywniejszych mechanizmów wykorzystania energii jaką ma do dyspozycji ludzkość. Bo choć jest jej pełno dookoła nas, to jako cywilizacja wciąż uczymy się ją sprawnie wykorzystywać. 

W początkach obserwacji z pomocą kamer CCD nie było w zasadzie istotne jakiej marki jest komputer, a tym bardziej procesor. Ba pecety były nawet początkowo mało popularne, większą rolę odgrywały w swoim czasie między innymi maszyny Sun Microsystems. W końcu jednak to te pierwsze wygrały wyścig, przede wszystkim o kieszenie astronomów, którym nigdy się nie przelewało. To właśnie w obserwatoriach astronomicznych można było znaleźć najstarsze wciąż działające pecety.

Dzięki bardzo efektywnemu spożytkowaniu pobieranej energii na wykonywane obliczenia przez poszczególne rdzenie procesora, układy AMD Epyc i wykorzystujące je superkomputery są obecnie najlepszym wyborem dla astronomów zarówno obserwatorów jak i teoretyków. Bo każdy dolar, euro czy złotówka jest tu na wagę złota

Astronomowie, jak my wszyscy, potrzebują komputerów o zróżnicowanej mocy obliczeniowej, ale to w ich przypadku projekty wymagające wielkoskalowego przetwarzania danych przez superkomputery są czymś powszechnym. Od tego jak droga jest eksploatacja superkomputerów, a na to wpływa nie tylko złożoność obliczeń, które da się jej zlecić do wykonania w danym czasie, ale i powiązane z nimi zużycie energii, zależy jak ambitnych wyzwań podejmą się astronomowie. Bo pomysłów im nie brakuje.

Owszem astronomowie, podobnie jak wy drodzy czytelnicy, najpierw docenili komputery same w sobie, ale szybko zaczęli doceniać ich rosnąca z roku na rok wydajność. Rozpowszechnienie się dostępu do superkomputerów w ostatnich latach stało się dla nich przysłowiową gwiazdką z nieba. Wraz z tym dostępem oczywiście wiąże się odwieczne hasło "minimalizacja kosztów, gdy tylko to możliwe", a to ścieżka rozumowania, której obecnie bardzo dobrze pasuje do firmy AMD.

AMD Epyc Genoa
Płytka procesora AMD Epyc najnowszej generacji z widocznymi chipletami (to te małe kości, które razem funkcjonują jak jeden procesor) i rdzeniami Zen 4

Obecna filozofia tej firmy zakłada bowiem, że ważne w procesorach serwerowych są nie tylko zabezpieczenia, ale też jak najwyższa efektywność energetyczna. Ten ostatni cel, który staje się furtką do obniżenia wspomnianych kosztów eksploatacji serwerów, AMD zrealizowało dwukierunkowo. Wdrażając skutecznie architekturę chipletową, a także tworząc własną technologię efektywnych energetycznie rdzeni Zen. W najnowszych procesorach serwerowych AMD Epyc Genoa stosowana jest już czwarta ich generacja - Zen 4.

AMD Epyc świetnie spełnia oczekiwania astronomów, choć nie powstał wcale z myślą tylko o nich

AMD Epyc to układy, które są następcą układów Opteron. Na rynku obecne są trzy generacje tych procesorów (wprowadzone kolejno w 2017, 2019 i 2021 roku), a najnowsza czwarta generacja, bazująca na mikroarchitekturze Zen 4 właśnie miała premierę. Procesory czwartej generacji są podzielone na kilka typów, stosownie do ich wyspecjalizowania i będą trafiać do sprzedaży stopniowo w ciągu najbliższych miesięcy. Znajdą zastosowanie w branży przetwarzania danych, symulacjach wszelkiego typu, centrach danych, medycynie, telekomunikacji, sztucznej inteligencji, a także doskonalonych wciąż interfejsach człowiek-komputer (HCI).

AMD Epyc

Astronomowie wcale nie są najliczniejszą grupą użytkowników procesorów AMD Epyc, wręcz stanowią niszę, ale są pragmatykami, którzy jak mało kto potrafią liczyć pieniądze przeznaczane na naukowe przedsięwzięcia. Myślą przy tym, by mieć do dyspozycji komputery, które zajmują jak najmniej miejsca, kosztują jak najmniej przy zakupie, ale i podczas eksploatacji. Niekoniecznie chodzi tu o ich własne maszyny, a też o te, które odgrywają kluczową rolę w wielkich projektach. Często są one po prostu wynajmowane na czas ich trwania projektu. Tak zresztą działa większość centrów superkomputerowych, poprzez udostępnianie swoich zasobów aktualnie ich potrzebującym.

Najbardziej wymagająca obliczeniowo jest ta cześć astronomii, która wiąże się z symulowaniem wszechświata, jego fragmentów, na różnych etapach jego istnienia. Im większa dostępna moc obliczeniowa komputera, której ekwiwalentem z perspektywy ekonomicznej jest efektywność energetyczna, tym większa dostępna rozdzielczość symulacji lub krótszy czas wykonywania obliczeń

Technologie zastosowane w AMD Epyc, z perspektywy astronomów są właśnie strzałem w dziesiątkę. Bo to właśnie te układy dzięki dużej skali integracji, która pozwala upakować największą obecnie ilość rdzeni na kości procesora, najefektywniej wykorzystują budżet energetyczny jaki otrzymują. I przy okazji są znacznie wydajniejsze niż ich obecna serwerowa konkurencja. Astronomowie dzięki temu otrzymają niższy rachunek. I mogą myśleć o rozwiązywaniu problemów o większej skali złożoności, a to właśnie w tym kierunku zmierza w miarę rozwoju każda nauka.

Procesory AMD Epyc czwartej generacji zaprezentowane jesienią 2022 roku oferują do 96 rdzeni Zen 4. Wiosną wraz z premierą zmodyfikowanej mikroarchitektury Zen4c, ta liczba wzrośnie do 128 rdzeni i jednocześnie 256 wątków. A jeszcze pod koniec XX wieku, astronomowie musieli zadowalać się procesorami z jednym rdzeniem, nawet kilkadziesiąt razy mniej efektywnym energetycznie, a o wielowątkowości nie było nawet mowy

Astronomowie myślą o coraz lepszej symulacji wszechświata, zwłaszcza jego początkowych etapów istnienia, meteorolodzy lepszych algorytmach przewidywania pogody, konstruktorzy rakiet szybszym i tańszym ich prototypowaniu, medycy o skuteczniejszej walce z chorobami (dzięki superkomputerom wdrażanie i testowanie leków jest znacznie szybsze niż kiedyś, o czym zapomina wiele osób), a ekonomiści pewniejszym prognozowaniu przyszłości światowych finansów. I tak można wyliczać bez końca.

Duże i małe superkomputery

Procesory AMD nie bez powodu są stosowane w każdym superkomputerze z pierwszej trójki najpotężniejszych maszyn zestawienia TOP500 (500 najwydajniejszych superkomputerów na świecie). Pierwszy na liście Frontier i trzeci LUMI bazują na zoptymalizowanych procesorach serwerowych AMD Epyc 3 generacji.

Frontier superkomputer AMD
Najpotężniejszy obecnie superkomputer na świecie. Pierwszy który przekroczył barierę wydajności 1 Exaflopsa

Jednak astronomów na świecie jest więcej niż trzech, i to dużo więcej, dlatego ich potrzeby przekraczają możliwości tych superkomputerów, choć czasem nie są aż tak wymagające. W astronomii zastosowanie znajdują superkomputery budowane w różnej skali. Czasem istotniejsza jest wyłączność dostępu przez długi czas, niż największa dostępna w danym czasie moc obliczeniowa.

Niektóre instytucje naukowe mogą pochwalić się takim ekskluzywnym dostępem. Jedną z nich jest Uniwersytet w Durnham w Wielkiej Brytanii, w którym przeprowadzane są symulacje dotyczące ewolucji obiektów w różnej skali. W przypadku astronomii symulowane jest funkcjonowanie gwiazd jak i całego wszechświata. Tam właśnie wykorzystuje się superkomputer z procesorami AMD EPYC 2 generacji.

Najwydajniejszy superkomputer w Polsce też ma procesory AMD Epyc

Technologia AMD została wybrana również przez Cyfronet, w którym od niedawna pracuje najwydajniejszy superkomputer w Polsce, Athena. Zastosowano w nim 64-rdzeniowe procesory AMD Epyc 7742. Całkowita wydajność Atheny to 7,7 PetaFlopsa.

Dzięki układom AMD, niezależnie od skali, nie trzeba dziś dokonywać kompromisu pomiędzy szczytową wydajnością i wysoką energooszczędnością. Procesory AMD Epyc łączą te dwie cechy w jednym produkcie.

I to nie wszystko, bo nowoczesna matematyka, z której aparatu korzystają astronomowie, doskonale sprawdza się na wyspecjalizowanych akceleratorach GPU. I w tym przypadku AMD coś do zaoferowania. Autorskie rozwiązania tej klasy jakim są akceleratory AMD Instinct. Te w wersji MI250X stanowią element najszybszego dziś superkomputera Frontier. AMD Instinct znajdą się także w tworzonym El Capitan, który w przyszłym roku przejmie pałeczkę najszybszego komputera świata. Będzie to urządzenie o podobnej jak Frontier architekturze.

Przy okazji warto wspomnieć także o małym wielkim sukcesie AMD na nieco innym polu, czyli w astronautyce. Układy FPGA to co prawda innego typu rozwiązanie niż procesory serwerowe, ale te wyprodukowane przez Xilinx, niedawno zakupioną przez AMD firmę, zarządzały funkcjonowaniem rakiety SLS, a także pojazdu Orion, który właśnie przebywa na orbicie Księżyca z krótką wizytą w ramach misji Artemis 1.

Superteleskopom przydadzą się superkomputery

Technologia procesorów serwerowych AMD i akceleratorów GPU tej marki, może znaleźć spełnienie także w niedalekiej w przyszłości. W obserwatoriach, gdzie zlokalizowane będą superteleskopy, lub teleskopy wyposażone z bardzo wysokiej rozdzielczości kamery, zdolne do szybkiego lub bardzo głębokiego (z dużą liczbą obiektów) przeglądu nieba.


Superteleskopy zmienią naziemną astronomię tak jak zmieniło ją wprowadzenie komputerów. Jednak tym razem pomoc tych ostatnich będzie niezbędna

Liczba danych generowanych podczas samych obserwacji wymusi na astronomach stosowanie sprzętu klasy superkomputera, do obsługi takiego teleskopu. Nawet jeśli nie bezpośrednio w samym budynku obserwatorium to niedalekim sąsiedztwie.

Nie będzie tutaj oczywiście konieczne wdrażanie najmocniejszych konfiguracji, wystarczą nawet takie, które w rankingu TOP500 znalazłyby się na dalekich miejscach. Jednakże i w takich "wolniejszych" superkomputerach zastosowanie procesorów AMD Epyc przyniesie korzyści, dzięki doskonałemu stosunkowi kosztów ich użytkowania do oferowanej wydajności.

Dlaczego wydajność superkomputerów zawsze będzie za mała

Nauki ścisłe, szczególnie takie jak astronomia czy fizyka, ale też chemia, biologia, mają to do siebie, że w miarę jak odkrywamy reguły rządzące naszym światem, jesteśmy w stanie zejść na kolejny poziom wtajemniczenia, a ten wymaga jeszcze bardziej skomplikowanych teorii, a co za tym idzie obliczeń, szerszych zbiorów danych do przetworzenia.

Tak naprawdę nawet nie wiemy, przed jakimi wyzwaniami staniemy w przyszłości. Przykładem są ostatnie rewelacje dotyczące modelu standardowego, które płyną z CERN i wskazują, że dotychczasowe oszacowania masy Bozonu W są obarczone błędem. A skoro jest błąd, to w obliczeniach go uwzględniających, może on się multiplikować i prowadzić do poważnych niedomówień w opisie naszego wszechświata. Z kolei inna grupa kosmologów doszła do wniosku, że tak uznany etap we wczesnej historii wszechświata jak inflacja mógł wyglądać inaczej lub przebiegać odmiennie naszej obecnej wiedzy.

Każda kolejna generacja procesorów AMD Epyc pozwala astronomom i fizykom stworzyć kolejny jeszcze precyzyjniejszy model funkcjonowania naszego wszechświata. Jednocześnie wraz z każdym takim postępem przekonujemy się, że trzeba jeszcze większej mocy obliczeniowej, by rozwiązać nowo powstałe problemy. I tak raz po razie, bez pewności, że ten ciąg kiedykolwiek się skończy

Jaki to ma związek z wydajnością superkomputerów? Wystarczy sobie wyobrazić, że moc obliczeniowa pierwszych serwerowych układów AMD Athlon MP była kilkaset razy mniejsza od wydajności obecnie najszybszego procesora AMD Epyc. A teraz pomyślcie, że tworząc coraz precyzyjniejsze modele kosmicznych obiektów, zjawisk, poruszając się w symulacjach ku chwili zero, gdy powstał wszechświat i cała znana nam fizyka, musimy zwiększać precyzję obliczeń. I to o więcej niż dwa, trzy rzędy wielkości. A to oznacza, że AMD ma jeszcze sporo pracy, zanim jego układy osiągną choćby ułamek takiej potrzebnej mocy obliczeniowej.

Na szczęście astronomowie choć pośpieszają, to nie są też w gorącej wodzie kąpani. Wiedzą, że gwałtowny przeskok w precyzji obliczeń wymagałby stworzenia nowych modeli teoretycznych, algorytmów, a być może nawet nowej matematyki. Dlatego czasem warto poruszać się powoli, zgłębiając tajemnice kosmosu krok po kroku.

Niemniej kluczowa w tym postępie jest optymalizacja obliczeń, specjalizacja układów przetwarzających i wspominana tu wielokrotnie efektywność energetyczna, gdyż tylko dzięki takiemu podejściu do rozwiązywania problemów będziemy w stanie skutecznie uzyskać zadowalające rezultaty przy rosnącym ich skomplikowaniu i z wykorzystaniem bardziej zaawansowanego aparatu matematycznego bez ewentualnego hamowania rozwoju nauki. A jednocześnie skutecznie stawimy czoła ograniczonym budżetom jednostek naukowych, centrów badawczych, które nie pozwalają na modernizacje własnych zasobów komputerowych w tempie jakie mógłby narzucić postęp technologiczny.

Tekst powstał we współpracy z AMD

Komentarze

2
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    JaYmZ
    0
    W dawnych czasach za "magię" i inne podejście do otaczającej rzeczywistości względem ogółu palili wybitnych ludzi na stosie.

    Ciekaw jestem, jakie odkrycia naukowe pojawią się przy wykorzystaniu nowoczesnej technologii za 100 lat. Aż trudno to sobie wyobrazić.