Procesory

Microsoft pokazał nowy procesor. Przyspieszy działanie ChatGPT

przeczytasz w 2 min.

Microsoft zaprezentował Maia 200 – nowy, superwydajny chip AI, który ma przyspieszyć działanie takich systemów jak ChatGPT i Copilot. To krok, który może sprawić, że sztuczna inteligencja stanie się szybsza, tańsza i dostępniejsza dla każdego.

Maia 200 to własny układ Microsoftu, zaprojektowany z myślą o dużych modelach językowych. Twórcy podkreślają, że to nie jest zwykły procesor. Maia 200 to nowa generacja sprzętu, która łączy ogromną moc obliczeniową z bardzo dobrą efektywnością i zaawansowaną architekturą pamięci i sieci. Dzięki temu ma realny wpływ na to, jak szybko i tanio można generować tekst, obrazy czy inne wyniki AI.

Dlaczego Maia 200 jest przełomowa?

Maia 200 jest zbudowana w technologii 3 nm i zawiera ponad 140 mld tranzystorów. Układ został zoptymalizowana pod niskoprecyzyjne obliczenia (FP4 i FP8), co dziś jest kluczowe dla dużych modeli AI. Jeden chip potrafi wykonać ponad 10 petaFLOPS w 4-bitach i ponad 5 petaFLOPS w 8-bitach. W praktyce oznacza to, że Maia 200 poradzi sobie z największymi modelami, a jednocześnie oferuje spory potencjał na przyszłość.

Microsoft Maia 200

W AI nie liczy się tylko moc obliczeniowa – równie ważne jest, jak szybko dane trafiają do procesora. Maia 200 ma 216 GB pamięci HBM3e z przepustowością 7 TB/s oraz 272 MB pamięci SRAM na chipie. To ogromna przewaga, bo pozwala utrzymać modele w ciągłym ruchu bez “zacięć”. Dzięki temu tokeny generowane są szybciej i bardziej stabilnie.

SpecyfikacjaAzure Maia 200AWS Trainium3Google TPU v7
Litografia3nm3nm3nm
Moc obliczeniowa FP4 (TFLOPS)10,1452,517n/a
Moc obliczeniowa FP8 (TFLOPS)5,0722,5174,614
Moc obliczeniowa BF16 (TFLOPS)1,2686712,307
Pamięć HBMHBM3EHBM3EHBM3E
Pojemność pamięci (GB)216144192
Przepustowość pamięci (TB/s)74.97.4
Przepustowość (TB/s)2,8 TB/s2,2–2,56 TB/s1,2 TB/s

Microsoft twierdzi, że Maia 200 to najwydajniejszy układ pierwszej strony (first-party) wśród dużych dostawców chmurowych. W porównaniu z Amazon Trainium 3 Maia 200 ma trzykrotnie większą wydajność w FP4, a w FP8 przewyższa Google TPU v7. Dodatkowo jest to najbardziej efektywny kosztowo system inferencyjny w historii Microsoftu — o 30 proc. lepszy wynik “wydajności na dolar” niż obecny sprzęt w Azure. 

Maia 200 jako część większej infrastruktury

Maia 200 nie działa samotnie – jest częścią nowego podejścia Microsoftu do budowy infrastruktury AI. W odróżnieniu od wielu rozwiązań, Microsoft projektuje cały system razem: chip, pamięć, sieć i oprogramowanie. Dzięki temu osiąga wyższą wydajność, lepsze wykorzystanie zasobów i szybsze wdrożenia. 

W Maia 200 zastosowano nową, skalowaną sieć opartą na standardowym Ethernet, ale z własną warstwą transportową. Każdy układ ma 2,8 TB/s dedykowanej przepustowości i może pracować w klastrach do 6144 akceleratorów. W praktyce oznacza to, że systemy inferencyjne mogą rosnąć bez utraty wydajności, a koszty i zużycie energii pozostają pod kontrolą. 

Układ przyspieszy AI

Maia 200 będzie wspierać m.in. najnowsze modele OpenAI (np. GPT-5.2), Microsoft 365 Copilot oraz usługi Microsoft Foundry. Dla użytkowników oznacza to szybsze odpowiedzi, większą skalę i niższe koszty przy dużych obciążeniach AI.

Microsoft Maia 200 - serwer
Układy Maia 200 zostały już wdrożone do pierwszych centrów danych

Microsoft już wdrożył Maia 200 w regionie US Central, a kolejne lokalizacje są w przygotowaniu. Wkrótce Maia 200 trafi także do kolejnych centrów danych, co oznacza, że coraz więcej klientów Azure będzie mogło korzystać z jej przewagi. 

Microsoft udostępnia również Maia SDK, które umożliwia programistom optymalizację modeli pod ten układ. SDK zawiera narzędzia takie jak integracja z PyTorch, kompilator Triton, bibliotekę zoptymalizowanych kernelów oraz niskopoziomowy język programowania. Dzięki temu przenoszenie modeli między różnymi akceleratorami staje się prostsze, a jednocześnie można uzyskać maksymalną wydajność tam, gdzie jest to potrzebne. 

Przełomowy chip AI

Maia 200 to przełomowy układ AI Microsoftu, który łączy ogromną moc, szybki przepływ danych i efektywność kosztową. Dzięki temu Microsoft buduje nowy standard infrastruktury AI, który pozwoli obsługiwać coraz większe modele szybciej i taniej. To krok, który ma realny wpływ na przyszłość generatywnej sztucznej inteligencji.

Cyfrowi bezpieczni Misja AI

Komentarze

0
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.

    Nie dodano jeszcze komentarzy. Bądź pierwszy!

Witaj!

Niedługo wyłaczymy stare logowanie.
Logowanie będzie możliwe tylko przez 1Login.

Połącz konto już teraz.

Zaloguj przez 1Login