
Microsoft zaprezentował Maia 200 – nowy, superwydajny chip AI, który ma przyspieszyć działanie takich systemów jak ChatGPT i Copilot. To krok, który może sprawić, że sztuczna inteligencja stanie się szybsza, tańsza i dostępniejsza dla każdego.
Maia 200 to własny układ Microsoftu, zaprojektowany z myślą o dużych modelach językowych. Twórcy podkreślają, że to nie jest zwykły procesor. Maia 200 to nowa generacja sprzętu, która łączy ogromną moc obliczeniową z bardzo dobrą efektywnością i zaawansowaną architekturą pamięci i sieci. Dzięki temu ma realny wpływ na to, jak szybko i tanio można generować tekst, obrazy czy inne wyniki AI.
Dlaczego Maia 200 jest przełomowa?
Maia 200 jest zbudowana w technologii 3 nm i zawiera ponad 140 mld tranzystorów. Układ został zoptymalizowana pod niskoprecyzyjne obliczenia (FP4 i FP8), co dziś jest kluczowe dla dużych modeli AI. Jeden chip potrafi wykonać ponad 10 petaFLOPS w 4-bitach i ponad 5 petaFLOPS w 8-bitach. W praktyce oznacza to, że Maia 200 poradzi sobie z największymi modelami, a jednocześnie oferuje spory potencjał na przyszłość.
W AI nie liczy się tylko moc obliczeniowa – równie ważne jest, jak szybko dane trafiają do procesora. Maia 200 ma 216 GB pamięci HBM3e z przepustowością 7 TB/s oraz 272 MB pamięci SRAM na chipie. To ogromna przewaga, bo pozwala utrzymać modele w ciągłym ruchu bez “zacięć”. Dzięki temu tokeny generowane są szybciej i bardziej stabilnie.
| Specyfikacja | Azure Maia 200 | AWS Trainium3 | Google TPU v7 |
| Litografia | 3nm | 3nm | 3nm |
| Moc obliczeniowa FP4 (TFLOPS) | 10,145 | 2,517 | n/a |
| Moc obliczeniowa FP8 (TFLOPS) | 5,072 | 2,517 | 4,614 |
| Moc obliczeniowa BF16 (TFLOPS) | 1,268 | 671 | 2,307 |
| Pamięć HBM | HBM3E | HBM3E | HBM3E |
| Pojemność pamięci (GB) | 216 | 144 | 192 |
| Przepustowość pamięci (TB/s) | 7 | 4.9 | 7.4 |
| Przepustowość (TB/s) | 2,8 TB/s | 2,2–2,56 TB/s | 1,2 TB/s |
Microsoft twierdzi, że Maia 200 to najwydajniejszy układ pierwszej strony (first-party) wśród dużych dostawców chmurowych. W porównaniu z Amazon Trainium 3 Maia 200 ma trzykrotnie większą wydajność w FP4, a w FP8 przewyższa Google TPU v7. Dodatkowo jest to najbardziej efektywny kosztowo system inferencyjny w historii Microsoftu — o 30 proc. lepszy wynik “wydajności na dolar” niż obecny sprzęt w Azure.
Maia 200 jako część większej infrastruktury
Maia 200 nie działa samotnie – jest częścią nowego podejścia Microsoftu do budowy infrastruktury AI. W odróżnieniu od wielu rozwiązań, Microsoft projektuje cały system razem: chip, pamięć, sieć i oprogramowanie. Dzięki temu osiąga wyższą wydajność, lepsze wykorzystanie zasobów i szybsze wdrożenia.
W Maia 200 zastosowano nową, skalowaną sieć opartą na standardowym Ethernet, ale z własną warstwą transportową. Każdy układ ma 2,8 TB/s dedykowanej przepustowości i może pracować w klastrach do 6144 akceleratorów. W praktyce oznacza to, że systemy inferencyjne mogą rosnąć bez utraty wydajności, a koszty i zużycie energii pozostają pod kontrolą.
Układ przyspieszy AI
Maia 200 będzie wspierać m.in. najnowsze modele OpenAI (np. GPT-5.2), Microsoft 365 Copilot oraz usługi Microsoft Foundry. Dla użytkowników oznacza to szybsze odpowiedzi, większą skalę i niższe koszty przy dużych obciążeniach AI.
.jpg/330x0x1.jpg)
Układy Maia 200 zostały już wdrożone do pierwszych centrów danych
Microsoft już wdrożył Maia 200 w regionie US Central, a kolejne lokalizacje są w przygotowaniu. Wkrótce Maia 200 trafi także do kolejnych centrów danych, co oznacza, że coraz więcej klientów Azure będzie mogło korzystać z jej przewagi.
Microsoft udostępnia również Maia SDK, które umożliwia programistom optymalizację modeli pod ten układ. SDK zawiera narzędzia takie jak integracja z PyTorch, kompilator Triton, bibliotekę zoptymalizowanych kernelów oraz niskopoziomowy język programowania. Dzięki temu przenoszenie modeli między różnymi akceleratorami staje się prostsze, a jednocześnie można uzyskać maksymalną wydajność tam, gdzie jest to potrzebne.
Przełomowy chip AI
Maia 200 to przełomowy układ AI Microsoftu, który łączy ogromną moc, szybki przepływ danych i efektywność kosztową. Dzięki temu Microsoft buduje nowy standard infrastruktury AI, który pozwoli obsługiwać coraz większe modele szybciej i taniej. To krok, który ma realny wpływ na przyszłość generatywnej sztucznej inteligencji.






Komentarze
0Nie dodano jeszcze komentarzy. Bądź pierwszy!