
AMD stawia na sztuczną inteligencję. Chce wyprzedzić konkurencję
Firma AMD umacnia swoją pozycję na rynku centrów danych i nie zamierza zwalniać tempa. Podczas konferencji AMD Advancing AI 2025 ogłosiła plan stworzenia kompleksowej platformy do obsługi sztucznej inteligencji.
Sztuczna inteligencja odgrywa coraz większą rolę we współczesnej technologii. AMD nie zamierza rezygnować z udziału w tym dynamicznie rozwijającym się rynku – podczas konferencji AMD Advancing AI 2025 zaprezentowała sprzęt, oprogramowanie i rozwiązania wspierające rozwój AI. Inicjatywa, nazwana „Accelerate Open AI Ecosystem”, ma na celu dostarczenie narzędzi umożliwiających obsługę pełnego zakresu zastosowań sztucznej inteligencji.
Akceleratory AMD Instinct MI350
AMD zaprezentowało nową serię układów Instinct MI350, obejmującą modele MI350X i MI355X, które ustanawiają nowy standard w zakresie wydajności, efektywności energetycznej i skalowalności dla zastosowań w AI i obliczeniach wysokiej wydajności (HPC).
Producent chwali się, że nowe układy zapewniają czterokrotny wzrost mocy obliczeniowej względem poprzedniej generacji oraz aż 35-krotny wzrost wydajności w zadaniach inferencyjnych. Model MI355X dodatkowo wyróżnia się pod względem opłacalności, generując nawet o 40% więcej tokenów na dolara w porównaniu do konkurencyjnych rozwiązań.
AMD zaprezentowało kompletną, opartą na otwartych standardach infrastrukturę AI w skali całej szafy serwerowej. Rozwiązanie to już jest wdrażane z akceleratorami Instinct MI350, procesorami AMD Epyc 5. generacji oraz kartami sieciowymi Pensando Pollara – m.in. w centrach danych Oracle Cloud Infrastructure (OCI). Szeroka dostępność planowana jest na drugą połowę 2025 r.
Podczas konferencji ujawniono też wyniki wydajności układu MI335X w porównaniu do konkurencyjnych układów NVIDIA B200i GB200 - w wybranych testach możemy oczekiwać takiej samej lub nawet lepszej wydajności. Warto jednak zauważyć, że mówimy o układach z generacji Blackwell z 2024 r.
Firma zapowiedziała też kolejną generację takiej infrastruktury – mowa o systemie o nazwie „Helios”. Będzie on oparty na GPU Instinct MI400, procesorach AMD Epyc „Venice” na bazie architektury Zen 6 oraz nowych kartach sieciowych Pensando „Vulcano”.
Nowa wersja oprogramowania AMD ROCm
Przy okazji producent zaprezentował nową wersję otwartego oprogramowania do AI. ROCm 7 została zaprojektowana z myślą o rosnących wymaganiach generatywnej AI i obliczeń wysokiej wydajności (HPC). Producent twierdzi, że ROCm 7 znacząco ułatwia pracę programistom, oferując lepsze wsparcie dla popularnych frameworków, szerszą kompatybilność sprzętową oraz nowe narzędzia, sterowniki, API i biblioteki przyspieszające tworzenie i wdrażanie rozwiązań AI.
AMD Developer Cloud
AMD ogłosiło również szeroką dostępność AMD Developer Cloud dla globalnej społeczności programistów i open-source. Chmura została stworzona, by szybko i efektywnie rozwijać projekty AI. Użytkownicy mają dostęp do w pełni zarządzanego środowiska z narzędziami i elastycznością, które pozwalają łatwo zacząć i rozwijać projekty AI bez ograniczeń.
Dzięki ROCm 7 i AMD Developer Cloud, AMD ułatwia dostęp do nowoczesnych technologii obliczeniowych. Współpraca z takimi firmami jak Hugging Face, OpenAI i Grok pokazuje siłę otwartych, wspólnie tworzonych rozwiązań.
AMD stawia na efektywność
AMD chwali się, że akceleratory z serii Instinct MI350 przekroczyły pięcioletni cel firmy, zakładający 30-krotną poprawę efektywności energetycznej w treningu AI i obliczeniach HPC – nowe układy osiągnęły aż 38-krotną poprawę.
Firma wyznaczyła też nowy cel na 2030 rok: 20-krotne zwiększenie efektywności energetycznej całych szaf serwerowych względem poziomu z 2024 roku. Dzięki temu model AI, który dziś wymaga ponad 275 szaf, będzie można wytrenować w mniej niż jednej, zużywając aż o 95% mniej energii.
Gdzie zmierza AMD?
Podczas AMD Advancing AI 2025 producent potwierdził, że stawia na otwartość, skalowalność i zgodność ze standardami branżowymi, co umacnia jego pozycję jako kluczowego gracza w branży AI.
Partnerzy AMD, tacy jak Meta, Oracle, Microsoft, Red Hat czy Cohere, korzystają z rozwiązań AMD do efektywnego trenowania i uruchamiania modeli AI na dużą skalę. Infrastruktura AMD, w tym nowoczesne układy Instinct MI300X i MI355X oraz otwarty ekosystem UALink, wspiera rozwój wydajnych, skalowalnych i elastycznych systemów AI, umożliwiając tworzenie zaawansowanych i energooszczędnych rozwiązań dla globalnych klientów.
Komentarze
1Ciekawostka - Na 2026 na świecie zaplanowano wdrożenie 6-krotnie większej mocy obliczeniowej dla AI, niż cała moc dostępna obecnie. Zaplanowano - czyli są to konkretne inwestycje i kontrakty, już rozpoczęte.