
Intel i japońscy naukowcy łączą siły. Nowa pamięć może zmienić rynek AI
ZAM zapowiadana jest jako przełom pamięci dla branży AI. Nowa architektura ma zapewnić większą pojemność, wyższą przepustowość, a do tego niższe zużycie energii, otwierając drogę do budowy potężniejszych systemów obliczeniowych.
Świat sztucznej inteligencji rośnie w zawrotnym tempie. Coraz większe modele językowe, generowanie obrazów, wideo, symulacje – to wszystko wymaga ogromnej ilości pamięci. I właśnie tutaj pojawia się problem: obecna technologia pamięci zaczyna dochodzić do swoich limitów.
Na scenę wchodzi ZAM (Z-Angle Memory) – nowy typ pamięci opracowywany przez firmę SAIMEMORY, stworzoną wspólnie przez SoftBank, Intel i Uniwersytet Tokijski. Technologia została publicznie zaprezentowana podczas konferencji Intel Connection Japan 2026.
Dlaczego obecna pamięć to problem?
Dzisiejsze pamięci (np. HBM używana w profesjonalnych kartach NVIDII) buduje się warstwa na warstwie – podobnie jak wieżowiec. Problem w tym, że im wyższa “wieża”, tym trudniej odprowadzić ciepło, a zbyt wysoka konstrukcja zaczyna się przegrzewać. Obecnie dochodzimy do granicy około 16–20 warstw. Rozwój sztucznej inteligencji i jej zapotrzebowanie na pamięć oczekuje jeszcze większej pojemności.
Nowy pomysł na pamięć
ZAM podchodzi do tematu inaczej. Zamiast układać "piętra” w klasyczny sposób, inżynierowie ustawiają układy pionowo w osi Z i łączą je pod lekkim kątem (stąd nazwa „Z-Angle”).
Brzmi technicznie, ale efekt jest prosty.
Nowa pamięć zaoferuje znacznie większą pojemność – docelowo pojedynczy moduł ma oferować nawet 512 GB. Co istotne, ZAM ma współpracować z technologią Intel EMIB (Embedded Multi-die Interconnect Bridge), czyli rozwiązaniem umożliwiającym bardzo szybkie i bezpośrednie łączenie kilku układów scalonych – np. procesora i pamięci – w ramach jednego pakietu. W praktyce ma to się przekładać na wyższą wydajność i niższe opóźnienia w komunikacji z akceleratorem AI.
Pamięć ZAM zapewnia lepsze chłodzenie. Ciepło rozchodzi się bardziej równomiernie do góry, zamiast kumulować się w jednym miejscu. Do tego cechuje się mniejszym zużyciem energii. Producent mówi nawet o 40–50 proc. niższym poborze prądu w porównaniu z obecnymi rozwiązaniami.

Pamięć ZAM ma zrewolucjonizować rynek AI (foto: PC Watch)
Czy ZAM zastąpi pamięci HBM?
W systemach AI pamięć jest dziś równie ważna jak sam procesor. Im jest większa i szybsza, tym większe modele można uruchomić, szybciej działa trenowanie AI, a do tego całe centrum danych zużywa mniej energii.
Na razie to dopiero początek. Nie ma jeszcze publicznych testów wydajności. Ale jeśli deklaracje się potwierdzą, ZAM może stać się realną alternatywą dla pamięci używanej dziś w najdroższych kartach AI.
foto na wejście: TechPowerUp






Komentarze
3brak wyjaśnienia co to jest EBIM, a w praktyce to taki nieco inny interposer. Też nie ma jakiejś przeszkody technicznej, aby ZAM na zewnątrz mógł wyglądać tak jak HBM, który też ma kontroler na płasko na samym spodzie.
I tak kluczem do sukcesu jest zrobienie takiej pamięci warstwowej opartej na kondensatorach, bo taki jest właśnie DDR włącznie z HBM, aby to wszystko było wytworzone na jednym podłożu w kolejnych warstwach, tak jak to jest zrobione w produkcji pamięci typu Flash.
W przypadku HBM, i jak widać w ZAM też, to są osobno wyprodukowane plasterki, każdy na swoim własnym podłożu. Potem separacja, klejenie, a podłoże .... albo do polerki i ponownego użycia jeśli się da, albo do utylizacji czyli przetopienia. to ogromne marnotrawstwo które podnosi koszty.
we Flash na cały chip jest użyte tylko jedno podłoże, i na to są nanoszone kolejne warstwy komórek pamięci, które przylegają do siebie ściśle co też ułatwia odprowadzanie ciepła.
ja w ZAM nie widzę kroku milowego. A może nawet jest tu gorzej, bo płytkę po wykonaniu nie tnie się na kwadraciki, lecz na ..... wiąziutkie paseczki po to, aby je można było ustawić pionowo, aby się one zmieściły na wysokość w strukturze gotowego akceleratora.
EMIB (Embedded Multi-Die Interconnect Bridge) to "most", o którym mowa w Twoim cytacie.
Jest to technologia pakowania, która pozwala łączyć różne chipy (np. procesor AI i pamięć ZAM) wewnątrz jednej obudowy.
Zamiast dużych i drogich pośredników (interposerów), EMIB wykorzystuje małe krzemowe mostki zatopione w podłożu, co zapewnia ekstremalnie szybki transfer danych przy bardzo niskich opóźnieniach. Dlaczego to przełom?
Połączenie ZAM + EMIB ma rozwiązać największy problem współczesnej sztucznej inteligencji: wąskie gardło pamięci. Pozwala to akceleratorom AI na błyskawiczny dostęp do ogromnych ilości danych bez przegrzewania się układu, co jest kluczowe przy trenowaniu gigantycznych modeli językowych.
SEMIVISION. Pierwsze prototypy tych układów spodziewane są w 2027 roku, a komercyjne zastosowanie w centrach danych planowane jest na około 2030 rok.
Podsumowanie porównania
Cecha DDR5 (Twój PC) ZAM + EMIB (Przyszłość AI)
Gdzie się znajduje? W slotach na płycie głównej Wewnątrz obudowy procesora
Maks. pojemność (1 szt.) ok. 32–64 GB do 512 GB
Szybkość (Przepustowość) ok. 64 GB/s ok. 1000+ GB/s
Zastosowanie Gry, praca, multimedia Trenowanie modeli typu ChatGPT
Dostępność Od ręki w każdym sklepie Prototypy 2027, rynek ok. 2030
Wszystko przed nami?
Tryb AI, cytuję: To fascynujące pytanie, zwłaszcza że stoimy na progu dekady, w której sprzęt (jak wspomniany Intel EMIB) i oprogramowanie AI zaczną się przenikać w sposób niewidoczny dla użytkownika.
Oto szkic perspektyw rozwoju technologii w naszych domach w ciągu najbliższych pięciu lat (do ok. 2030-2031 roku):
1. Era „AI PC” i dedykowanych układów NPU
Już teraz procesory w laptopach posiadają jednostki NPU (Neural Processing Unit). W ciągu 5 lat staną się one tak potężne jak dzisiejsze karty graficzne.
Efekt: Twoja prywatna sztuczna inteligencja będzie działać lokalnie, bez wysyłania danych do chmury. Będziesz mieć własnego „asystenta”, który zna wszystkie Twoje pliki, e-maile i zdjęcia, a przy tym gwarantuje 100% prywatności. (pp. 1, 3)
2. Pamięć „bez granic” (Hybrid Storage)
Dzięki technologiom takim jak ZAM i nowym standardom DDR6, komputery domowe przestaną „zacinać się” przy wielu otwartych aplikacjach. (pp. 2, 6)
Perspektywa: Systemy operacyjne będą potrafiły błyskawicznie ładować terabajty danych, co spraw