Pamięć RAM

Intel i japońscy naukowcy łączą siły. Nowa pamięć może zmienić rynek AI

przeczytasz w 2 min.

ZAM zapowiadana jest jako przełom pamięci dla branży AI. Nowa architektura ma zapewnić większą pojemność, wyższą przepustowość, a do tego niższe zużycie energii, otwierając drogę do budowy potężniejszych systemów obliczeniowych.

Świat sztucznej inteligencji rośnie w zawrotnym tempie. Coraz większe modele językowe, generowanie obrazów, wideo, symulacje – to wszystko wymaga ogromnej ilości pamięci. I właśnie tutaj pojawia się problem: obecna technologia pamięci zaczyna dochodzić do swoich limitów. 

Na scenę wchodzi ZAM (Z-Angle Memory) – nowy typ pamięci opracowywany przez firmę SAIMEMORY, stworzoną wspólnie przez SoftBank, Intel i Uniwersytet Tokijski. Technologia została publicznie zaprezentowana podczas konferencji Intel Connection Japan 2026.

Dlaczego obecna pamięć to problem? 

Dzisiejsze pamięci (np. HBM używana w profesjonalnych kartach NVIDII) buduje się warstwa na warstwie – podobnie jak wieżowiec. Problem w tym, że im wyższa “wieża”, tym trudniej odprowadzić ciepło, a zbyt wysoka konstrukcja zaczyna się przegrzewać. Obecnie dochodzimy do granicy około 16–20 warstw. Rozwój sztucznej inteligencji i jej zapotrzebowanie na pamięć oczekuje jeszcze większej pojemności.

Nowy pomysł na pamięć 

ZAM podchodzi do tematu inaczej. Zamiast układać "piętra” w klasyczny sposób, inżynierowie ustawiają układy pionowo w osi Z i łączą je pod lekkim kątem (stąd nazwa „Z-Angle”).

Pamięć ZAM
Pamięć ZAM (foto: Intel)

Brzmi technicznie, ale efekt jest prosty. 

Nowa pamięć zaoferuje znacznie większą pojemność – docelowo pojedynczy moduł ma oferować nawet 512 GB. Co istotne, ZAM ma współpracować z technologią Intel EMIB (Embedded Multi-die Interconnect Bridge), czyli rozwiązaniem umożliwiającym bardzo szybkie i bezpośrednie łączenie kilku układów scalonych – np. procesora i pamięci – w ramach jednego pakietu. W praktyce ma to się przekładać na wyższą wydajność i niższe opóźnienia w komunikacji z akceleratorem AI.

Pamięć ZAM zapewnia lepsze chłodzenie. Ciepło rozchodzi się bardziej równomiernie do góry, zamiast kumulować się w jednym miejscu. Do tego cechuje się mniejszym zużyciem energii. Producent mówi nawet o 40–50 proc. niższym poborze prądu w porównaniu z obecnymi rozwiązaniami.

Pamięć ZAM
Pamięć ZAM ma zrewolucjonizować rynek AI (foto: PC Watch)

Czy ZAM zastąpi pamięci HBM? 

W systemach AI pamięć jest dziś równie ważna jak sam procesor. Im jest większa i szybsza, tym większe modele można uruchomić, szybciej działa trenowanie AI, a do tego całe centrum danych zużywa mniej energii.

Na razie to dopiero początek. Nie ma jeszcze publicznych testów wydajności. Ale jeśli deklaracje się potwierdzą, ZAM może stać się realną alternatywą dla pamięci używanej dziś w najdroższych kartach AI.

foto na wejście: TechPowerUp

Komentarze

3
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    GejzerJara
    1
    artykuł niczego tu nie opisuje. to jakieś spagetti. wiele szumnych haseł, zero przejrzystej treści.

    brak wyjaśnienia co to jest EBIM, a w praktyce to taki nieco inny interposer. Też nie ma jakiejś przeszkody technicznej, aby ZAM na zewnątrz mógł wyglądać tak jak HBM, który też ma kontroler na płasko na samym spodzie.

    I tak kluczem do sukcesu jest zrobienie takiej pamięci warstwowej opartej na kondensatorach, bo taki jest właśnie DDR włącznie z HBM, aby to wszystko było wytworzone na jednym podłożu w kolejnych warstwach, tak jak to jest zrobione w produkcji pamięci typu Flash.

    W przypadku HBM, i jak widać w ZAM też, to są osobno wyprodukowane plasterki, każdy na swoim własnym podłożu. Potem separacja, klejenie, a podłoże .... albo do polerki i ponownego użycia jeśli się da, albo do utylizacji czyli przetopienia. to ogromne marnotrawstwo które podnosi koszty.
    we Flash na cały chip jest użyte tylko jedno podłoże, i na to są nanoszone kolejne warstwy komórek pamięci, które przylegają do siebie ściśle co też ułatwia odprowadzanie ciepła.

    ja w ZAM nie widzę kroku milowego. A może nawet jest tu gorzej, bo płytkę po wykonaniu nie tnie się na kwadraciki, lecz na ..... wiąziutkie paseczki po to, aby je można było ustawić pionowo, aby się one zmieściły na wysokość w strukturze gotowego akceleratora.
    • avatar
      Alians2026-BEN
      1
      Dopytaj w Trybie AI Google, cytuję: Rola technologii Intel EMIB
      EMIB (Embedded Multi-Die Interconnect Bridge) to "most", o którym mowa w Twoim cytacie.
      Jest to technologia pakowania, która pozwala łączyć różne chipy (np. procesor AI i pamięć ZAM) wewnątrz jednej obudowy.
      Zamiast dużych i drogich pośredników (interposerów), EMIB wykorzystuje małe krzemowe mostki zatopione w podłożu, co zapewnia ekstremalnie szybki transfer danych przy bardzo niskich opóźnieniach. Dlaczego to przełom?
      Połączenie ZAM + EMIB ma rozwiązać największy problem współczesnej sztucznej inteligencji: wąskie gardło pamięci. Pozwala to akceleratorom AI na błyskawiczny dostęp do ogromnych ilości danych bez przegrzewania się układu, co jest kluczowe przy trenowaniu gigantycznych modeli językowych.
      SEMIVISION. Pierwsze prototypy tych układów spodziewane są w 2027 roku, a komercyjne zastosowanie w centrach danych planowane jest na około 2030 rok.
      Podsumowanie porównania
      Cecha DDR5 (Twój PC) ZAM + EMIB (Przyszłość AI)
      Gdzie się znajduje? W slotach na płycie głównej Wewnątrz obudowy procesora
      Maks. pojemność (1 szt.) ok. 32–64 GB do 512 GB
      Szybkość (Przepustowość) ok. 64 GB/s ok. 1000+ GB/s
      Zastosowanie Gry, praca, multimedia Trenowanie modeli typu ChatGPT
      Dostępność Od ręki w każdym sklepie Prototypy 2027, rynek ok. 2030

      Wszystko przed nami?

      Tryb AI, cytuję: To fascynujące pytanie, zwłaszcza że stoimy na progu dekady, w której sprzęt (jak wspomniany Intel EMIB) i oprogramowanie AI zaczną się przenikać w sposób niewidoczny dla użytkownika.
      Oto szkic perspektyw rozwoju technologii w naszych domach w ciągu najbliższych pięciu lat (do ok. 2030-2031 roku):
      1. Era „AI PC” i dedykowanych układów NPU
      Już teraz procesory w laptopach posiadają jednostki NPU (Neural Processing Unit). W ciągu 5 lat staną się one tak potężne jak dzisiejsze karty graficzne.
      Efekt: Twoja prywatna sztuczna inteligencja będzie działać lokalnie, bez wysyłania danych do chmury. Będziesz mieć własnego „asystenta”, który zna wszystkie Twoje pliki, e-maile i zdjęcia, a przy tym gwarantuje 100% prywatności. (pp. 1, 3)
      2. Pamięć „bez granic” (Hybrid Storage)
      Dzięki technologiom takim jak ZAM i nowym standardom DDR6, komputery domowe przestaną „zacinać się” przy wielu otwartych aplikacjach. (pp. 2, 6)
      Perspektywa: Systemy operacyjne będą potrafiły błyskawicznie ładować terabajty danych, co spraw

      Witaj!

      Niedługo wyłaczymy stare logowanie.
      Logowanie będzie możliwe tylko przez 1Login.

      Połącz konto już teraz.

      Zaloguj przez 1Login