Saimemory, ett dotterbolag till japanska Softbank, och Intel ingick i början av året ett samarbete om utvecklingen av en ny minnesteknologi – Z-Angle Memory (ZAM). Nu har den japanska regeringen genom myndigheten New Energy and Industrial Technology Development Organization (NEDO) valt ZAM som ett lovande minnesprojekt, vilket konkret innebär att regeringen kan gå in med stora delar av utvecklingskostnaden.
Japan söker att återta sin plats som global storspelare inom halvledare och regeringen har under flera år skjutit till betydande medel i allsköns satsningar, från initiativ signerade TSMC till det ambitiösa startup-bolaget Rapidus som ska möjliggöra spjutspetstillverkning i japansk regi. Det är mot bakgrund av detta som NEDO valt att satsa på en helt ny minnesteknik, som har potential att bli ett alternativ till High-Bandwidth Memory (HBM). Som ett första steg kommer ZAM att ingå i NEDO:s Post-5G Infrastructure Enhancement R&D Project, som namnet antyder forskar på nästa generations mobilnät.
Softbank grundade Saimemory så sent som 2024 med det uttalade målet att utveckla nästa generations minnesteknologier, och bolaget ska i samarbetet med Intel svara för just merparten av minnesrelaterade immateriella rättigheter. Intels roll är dess avancerade paketeringstekniker, EMIB och Foveros, som ska göra verklighet av faktiska slutprodukter. Om ZAM lyckas skulle det också bli en fjäder i hatten för Intel, som söker ta större plats på den ständigt växande marknaden för AI-acceleratorer.
De tänkta fördelarna med ZAM jämfört mot HBM kan kort beskrivas som ”bättre”, med löften om halverad effektförbrukning med lägre värmeutveckling som följd. Av det som är känt ska detta möjliggöras av hur flera minneskretsar länkas samman, där varje ZAM-minneskrets ansluts via en diagonalt förskjuten ”Z-formad” länk. Det här menar bolagen ökar värmeavledningsförmågan markant jämfört med HBM, där minneskretsar ansluts vertikalt med tekniker likt Through-Silicon Via (TSV).
Vidare är målet med ZAM att kunna leverera minneskapslar med en kapacitet om upp till 512 GB vardera, vilket vid en potentiellt framtida skarp lansering beräknas vara 2–3 gånger högre än HBM. Som referens levererar den HBM-teknik (HBM3E) som använts av AI-acceleratorer brett idag upp till 36–48 GB per minnesstapel och annalkande HBM4 ökar detta med upp till 64 GB. Avslutningsvis är förhoppningen att ZAM ska bli mer kostnadseffektiv, vilket sannolikt ska möjliggöras av just en staplingsteknik med högre yield än exempelvis TSV.
Värt att betona är att utvecklingen av ZAM fortfarande är i ett tidigt stadium och att massproduktion är beräknad först till 2029. Fram till dess kan mycket hända och det vore inte den första gången en på pappret lovande minnesteknik av olika skäl inte lämnar laboratoriemiljö. Om det mot bakgrund av detta går att tala om realism är det realistiskt att ZAM implementeras i faktiska produkter, såsom AI-acceleratorer och andra HPC-lösningar, tidigast 2030.




