HemNyheterHårdvaraAI-beräkningskort växer marknaden för High-Bandwidth Memory rejält 2023

AI-beräkningskort växer marknaden för High-Bandwidth Memory rejält 2023

Trendforce sätter AI-hypen i siffror ur ett högpresterande minnesperspektiv.

Minnestypen High-Bandwidth Memory (HBM) står inför en 60-procentig ökning i försäljning på årsbasis under 2023, spår analysfirman Trendforce. Marknaden för artificiell intelligens förlitar sig förutom på högpresterande parallelliserade beräkningskretsar även på hög bandbredd, där traditionella minneskapslar av typen DDR och GDDR helt enkelt inte räcker till. Resultatet är att beräkningskretsar i serverklass förlitar sig närmast exklusivt på HBM-minne, trots ett markant högre pris.

Totalt väntar sig Trendforce att 290 miljoner gigabyte (GB) minne av typen HBM och HBM2 kommer byta ägare under 2023 – en siffra som väntas fortsätta stiga med 30 procent till närmare 380 miljoner gigabyte 2024. För år 2025 nämns inga siffror i gigabyte räknat, istället lyfter analysfirman fram att Nvidia väntas sjösätta fem storskaliga AI-beräkningscenter för ChatGPT, 25 ”medelstora” för Midjourney och 80 mindre projekt.

Enbart dessa drygt 100 projekt skulle kräva mellan 145 600 och 233 700 stycken beräkningskretsar från Nvidia – kretsar som i dagens beräkningskort utrustas med 40 eller 80 GB HBM-minne vardera. Nvidia kan med andra ord enbart i sina egna datacenter komma att bruka uppemot 19 miljoner gigabyte, eller fem procent av 2024 års totala HBM-försäljning.

Marknaden för AI-relaterade servrar väntas dock vara långt större än delen Nvidia själva kontrollerar. Trendforce noterar att bolag som Google och AWS är i full färd med att utveckla egna ASIC-kretsar (Application Specific Integrated Circuit) för AI-orienterad beräkning, samtidigt som AMD med sin Instinct MI300 förenar processorkärnor och bolagets Compute DNA (CDNA) i ett hopp om att kunna konkurrera med Nvidias Grace Hopper.

Utvecklingen på AI-sidan innebär att marknaden för vad som kan kallas för AI-servrar, alltså beräkningskraft i större skala som utrustas med beräkningskretsar som GPU:er (Graphics Processing Unit), FPGA (Field Programmable Gate Array) och ASIC väntas uppgå till 1,2 miljoner enheter under 2023. Det i sin tur är en ökning på årsbasis med 38 procent – medan Trendforce noterar att ”den nuvarande leveransruschen inom AI-kretsar kan leda till en potentiell tillväxt om över 50 procent”.

Tillverkare av HBM är i dagsläget Samsung, SK Hynix och Micron. HBM2 erbjuder en maximal bandbredd om 410 GB/s per kapsel över en 1 024-bitars minnesbuss, medan uppföljaren HBM3 sjösätts med Nvidias beräkningskort HBM3 inom kort – och uppnår enligt SK Hynix ”upp till 819 GB/s”. Högpresterande konsumentprodukter utrustade med GDDR6X når å sin sida dryga 150 GB/s, vilket utgör en betydande flaskhals inom just AI-beräkningar.

Jonas Klar
Jonas Klar
Ansvarig utgivare och medgrundare av Semi14. Började skruva med elektronik år 2003 och inledde därefter skribentkarriären med att skriva om datorkomponenter år 2005. Har på senare år intresserat sig allt mer för affärerna och forskningen i halvledarbranschen.
Relaterade artiklar
Annons

Läs också