Cerere de cotație

Știri

Micron Mass produce 12 straturi HBM3E 36 GB cip, iar produsul este supus verificării clienților


Micron a lansat o versiune de producție a cipului HBM3E de 12 straturi adecvat pentru următoarea generație de GPU -uri de inteligență artificială (AI), cu o capacitate de stivă de memorie de până la 36 GB și viteze care depășesc 9,2 GB/s.Micron a declarat că în prezent livrează producția portabilă de 12 straturi de a cincea generație HBM (HBM3E) partenerilor importanți din lanțul industrial AI pentru proceduri de verificare.

Micron a anunțat oficial lansarea memoriei HBM3E cu o stivă de 12 straturi pe 9 septembrie.Noul produs are o capacitate de 36 GB și este conceput pentru procesoare de ultimă oră pentru sarcini de lucru AI și HPC (calculare de înaltă performanță), cum ar fi GPU-urile NVIDIA H200 și B100/B200.

Stackul de memorie HBM3E de 12 straturi Micron are o capacitate de 36 GB, care este cu 50% mai mare decât versiunea anterioară cu 8 straturi (24 GB).Creșterea capacității permite centrelor de date să ruleze modele AI mai mari pe un singur procesor.Această caracteristică elimină nevoia de descărcare frecventă a CPU, reduce latența de comunicare între GPU și accelerează procesarea datelor.

În ceea ce privește performanța, stiva HBM3E de 12 straturi a lui Micron poate oferi lățimea de bandă de memorie care depășește 1,2TB/s și ratele de transfer de date care depășesc 9,2 GB/s.Potrivit lui Micron, HBM3E al companiei nu numai că oferă o capacitate de memorie cu 50% mai mare decât concurenții săi, dar consumă și mai puțină putere decât stiva HBM3E cu 8 straturi.

HBM3E de 12 straturi Micron include un sistem complet programabil de memorie încorporată (MBIST), pentru a asigura un timp mai rapid pentru piață și fiabilitate pentru clienți.Această tehnologie poate simula traficul la nivel de sistem la viteză maximă, permițând testarea cuprinzătoare și validarea mai rapidă a noilor sisteme.

Dispozitivele de memorie HBM3E de la Micron sunt compatibile cu tehnologia de ambalare a Cowos TSMC, care este utilizată pe scară largă în pachetele de procesor AI, cum ar fi H100 și H200 NVIDIA.

Se raportează că Micron a început să-și dezvolte soluțiile de memorie de generație viitoare, inclusiv HBM4 și HBM4E.Aceste tipuri de memorie viitoare vor continua să satisfacă cererea din ce în ce mai mare de memorie avansată în procesoarele AI, inclusiv GPU -urile NVIDIA bazate pe Blackwell și Rubin Architectures.