[ad_1]
Il panorama delle memorie a larghezza di banda elevata (HBM), in costante crescita di importanza per il suo abbinamento critico con i processori di intelligenza artificiale (AI), è pronto a passare alla sua prossima manifestazione, HBM3e, aumentando la velocità di trasferimento dei dati e la larghezza di banda di memoria di picco del 44%. In questo caso, SK hynix, che ha lanciato il primo chip HBM nel 2013, è anche la prima a offrire la convalida HBM3e per l’hardware AI H-200 di Nvidia.
HBM è una memoria ad alte prestazioni che impila i chip uno sopra l’altro e li collega con through-silicon vias (TSV) per un’elaborazione dei dati più rapida ed efficiente dal punto di vista energetico. La domanda di chip di memoria HBM è esplosa con la crescente popolarità dell’intelligenza artificiale generativa. Tuttavia, sta attualmente affrontando un collo di bottiglia nella fornitura causato sia dai vincoli di imballaggio che dal ciclo di produzione intrinsecamente lungo della HBM.
Figura 1 SK hynix mira a mantenere la propria leadership rilasciando un dispositivo HBM3e con 16 strati di DRAM e una velocità a stack singolo fino a 1.280 GB/s.
Secondo TrendForce, il 2024 segnerà la transizione da HBM3 a HBM3e e SK hynix è in testa al gruppo con la convalida HBM3e nel primo trimestre di quest’anno. Vale la pena ricordare che SK hynix è attualmente il fornitore principale di chip di memoria HBM3 per le soluzioni AI H100 di Nvidia.
Samsung, che ora lotta per recuperare lo spazio perduto, ha ricevuto la certificazione per gli acceleratori AI della serie AMD MI300 di AMD. Si tratta di un passo avanti significativo per il fornitore di memorie con sede a Suwon, in Corea del Sud, poiché si prevede che gli acceleratori AI di AMD aumenteranno entro la fine dell’anno.
Micron, che ha in gran parte perso l’opportunità di HBM, sta anche recuperando terreno lanciando la prossima iterazione, HBM3e, per le GPU H200 di Nvidia entro la fine del primo trimestre del 2024. Le GPU H200 di Nvidia inizieranno a essere spedite nel secondo trimestre del 2024.
figura 2 La memoria 8H HBM3e da 24 GB farà parte delle GPU H200 Tensor Core di Nvidia, le cui spedizioni inizieranno nel secondo trimestre del 2024. Fonte: Micron
È importante notare che quando si tratta di tecnologia HBM, SK hynix è rimasta in vantaggio rispetto ai suoi due mega concorrenti, Micron e Samsung, dal 2013, quando SK hynix ha introdotto la memoria HBM in collaborazione con AMD. Samsung ha impiegato due anni per sfidare il suo vicino sudcoreano quando ha sviluppato il dispositivo HBM2 alla fine del 2015.
Ma la rivalità tra SK Hynix e Samsung è molto più che un semplice vantaggio della prima mossa. Mentre Samsung ha scelto la tecnologia convenzionale della pellicola non conduttiva (NCF) per la produzione dei chip HBM, SK hynix è passata al metodo MR-MUF (mass reflow moulded underfill) per risolvere i limiti NFC. Secondo a Reuters rapporto, mentre SK hynix si è assicurata tassi di rendimento di circa il 60-70% per la sua produzione HBM3, i rendimenti di produzione di HBM3 di Samsung si attestano a quasi il 10-20%.
Il processo MUF prevede l’iniezione e il successivo indurimento di materiale liquido tra strati di silicio, che a sua volta migliora la dissipazione del calore e le rese produttive. In questo caso, SK Hynix ha collaborato con la società giapponese di ingegneria dei materiali Namics acquistando materiali MUF da Nagase. SK hynix ha adottato la tecnica del underfill stampato a riflusso di massa prima di altri e successivamente è diventato il primo fornitore a fornire chip HBM3 a Nvidia.
Recenti resoconti dei media commerciali suggeriscono che Samsung sia in contatto con i fornitori di materiali MUF, sebbene il fornitore di memorie abbia promesso di attenersi alla sua tecnologia NFC per i prossimi chip HBM3e. Tuttavia, gli osservatori del settore sottolineano che la tecnologia MUF di Samsung non sarà comunque pronta prima del 2025. Quindi, è probabile che Samsung utilizzerà sia le tecniche NFC che MUF per produrre gli ultimi chip HBM3.
Sia Micron che Samsung stanno facendo passi da gigante per ridurre il divario con SK hynix mentre l’industria passa dai chip di memoria HBM3 ai chip di memoria HBM3e. Samsung, ad esempio, ha annunciato di aver sviluppato un dispositivo HBM3e con 12 strati di chip DRAM e che vanta la capacità più grande del settore, pari a 36 GB.
Figura 3 L’HBM3E 12H offre una larghezza di banda fino a 1.280 GB/s e una capacità di archiviazione di 36 GB. Fonte: Samsung
Allo stesso modo, Micron, con sede in Idaho, afferma di aver avviato la produzione in volume del suo dispositivo HBM3e a 8 strati che offre capacità di 24 GB. Come accennato in precedenza, farà parte delle unità H200 Tensor Core di Nvidia spedite nel secondo trimestre. Tuttavia, SK Hynix sembra essere all’avanguardia quando si tratta della memoria AI più ricercata: HBM.
Ha fatto tutte le mosse giuste al momento giusto e ha conquistato Nvidia come cliente alla fine del 2019 per aver abbinato i chip HBM con acceleratori AI. Non c’è da stupirsi che gli ingegneri della SK Hynix ora chiamino scherzosamente la HBM “la migliore memoria della Hynix”.
Contenuto relativo
- Aggiornamenti della memoria dell’unità AI e AR
- La memoria convenzionale è la chiave per un’intelligenza artificiale onnipresente
- Colli di bottiglia della memoria: superare un problema comune di intelligenza artificiale
- Chip di memoria HBM: l’eroe non celebrato della rivoluzione dell’intelligenza artificiale
- IA generativa e muro di memoria: un campanello d’allarme per l’industria dei circuiti integrati
googletag.cmd.push(function() { googletag.display(‘div-gpt-ad-inread’); });
Il boom post AI e la politica dei chip di memoria HBM sono apparsi per la prima volta su EDN.
[ad_2]
Source link