[ad_1]
Microsoft, che ha sviluppato silicio per Xbox due decenni fa e successivamente ha co-progettato chip per i dispositivi Surface, ha presentato due chip personalizzati: Azure Maia per server di intelligenza artificiale (AI) e CPU Azure Cobalt per carichi di lavoro cloud. Mostra come Microsoft sta progettando il suo stack hardware cloud e perché il silicio personalizzato è fondamentale in questo percorso di progettazione.
Questi chip sviluppati internamente, personalizzati per carichi di lavoro basati su intelligenza artificiale e cloud, mirano a lavorare fianco a fianco con il software sviluppato per sbloccare nuove funzionalità e opportunità per i servizi di data center di Microsoft. Tuttavia, Microsoft ha fornito pochi dettagli tecnici su questi chip interni.
Figura 1 I due chip personalizzati mirano a ottimizzare l’infrastruttura cloud per i data center di Azure. Fonte: Microsoft
Di seguito è riportata un’anteprima di questi chip personalizzati progettati per alimentare i data center Azure di Microsoft consentendo al tempo stesso un notevole risparmio sui costi per l’azienda e i suoi utenti dei servizi cloud.
Maia 100 acceleratore IA
Microsoft Azure Maia 100 è un acceleratore di intelligenza artificiale progettato specificamente per eseguire training e inferenza per modelli linguistici di grandi dimensioni (LLM) e strumenti di immagini generative. Comprende 105 miliardi di transistor ed è prodotto sul nodo a 5 nm di TSMC. In poche parole, mira a consentire una maggiore densità per i server con maggiore efficienza per i carichi di lavoro AI cloud.
Prende il nome da una stella blu brillante, Maia fa parte della partnership multimiliardaria di Microsoft con OpenAI; le due società stanno collaborando per perfezionare e testare congiuntamente Maia su modelli OpenAI. Attualmente è in fase di test su GPT 3.5 Turbo, il modello che alimenta ChatGPT, i carichi di lavoro AI di Bing e GitHub Copilot.
figura 2 Maia 100 apre la strada all’addestramento di modelli più capaci e a renderli più economici. Fonte: Microsoft
Microsoft e rivali come Alphabet sono attualmente alle prese con gli alti costi dei servizi di intelligenza artificiale, che secondo alcune stime sono 10 volte superiori rispetto ai servizi tradizionali come i motori di ricerca. I dirigenti Microsoft affermano che ottimizzando il silicio per i carichi di lavoro AI su Azure, l’azienda può revisionare l’intero stack di server cloud per ottimizzare prestazioni, potenza e costi.
“Stiamo ripensando l’infrastruttura cloud per l’era dell’intelligenza artificiale e ottimizzando letteralmente ogni livello di tale infrastruttura”, ha affermato Rani Borkar, responsabile dei sistemi hardware e dell’infrastruttura di Azure presso Microsoft. Lei disse Il limite che i chip Maia si annideranno su schede server personalizzate, che verranno posizionate all’interno di rack su misura che si adatteranno facilmente ai data center Microsoft esistenti.
È così che Microsoft mira a reimmaginare l’intero stack e a riflettere su ogni livello dell’impronta del proprio data center. Tuttavia, i dirigenti Microsoft fanno subito notare che lo sviluppo di Maia 100 non avrà alcun impatto sulle partnership esistenti con produttori di chip AI come AMD e Nvidia per l’infrastruttura cloud di Azure.
Azzurro Cobalto 100 processore
Il secondo chip interno di Microsoft, la CPU Azure Cobalt, che prende il nome dal pigmento blu, sembra rispondere ai chip interni Graviton offerti dal suo principale rivale cloud, Amazon Web Services (AWS). Il chip a 128 core, basato su un design CSS Arm Neoverse, è progettato per alimentare servizi cloud generali su Azure. E, come Azure Maia 100, la CPU Cobalt è prodotta sul nodo a 5 nm di TSMC.
Microsoft, che attualmente testa la CPU Cobalt su carichi di lavoro come Microsoft Teams e SQL Server, afferma un aumento delle prestazioni del 40% rispetto ai chip dei server Arm commerciali durante i test iniziali. “Abbiamo fatto alcune scelte progettuali molto intenzionali, inclusa la capacità di controllare le prestazioni e il consumo energetico per core e su ogni singola macchina virtuale”, ha affermato Borkar.
Figura 3 La CPU Cobalt è vista come un risparmio sui costi interni e una risposta ai chip personalizzati progettati da AWS. Fonte: Microsoft
L’acceleratore AI Maia 100 e la CPU Cobalt 100 arriveranno nel 2024 e saranno mantenuti internamente. Microsoft non ha condiviso le specifiche di progettazione e i benchmark prestazionali di questi chip. Tuttavia, le loro convenzioni di denominazione mostrano che lo sviluppo di chip personalizzati Maia e Cobalt di seconda generazione potrebbe essere in lavorazione proprio ora.
Stiamo sfruttando nel modo più efficiente i transistor sul silicio, afferma Wes McCullough, vicepresidente aziendale di Microsoft per lo sviluppo dei prodotti hardware. Ora moltiplicando questi miglioramenti in termini di efficienza nei server in tutti i nostri data center si ottiene un numero piuttosto elevato, ha scritto sul blog dell’azienda.
Contenuto relativo
- L’intelligenza artificiale non può progettare chip senza le persone
- L’inferenza AI potrebbe diventare il mercato più grande per Ampere
- Punteggi di formazione MLPerf: Microsoft dimostra l’intelligenza artificiale nel cloud più veloce
- Implementare l’intelligenza artificiale Edge? Hai ancora bisogno del cloud, dicono i provider cloud
- Edge AI e Cloud AI: cosa è meglio per i sistemi informatici sostenibili?
Il post Uno sguardo più da vicino al duo di chip personalizzati di Microsoft per l’intelligenza artificiale, i carichi di lavoro cloud sono apparsi per primi su EDN.
[ad_2]
Source link