[ad_1]
//php echo do_shortcode(‘[responsivevoice_button voice=”US English Male” buttontext=”Listen to Post”]’) ?>
SANTA CLARA, CALIFORNIA. — L’intelligenza artificiale ha rivoluzionato l’informatica scientifica negli ultimi anni e i carichi di lavoro continuano a convergere, ha dichiarato a EE Times Ian Buck, vicepresidente e direttore generale del settore informatico hyperscale e HPC di Nvidia. Ciò significa un mercato in forte espansione per le GPU nel calcolo ad alte prestazioni (HPC).
“Il mondo del supercalcolo e dell’HPC ora si rende conto del potenziale dell’intelligenza artificiale”, ha affermato Buck. “La buona notizia è che [AI is accelerated by] le stesse GPU… molto intenzionalmente, Nvidia crea un’unica architettura e la rende disponibile a tutti i nostri mercati, a tutti i nostri utenti.”
I supercomputer continuano ad accelerare la scoperta scientifica in molti campi. I modelli basati sulla fisica vengono oggi utilizzati per simulare fenomeni difficili da osservare sperimentalmente. Il cambiamento climatico è un ottimo esempio: la scala è così ampia e i tempi sono così lunghi che è difficile progettare un esperimento pratico per testare le ipotesi degli scienziati del clima. Occorre invece utilizzare la simulazione.
“Supponendo che possiamo costruire il computer giusto, quando conosciamo la fisica coinvolta, dal flusso turbolento alla radiazione solare, possiamo costruire un modello matematico della Terra e poi spingere il gioco, e giocarci”, ha detto. “Può accadere su scale temporali di anni, decenni o secoli”.
Utilizzando un supercomputer, gli scienziati possono simulare le emissioni di carbonio nel tempo e vedere il risultato.
“La sfida è la precisione e la disponibilità di cicli di elaborazione sufficienti nel computer”, ha affermato. “C’è sempre una domanda nel supercalcolo: siamo arrivati a una risoluzione sufficientemente precisa da catturare il fenomeno, perché non è pratico per noi simulare fino all’atomo, quindi dobbiamo approssimare, quindi convalidare.”
Per quanto riguarda il lavoro sui cambiamenti climatici, i modelli possono essere testati su dati storici, ma è ancora difficile su scala terrestre. La formazione delle nuvole deve avvenire su una scala inferiore al chilometro per catturare i vortici, spesso su una scala di centinaia di metri. Gli scienziati possono migliorare la precisione della simulazione con più cicli di calcolo, ma quando ciò non è possibile, un’altra opzione è costruire e addestrare un’intelligenza artificiale per osservare la simulazione e approssimarla.
“L’intelligenza artificiale può funzionare molto più velocemente [than the original simulation algorithm],” Egli ha detto. “Si tratta ancora di un’approssimazione che deve essere convalidata e testata, ma può essere uno strumento per i ricercatori per esplorare molte più opzioni su scale temporali molto più grandi e identificare fenomeni che potrebbero essere troppo difficili da calcolare o troppo difficili da trovare cercando tutti le diverse opzioni, quindi tornare indietro e proseguire eseguendo simulazioni di fisica dei principi primi.
Molti supercomputer costruiti oggi con la CPU-GPU Grace Hopper di Nvidia e le GPU Hopper verranno utilizzati per addestrare e dedurre i surrogati dell’intelligenza artificiale, ha affermato Buck. Nvidia ha il proprio progetto per costruire un supercomputer chiamato Earth-2 che gestirà un gemello digitale della Terra per la ricerca sul clima. Earth-2 utilizzerà una combinazione di sistemi GH200 (Grace Hopper), HGX H100 (GPU Hopper AI) e OVX (GPU Ada Lovelace per grafica e intelligenza artificiale).
I surrogati dell’intelligenza artificiale vengono utilizzati anche a livello molecolare per il ripiegamento delle proteine e per studiare il funzionamento di molecole biologiche come i virus. Il processo di intercettazione dei virus con i farmaci è difficile da simulare a causa dei passaggi temporali relativamente brevi richiesti su un tempo totale relativamente lungo, ma un modello surrogato di questo processo basato sull’intelligenza artificiale può aiutare ad accelerare la simulazione.
L’intelligenza artificiale può essere utilizzata anche per accelerare i processi e i metodi esistenti. Anche i precondizionatori basati sull’intelligenza artificiale, che possono aiutare gli scienziati a risolvere le equazioni matematiche più velocemente, stanno guadagnando terreno in molte diverse applicazioni scientifiche.
“Spesso il trucco è convertire la matrice delle equazioni in qualcosa che sia più facile da risolvere utilizzando un precondizionatore, convertendo le equazioni in uno spazio diverso che può essere strutturato in modo più efficiente per essere risolto dai risolutori numerici”, ha detto Buck. “Questa è un’arte. Se riesci a farlo, puoi costruire un precondizionatore in grado di risolvere equazioni lineari molto più velocemente ma che sia comunque accurato numericamente al 100%”.
I precondizionatori vengono spesso utilizzati per l’ingegneria assistita da computer (CAE) in applicazioni come l’analisi degli incidenti automobilistici.
Nvidia offre flussi di lavoro per la creazione di surrogati di intelligenza artificiale, oltre al pacchetto software Modulus per l’addestramento basato sulla fisica di modelli di intelligenza artificiale e alcuni tipi di modelli di base come BioNeMo per la scoperta di farmaci.
I più grandi cambiamenti in arrivo nell’hardware del supercalcolo cambieranno il modo in cui CPU e GPU si connettono tra loro, ha aggiunto Buck.
“Siamo arrivati a un punto in cui l’intelligenza artificiale e il calcolo accelerato in generale ci consentono di pensare fuori dagli schemi in termini di modo in cui i computer possono essere costruiti”, ha affermato.
Mentre negli ultimi anni i supercomputer potrebbero aver avuto una o due CPU collegate a un acceleratore tramite PCIe, stanno emergendo soluzioni più integrate come il superchip Grace Hopper di Nvidia.
“Ora che il mercato è diventato così ampio, possiamo passare da una connessione da 60 o 100 GB/s a un’integrazione molto più stretta tra CPU e GPU, che è ciò che offre Grace Hopper: una CPU e una GPU che funzionano insieme, come una cosa sola, ” ha affermato, sottolineando che la larghezza di banda da CPU a GPU di Grace Hopper è di 450 GB/s in una direzione o 900 GB/s in totale.
Nvidia ha inoltre progettato Grace Hopper affinché fosse pienamente coerente con la cache.
“In passato, le persone ottimizzavano codici molto apprezzati per lo spostamento dei dati avanti e indietro, e ciò continuerà”, ha affermato. “Ma quando metti il [CPU and GPU] uno accanto all’altro in modo che possano davvero funzionare come uno solo e la GPU abbia la stessa larghezza di banda per la memoria host sulla CPU della CPU, stai davvero costruendo una GPU completamente coerente da 600 GB: ora possono pensare meno ai dati movimento, possono consentire al sistema operativo di spostare le pagine in modo dinamico e può farlo in modo molto efficiente e molto veloce.
Considerata la posizione dominante di Nvidia nell’intelligenza artificiale su larga scala, è giusto affermare che i miglioramenti in termini di velocità ed efficienza in prodotti come Grace Hopper contribuiranno a scoperte scientifiche che cambieranno il mondo in meglio.
[ad_2]
Source link