[ad_1]
L’intelligenza artificiale non solo offre prestazioni impressionanti, ma crea anche una significativa domanda di energia. Quanto più impegnativi sono i compiti per i quali è addestrato, tanto più energia consuma. Víctor López-Pastor e Florian Marquardt, due scienziati dell’Istituto Max Planck per la scienza della luce di Erlangen, in Germania, presentano un metodo con cui l’intelligenza artificiale potrebbe essere addestrata in modo molto più efficiente. Il loro approccio si basa su processi fisici invece che sulle reti neurali artificiali digitali attualmente utilizzate.
La quantità di energia necessaria per addestrare GPT-3, che rende ChatGPT un Chatbot eloquente e apparentemente ben informato, non è stata rivelata da Open AI, la società dietro questa intelligenza artificiale (AI). Secondo la società statistica tedesca Statista, ciò richiederebbe 1000 megawattora, ovvero circa il consumo annuo di 200 famiglie tedesche con tre o più persone. Sebbene questo dispendio energetico abbia consentito a GPT-3 di apprendere se è più probabile che la parola “profondo” sia seguita dalla parola “mare” o “apprendimento” nei suoi set di dati, a detta di tutti non ha compreso il significato sottostante di tale frasi.
Reti neurali su computer neuromorfi
Per ridurre il consumo energetico dei computer, e in particolare delle applicazioni IA, negli ultimi anni diversi istituti di ricerca hanno studiato un concetto completamente nuovo di come i computer potrebbero elaborare i dati in futuro. Il concetto è noto come calcolo neuromorfico. Sebbene sembri simile alle reti neurali artificiali, in realtà ha poco a che fare con esse poiché le reti neurali artificiali funzionano su computer digitali convenzionali. Ciò significa che il software, o più precisamente l’algoritmo, è modellato sul modo di funzionare del cervello, ma i computer digitali fungono da hardware. Eseguono in sequenza, uno dopo l’altro, le fasi di calcolo della rete neuronale, distinguendo tra processore e memoria.
“Il solo trasferimento di dati tra questi due componenti consuma grandi quantità di energia quando una rete neurale allena centinaia di miliardi di parametri, cioè sinapsi, con fino a un terabyte di dati”, afferma Florian Marquardt, direttore del Max Planck Institute for the Science of Light e professore all’Università di Erlangen. Il cervello umano è completamente diverso e probabilmente non sarebbe mai stato competitivo dal punto di vista evolutivo se avesse funzionato con un’efficienza energetica simile a quella dei computer dotati di transistor al silicio. Molto probabilmente si sarebbe guastato a causa del surriscaldamento.
Il cervello è caratterizzato dall’intraprendere le numerose fasi di un processo di pensiero in parallelo e non in sequenza. Le cellule nervose, o più precisamente le sinapsi, sono insieme processore e memoria. Vari sistemi in tutto il mondo vengono trattati come possibili candidati per le controparti neuromorfiche delle nostre cellule nervose, compresi i circuiti fotonici che utilizzano la luce invece degli elettroni per eseguire calcoli. I loro componenti fungono contemporaneamente da interruttori e celle di memoria.
Una macchina fisica ad autoapprendimento ottimizza le sue sinapsi in modo indipendente
Insieme a Víctor López-Pastor, dottorando presso l’Istituto Max Planck per la Scienza della Luce, Florian Marquardt ha ora ideato un metodo di addestramento efficiente per computer neuromorfici. “Abbiamo sviluppato il concetto di una macchina fisica ad autoapprendimento”, spiega Florian Marquardt. “L’idea centrale è quella di svolgere la formazione sotto forma di un processo fisico, in cui i parametri della macchina sono ottimizzati dal processo stesso.”
Quando si addestrano le reti neurali artificiali convenzionali, è necessario un feedback esterno per regolare la forza dei molti miliardi di connessioni sinaptiche. “Non richiedere questo feedback rende la formazione molto più efficiente”, afferma Florian Marquardt. L’implementazione e l’addestramento di un’intelligenza artificiale su una macchina fisica ad autoapprendimento farebbe risparmiare non solo energia, ma anche tempo di elaborazione. “Il nostro metodo funziona indipendentemente dal processo fisico che avviene nella macchina ad autoapprendimento e non abbiamo nemmeno bisogno di conoscere il processo esatto”, spiega Florian Marquardt. “Tuttavia, il processo deve soddisfare alcune condizioni.” Ma soprattutto deve essere reversibile, cioè deve poter andare avanti o indietro con una minima perdita di energia.” “Inoltre il processo fisico deve essere non lineare, cioè sufficientemente complesso”, spiega Florian Marquardt. Solo non lineare I processi possono realizzare complicate trasformazioni tra dati di input e risultati. Un flipper che rotola su un piatto senza scontrarsi con un altro è un’azione lineare. Tuttavia, se viene disturbato da un altro, la situazione diventa non lineare.
Prova pratica su computer neuromorfico ottico
Esempi di processi reversibili e non lineari si possono trovare nell’ottica. Infatti, Víctor López-Pastor e Florian Marquardt stanno già collaborando con un gruppo sperimentale che sviluppa un computer neuromorfico ottico. Questa macchina elabora le informazioni sotto forma di onde luminose sovrapposte, dove componenti adeguati regolano il tipo e la forza dell’interazione. L’obiettivo dei ricercatori è mettere in pratica il concetto della macchina fisica ad autoapprendimento. “Speriamo di poter presentare entro tre anni la prima macchina fisica ad autoapprendimento”, afferma Florian Marquardt. A quel punto dovrebbero esserci reti neurali che pensano con molte più sinapsi e sono addestrate con quantità di dati significativamente maggiori rispetto a quelle odierne.
Di conseguenza ci sarà probabilmente un desiderio ancora maggiore di implementare reti neurali al di fuori dei computer digitali convenzionali e di sostituirle con computer neuromorfici addestrati in modo efficiente. “Siamo quindi fiduciosi che le macchine fisiche ad autoapprendimento abbiano una forte possibilità di essere utilizzate nell’ulteriore sviluppo dell’intelligenza artificiale”, afferma il fisico.
[ad_2]
Source link