[ad_1]
Gli scienziati guidati dai fisici Prof. Wolfram Pernice, Prof. Martin Salinga e dallo specialista informatico Prof. Benjamin Risse, tutti dell’Università di Münster (Germania), hanno sviluppato una cosiddetta architettura basata sugli eventi, utilizzando processori fotonici. In modo simile al cervello, ciò rende possibile il continuo adattamento delle connessioni all’interno della rete neurale.
I moderni modelli informatici, ad esempio per applicazioni IA complesse e potenti, spingono i tradizionali processi informatici digitali ai loro limiti. Nuovi tipi di architettura informatica, che emulano i principi di funzionamento delle reti neurali biologiche, promettono un’elaborazione dei dati più rapida ed efficiente dal punto di vista energetico. Un team di ricercatori ha ora sviluppato una cosiddetta architettura basata sugli eventi, utilizzando processori fotonici con cui i dati vengono trasportati ed elaborati per mezzo della luce. In modo simile al cervello, ciò rende possibile il continuo adattamento delle connessioni all’interno della rete neurale. Queste connessioni mutevoli sono la base per i processi di apprendimento. Ai fini dello studio, un team che lavora presso il Centro di ricerca collaborativa 1459 (“Materia intelligente”) – guidato dai fisici Prof. Wolfram Pernice e Prof. Martin Salinga e dallo specialista informatico Prof. Benjamin Risse, tutti dell’Università di Münster – – ha unito le forze con ricercatori delle università di Exeter e Oxford nel Regno Unito. Lo studio è stato pubblicato sulla rivista “Progressi della scienza.”
Ciò che serve per una rete neurale nell’apprendimento automatico sono neuroni artificiali che vengono attivati da segnali eccitatori esterni e che hanno connessioni con altri neuroni. Le connessioni tra questi neuroni artificiali sono chiamate sinapsi, proprio come l’originale biologico. Per il loro studio, il team di ricercatori di Münster ha utilizzato una rete composta da quasi 8.400 neuroni ottici costituiti da materiale a cambiamento di fase accoppiato a guide d’onda e ha dimostrato che la connessione tra due di questi neuroni può effettivamente diventare più forte o più debole (connessione sinaptica plasticità) e che si possano formare nuove connessioni o eliminare quelle esistenti (plasticità strutturale). A differenza di altri studi simili, le sinapsi non erano elementi hardware ma erano codificate in base alle proprietà degli impulsi ottici, cioè in base alla rispettiva lunghezza d’onda e all’intensità dell’impulso ottico. Ciò ha permesso di integrare diverse migliaia di neuroni su un unico chip e di collegarli otticamente.
Rispetto ai tradizionali processori elettronici, i processori basati sulla luce offrono una larghezza di banda notevolmente maggiore, consentendo di eseguire compiti di calcolo complessi e con un consumo energetico inferiore. Questo nuovo approccio consiste nella ricerca di base. “Il nostro obiettivo è sviluppare un’architettura di calcolo ottico che a lungo termine consentirà di elaborare applicazioni di intelligenza artificiale in modo rapido ed efficiente dal punto di vista energetico”, afferma Frank Brückerhoff-Plückelmann, uno degli autori principali.
Metodologia: il materiale a cambiamento di fase non volatile può essere commutato tra una struttura amorfa e una struttura cristallina con un reticolo atomico altamente ordinato. Questa funzionalità consente la memorizzazione permanente dei dati anche in assenza di alimentazione elettrica. I ricercatori hanno testato le prestazioni della rete neurale utilizzando un algoritmo evolutivo per addestrarla a distinguere tra testi tedeschi e inglesi. Il parametro di riconoscimento utilizzato era il numero di vocali nel testo.
[ad_2]
Source link