[ad_1]
Modelli computazionali che imitano la struttura e la funzione del sistema uditivo umano potrebbero aiutare i ricercatori a progettare apparecchi acustici, impianti cocleari e interfacce cervello-macchina migliori. Un nuovo studio del MIT ha scoperto che i moderni modelli computazionali derivati dall’apprendimento automatico si stanno avvicinando a questo obiettivo.
Nel più ampio studio finora condotto sulle reti neurali profonde addestrate a svolgere compiti uditivi, il team del MIT ha dimostrato che la maggior parte di questi modelli genera rappresentazioni interne che condividono le proprietà delle rappresentazioni viste nel cervello umano quando le persone ascoltano gli stessi suoni.
Lo studio offre anche informazioni su come addestrare al meglio questo tipo di modello: i ricercatori hanno scoperto che i modelli addestrati sull’input uditivo, compreso il rumore di fondo, imitano più da vicino i modelli di attivazione della corteccia uditiva umana.
“Ciò che distingue questo studio è che è il confronto più completo finora tra questi tipi di modelli e il sistema uditivo. Lo studio suggerisce che i modelli derivati dall’apprendimento automatico rappresentano un passo nella giusta direzione e ci fornisce alcuni indizi su cosa tende a renderli modelli migliori del cervello”, afferma Josh McDermott, professore associato di cervello e cognizione. scienze al MIT, membro del McGovern Institute for Brain Research e del Center for Brains, Minds, and Machines del MIT e autore senior dello studio.
La studentessa laureata del MIT Greta Tuckute e Jenelle Feather PhD ’22 sono gli autori principali del documento ad accesso aperto, che appare oggi in Biologia PLOS.
Modelli di udito
Le reti neurali profonde sono modelli computazionali costituiti da molti strati di unità di elaborazione delle informazioni che possono essere addestrate su enormi volumi di dati per eseguire compiti specifici. Questo tipo di modello è stato ampiamente utilizzato in molte applicazioni e i neuroscienziati hanno iniziato a esplorare la possibilità che questi sistemi possano essere utilizzati anche per descrivere il modo in cui il cervello umano esegue determinati compiti.
“Questi modelli costruiti con l’apprendimento automatico sono in grado di mediare comportamenti su una scala che in realtà non era possibile con i tipi di modelli precedenti, e ciò ha portato a interessarsi alla possibilità o meno delle rappresentazioni nei modelli di catturare cose che stanno accadendo nel cervello”, dice Tuckute.
Quando una rete neurale esegue un compito, le sue unità di elaborazione generano modelli di attivazione in risposta a ciascun input audio che riceve, come una parola o un altro tipo di suono. Queste rappresentazioni modello dell’input possono essere paragonate ai modelli di attivazione osservati nelle scansioni cerebrali fMRI di persone che ascoltano lo stesso input.
Nel 2018, McDermott e l’allora studente laureato Alexander Kell riferirono che quando addestrarono una rete neurale a eseguire compiti uditivi (come riconoscere le parole da un segnale audio), le rappresentazioni interne generate dal modello mostravano somiglianze con quelle viste nelle scansioni fMRI di persone che ascoltano gli stessi suoni.
Da allora, questi tipi di modelli sono diventati ampiamente utilizzati, quindi il gruppo di ricerca di McDermott ha deciso di valutare un insieme più ampio di modelli, per vedere se la capacità di approssimare le rappresentazioni neurali osservate nel cervello umano è una caratteristica generale di questi modelli.
Per questo studio, i ricercatori hanno analizzato nove modelli di reti neurali profonde disponibili al pubblico che erano stati addestrati per eseguire compiti uditivi e hanno anche creato 14 modelli propri, basati su due diverse architetture. La maggior parte di questi modelli sono stati addestrati per svolgere un singolo compito – riconoscere le parole, identificare chi parla, riconoscere i suoni ambientali e identificare il genere musicale – mentre due di loro sono stati addestrati per svolgere più compiti.
Quando i ricercatori hanno presentato a questi modelli suoni naturali che erano stati usati come stimoli negli esperimenti di fMRI umana, hanno scoperto che le rappresentazioni del modello interno tendevano a mostrare somiglianze con quelle generate dal cervello umano. I modelli le cui rappresentazioni erano più simili a quelle viste nel cervello erano modelli addestrati su più di un compito e addestrati su input uditivi che includevano il rumore di fondo.
“Se si addestrano i modelli nel rumore, essi forniscono previsioni cerebrali migliori rispetto a quando non lo si fa, il che è intuitivamente ragionevole perché gran parte dell’udito nel mondo reale implica l’udito nel rumore, ed è plausibilmente qualcosa a cui il sistema uditivo è adattato”, Feather dice.
Elaborazione gerarchica
Il nuovo studio supporta anche l’idea che la corteccia uditiva umana abbia un certo grado di organizzazione gerarchica, in cui l’elaborazione è divisa in fasi che supportano funzioni computazionali distinte. Come nello studio del 2018, i ricercatori hanno scoperto che le rappresentazioni generate nelle fasi precedenti del modello assomigliano più da vicino a quelle viste nella corteccia uditiva primaria, mentre le rappresentazioni generate nelle fasi successive del modello assomigliano più da vicino a quelle generate nelle regioni del cervello oltre la corteccia primaria.
Inoltre, i ricercatori hanno scoperto che i modelli addestrati su compiti diversi erano più bravi a replicare diversi aspetti dell’audizione. Ad esempio, i modelli addestrati su un compito legato al linguaggio somigliavano più da vicino alle aree selettive del linguaggio.
“Anche se il modello ha visto esattamente gli stessi dati di allenamento e l’architettura è la stessa, quando si ottimizza per un compito particolare, è possibile vedere che spiega selettivamente specifiche proprietà di ottimizzazione del cervello”, afferma Tuckute.
Il laboratorio di McDermott prevede ora di utilizzare le loro scoperte per provare a sviluppare modelli che abbiano ancora più successo nel riprodurre le risposte del cervello umano. Oltre ad aiutare gli scienziati a saperne di più su come può essere organizzato il cervello, tali modelli potrebbero anche essere utilizzati per contribuire a sviluppare apparecchi acustici, impianti cocleari e interfacce cervello-macchina migliori.
“Un obiettivo del nostro campo è quello di arrivare a un modello computerizzato in grado di prevedere le risposte e il comportamento del cervello. Pensiamo che se riusciremo a raggiungere questo obiettivo, si apriranno molte porte”, afferma McDermott.
La ricerca è stata finanziata dal National Institutes of Health, una borsa di studio Amazon del Science Hub, una borsa di studio internazionale dell’American Association of University Women, una borsa di studio del MIT Friends of McGovern Institute, una borsa di studio della K. Lisa Yang Integrative Computational Neuroscience (ICoN) Centro del MIT, e una borsa di studio per laureati del Dipartimento di scienze computazionali dell’energia.
[ad_2]
Source link