All’interno dell’utero, i feti possono iniziare a sentire alcuni suoni intorno alle 20 settimane di gestazione. Tuttavia, l’input a cui sono esposti è limitato ai suoni a bassa frequenza a causa dell’effetto smorzante del liquido amniotico e dei tessuti circostanti.
Un nuovo studio condotto dal MIT suggerisce che questo input sensoriale degradato è benefico, e forse necessario, per lo sviluppo uditivo. Utilizzando semplici modelli computerizzati dell’elaborazione uditiva umana, i ricercatori hanno dimostrato che limitando inizialmente l’input ai suoni a bassa frequenza mentre i modelli imparavano a svolgere determinati compiti, in realtà miglioravano le loro prestazioni.
Insieme a uno studio precedente dello stesso team, che ha dimostrato che l’esposizione precoce a volti sfocati migliora la successiva capacità di generalizzazione dei modelli computerizzati di riconoscere i volti, i risultati suggeriscono che la ricezione di input sensoriali di bassa qualità può essere la chiave per alcuni aspetti dello sviluppo cerebrale.
“Invece di pensare alla scarsa qualità degli input come a un limite che la biologia ci sta imponendo, questo lavoro sostiene che forse la natura è intelligente e ci dà il giusto tipo di impulso per sviluppare i meccanismi che in seguito si riveleranno molto utile quando ci viene chiesto di affrontare compiti di riconoscimento impegnativi”, afferma Pawan Sinha, professore di visione e neuroscienze computazionali presso il Dipartimento di scienze cerebrali e cognitive del MIT, che ha guidato il team di ricerca.
Nel nuovo studio, i ricercatori hanno dimostrato che l’esposizione di un modello computazionale del sistema uditivo umano a una gamma completa di frequenze fin dall’inizio ha portato a prestazioni di generalizzazione peggiori su compiti che richiedono l’assorbimento di informazioni per periodi di tempo più lunghi, ad esempio l’identificazione di emozioni da una clip vocale. Dal punto di vista applicato, i risultati suggeriscono che i bambini nati prematuramente possono trarre vantaggio dall’essere esposti a suoni a bassa frequenza piuttosto che all’intero spettro di frequenze che ora sentono nelle unità di terapia intensiva neonatale, affermano i ricercatori.
Marin Vogelsang e Lukas Vogelsang, attualmente entrambi studenti dell’EPFL Losanna, sono gli autori principali dello studio, che appare sulla rivista Scienza dello sviluppo. Anche Sidney Diamond, neurologo in pensione e ora ricercatore affiliato al MIT, è un autore dell’articolo.
Input di bassa qualità
Diversi anni fa, Sinha e i suoi colleghi si interessarono allo studio di come l’input sensoriale di bassa qualità influenzi il successivo sviluppo del cervello. Questa domanda è sorta in parte dopo che i ricercatori hanno avuto l’opportunità di incontrare e studiare un bambino che era nato con la cataratta che non era stata rimossa fino all’età di quattro anni.
Questo ragazzo, nato in Cina, è stato successivamente adottato da una famiglia americana e riferito al laboratorio di Sinha all’età di 10 anni. Gli studi hanno rivelato che la sua vista era quasi normale, con una notevole eccezione: si comportava molto male nel riconoscere i volti. Altri studi su bambini nati ciechi hanno anche rivelato deficit nel riconoscimento facciale dopo che la loro vista è stata ripristinata.
I ricercatori hanno ipotizzato che questa menomazione potrebbe essere il risultato della perdita di alcuni degli input visivi di bassa qualità che i neonati e i bambini piccoli normalmente ricevono. Quando i bambini nascono, la loro acuità visiva è molto scarsa: circa 20/800, 1/40 della forza della normale vista 20/20. Ciò è in parte dovuto alla minore densità di impaccamento dei fotorecettori nella retina del neonato. Man mano che il bambino cresce, i recettori diventano più densi e l’acuità visiva migliora.
“La teoria che abbiamo proposto era che questo periodo iniziale di visione offuscata o degradata fosse molto importante. Poiché tutto è così sfocato, il cervello ha bisogno di integrarsi su aree più ampie del campo visivo”, afferma Sinha.
Per esplorare questa teoria, i ricercatori hanno utilizzato un tipo di modello di visione computazionale noto come rete neurale convoluzionale. Hanno addestrato il modello a riconoscere i volti, dandogli input sfocati seguiti successivamente da input chiari o input chiari dall’inizio. Hanno scoperto che i modelli che hanno ricevuto input sfocati all’inizio hanno mostrato prestazioni di generalizzazione superiori nelle attività di riconoscimento facciale. Inoltre, i campi recettivi delle reti neurali – la dimensione dell’area visiva che coprono – erano più grandi dei campi recettivi nei modelli addestrati sull’input chiaro fin dall’inizio.
Dopo che lo studio è stato pubblicato nel 2018, i ricercatori hanno voluto esplorare se questo fenomeno potesse essere visto anche in altri tipi di sistemi sensoriali. Per l’audizione, la sequenza temporale dello sviluppo è leggermente diversa, poiché i bambini a termine nascono con un udito quasi normale in tutto lo spettro sonoro. Tuttavia, durante il periodo prenatale, mentre il sistema uditivo è ancora in via di sviluppo, i bambini sono esposti a una qualità del suono degradata nell’utero.
Per esaminare gli effetti di quell’input degradato, i ricercatori hanno addestrato un modello computazionale dell’audizione umana per eseguire un compito che richiede l’integrazione di informazioni per lunghi periodi di tempo: identificare l’emozione da una clip vocale. Quando i modelli hanno appreso il compito, i ricercatori hanno fornito loro uno dei quattro diversi tipi di input uditivo: solo a bassa frequenza, solo a piena frequenza, bassa frequenza seguita da piena frequenza e piena frequenza seguita da bassa frequenza.
La bassa frequenza seguita dalla frequenza completa imita più da vicino ciò a cui sono esposti i bambini in via di sviluppo e i ricercatori hanno scoperto che i modelli computerizzati esposti a quello scenario mostravano il profilo di prestazione più generalizzato sul compito di riconoscimento delle emozioni. Quei modelli hanno anche generato campi recettivi temporali più ampi, il che significa che sono stati in grado di analizzare i suoni che si verificano in un periodo di tempo più lungo.
Ciò suggerisce, proprio come lo studio della vista, che l’input degradato all’inizio dello sviluppo promuove effettivamente migliori capacità di integrazione sensoriale più avanti nella vita.
“Supporta l’idea che iniziare con informazioni molto limitate e poi migliorare sempre di più nel tempo potrebbe effettivamente essere una caratteristica del sistema piuttosto che essere un bug”, afferma Lukas Vogelsang.
Effetti del parto prematuro
Precedenti ricerche condotte da altri laboratori hanno scoperto che i bambini nati prematuramente mostrano menomazioni nell’elaborazione dei suoni a bassa frequenza. Si comportano peggio dei bambini a termine nei test di classificazione delle emozioni, più avanti nella vita. I risultati computazionali del team del MIT suggeriscono che queste menomazioni potrebbero essere il risultato della perdita di alcuni degli input sensoriali di bassa qualità che normalmente riceverebbero nell’utero.
“Se fornisci input a piena frequenza fin dall’inizio, stai togliendo lo slancio da parte del cervello per cercare di scoprire una struttura temporale a lungo raggio o estesa. Può cavarsela solo con una struttura temporale locale”, afferma Sinha. “Presumibilmente questo è ciò che l’immersione immediata in paesaggi sonori a piena frequenza fa al cervello di un bambino nato prematuro”.
I ricercatori suggeriscono che per i bambini nati prematuramente, potrebbe essere utile esporli principalmente a suoni a bassa frequenza dopo la nascita, per imitare le condizioni simili all’utero che stanno perdendo.
Il team di ricerca sta ora esplorando altre aree in cui questo tipo di input degradato può essere benefico per lo sviluppo del cervello. Questi includono aspetti della visione, come la percezione del colore, nonché domini qualitativamente diversi come lo sviluppo linguistico.
“Siamo rimasti sorpresi da quanto siano coerenti la narrativa e l’ipotesi dei risultati sperimentali, rispetto a questa idea di degrado iniziale adattabile ai fini dello sviluppo”, afferma Sinha. “Sento che questo lavoro illustra le gratificanti sorprese che la scienza ci offre. Non ci aspettavamo che le idee che sono germogliate dal nostro lavoro con i bambini congenitamente ciechi avrebbero avuto molto attinenza con il nostro modo di pensare all’audizione. Ma, in effetti, sembra esserci una bella comunanza concettuale tra i due domini. E forse quel filo conduttore va anche oltre queste due modalità sensoriali. Ci sono chiaramente una serie di interessanti domande di ricerca davanti a noi”.
La ricerca è stata finanziata dal National Institutes of Health.