[ad_1]
I robot in grado di mostrare le emozioni umane sono stati a lungo un pilastro delle storie di fantascienza. Ora, i ricercatori giapponesi stanno studiando i dettagli meccanici delle vere espressioni facciali umane per avvicinare quelle storie alla realtà.
In un recente studio pubblicato dal Giornale di ingegneria meccanica, un gruppo di ricerca multiistituzionale guidato dall’Università di Osaka ha iniziato a mappare le complessità dei movimenti facciali umani. I ricercatori hanno utilizzato 125 marcatori di tracciamento attaccati al viso di una persona per esaminare da vicino 44 diverse e singolari azioni facciali, come sbattere le palpebre o alzare l’angolo della bocca.
Ogni espressione facciale comporta una varietà di deformazioni locali mentre i muscoli si allungano e comprimono la pelle. Anche i movimenti più semplici possono essere sorprendentemente complessi. I nostri volti contengono un insieme di diversi tessuti sotto la pelle, dalle fibre muscolari ai grassi adiposi, che lavorano tutti in concerto per trasmettere come ci sentiamo. Ciò include qualsiasi cosa, da un grande sorriso a un leggero sollevamento dell’angolo della bocca. Questo livello di dettaglio è ciò che rende le espressioni facciali così sottili e sfumate, rendendole a loro volta difficili da replicare artificialmente. Fino ad ora, ci si è basati su misurazioni molto più semplici, della forma complessiva del viso e del movimento dei punti scelti sulla pelle prima e dopo i movimenti.
“I nostri volti ci sono così familiari che non notiamo i minimi dettagli”, spiega Hisashi Ishihara, autore principale dello studio. “Ma dal punto di vista ingegneristico, sono straordinari dispositivi di visualizzazione delle informazioni. Osservando le espressioni facciali delle persone, possiamo capire quando un sorriso nasconde la tristezza o se qualcuno si sente stanco o nervoso.”
Le informazioni raccolte da questo studio possono aiutare i ricercatori che lavorano con volti artificiali, sia creati digitalmente sugli schermi sia, in definitiva, con i volti fisici dei robot Android. Misurazioni precise dei volti umani, per comprendere tutte le tensioni e le compressioni nella struttura facciale, consentiranno a queste espressioni artificiali di apparire più accurate e naturali.
“La struttura del viso sotto la nostra pelle è complessa”, afferma Akihiro Nakatani, autore senior. “L’analisi della deformazione in questo studio potrebbe spiegare come espressioni sofisticate, che comprendono sia la pelle tesa che quella compressa, possano derivare da azioni facciali ingannevolmente semplici.”
Questo lavoro ha applicazioni anche oltre la robotica, ad esempio il miglioramento del riconoscimento facciale o le diagnosi mediche, l’ultima delle quali attualmente si basa sull’intuito del medico per notare anomalie nei movimenti facciali.
Finora, questo studio ha esaminato solo il volto di una persona, ma i ricercatori sperano di utilizzare il loro lavoro come punto di partenza per acquisire una comprensione più completa dei movimenti facciali umani. Oltre ad aiutare i robot a riconoscere e trasmettere emozioni, questa ricerca potrebbe anche aiutare a migliorare i movimenti facciali nella grafica computerizzata, come quelli utilizzati nei film e nei videogiochi, contribuendo a evitare il temuto effetto “valle perturbante”.
[ad_2]
Source link