[ad_1]
Un innovativo robot bimanuale mostra una sensibilità tattile vicina alla destrezza a livello umano utilizzando l’intelligenza artificiale per informare le sue azioni.
Il nuovo sistema Bi-Touch, progettato dagli scienziati dell’Università di Bristol e con sede presso il Bristol Robotics Laboratory, consente ai robot di svolgere attività manuali rilevando cosa fare da un aiutante digitale.
I risultati, pubblicati in Lettere IEEE su robotica e automazionemostrano come un agente AI interpreta il suo ambiente attraverso feedback tattile e propriocettivo, quindi controlla i comportamenti dei robot, consentendo un rilevamento preciso, un’interazione delicata e un’efficace manipolazione degli oggetti per svolgere compiti robotici.
Questo sviluppo potrebbe rivoluzionare settori come la raccolta della frutta, i servizi domestici e, infine, ricreare il tatto negli arti artificiali.
L’autore principale Yijiong Lin della Facoltà di Ingegneria, ha spiegato: “Con il nostro sistema Bi-Touch, possiamo facilmente addestrare agenti IA in un mondo virtuale in un paio d’ore per svolgere compiti bimanuali adattati al tocco. E, cosa più importante, possiamo applicare direttamente questi agenti dal mondo virtuale al mondo reale senza ulteriore formazione.
“L’agente tattile bimanuale può risolvere compiti anche in caso di perturbazioni inaspettate e manipolare oggetti delicati in modo delicato.”
La manipolazione bimanuale con feedback tattile sarà fondamentale per la destrezza dei robot a livello umano. Tuttavia, questo argomento è meno esplorato rispetto alle impostazioni a braccio singolo, in parte a causa della disponibilità di hardware adeguato e della complessità della progettazione di controllori efficaci per compiti con spazi stato-azione relativamente ampi. Il team è stato in grado di sviluppare un sistema robotico tattile a doppio braccio utilizzando i recenti progressi nell’intelligenza artificiale e nel rilevamento tattile robotico.
I ricercatori hanno costruito un mondo virtuale (simulazione) che conteneva due bracci robotici dotati di sensori tattili. Quindi progettano funzioni di ricompensa e un meccanismo di aggiornamento degli obiettivi che potrebbe incoraggiare gli agenti robot a imparare a svolgere compiti bimanuali e hanno sviluppato un sistema robotico tattile a doppio braccio nel mondo reale a cui potrebbero applicare direttamente l’agente.
Il robot apprende abilità bimanuali attraverso il Deep Reinforcement Learning (Deep-RL), una delle tecniche più avanzate nel campo dell’apprendimento dei robot. È progettato per insegnare ai robot a fare cose consentendo loro di imparare da tentativi ed errori, in modo simile all’addestramento di un cane con ricompense e punizioni.
Per la manipolazione robotica, il robot impara a prendere decisioni tentando vari comportamenti per svolgere compiti prestabiliti, ad esempio sollevando oggetti senza lasciarli cadere o romperli. Quando riesce, ottiene una ricompensa e quando fallisce, impara cosa non fare. Con il tempo, scopre i modi migliori per afferrare le cose usando queste ricompense e punizioni. L’agente AI è visivamente cieco e si basa solo sul feedback propriocettivo: la capacità del corpo di percepire il movimento, l’azione e la posizione e il feedback tattile.
Sono stati in grado di consentire al robot a doppio braccio di sollevare con successo in sicurezza oggetti fragili come una singola patatina Pringle.
Il coautore, il professor Nathan Lepora, ha aggiunto: “Il nostro sistema Bi-Touch mostra un approccio promettente con software e hardware convenienti per l’apprendimento di comportamenti bimanuali con il tocco nella simulazione, che può essere applicato direttamente al mondo reale. La nostra simulazione robotica tattile a doppio braccio sviluppata consente ulteriori ricerche su attività più diverse poiché il codice sarà open source, il che è ideale per sviluppare altre attività a valle.”
Yijiong ha concluso: “Il nostro sistema Bi-Touch consente a un robot tattile a doppio braccio di imparare molto dalla simulazione e di eseguire vari compiti di manipolazione in modo delicato nel mondo reale.
“E ora possiamo addestrare facilmente gli agenti IA in un mondo virtuale in un paio d’ore per svolgere compiti bimanuali adattati al tocco.”
[ad_2]
Source link