[ad_1]
Immagina di voler trasportare una scatola grande e pesante su una rampa di scale. Potresti allargare le dita e sollevare la scatola con entrambe le mani, quindi tenerla sopra gli avambracci e bilanciarla contro il petto, usando tutto il corpo per manipolare la scatola.
Gli esseri umani sono generalmente bravi nella manipolazione del corpo intero, ma i robot hanno difficoltà con tali compiti. Per il robot, ogni punto in cui la scatola può toccare qualsiasi punto delle dita, delle braccia e del busto del trasportatore rappresenta un evento di contatto su cui deve ragionare. Con miliardi di potenziali eventi di contatto, la pianificazione di questa attività diventa rapidamente difficile.
Ora i ricercatori del MIT hanno trovato un modo per semplificare questo processo, noto come pianificazione della manipolazione ricca di contatti. Usano una tecnica di intelligenza artificiale chiamata smoothing, che riassume molti eventi di contatto in un numero minore di decisioni, per consentire anche a un semplice algoritmo di identificare rapidamente un piano di manipolazione efficace per il robot.
Sebbene sia ancora agli inizi, questo metodo potrebbe potenzialmente consentire alle fabbriche di utilizzare robot mobili più piccoli in grado di manipolare oggetti con le loro intere braccia o corpo, piuttosto che grandi bracci robotici che possono afferrarli solo con la punta delle dita. Ciò può contribuire a ridurre il consumo di energia e ad abbassare i costi. Inoltre, questa tecnica potrebbe essere utile nei robot inviati in missioni di esplorazione su Marte o in altri corpi del sistema solare, poiché potrebbero adattarsi rapidamente all’ambiente utilizzando solo un computer di bordo.
“Piuttosto che pensare a questo come a un sistema a scatola nera, se riusciamo a sfruttare la struttura di questo tipo di sistemi robotici utilizzando modelli, c’è l’opportunità di accelerare l’intera procedura per cercare di prendere queste decisioni e trovare soluzioni ricche di contatti. piani”, afferma HJ Terry Suh, uno studente laureato in ingegneria elettrica e informatica (EECS) e co-autore principale di un articolo su questa tecnica.
Insieme a Suh nell’articolo ci sono il co-autore principale Tao Pang PhD ’23, un esperto di robotica presso il Boston Dynamics AI Institute; Lujie Yang, uno studente laureato EECS; e l’autore senior Russ Tedrake, professore Toyota di EECS, aeronautica e astronautica e ingegneria meccanica e membro del Laboratorio di informatica e intelligenza artificiale (CSAIL). La ricerca appare questa settimana in Transazioni IEEE sulla robotica.
Imparare ad imparare
L’apprendimento per rinforzo è una tecnica di apprendimento automatico in cui un agente, come un robot, impara a completare un’attività attraverso tentativi ed errori con una ricompensa per essersi avvicinato a un obiettivo. I ricercatori affermano che questo tipo di apprendimento adotta un approccio a scatola nera perché il sistema deve imparare tutto sul mondo attraverso tentativi ed errori.
È stato utilizzato in modo efficace per la pianificazione della manipolazione ricca di contatti, in cui il robot cerca di apprendere il modo migliore per spostare un oggetto in un modo specifico.
Ma poiché potrebbero esserci miliardi di potenziali punti di contatto su cui un robot deve ragionare per determinare come utilizzare le dita, le mani, le braccia e il corpo per interagire con un oggetto, questo approccio per tentativi ed errori richiede una grande quantità di calcoli.
“L’apprendimento per rinforzo potrebbe richiedere milioni di anni nel tempo di simulazione per essere effettivamente in grado di apprendere una politica”, aggiunge Suh.
D’altra parte, se i ricercatori progettano specificamente un modello basato sulla fisica utilizzando la loro conoscenza del sistema e il compito che vogliono che il robot svolga, quel modello incorpora una struttura di questo mondo che lo rende più efficiente.
Tuttavia, gli approcci basati sulla fisica non sono efficaci quanto l’apprendimento per rinforzo quando si tratta di pianificare una manipolazione ricca di contatti – Suh e Pang si sono chiesti perché.
Hanno condotto un’analisi dettagliata e hanno scoperto che una tecnica nota come livellamento consente all’apprendimento per rinforzo di funzionare così bene.
Molte delle decisioni che un robot potrebbe prendere nel determinare come manipolare un oggetto non sono importanti nel grande schema delle cose. Ad esempio, ogni infinitesimo spostamento di un dito, indipendentemente dal fatto che entri o meno in contatto con l’oggetto, non ha molta importanza. Il livellamento elimina in media molte di quelle decisioni intermedie non importanti, lasciandone alcune importanti.
L’apprendimento per rinforzo esegue lo livellamento implicitamente provando molti punti di contatto e quindi calcolando una media ponderata dei risultati. Basandosi su questa intuizione, i ricercatori del MIT hanno progettato un modello semplice che esegue un tipo simile di livellamento, consentendogli di concentrarsi sulle interazioni fondamentali tra robot e oggetto e di prevedere il comportamento a lungo termine. Hanno dimostrato che questo approccio potrebbe essere altrettanto efficace dell’apprendimento per rinforzo nel generare piani complessi.
“Se sai qualcosa in più sul tuo problema, puoi progettare algoritmi più efficienti”, afferma Pang.
Una combinazione vincente
Anche se il livellamento semplifica notevolmente le decisioni, la ricerca tra le decisioni rimanenti può comunque essere un problema difficile. Pertanto, i ricercatori hanno combinato il loro modello con un algoritmo in grado di ricercare in modo rapido ed efficiente tutte le possibili decisioni che il robot potrebbe prendere.
Con questa combinazione, il tempo di calcolo è stato ridotto a circa un minuto su un laptop standard.
Per prima cosa hanno testato il loro approccio in simulazioni in cui alle mani robotiche venivano affidati compiti come spostare una penna nella configurazione desiderata, aprire una porta o raccogliere un piatto. In ogni caso, il loro approccio basato su modelli ha raggiunto le stesse prestazioni dell’apprendimento per rinforzo, ma in una frazione del tempo. Hanno visto risultati simili quando hanno testato il loro modello in hardware su veri bracci robotici.
“Le stesse idee che consentono la manipolazione di tutto il corpo funzionano anche per la pianificazione con mani abili, simili a quelle umane. In precedenza, la maggior parte dei ricercatori aveva affermato che l’apprendimento per rinforzo era l’unico approccio adatto a mani abili, ma Terry e Tao hanno dimostrato che, prendendo questa chiave, Con l’idea di livellamento (randomizzato) derivante dall’apprendimento per rinforzo, possono far funzionare estremamente bene anche metodi di pianificazione più tradizionali,” afferma Tedrake.
Tuttavia, il modello sviluppato si basa su un’approssimazione più semplice del mondo reale, quindi non può gestire movimenti molto dinamici, come la caduta di oggetti. Sebbene efficace per attività di manipolazione più lente, il loro approccio non può creare un piano che consenta a un robot di gettare una lattina in un cestino della spazzatura, ad esempio. In futuro, i ricercatori intendono migliorare la loro tecnica in modo che possa affrontare questi movimenti altamente dinamici.
“Se studi attentamente i tuoi modelli e comprendi veramente il problema che stai cercando di risolvere, ci sono sicuramente alcuni vantaggi che puoi ottenere. Ci sono vantaggi nel fare cose che vanno oltre la scatola nera”, dice Suh.
Questo lavoro è finanziato, in parte, da Amazon, dal MIT Lincoln Laboratory, dalla National Science Foundation e dal Gruppo Ocado.
[ad_2]
Source link