[ad_1]
I robot moderni sanno percepire l’ambiente circostante e rispondere al linguaggio, ma ciò che non sanno è spesso più importante di ciò che sanno. Insegnare ai robot a chiedere aiuto è fondamentale per renderli più sicuri ed efficienti.
Gli ingegneri della Princeton University e Google hanno escogitato un nuovo modo per insegnare ai robot a sapere quando non lo sanno. La tecnica prevede la quantificazione della confusione del linguaggio umano e l’utilizzo di tale misurazione per dire ai robot quando chiedere ulteriori indicazioni. Dire a un robot di prendere una ciotola da un tavolo con una sola ciotola è abbastanza chiaro. Ma dire a un robot di prendere una ciotola quando ce ne sono cinque sul tavolo genera un grado di incertezza molto più elevato e spinge il robot a chiedere chiarimenti.
Poiché le attività sono in genere più complesse di un semplice comando “prendi una ciotola”, gli ingegneri utilizzano modelli linguistici di grandi dimensioni (LLM) – la tecnologia alla base di strumenti come ChatGPT – per valutare l’incertezza in ambienti complessi. I LLM stanno apportando ai robot potenti capacità di seguire il linguaggio umano, ma i risultati LLM sono ancora spesso inaffidabili, ha affermato Anirudha Majumdar, assistente professore di ingegneria meccanica e aerospaziale a Princeton e autore senior di uno studio che delinea il nuovo metodo.
“Seguire ciecamente i piani generati da un LLM potrebbe far sì che i robot agiscano in modo non sicuro o inaffidabile, quindi abbiamo bisogno che i nostri robot basati su LLM sappiano quando non lo sanno”, ha affermato Majumdar.
Il sistema consente inoltre all’utente del robot di fissare un obiettivo di successo, legato a una particolare soglia di incertezza che porterà il robot a chiedere aiuto. Ad esempio, un utente potrebbe impostare un robot chirurgico in modo che abbia una tolleranza agli errori molto inferiore rispetto a un robot che sta ripulendo un soggiorno.
“Vogliamo che il robot chieda abbastanza aiuto in modo da raggiungere il livello di successo desiderato dall’utente. Ma nel frattempo, vogliamo ridurre al minimo la quantità complessiva di aiuto di cui il robot ha bisogno”, ha affermato Allen Ren, uno studente laureato in meccanica. e ingegneria aerospaziale a Princeton e autore principale dello studio. Ren ha ricevuto il premio per il miglior articolo studentesco per la sua presentazione dell’8 novembre alla Conference on Robot Learning di Atlanta. Il nuovo metodo produce un’elevata precisione riducendo al contempo la quantità di aiuto richiesto da un robot rispetto ad altri metodi per affrontare questo problema.
I ricercatori hanno testato il loro metodo su un braccio robotico simulato e su due tipi di robot presso le strutture di Google a New York City e Mountain View, in California, dove Ren lavorava come studente stagista di ricerca. Una serie di esperimenti hardware ha utilizzato un braccio robotico da tavolo incaricato di smistare una serie di prodotti alimentari giocattolo in due diverse categorie; una configurazione con un braccio sinistro e uno destro aggiungeva un ulteriore livello di ambiguità.
Gli esperimenti più complessi hanno coinvolto un braccio robotico montato su una piattaforma con ruote e collocato nella cucina di un ufficio con un forno a microonde e una serie di contenitori per il riciclaggio, il compost e la spazzatura. In un esempio, un essere umano chiede al robot di “mettere la ciotola nel microonde”, ma sul bancone ci sono due ciotole: una di metallo e una di plastica.
Il pianificatore basato su LLM del robot genera quattro possibili azioni da eseguire in base a queste istruzioni, come risposte a scelta multipla, e a ciascuna opzione viene assegnata una probabilità. Utilizzando un approccio statistico chiamato previsione conforme e un tasso di successo garantito specificato dall’utente, i ricercatori hanno progettato il loro algoritmo per attivare una richiesta di aiuto umano quando le opzioni soddisfano una determinata soglia di probabilità. In questo caso, le prime due opzioni (mettere la ciotola di plastica nel microonde o quella di metallo nel microonde) raggiungono questa soglia e il robot chiede all’essere umano quale ciotola posizionare nel microonde.
In un altro esempio, una persona dice al robot: “C’è una mela e una spugna sporca… È marcia. Puoi smaltirla?” Ciò non fa scattare una domanda da parte del robot, poiché l’azione “metti la mela nel compost” ha una probabilità sufficientemente maggiore di essere corretta rispetto a qualsiasi altra opzione.
“L’utilizzo della tecnica della previsione conforme, che quantifica l’incertezza del modello linguistico in modo più rigoroso rispetto ai metodi precedenti, ci consente di raggiungere un livello di successo più elevato” riducendo al minimo la frequenza di attivazione dell’aiuto, ha affermato l’autore senior dello studio Anirudha Majumdar, un assistente professore di ingegneria meccanica e aerospaziale a Princeton.
I limiti fisici dei robot spesso forniscono ai progettisti spunti non facilmente ottenibili da sistemi astratti. I modelli linguistici di grandi dimensioni “potrebbero uscire da una conversazione, ma non possono ignorare la gravità”, ha affermato il coautore Andy Zeng, ricercatore presso Google DeepMind. “Sono sempre ansioso di vedere prima cosa possiamo fare sui robot, perché spesso fa luce sulle sfide fondamentali dietro la costruzione di macchine generalmente intelligenti.”
Ren e Majumdar hanno iniziato a collaborare con Zeng dopo che ha tenuto un discorso nell’ambito della serie di seminari sulla robotica di Princeton, ha affermato Majumdar. Zeng, che ha conseguito un dottorato in informatica. da Princeton nel 2019, ha delineato gli sforzi di Google nell’utilizzo degli LLM per la robotica e ha sollevato alcune sfide aperte. L’entusiasmo di Ren per il problema di calibrare il livello di aiuto che un robot dovrebbe chiedere lo ha portato al suo tirocinio e alla creazione del nuovo metodo.
“Abbiamo apprezzato la possibilità di sfruttare la portata di Google” in termini di accesso a modelli linguistici di grandi dimensioni e piattaforme hardware diverse, ha affermato Majumdar.
Ren sta ora estendendo questo lavoro ai problemi di percezione attiva per i robot: ad esempio, un robot potrebbe aver bisogno di utilizzare previsioni per determinare la posizione di un televisore, un tavolo o una sedia all’interno di una casa, quando il robot stesso si trova in una parte diversa dell’ambiente. casa. Ciò richiede un pianificatore basato su un modello che combini informazioni visive e linguistiche, sollevando una nuova serie di sfide nella stima dell’incertezza e nel determinare quando attivare l’aiuto, ha affermato Ren.
[ad_2]
Source link