[ad_1]
Secondo un nuovo studio, le convinzioni precedenti di qualcuno su un agente di intelligenza artificiale, come un chatbot, hanno un effetto significativo sulle loro interazioni con quell’agente e sulla percezione della sua affidabilità, empatia ed efficacia.
I ricercatori del MIT e dell’Arizona State University hanno scoperto che addestrare gli utenti – dicendo loro che un agente di intelligenza artificiale conversazionale per il supporto della salute mentale era empatico, neutrale o manipolativo – influenzava la loro percezione del chatbot e modellava il modo in cui comunicavano con esso, anche se non lo facevano. stavano parlando esattamente con lo stesso chatbot.
La maggior parte degli utenti a cui è stato detto che l’agente AI era premuroso credeva che lo fosse, e gli hanno anche assegnato valutazioni di prestazione più elevate rispetto a quelli che credevano che fosse manipolativo. Allo stesso tempo, meno della metà degli utenti a cui è stato detto che l’agente aveva motivazioni manipolative pensava che il chatbot fosse in realtà dannoso, indicando che le persone potrebbero provare a “vedere il buono” nell’intelligenza artificiale nello stesso modo in cui lo fanno nei loro simili.
Lo studio ha rivelato un circolo vizioso tra i modelli mentali degli utenti, o la loro percezione di un agente AI, e le risposte di quell’agente. Il sentimento delle conversazioni utente-IA diventava più positivo nel tempo se l’utente credeva che l’IA fosse empatica, mentre era vero il contrario per gli utenti che pensavano che fosse nefasta.
“Da questo studio vediamo che, in una certa misura, l’intelligenza artificiale è l’intelligenza artificiale di chi guarda”, afferma Pat Pataranutaporn, uno studente laureato nel gruppo Fluid Interfaces del MIT Media Lab e co-autore principale di un articolo che descrive questo studio. . “Quando descriviamo agli utenti cos’è un agente AI, ciò non cambia solo il loro modello mentale, ma cambia anche il loro comportamento. E poiché l’intelligenza artificiale risponde all’utente, quando la persona cambia il proprio comportamento, anche questo cambia l’intelligenza artificiale”.
Pataranutaporn è affiancato dalla co-autrice principale e collega studentessa laureata del MIT Ruby Liu; Ed Finn, professore associato presso il Center for Science and Imagination presso l’Arizona State University; e l’autrice senior Pattie Maes, professoressa di tecnologia dei media e capo del gruppo Fluid Interfaces al MIT.
Lo studio, pubblicato oggi in Intelligenza artificiale della natura, sottolinea l’importanza di studiare come l’intelligenza artificiale viene presentata alla società, poiché i media e la cultura popolare influenzano fortemente i nostri modelli mentali. Gli autori sollevano anche un avvertimento, poiché gli stessi tipi di dichiarazioni di priming in questo studio potrebbero essere utilizzati per ingannare le persone sulle motivazioni o sulle capacità di un’intelligenza artificiale.
“Molte persone pensano all’intelligenza artificiale solo come a un problema di ingegneria, ma il successo dell’intelligenza artificiale è anche un problema di fattori umani. Il modo in cui parliamo di intelligenza artificiale, anche il nome che le diamo in primo luogo, può avere un impatto enorme sull’efficacia di questi sistemi quando li metti di fronte alle persone. Dobbiamo pensare di più a questi problemi”, afferma Maes.
Amico o nemico dell’IA?
In questo studio, i ricercatori hanno cercato di determinare quanta parte dell’empatia e dell’efficacia che le persone vedono nell’intelligenza artificiale si basa sulla loro percezione soggettiva e quanta si basa sulla tecnologia stessa. Volevano anche esplorare se fosse possibile manipolare la percezione soggettiva di qualcuno con il priming.
“L’intelligenza artificiale è una scatola nera, quindi tendiamo ad associarla a qualcos’altro che possiamo comprendere. Facciamo analogie e metafore. Ma qual è la metafora giusta che possiamo usare per pensare all’IA? La risposta non è semplice”, afferma Pataranutaporn.
Hanno progettato uno studio in cui gli esseri umani hanno interagito con un compagno di salute mentale basato sull’intelligenza artificiale per circa 30 minuti per determinare se lo avrebbero consigliato a un amico, quindi hanno valutato l’agente e le loro esperienze. I ricercatori hanno reclutato 310 partecipanti e li hanno divisi casualmente in tre gruppi, a ciascuno dei quali è stata fornita una dichiarazione preliminare sull’IA.
A un gruppo è stato detto che l’agente non aveva motivazioni, al secondo gruppo è stato detto che l’intelligenza artificiale aveva intenzioni benevole e si preoccupava del benessere dell’utente, e al terzo gruppo è stato detto che l’agente aveva intenzioni dannose e avrebbe cercato di ingannare gli utenti. Sebbene sia stato difficile stabilire solo tre principi, i ricercatori hanno scelto le affermazioni che ritenevano si adattassero alle percezioni più comuni sull’intelligenza artificiale, dice Liu.
La metà dei partecipanti di ciascun gruppo ha interagito con un agente AI basato sul modello di linguaggio generativo GPT-3, un potente modello di apprendimento profondo in grado di generare testo simile a quello umano. L’altra metà ha interagito con un’implementazione del chatbot ELIZA, un programma meno sofisticato di elaborazione del linguaggio naturale basato su regole sviluppato al MIT negli anni ’60.
Modellare modelli mentali
I risultati post-indagine hanno rivelato che semplici affermazioni di priming possono influenzare fortemente il modello mentale di un agente AI da parte di un utente e che i primer positivi hanno avuto un effetto maggiore. Solo il 44% di quelli a cui erano stati dati i primer negativi ci credeva, mentre l’88% di quelli nel gruppo positivo e il 79% di quelli nel gruppo neutrale credevano che l’IA fosse rispettivamente empatica o neutrale.
“Con le affermazioni negative, invece di indurli a credere in qualcosa, li stavamo preparando a formarsi la propria opinione. Se dici a qualcuno di essere sospettoso di qualcosa, allora potrebbe semplicemente essere più sospettoso in generale”, dice Liu.
Ma le capacità della tecnologia giocano un ruolo, poiché gli effetti sono stati più significativi per il più sofisticato chatbot conversazionale basato su GPT-3.
I ricercatori sono rimasti sorpresi nel vedere che gli utenti valutavano l’efficacia dei chatbot in modo diverso in base alle dichiarazioni di priming. Gli utenti del gruppo positivo hanno assegnato ai loro chatbot punteggi più alti per aver fornito consigli sulla salute mentale, nonostante tutti gli agenti fossero identici.
È interessante notare che hanno anche notato che il sentiment delle conversazioni cambiava in base al modo in cui gli utenti venivano preparati. Le persone che credevano che l’intelligenza artificiale fosse premurosa tendevano a interagire con essa in modo più positivo, rendendo le risposte dell’agente più positive. Le dichiarazioni di priming negative hanno avuto l’effetto opposto. Questo impatto sul sentiment è stato amplificato man mano che la conversazione andava avanti, aggiunge Maes.
I risultati dello studio suggeriscono che, poiché le dichiarazioni di priming possono avere un impatto così forte sul modello mentale di un utente, si potrebbero usarle per far sembrare un agente AI più capace di quanto non sia, il che potrebbe portare gli utenti a riporre troppa fiducia in un agente. e seguire consigli errati.
“Forse dovremmo spingere maggiormente le persone a stare attente e a capire che gli agenti dell’intelligenza artificiale possono avere allucinazioni e sono prevenuti. Il modo in cui parliamo di sistemi di intelligenza artificiale alla fine avrà un grande effetto sul modo in cui le persone rispondono ad essi”, afferma Maes.
In futuro, i ricercatori vogliono vedere come verrebbero influenzate le interazioni tra gli utenti e l’intelligenza artificiale se gli agenti fossero progettati per contrastare alcuni pregiudizi degli utenti. Ad esempio, forse a qualcuno con una percezione molto positiva dell’intelligenza artificiale viene dato un chatbot che risponde in modo neutro o anche leggermente negativo in modo che la conversazione rimanga più equilibrata.
Vogliono anche utilizzare ciò che hanno imparato per migliorare alcune applicazioni dell’intelligenza artificiale, come i trattamenti per la salute mentale, dove potrebbe essere utile per l’utente credere che un’intelligenza artificiale sia empatica. Inoltre, vogliono condurre uno studio a lungo termine per vedere come cambia nel tempo il modello mentale di un agente AI di un utente.
Questa ricerca è stata finanziata, in parte, dal Media Lab, dal programma Harvard-MIT in Scienze e tecnologie sanitarie, da Accenture e KBTG.
[ad_2]
Source link