[ad_1]
Questo articolo è stato originariamente pubblicato su CON Premere.
Nel 2017, i ricercatori di Google hanno introdotto un nuovo programma di apprendimento automatico chiamato “trasformatore” per l’elaborazione del linguaggio. Sebbene fossero principalmente interessati a migliorare la traduzione automatica, il nome deriva dall’obiettivo di trasformando da una lingua all’altra: non c’è voluto molto perché la comunità dell’intelligenza artificiale si rendesse conto che il trasformatore aveva un potenziale enorme e di vasta portata.
Formatosi su vaste raccolte di documenti per prevedere ciò che verrà dopo in base al contesto precedente, ha sviluppato un’abilità straordinaria per il ritmo della parola scritta. Potresti iniziare un pensiero e, come un amico che ti conosce eccezionalmente bene, il trasformatore potrebbe completare le tue frasi. Se la tua sequenza iniziasse con una domanda, il trasformatore sputerebbe una risposta. Ancora più sorprendentemente, se iniziassi a descrivere un programma, riprenderebbe da dove avevi interrotto e genererebbe quel programma.
Tuttavia, è noto da tempo che la programmazione è difficile, a causa della sua notazione arcana e dell’atteggiamento spietato verso gli errori. È ben documentato che i programmatori alle prime armi possono avere difficoltà a specificare correttamente anche un compito semplice come calcolare una media numerica, fallendo più della metà delle volte. Anche i programmatori professionisti hanno scritto codici difettosi che hanno provocato lo schianto di veicoli spaziali, automobili e persino di Internet stessa.
Pertanto, quando si è scoperto che sistemi basati su trasformatori come ChatGPT potevano trasformare descrizioni casuali leggibili dall’uomo in codice funzionante, c’erano molti motivi di eccitazione. È esaltante pensare che, con l’aiuto dell’intelligenza artificiale generativa, chiunque sappia scrivere possa anche scrivere programmi. Andrej Karpathy, uno degli artefici dell’attuale ondata di intelligenza artificiale, dichiarato, “Il nuovo linguaggio di programmazione più in voga è l’inglese”. Con gli incredibili progressi annunciati apparentemente ogni giorno, saresti perdonato se credessi che l’era dell’apprendimento della programmazione sia ormai alle nostre spalle. Ma mentre i recenti sviluppi hanno cambiato radicalmente il modo in cui principianti ed esperti potrebbero programmare, la democratizzazione della programmazione ha reso l’apprendimento della programmazione più importante che mai perché ha consentito a un gruppo molto più ampio di persone di sfruttarne i vantaggi. L’intelligenza artificiale generativa semplifica le cose, ma non le rende facili.
Ci sono tre ragioni principali per cui sono scettico sull’idea che persone senza esperienza di programmazione possano usare banalmente un trasformatore per programmare. Il primo è il problema delle allucinazioni. I Transformers sono noti per sputare parole senza senso dal suono ragionevole, soprattutto quando non sono veramente sicuri di cosa accadrà dopo. Dopotutto, sono addestrati a fare ipotesi plausibili, a non ammettere quando hanno torto. Pensa a cosa significa nel contesto della programmazione.
Supponiamo che tu voglia produrre un programma che calcoli le medie. Spieghi a parole cosa vuoi e un trasformatore scrive un programma. Eccezionale! Ma il programma è corretto? Oppure il trasformatore ha avuto un’allucinazione in un insetto? Il trasformatore può mostrarti il programma, ma se non sai già come programmare, probabilmente non ti aiuterà. Ho eseguito questo esperimento personalmente e ho visto GPT (il “trasformatore generativo pre-addestrato” di OpenAI, un derivato dell’idea del team di Google) produrre alcuni errori sorprendenti, come usare la formula sbagliata per la media o arrotondare tutti i numeri a numeri interi prima di calcolarne la media. Questi sono piccoli errori e sono facilmente risolvibili, ma richiedono la capacità di leggere il programma prodotto dal trasformatore.
Potrebbe essere possibile aggirare questo problema, in parte rendendo i trasformatori meno soggetti a errori e in parte fornendo più test e feedback in modo che sia più chiaro cosa fanno effettivamente i programmi che producono. Ma c’è un secondo problema più profondo e impegnativo. In realtà è piuttosto difficile scrivere descrizioni verbali dei compiti, anche perché le persone possano seguirle. Questo concetto dovrebbe essere ovvio a chiunque abbia provato a seguire le istruzioni per assemblare un mobile. Le persone si prendono gioco delle istruzioni di IKEA, ma potrebbero non ricordare quale fosse lo stato dell’arte prima che IKEA entrasse in scena. È stato brutto. Da bambino, negli anni ’70, compravo molti kit di modellini di dinosauri ed era un gioco da ragazzi se sarei riuscito ad assemblare un determinato Diplodocus.
Alcuni collaboratori ed io stiamo esaminando questo problema. In uno studio pilota, abbiamo reclutato coppie di persone da Internet e le abbiamo suddivise in “mittenti” e “destinatari”. Abbiamo spiegato ai mittenti una versione del problema della media. Li abbiamo testati per confermare che comprendessero la nostra descrizione. Loro fecero. Abbiamo poi chiesto loro di spiegare il compito ai destinatari con parole loro. Loro fecero. Abbiamo quindi testato i ricevitori per vedere se capivano. Ancora una volta, era più o meno una questione di sorteggio se i ricevitori potessero svolgere il compito. L’inglese può essere un linguaggio di programmazione interessante, ma è soggetto a errori quasi quanto quelli freddi!
Infine, considerare la programmazione in generale come l’atto di far eseguire a un computer i comportamenti che si desidera esegua suggerisce che, alla fine, non è possibile sostituire gli individui che decidono quali dovrebbero essere tali comportamenti. Cioè, l’intelligenza artificiale generativa potrebbe aiutare a esprimere i comportamenti desiderati in modo più diretto in una forma che i normali computer possono eseguire. Ma non può scegliere l’obiettivo per te. E quanto più ampia è la gamma di persone che possono decidere sugli obiettivi, tanto migliore e più rappresentativa diventerà l’informatica.
Nell’era dell’intelligenza artificiale generativa, tutti hanno la capacità di impegnarsi in attività simili alla programmazione, dicendo ai computer cosa fare per loro conto. Ma trasmettere i tuoi desideri in modo accurato, alle persone, ai linguaggi di programmazione tradizionali o persino ai trasformatori più nuovi, richiede formazione, impegno e pratica. L’intelligenza artificiale generativa sta aiutando a incontrare le persone, espandendo notevolmente la capacità dei computer di capirci. Ma sta ancora a noi imparare a farci capire.
Michael L. Littman è professore universitario di informatica presso la Brown University e ricopre una posizione aggiuntiva presso il Georgia Institute of Technology College of Computing. È stato selezionato dall’American Association for the Advancement of Science come Leadership Fellow for Public Engagement with Science in Artificial Intelligence. È l’autore di “Code to Joy”.
[ad_2]
Source link