[ad_1]
Fornendo una risorsa per i politici statunitensi, un comitato di leader e studiosi del MIT ha pubblicato una serie di documenti politici che delineano un quadro per la governance dell’intelligenza artificiale. L’approccio prevede l’estensione degli attuali approcci normativi e di responsabilità nel perseguimento di un modo pratico per supervisionare l’IA.
Lo scopo dei documenti è quello di contribuire a rafforzare la leadership degli Stati Uniti nel settore dell’intelligenza artificiale in generale, limitando al contempo i danni che potrebbero derivare dalle nuove tecnologie e incoraggiando l’esplorazione di come l’implementazione dell’intelligenza artificiale potrebbe essere vantaggiosa per la società.
Il principale documento politico, “Un quadro per la governance dell’intelligenza artificiale negli Stati Uniti: creazione di un settore dell’intelligenza artificiale sicuro e prospero”, suggerisce che gli strumenti di intelligenza artificiale possono spesso essere regolamentati da enti governativi statunitensi esistenti che già supervisionano i settori pertinenti. Le raccomandazioni sottolineano inoltre l’importanza di identificare lo scopo degli strumenti di intelligenza artificiale, che consentirebbe alle normative di adattarsi a tali applicazioni.
“Come paese stiamo già regolamentando molte cose relativamente ad alto rischio e fornendo governance lì”, afferma Dan Huttenlocher, preside del MIT Schwarzman College of Computing, che ha contribuito a guidare il progetto, che è nato dal lavoro di un annuncio pubblicitario comitato ad hoc del MIT. “Non stiamo dicendo che sia sufficiente, ma cominciamo con le cose in cui l’attività umana è già regolamentata e che la società, nel tempo, ha ritenuto ad alto rischio. Guardare l’intelligenza artificiale in questo modo è l’approccio pratico”.
“Il quadro che abbiamo messo insieme fornisce un modo concreto di pensare a queste cose”, afferma Asu Ozdaglar, vice preside degli accademici presso lo Schwarzman College of Computing del MIT e capo del Dipartimento di ingegneria elettrica e informatica (EECS) del MIT, che ha anche ha contribuito a supervisionare lo sforzo.
Il progetto comprende numerosi documenti politici aggiuntivi e si inserisce nel contesto di un crescente interesse per l’intelligenza artificiale rispetto allo scorso anno, nonché di considerevoli nuovi investimenti industriali nel settore. L’Unione Europea sta attualmente cercando di finalizzare le normative sull’IA utilizzando il proprio approccio, che assegna ampi livelli di rischio a determinati tipi di applicazioni. In questo processo, le tecnologie di intelligenza artificiale di uso generale, come i modelli linguistici, sono diventate un nuovo punto critico. Qualsiasi sforzo di governance deve affrontare le sfide legate alla regolamentazione degli strumenti di intelligenza artificiale sia generali che specifici, nonché una serie di potenziali problemi tra cui disinformazione, deepfake, sorveglianza e altro ancora.
“Abbiamo ritenuto che fosse importante che il MIT fosse coinvolto in questo progetto perché abbiamo esperienza”, afferma David Goldston, direttore dell’ufficio del MIT a Washington. “Il MIT è uno dei leader nella ricerca sull’intelligenza artificiale, uno dei luoghi in cui l’intelligenza artificiale ha avuto inizio. Poiché siamo tra coloro che creano tecnologie che sollevano questi importanti problemi, sentiamo l’obbligo di contribuire ad affrontarli”.
Scopo, intento e guardrail
Il policy brief principale delinea come la politica attuale potrebbe essere estesa per coprire l’IA, utilizzando, ove possibile, le agenzie di regolamentazione esistenti e i quadri di responsabilità legale. Gli Stati Uniti, ad esempio, hanno leggi severe sulle licenze nel campo della medicina. È già illegale impersonare un medico; se l’intelligenza artificiale dovesse essere utilizzata per prescrivere medicinali o fare una diagnosi con il pretesto di essere un medico, dovrebbe essere chiaro che ciò violerebbe la legge proprio come violerebbe la cattiva condotta strettamente umana. Come sottolinea il policy brief, questo non è solo un approccio teorico; i veicoli autonomi, che utilizzano sistemi di intelligenza artificiale, sono soggetti a regolamentazione allo stesso modo degli altri veicoli.
Un passo importante nella realizzazione di questi regimi normativi e di responsabilità, sottolinea il documento politico, è che i fornitori di IA definiscano in anticipo lo scopo e l’intento delle applicazioni IA. L’esame delle nuove tecnologie su questa base renderebbe quindi chiaro quali serie di normative e regolatori esistenti sono pertinenti a un determinato strumento di intelligenza artificiale.
Tuttavia, è anche vero che i sistemi di intelligenza artificiale possono esistere a più livelli, in quello che i tecnologi chiamano uno “stack” di sistemi che insieme forniscono un particolare servizio. Ad esempio, un modello linguistico di uso generale può essere alla base di un nuovo strumento specifico. In generale, si legge in breve, il fornitore di un determinato servizio potrebbe essere il principale responsabile dei problemi relativi allo stesso. Tuttavia, “quando un sistema componente di uno stack non funziona come promesso, può essere ragionevole che il fornitore di quel componente condivida la responsabilità”, come afferma il primo brief. I costruttori di strumenti di uso generale dovrebbero quindi essere responsabili anche nel caso in cui le loro tecnologie fossero implicate in problemi specifici.
“Ciò rende la governance più difficile da pensare, ma i modelli di base non dovrebbero essere completamente trascurati”, afferma Ozdaglar. “In molti casi, i modelli provengono da fornitori e sopra si sviluppa un’applicazione, ma fanno parte dello stack. Qual è la responsabilità lì? Se i sistemi non sono in cima alla lista, non significa che non debbano essere presi in considerazione”.
Il fatto che i fornitori di intelligenza artificiale definiscano chiaramente lo scopo e l’intento degli strumenti di intelligenza artificiale e richieda misure di protezione per prevenirne l’uso improprio potrebbe anche aiutare a determinare la misura in cui le aziende o gli utenti finali sono responsabili di problemi specifici. Il policy brief afferma che un buon regime normativo dovrebbe essere in grado di identificare quella che chiama una situazione di “forchetta nel tostapane”, quando un utente finale potrebbe ragionevolmente essere ritenuto responsabile della conoscenza dei problemi che l’uso improprio di uno strumento potrebbe produrre.
Reattivo e flessibile
Sebbene il quadro politico coinvolga le agenzie esistenti, prevede anche l’aggiunta di alcune nuove capacità di supervisione. Per prima cosa, il policy brief richiede progressi nella verifica dei nuovi strumenti di intelligenza artificiale, che potrebbero procedere lungo una varietà di percorsi, siano essi avviati dal governo, guidati dagli utenti o derivanti da procedimenti di responsabilità legale. Sarebbero necessari standard pubblici per la revisione contabile, osserva il documento, stabiliti da un ente senza scopo di lucro sulla falsariga del Public Company Accounting Oversight Board (PCAOB), o attraverso un ente federale simile al National Institute of Standards and Technology (NIST). ).
E il documento richiede di prendere in considerazione la creazione di una nuova agenzia di “organizzazione di autoregolamentazione” (SRO) approvata dal governo, lungo le linee funzionali della FINRA, l’autorità di regolamentazione del settore finanziario creata dal governo. Un’agenzia di questo tipo, focalizzata sull’intelligenza artificiale, potrebbe accumulare conoscenze specifiche del settore che le permetterebbero di essere reattiva e flessibile quando si impegna con un settore dell’intelligenza artificiale in rapida evoluzione.
“Queste cose sono molto complesse, le interazioni tra uomo e macchina, quindi è necessaria reattività”, afferma Huttenlocher, che è anche professore di informatica, intelligenza artificiale e processo decisionale presso EECS presso Henry Ellis Warren. “Pensiamo che se il governo prende in considerazione nuove agenzie, dovrebbe davvero considerare questa struttura SRO. Non consegneranno le chiavi del negozio, poiché è ancora qualcosa che è istituito e supervisionato dal governo.
Come chiariscono i documenti politici, ci sono diverse ulteriori questioni legali particolari che dovranno essere affrontate nel campo dell’intelligenza artificiale. Il diritto d’autore e altre questioni di proprietà intellettuale legate all’intelligenza artificiale in genere sono già oggetto di contenzioso.
E poi ci sono quelle che Ozdaglar chiama questioni legali “umano plus”, in cui l’intelligenza artificiale ha capacità che vanno oltre ciò che gli esseri umani sono in grado di fare. Questi includono cose come strumenti di sorveglianza di massa e il comitato riconosce che potrebbero richiedere una considerazione legale speciale.
“L’intelligenza artificiale consente cose che gli esseri umani non possono fare, come la sorveglianza o le notizie false su larga scala, che potrebbero richiedere una considerazione speciale oltre a ciò che è applicabile agli esseri umani”, afferma Ozdaglar. “Ma il nostro punto di partenza consente comunque di pensare ai rischi e quindi a come tale rischio viene amplificato a causa degli strumenti”.
L’insieme dei documenti politici affronta in dettaglio una serie di questioni normative. Ad esempio, un articolo, “Labeling AI-Generated Content: Promises, Perils, and Future Directions”, di Chloe Wittenberg, Ziv Epstein, Adam J. Berinsky e David G. Rand, si basa su precedenti esperimenti di ricerca sui media e sul coinvolgimento del pubblico valutare approcci specifici per denotare il materiale prodotto dall’intelligenza artificiale. Un altro articolo, “Large Language Models”, di Yoon Kim, Jacob Andreas e Dylan Hadfield-Menell, esamina le innovazioni generali dell’IA basate sul linguaggio.
“Parte di farlo correttamente”
Come chiariscono i policy brief, un altro elemento di impegno efficace del governo sull’argomento implica l’incoraggiamento di ulteriori ricerche su come rendere l’IA vantaggiosa per la società in generale.
Ad esempio, il documento politico “Can We Have a Pro-Worker AI?” Scegliere un percorso di macchine al servizio delle menti”, di Daron Acemoglu, David Autor e Simon Johnson, esplora la possibilità che l’intelligenza artificiale possa aumentare e aiutare i lavoratori, anziché essere utilizzata per sostituirli: uno scenario che fornirebbe migliori opportunità a lungo termine. crescita economica distribuita in tutta la società.
Questa gamma di analisi, da una varietà di prospettive disciplinari, è qualcosa che il comitato ad hoc ha voluto portare avanti fin dall’inizio sulla questione della regolamentazione dell’IA, ampliando la prospettiva che può essere applicata al processo decisionale, piuttosto che restringerla a pochi domande tecniche.
“Riteniamo che le istituzioni accademiche abbiano un ruolo importante da svolgere sia in termini di competenze sulla tecnologia, sia in termini di interazione tra tecnologia e società”, afferma Huttenlocher. “Riflette ciò che sarà importante per governare bene questo, i politici che pensano insieme ai sistemi sociali e alla tecnologia. Questo è ciò di cui la nazione avrà bisogno”.
In effetti, osserva Goldston, il comitato sta tentando di colmare il divario tra coloro che sono entusiasti e coloro che sono preoccupati per l’intelligenza artificiale, lavorando per sostenere che una regolamentazione adeguata accompagni i progressi della tecnologia.
Come dice Goldston, il comitato che rilascia questi documenti “non è un gruppo che è antitecnologico o che cerca di soffocare l’intelligenza artificiale. Ma è comunque un gruppo che sostiene che l’intelligenza artificiale ha bisogno di governance e supervisione. Fa parte del farlo correttamente. Queste sono persone che conoscono questa tecnologia e dicono che l’intelligenza artificiale ha bisogno di supervisione”.
Huttenlocher aggiunge: “Lavorare al servizio della nazione e del mondo è qualcosa che il MIT prende sul serio da molti, molti decenni. Questo è un momento molto importante per questo”.
Oltre a Huttenlocher, Ozdaglar e Goldston, i membri del comitato ad hoc sono: Daron Acemoglu, professore dell’istituto e professore di economia Elizabeth e James Killian alla Scuola di arti, scienze umane e sociali; Jacob Andreas, professore associato in EECS; David Autor, professore di economia alla Ford; Adam Berinsky, professore di scienze politiche alla Mitsui; Cynthia Breazeal, preside per l’apprendimento digitale e professoressa di arti e scienze dei media; Dylan Hadfield-Menell, professore assistente per lo sviluppo della carriera di Tennenbaum in Intelligenza Artificiale e Processo Decisionale; Simon Johnson, Kurtz Professor of Entrepreneurship presso la Sloan School of Management del MIT; Yoon Kim, professore assistente per lo sviluppo della carriera NBX in EECS; Sendhil Mullainathan, professore di scienze computazionali e comportamentali della Roman Family University presso la Booth School of Business dell’Università di Chicago; Manish Raghavan, assistente professore di tecnologia dell’informazione al MIT Sloan; David Rand, professore Erwin H. Schell al MIT Sloan e professore di scienze del cervello e cognitive; Antonio Torralba, Professore di Ingegneria Elettrica e Informatica della Delta Electronics; e Luis Videgaray, docente senior al MIT Sloan.
[ad_2]
Source link