[ad_1]
Qual è la probabilità di morire in un incidente aereo? Secondo un rapporto del 2022 pubblicato dall’International Air Transport Association, il rischio di mortalità nel settore è 0,11. In altre parole, in media, una persona dovrebbe prendere un volo ogni giorno per 25.214 anni per avere una probabilità del 100% di subire un incidente mortale. A lungo pubblicizzato come uno dei modi di trasporto più sicuri, l’industria aeronautica altamente regolamentata ha fatto sì che gli scienziati del MIT pensassero che potrebbe contenere la chiave per regolamentare l’intelligenza artificiale nell’assistenza sanitaria.
Marzyeh Ghassemi, professoressa assistente presso il Dipartimento di ingegneria elettrica e informatica (EECS) e Istituto di scienze dell’ingegneria medica del MIT, e Julie Shah, professoressa di aeronautica e astronautica HN Slater presso il MIT, condividono l’interesse per le sfide della trasparenza in Modelli di intelligenza artificiale. Dopo aver chiacchierato all’inizio del 2023, si sono resi conto che l’aviazione potrebbe servire da modello per garantire che i pazienti emarginati non vengano danneggiati da modelli di intelligenza artificiale distorti.
Ghassemi, che è anche ricercatore principale presso la Clinica Abdul Latif Jameel del MIT per l’apprendimento automatico in salute (Jameel Clinic) e il Laboratorio di informatica e intelligenza artificiale (CSAIL), e Shah hanno quindi reclutato un team interdisciplinare di ricercatori, avvocati, e analisti politici del MIT, della Stanford University, della Federation of American Scientists, della Emory University, dell’Università di Adelaide, di Microsoft e dell’Università della California a San Francisco per dare il via a un progetto di ricerca, i cui risultati sono stati recentemente accettati dall’Equity and Access in Conferenza su algoritmi, meccanismi e ottimizzazione.
“Penso che molti dei nostri coautori siano entusiasti del potenziale dell’intelligenza artificiale per impatti sociali positivi, soprattutto con i recenti progressi”, afferma la prima autrice Elizabeth Bondi-Kelly, ora assistente professore di EECS presso l’Università del Michigan e che era postdoc nel laboratorio di Ghassemi quando il progetto è iniziato. “Ma siamo anche cauti e speriamo di sviluppare strutture per gestire i potenziali rischi man mano che iniziano a verificarsi le implementazioni, quindi stavamo cercando ispirazione per tali strutture.”
L’intelligenza artificiale nella sanità oggi somiglia a dove era l’industria aeronautica un secolo fa, afferma la coautrice Lindsay Sanneman, dottoranda presso il Dipartimento di aeronautica e astronautica del MIT. Sebbene gli anni ’20 fossero conosciuti come “l’età d’oro dell’aviazione”, secondo il Mackinac Center for Public Policy gli incidenti mortali furono “inquietantemente numerosi”.
Jeff Marcus, l’attuale capo della divisione Raccomandazioni di sicurezza del National Transportation Safety Board (NTSB), ha recentemente pubblicato un post sul blog del National Aviation Month sottolineando che, sebbene negli anni ’20 si siano verificati numerosi incidenti mortali, il 1929 rimane “l’anno peggiore mai registrato” per gli incidenti aerei più mortali della storia, con 51 incidenti segnalati. Secondo gli standard odierni sarebbero 7.000 incidenti all’anno, ovvero 20 al giorno. In risposta all’elevato numero di incidenti mortali negli anni ’20, il presidente Calvin Coolidge approvò nel 1926 una legislazione fondamentale nota come Air Commerce Act, che avrebbe regolato i viaggi aerei tramite il Dipartimento del Commercio.
Ma i paralleli non si fermano qui: il successivo percorso dell’aviazione verso l’automazione è simile a quello dell’intelligenza artificiale. La spiegabilità dell’intelligenza artificiale è stata un argomento controverso dato il famigerato problema della “scatola nera” dell’intelligenza artificiale, che ha portato i ricercatori dell’intelligenza artificiale a discutere su quanto un modello di intelligenza artificiale debba “spiegare” il suo risultato all’utente prima di indurlo potenzialmente a seguire ciecamente la guida del modello.
“Negli anni ’70 c’era una crescente quantità di automazione… sistemi di pilota automatico che si occupano di avvisare i piloti dei rischi”, aggiunge Sanneman. “Ci sono state alcune difficoltà crescenti quando l’automazione è entrata nello spazio aeronautico in termini di interazione umana con il sistema autonomo: potenziale confusione che sorge quando il pilota non ha una profonda consapevolezza di ciò che sta facendo l’automazione.”
Oggi, diventare capitano di una compagnia aerea commerciale richiede 1.500 ore di volo registrate insieme a corsi di formazione strumentale. Secondo il documento dei ricercatori, questo processo rigoroso e completo richiede circa 15 anni, compresi una laurea e il co-pilotaggio. I ricercatori ritengono che il successo di un’ampia formazione pilota potrebbe essere un potenziale modello per formare i medici sull’utilizzo degli strumenti di intelligenza artificiale in contesti clinici.
Il documento propone inoltre di incoraggiare le segnalazioni di strumenti di intelligenza artificiale sanitaria non sicuri come fa la Federal Aviation Agency (FAA) per i piloti – tramite “immunità limitata”, che consente ai piloti di mantenere la licenza dopo aver fatto qualcosa di non sicuro, purché non intenzionale.
Secondo un rapporto del 2023 pubblicato dall’Organizzazione Mondiale della Sanità, in media, un paziente su 10 viene danneggiato da un evento avverso (ovvero “errori medici”) mentre riceve cure ospedaliere nei paesi ad alto reddito.
Tuttavia, nell’attuale pratica sanitaria, i medici e gli operatori sanitari spesso temono di denunciare gli errori medici, non solo a causa di preoccupazioni legate al senso di colpa e all’autocritica, ma anche a causa delle conseguenze negative che enfatizzano la punizione degli individui, come la revoca della licenza medica. , piuttosto che riformare il sistema che rendeva più probabile il verificarsi di errori medici.
“Nella sanità, quando il martello manca, i pazienti soffrono”, ha scritto Ghassemi in un recente commento pubblicato su Natura Comportamento Umano. “Questa realtà presenta un rischio etico inaccettabile per le comunità di IA medica che sono già alle prese con problemi di assistenza complessi, carenza di personale e sistemi sovraccarichi”.
Grace Wickerson, coautrice e responsabile delle politiche sull’equità sanitaria presso la Federation of American Scientists, vede questo nuovo articolo come un’aggiunta fondamentale a un quadro di governance più ampio che non è ancora in atto. “Penso che possiamo fare molto con l’autorità governativa esistente”, dicono. “Ci sono diversi modi in cui Medicare e Medicaid possono pagare per l’intelligenza artificiale sanitaria che garantisce che l’equità sia considerata nelle loro tecnologie di acquisto o rimborso, il NIH [National Institute of Health] può finanziare ulteriori ricerche per rendere gli algoritmi più equi e creare standard per questi algoritmi che potrebbero poi essere utilizzati dalla FDA [Food and Drug Administration] mentre stanno cercando di capire cosa significhi equità sanitaria e come siano regolati all’interno delle loro attuali autorità”.
Tra gli altri, il documento elenca sei principali agenzie governative esistenti che potrebbero aiutare a regolamentare l’IA sanitaria, tra cui: la FDA, la Federal Trade Commission (FTC), la recente Agenzia per i progetti di ricerca avanzata per la salute, l’Agenzia per la ricerca e la qualità sanitaria, l’Agenzia per i progetti di ricerca avanzata per la salute, Centri per Medicare e Medicaid, Dipartimento della salute e dei servizi umani e Ufficio per i diritti civili (OCR).
Ma Wickerson sostiene che occorre fare di più. La parte più impegnativa nello scrivere l’articolo, secondo Wickerson, è stata “immaginare ciò che non abbiamo ancora”.
Piuttosto che fare affidamento esclusivamente sugli organismi di regolamentazione esistenti, il documento propone anche la creazione di un’autorità di audit indipendente, simile all’NTSB, che consenta un audit di sicurezza per il malfunzionamento dei sistemi di IA sanitaria.
“Penso che questa sia la domanda attuale per la governance tecnologica: non abbiamo avuto un ente che valutasse l’impatto della tecnologia dagli anni ’90”, aggiunge Wickerson. “C’era un Office of Technology Assessment… prima ancora che iniziasse l’era digitale, questo ufficio esisteva e poi il governo federale gli ha permesso di tramontare.”
Zach Harned, coautore e neolaureato alla Stanford Law School, ritiene che una delle principali sfide nelle tecnologie emergenti sia riuscire a far sì che lo sviluppo tecnologico superi la regolamentazione. “Tuttavia, l’importanza della tecnologia dell’intelligenza artificiale e i potenziali benefici e rischi che comporta, soprattutto in ambito sanitario, hanno portato a una serie di sforzi normativi”, afferma Harned. “La FDA è chiaramente l’attore principale in questo caso e ha costantemente pubblicato linee guida e libri bianchi nel tentativo di illustrare la loro posizione in evoluzione sull’intelligenza artificiale; tuttavia, la privacy sarà un altro aspetto importante da monitorare, con l’applicazione dell’OCR all’HIPAA [Health Insurance Portability and Accountability Act] lato e la FTC che applicano le violazioni della privacy per le entità non coperte dall’HIPAA. ”
Harned osserva che il settore si sta evolvendo rapidamente, compresi sviluppi come il recente ordine esecutivo 14110 della Casa Bianca sullo sviluppo sicuro e affidabile dell’intelligenza artificiale, nonché l’attività normativa nell’Unione europea (UE), compreso il capstone EU AI Act che è prossimo alla finalizzazione. “È certamente un momento entusiasmante vedere questa importante tecnologia sviluppata e regolamentata per garantire la sicurezza senza soffocare l’innovazione”, afferma.
Oltre alle attività normative, il documento suggerisce altre opportunità per creare incentivi per strumenti di intelligenza artificiale sanitaria più sicuri, come un programma di pagamento in base alle prestazioni, in cui le compagnie di assicurazione premiano gli ospedali per le buone prestazioni (sebbene i ricercatori riconoscano che questo approccio richiederebbe un’ulteriore supervisione per essere equo).
Quindi, quanto tempo pensano i ricercatori che occorrerebbe per creare un sistema di regolamentazione funzionante per l’IA sanitaria? Secondo il documento, “il sistema NTSB e FAA, in cui le indagini e l’applicazione della legge sono affidate a due organismi diversi, è stato creato dal Congresso nel corso di decenni”.
Bondi-Kelly spera che il documento sia un pezzo del puzzle della regolamentazione dell’IA. Nella sua mente, “lo scenario da sogno sarebbe che tutti noi leggessimo il documento e fossimo ispirati ad applicare alcune delle lezioni utili dell’aviazione per aiutare l’IA a prevenire alcuni dei potenziali danni dell’IA durante il dispiegamento”.
Oltre a Ghassemi, Shah, Bondi-Kelly e Sanneman, i coautori del lavoro del MIT includono il ricercatore senior Leo Anthony Celi e gli ex postdoc Thomas Hartvigsen e Swami Sankaranarayanan. Il finanziamento per il lavoro è arrivato, in parte, da una borsa di studio del MIT CSAIL METEOR, da Quanta Computing, dalla Fondazione Volkswagen, dal National Institutes of Health, dalla Herman LF von Helmholtz Career Development Professorship e da un premio CIFAR Azrieli Global Scholar.
[ad_2]
Source link