[ad_1]
L’intelligenza artificiale (AI) è apparentemente ovunque. Poiché i modelli di intelligenza artificiale come ChatGPT stanno vivendo un aumento vertiginoso della popolarità, le chiamate di critici e regolatori hanno fatto circolare le onde radio per fare qualcosa per le potenziali minacce poste dall’IA. Comprensibilmente, questo ha creato un dibattito sul fatto che i meriti dell’IA superino i suoi rischi.
Negli ultimi mesi, la Federal Trade Commission statunitense ha rilasciato diverse dichiarazioni sui programmi di intelligenza artificiale. Questi sono culminati in una dichiarazione rilasciata nell’aprile 2023 in collaborazione con la Divisione per i diritti civili del Dipartimento di giustizia degli Stati Uniti, l’Ufficio per la protezione finanziaria dei consumatori e la Commissione per le pari opportunità di lavoro degli Stati Uniti per sostenere “l’innovazione responsabile nei sistemi automatizzati”.
Figura 1 È giunto il momento di soppesare il lato etico della tecnologia AI. Fonte: White Knight Labs
Perché FTC sta iniziando a esplorare AI
L’esperto di sicurezza informatica Greg Hatcher, co-fondatore di White Knight Labs, afferma che ci sono tre aree principali di cui la FTC è preoccupata: imprecisione, parzialità e discriminazione. Aggiunge che hanno buone ragioni per essere preoccupati. “Il tempo ha dimostrato che i modelli possono essere addestrati accidentalmente a discriminare in base all’etnia e la stragrande maggioranza degli sviluppatori di intelligenza artificiale sono uomini bianchi, il che porta a prospettive omogenee”, spiega.
Tuttavia, secondo il guru del cloud computing Michael Gibbs, fondatore e CEO di Go Cloud Careers, questo pregiudizio non è inerente ai sistemi di intelligenza artificiale, ma un risultato diretto dei pregiudizi instillati in essi dai loro creatori. “L’intelligenza artificiale non è intrinsecamente prevenuta: l’IA può diventare prevenuta in base al modo in cui viene addestrata”, spiega Gibbs. “La chiave è utilizzare informazioni imparziali durante lo sviluppo di sistemi di intelligenza artificiale personalizzati. Le aziende possono facilmente evitare pregiudizi con l’IA addestrando i propri modelli con informazioni imparziali”.
L’executive coach e consulente aziendale Banu Kellner ha aiutato numerose organizzazioni a integrare responsabilmente le soluzioni AI nelle loro operazioni. Indica la frenesia intorno all’IA come una delle ragioni principali dietro molte di queste carenze.
“Il ritmo folle della concorrenza può significare che l’etica viene messa in ombra dalla fretta di innovare”, spiega Kellner. “Con tutta l’atmosfera della ‘corsa all’oro’, la premura a volte perde velocità. La supervisione aiuta a frenare, quindi non finiamo in una corsa verso il basso.
Implementazione responsabile di AI
Kellner afferma che la più grande sfida che i leader aziendali devono affrontare quando adottano la tecnologia IA è trovare l’equilibrio tra la loro visione di leader e la maggiore efficienza che l’IA può offrire alle loro operazioni. “La vera leadership consiste nel creare una visione e coinvolgere altre persone verso quella visione”, afferma. “Come esseri umani, dobbiamo assumere il ruolo degli architetti nel dare forma alla visione e ai valori per il nostro futuro emergente. In tal modo, l’intelligenza artificiale e altre tecnologie possono fungere da strumenti inestimabili che consentono all’umanità di raggiungere nuove vette, piuttosto che ridurci a semplici giocattoli di un’IA in rapida evoluzione.
In qualità di consulente leader per la sicurezza informatica, Hatcher si trova maggiormente interessato all’influenza che l’IA avrà sulla privacy dei dati. Dopotutto, i sostenitori dell’intelligenza artificiale hanno salutato la capacità dell’IA di elaborare i dati a un livello una volta ritenuto impossibile. Inoltre, il processo di addestramento per migliorare le prestazioni di questi modelli dipende anche dall’immissione di grandi quantità di dati. Hatcher spiega che questo livello di elaborazione dei dati potrebbe portare a ciò che è noto come “schemi oscuri” o interfacce utente ingannevoli e fuorvianti.
figura 2 L’intelligenza artificiale può potenzialmente abilitare modelli oscuri e interfacce utente fuorvianti. Fonte: White Knight Labs
“Il miglioramento dell’accuratezza e delle prestazioni degli strumenti di intelligenza artificiale può portare a forme di sorveglianza più invasive”, spiega. “Hai presente quelle pubblicità indesiderate che compaiono nel tuo browser dopo aver acquistato una nuova bici unicorno rosa per tuo figlio la scorsa settimana? L’intelligenza artificiale faciliterà tali transazioni e le renderà più agevoli e meno evidenti. Questo si sta spostando nel territorio del “modello oscuro”, il comportamento esatto regolato dalla FTC.
Kellner avverte anche delle conseguenze indesiderate che l’IA potrebbe avere se le nostre organizzazioni e i nostri processi diventassero così dipendenti dalla tecnologia da iniziare a influenzare il nostro processo decisionale. “Sia gli individui che le organizzazioni potrebbero diventare sempre più dipendenti dall’IA per la gestione di attività complesse, il che potrebbe comportare una diminuzione delle capacità, delle competenze e un’accettazione passiva delle raccomandazioni generate dall’IA”, afferma. “Questa crescente dipendenza ha il potenziale per coltivare una cultura dell’autocompiacimento, in cui gli utenti trascurano di esaminare la validità o le implicazioni etiche delle decisioni guidate dall’intelligenza artificiale, diminuendo così l’importanza dell’intuizione umana, dell’empatia e del giudizio morale”.
Risolvere le sfide poste da AI
Per quanto riguarda la soluzione a queste conseguenze dell’implementazione dell’IA, Hatcher suggerisce che ci sono diverse misure che la FTC potrebbe adottare per imporre l’uso responsabile della tecnologia.
“La FTC deve essere proattiva e appoggiarsi all’influenza dell’IA sulla privacy dei dati, creando normative più severe sulla protezione dei dati per la raccolta, l’archiviazione e l’utilizzo dei dati personali quando si utilizza l’IA nelle soluzioni di sicurezza informatica”, afferma Hatcher. “La FTC può aspettarsi che le aziende implementino misure avanzate di sicurezza dei dati, che potrebbero includere crittografia, autenticazione a più fattori, protocolli di condivisione sicura dei dati e robusti controlli di accesso per proteggere le informazioni sensibili”.
Oltre a ciò, la FTC potrebbe richiedere agli sviluppatori di programmi di intelligenza artificiale e alle aziende che li implementano di essere più proattivi riguardo alla sicurezza dei dati. “La FTC dovrebbe anche incoraggiare gli sviluppatori di intelligenza artificiale a dare priorità alla trasparenza e alla spiegabilità negli algoritmi di intelligenza artificiale utilizzati per scopi di sicurezza informatica”, aggiunge Hatcher. “Infine, la FTC può richiedere alle aziende di condurre audit e valutazioni di terze parti dei loro sistemi di sicurezza informatica basati sull’intelligenza artificiale per verificare la conformità con gli standard di privacy e sicurezza dei dati. Questi audit possono aiutare a identificare le vulnerabilità e garantire che vengano seguite le migliori pratiche”.
Per Kellner, la soluzione risiede più nella sinergia che deve essere trovata tra le capacità dei dipendenti umani e i loro strumenti di intelligenza artificiale. “Se pensiamo solo in termini di sostituzione degli esseri umani con l’intelligenza artificiale perché è più facile, più economico, più veloce, potremmo finire per spararci sui piedi”, avverte. “La mia opinione è che le organizzazioni e gli individui debbano chiarire gli elementi umani essenziali che vogliono preservare, quindi capire come l’IA potrebbe migliorarli in modo ponderato, non eliminarli. L’obiettivo è completarsi a vicenda: fare in modo che l’IA amplifichi i nostri punti di forza mentre manteniamo compiti che richiedono un tocco umano”.
Figura 3 È necessaria una maggiore sinergia tra le capacità dei dipendenti umani e i loro strumenti di intelligenza artificiale. Fonte: White Knight Labs
Un’applicazione dell’IA in cui si può trovare un perfetto esempio di questo equilibrio è nella finanza personale. L’app finanziaria Eyeballs Financial utilizza l’intelligenza artificiale nei suoi servizi di consulenza finanziaria. Tuttavia, il fondatore e CEO dell’app Mitchell Morrison sottolinea che l’IA non offre consulenza finanziaria in sé. Invece, l’intelligenza artificiale viene utilizzata come supplemento a un consulente finanziario nella vita reale.
“Se un cliente pone una domanda del tipo ‘Devo vendere le mie azioni Disney?’, la risposta dell’app sarà: ‘Eyeballs non fornisce consulenza finanziaria’ e il messaggio verrà inoltrato al suo consulente”, spiega Morrison. “L’app Eyeballs Financial non fornisce né suggerisce alcuna forma di consulenza finanziaria. Al contrario, offre ai clienti una panoramica completa della loro performance di investimento e risponde prontamente alle domande basate sulla loro ultima dichiarazione del cliente. L’app è ad attivazione vocale e disponibile 24 ore su 24, 7 giorni su 7 in tempo reale, garantendo ai clienti l’accesso alle informazioni finanziarie sempre e ovunque”.
Il caso d’uso di Eyeballs è un perfetto esempio di come sia necessario il coinvolgimento umano per controllare la potenza dell’IA. I leader aziendali devono ricordare che le tecnologie AI sono ancora agli inizi. Poiché questi modelli sono ancora in fase di sviluppo e apprendimento, è essenziale ricordare che sono imperfetti e destinati a commettere errori. Pertanto, gli esseri umani devono rimanere coinvolti per evitare che eventuali errori abbiano conseguenze catastrofiche.
Sebbene non possiamo ignorare l’enorme potenziale offerto dai modelli di intelligenza artificiale per rendere il lavoro più efficiente praticamente in ogni settore, i leader aziendali devono essere responsabili della sua implementazione. Le conseguenze dell’implementazione irresponsabile dell’IA potrebbero essere più dannose dei benefici che porterebbe.
Il dibattito sull’intelligenza artificiale è riassunto al meglio in una domanda retorica posta da Kellner: “Stiamo cercando di potenziare noi stessi o creare un dio che ci governi?” Finché l’intelligenza artificiale viene implementata con pratiche responsabili, le aziende possono rimanere saldamente nella prima categoria e ridurre al minimo il rischio di cadere vittime della seconda.
Giovanni Stigerwalt è co-fondatore di Laboratori del Cavaliere Bianco.
Contenuto relativo
[ad_2]
Source link