[ad_1]
Gli ultimi esempi di video con intelligenza artificiale generativa che stupiscono le persone con la loro precisione, sottolineano anche la potenziale minaccia che dobbiamo affrontare oggi rappresentata dai contenuti artificiali, che potrebbero presto essere utilizzati per rappresentare scene irreali ma convincenti che potrebbero influenzare le opinioni delle persone e le loro conseguenti risposte. .
Come, ad esempio, come votano.
Con questo in mente, alla fine della scorsa settimana, alla Conferenza sulla sicurezza di Monaco del 2024, i rappresentanti di quasi tutte le principali aziende tecnologiche hanno concordato un nuovo patto per attuare “precauzioni ragionevoli” per impedire che gli strumenti di intelligenza artificiale vengano utilizzati per interrompere le elezioni democratiche.
Secondo il “Accordo tecnologico per combattere l’uso ingannevole dell’intelligenza artificiale nelle elezioni del 2024”:
“Il 2024 porterà più elezioni per un numero di persone superiore a qualsiasi altro anno nella storia, con più di 40 paesi e più di quattro miliardi di persone che sceglieranno i propri leader e rappresentanti attraverso il diritto di voto. Allo stesso tempo, il rapido sviluppo dell’intelligenza artificiale, o AI, sta creando nuove opportunità ma anche sfide per il processo democratico. Tutta la società dovrà sfruttare le opportunità offerte dall’intelligenza artificiale e compiere insieme nuovi passi per proteggere le elezioni e il processo elettorale durante questo anno eccezionale”.
I dirigenti di Google, Meta, Microsoft, OpenAI, X e TikTok sono tra coloro che hanno accettato il nuovo accordo, che idealmente vedrà una cooperazione e un coordinamento più ampi per aiutare ad affrontare i falsi generati dall’intelligenza artificiale prima che possano avere un impatto.
L’accordo definisce sette elementi chiave su cui tutti i firmatari hanno concordato, in linea di principio, come misure chiave:

Il vantaggio principale dell’iniziativa è l’impegno di ciascuna azienda a lavorare insieme per condividere le migliori pratiche ed “esplorare nuovi percorsi per condividere i migliori strumenti e/o segnali tecnici sui contenuti elettorali ingannevoli dell’intelligenza artificiale in risposta agli incidenti”.
L’accordo stabilisce inoltre l’ambizione di ciascuno di “impegnarsi con un insieme diversificato di organizzazioni globali della società civile e del mondo accademico” al fine di favorire una comprensione più ampia del panorama globale dei rischi.
È un passo positivo, anche se non vincolante, ed è più che altro un gesto di buona volontà da parte di ciascuna azienda per lavorare verso le soluzioni migliori. In quanto tale, non prevede azioni definitive da intraprendere o sanzioni per non farlo. Ma, idealmente, pone le basi per un’azione collaborativa più ampia per fermare i contenuti fuorvianti dell’intelligenza artificiale prima che possano avere un impatto significativo.
Sebbene tale impatto sia relativo.
Ad esempio, nelle recenti elezioni indonesiane, vari elementi deepfake dell’intelligenza artificiale sono stati utilizzati per influenzare gli elettori, tra cui una rappresentazione video del defunto leader Suharto progettata per ispirare sostegno e versioni a fumetti di alcuni candidati, come mezzo per ammorbidire la loro personalità pubblica.
Queste erano generate dall’intelligenza artificiale, il che è chiaro fin dall’inizio, e nessuno si sarebbe lasciato indurre a credere che si trattasse di immagini reali dell’aspetto dei candidati, né che Suharto fosse tornato dalla morte. Ma l’impatto di tali cose può essere significativo, anche con quella conoscenza che ne sottolinea il potere nella percezione, anche se successivamente vengono rimossi, etichettati, ecc.
Potrebbe essere questo il vero rischio. Se un’immagine generata dall’intelligenza artificiale di Joe Biden o Donald Trump avesse abbastanza risonanza, la sua origine potrebbe essere banale, poiché potrebbe comunque influenzare gli elettori in base alla rappresentazione, che sia reale o meno.
La percezione conta e l’uso intelligente dei deepfake avrà un impatto e influenzerà alcuni elettori, indipendentemente dalle salvaguardie e dalle precauzioni.
Questo è un rischio che ora dobbiamo sopportare, dato che tali strumenti sono già prontamente disponibili e, come prima i social media, valuteremo gli impatti in retrospettiva, invece di tappare i buchi in anticipo.
Perché è così che funziona la tecnologia, ci muoviamo velocemente, rompiamo le cose. Poi raccogliamo i pezzi.
[ad_2]
Source link