[ad_1]
Quella tua zia (conosci quella) potrebbe finalmente pensarci due volte prima di inoltrare post su Facebook di foto “perdute” dell’hipster Einstein e di un Papa Francesco alla moda. Martedì, Meta ha annunciato che “nei prossimi mesi” tenterà di iniziare a contrassegnare tutte le immagini generate dall’intelligenza artificiale realizzate utilizzando programmi di grandi aziende come Microsoft, OpenAI, Midjourney e Google che stanno inondando Facebook, Instagram e Threads.
Ma per affrontare il dilagante abuso generativo dell’intelligenza artificiale che gli esperti chiamano “la più grande minaccia a breve termine del mondo”, Meta richiede la collaborazione di tutte le principali società di intelligenza artificiale, l’auto-segnalazione dei suoi circa 5,4 miliardi di utenti, nonché tecnologie attualmente inedite.
Nick Clegg, presidente degli affari globali di Meta, ha spiegato nel suo post del 6 febbraio che si prevede che le implementazioni politiche e tecnologiche debutteranno prima delle cruciali stagioni elettorali in tutto il mondo.
“Durante questo periodo, ci aspettiamo di imparare molto di più su come le persone creano e condividono contenuti AI, quale tipo di trasparenza le persone ritengono più preziosa e come si evolvono queste tecnologie”, afferma Clegg.
[Related: Why an AI image of Pope Francis in a fly jacket stirred up the internet.]
La meta nebulosa tabella di marcia è incentrata sulla collaborazione con “altre aziende in [its] industria” per sviluppare e implementare standard tecnici di identificazione comuni per le immagini IA. Gli esempi potrebbero includere algoritmi di firma digitale e “manifesti” di informazioni crittografiche, come suggerito dalla Coalition for Content Provenance and Authenticity (C2PA) e dall’International Press Telecommunications Council (IPTC). Una volta che le aziende di intelligenza artificiale inizieranno a utilizzare queste filigrane, Meta inizierà a etichettare i contenuti di conseguenza utilizzando “classificatori” per aiutare a rilevare automaticamente i contenuti generati dall’intelligenza artificiale.
“Se Le aziende di intelligenza artificiale iniziano a utilizzare le filigrane” potrebbe essere più accurato. Sebbene la funzionalità Meta AI dell’azienda etichetti già i suoi contenuti con una filigrana “Imagined with AI”, tali identificatori semplici non sono attualmente uniformi tra i programmi AI di Google, OpenAI, Microsoft, Adobe, Midjourney, Shutterstock e altri.
Ciò, ovviamente, farà ben poco per scoraggiare l’uso di programmi di terze parti da parte di malintenzionati, spesso con effetti estremamente sgradevoli. Il mese scorso, ad esempio, le immagini pornografiche generate dall’intelligenza artificiale che coinvolgono Taylor Swift sono state condivise decine di milioni di volte sui social media.
Meta ha chiarito nel post di martedì che queste garanzie saranno limitate alle immagini statiche. Ma secondo Clegg, chiunque sia preoccupato da questo in vista delle elezioni presidenziali americane ad alto rischio dovrebbe affrontarlo con altre società di intelligenza artificiale, non con Meta. Sebbene alcune aziende stiano iniziando a includere identificatori nei loro generatori di immagini, “non hanno iniziato a includerli negli strumenti di intelligenza artificiale che generano audio e video sulla stessa scala, quindi non possiamo ancora rilevare quei segnali ed etichettare questo contenuto da altre società” ,” lui scrive.
Mentre “l’industria lavora per raggiungere questa capacità”, Meta sembra spostare l’onere sui suoi utenti. Un’altra funzionalità in arrivo consentirà presto alle persone di rivelare i propri caricamenti video e audio generati dall’intelligenza artificiale: qualcosa che Clegg potrebbe eventualmente diventare un requisito punibile con “sanzioni”.
Per quello che vale, Meta ha almeno ammesso che al momento è impossibile contrassegnare Tutto Contenuti generati dall’intelligenza artificiale e rimangono “modi in cui le persone possono eliminare i marcatori invisibili”. Per risolvere potenzialmente questi problemi, tuttavia, Meta spera di combattere l’intelligenza artificiale con l’intelligenza artificiale. Sebbene la tecnologia dell’intelligenza artificiale aiuti da tempo l’applicazione delle politiche di Meta, il suo utilizzo dell’intelligenza artificiale generativa per questo “è stato limitato”, afferma Clegg, “ma siamo ottimisti sul fatto che l’intelligenza artificiale generativa potrebbe aiutarci a eliminare i contenuti dannosi in modo più rapido e accurato”.
“Anche se questa non è una risposta perfetta, non volevamo che la perfezione fosse nemica del bene”, ha continuato Clegg.
[ad_2]
Source link