[ad_1]
Meta sta aggiornando le etichette dei contenuti AI per garantire che venga taggata una gamma più ampia di contenuti sintetici, in risposta a una crescente ondata di post di AI generativi nell’app.
Negli ultimi mesi, su Facebook sono comparse sempre più esche di coinvolgimento basate sull’intelligenza artificiale, generando anche un sacco di coinvolgimento.
Ad esempio, anche il minimo livello di esame rivelerebbe che questa non è un’immagine reale. Ma Facebook è utilizzato da miliardi di persone, e non tutti hanno intenzione di ingrandire o avere l’alfabetizzazione digitale per essere consapevoli che l’intelligenza artificiale generativa può anche essere utilizzata in questo modo (come indicato dai 6,9k Mi piace su questo post ).
Pertanto, Meta sta aggiornando le sue politiche di etichettatura dell’intelligenza artificiale per garantire che più contenuti generati dall’intelligenza artificiale siano taggati e divulgati di conseguenza.
Secondo Meta:
“Il nostro approccio attuale è troppo ristretto, poiché copre solo i video creati o modificati dall’intelligenza artificiale per far sembrare che una persona dica qualcosa che non ha detto. La nostra politica sui media manipolati è stata scritta nel 2020, quando i contenuti realistici generati dall’intelligenza artificiale erano rari e la preoccupazione generale riguardava i video. Negli ultimi quattro anni, e in particolare nell’ultimo anno, le persone hanno sviluppato altri tipi di contenuti realistici generati dall’intelligenza artificiale come audio e foto, e questa tecnologia si sta evolvendo rapidamente”.
Il nuovo processo vedrà l’aggiunta di più etichette “Made with AI”. contenuto quando Meta rileva “indicatori di immagine AI standard del settore o quando le persone rivelano che stanno caricando contenuti generati dall’intelligenza artificiale”.
Meta afferma che lascerà anche più contenuti generativi dell’intelligenza artificiale nelle sue app, invece di rimuoverli, con le etichette che servono sia a scopo informativo che educativo.
“Se stabiliamo che immagini, video o audio creati digitalmente o alterati comportano un rischio particolarmente elevato di ingannare materialmente il pubblico su una questione importante, potremmo aggiungere un’etichetta più evidente in modo che le persone abbiano più informazioni e contesto. Questo approccio generale fornisce alle persone maggiori informazioni sul contenuto in modo che possano valutarlo meglio e quindi avere un contesto se vedono lo stesso contenuto altrove.
In altre parole, le etichette informeranno immediatamente l’utente che il contenuto è falso, mostrando anche cosa si può fare ora con l’intelligenza artificiale, il che aiuterà ad aumentare la consapevolezza dello stesso.
È un buon aggiornamento, anche se molto dipende dalla capacità di Meta di rilevare l’intelligenza artificiale generativa all’interno dei post.
Come notato, nell’esempio sopra (e in molti altri simili), è ovvio per la maggior parte che è stato generato dall’intelligenza artificiale. Ma man mano che i sistemi di intelligenza artificiale migliorano e le persone imparano nuovi modi per usarli, questi diventeranno anche più difficili da rilevare, il che potrebbe limitare la capacità automatizzata di Meta di rilevarli.
Ma ancora una volta, il nuovo approccio darà anche ai moderatori di Meta maggiori poteri di controllo sullo stesso, e potrebbe benissimo servire a uno scopo importante nel sensibilizzare l’opinione pubblica su ciò che si può fare con i falsi dell’IA.
Il tempo lo dirà, ma sembra un buon aggiornamento, che potrebbe avere un impatto sull’espansione dell’uso dell’intelligenza artificiale.
Meta afferma che implementerà il suo nuovo processo di etichettatura AI a maggio.
[ad_2]
Source link