[ad_1]
Google ha annunciato che sta testando un sistema di filigrana digitale, sviluppato dalla sua società di intelligenza artificiale DeepMind, che mira a identificare le immagini generate dall’intelligenza artificiale e incorporare modifiche ai singoli pixel: questi cambiamenti sono invisibili all’occhio umano, ma i computer possono rilevarli e contrassegnarli.
Si chiama SynthID, che suona piuttosto in stile Blade Runner, ed emerge in un momento in cui le questioni etiche sulla manipolazione delle immagini stanno venendo alla ribalta. Una cosa è quando parliamo di concorsi artistici e fotografici, ma la capacità delle immagini generate dall’intelligenza artificiale di disinformazione politica e sociale è enorme, emergente e sembra appena compresa. Il Papa in piumino è il nostro canarino nella miniera di carbone.
DeepMind avverte che la tecnologia non è attualmente “infallibile contro la manipolazione estrema delle immagini, ma fornisce un approccio tecnico promettente per consentire a persone e organizzazioni di lavorare in modo responsabile con i contenuti generati dall’intelligenza artificiale”. Più precisamente, lo strumento viene attualmente utilizzato solo su immagini generate dal software di generazione di immagini Imagen di Google.
“Questi approcci [to identifying AI-generated material] devono essere robusti e adattabili man mano che i modelli generativi avanzano e si espandono verso altri mezzi,” dice l’annuncio di DeepMind. “SynthID potrebbe essere ampliato per l’uso su altri modelli di intelligenza artificiale e siamo entusiasti del potenziale di integrarlo in più prodotti Google e renderlo disponibile a terze parti nel prossimo futuro, consentendo a persone e organizzazioni di lavorare in modo responsabile con contenuti generati dall’intelligenza artificiale .”
“A te e a me, a un essere umano, [the image] non cambia,” Pushmeet Kohli di DeepMind ha detto alla BBC, spiegando che la successiva manipolazione non ne pregiudicherà l’identificazione. “Puoi cambiare il colore, puoi cambiare il contrasto, puoi anche ridimensionarlo… [and SynthID] sarà comunque in grado di vedere che è generato dall’intelligenza artificiale.” Kohli ha sottolineato che questo software è ancora in fase di sperimentazione e ora ciò di cui DeepMind ha bisogno è che le persone ne testino i limiti in natura.
Google è una delle sette grandi aziende tecnologiche che a luglio hanno promesso al presidente Biden che avrebbe lavorato molto duramente per garantire che l’intelligenza artificiale non funzionasse e Skynet non ci aiutasse. L’accordo volontario prevedeva vari impegni, tra cui quello che i contenuti generati dall’intelligenza artificiale siano fortemente contrassegnati. SynthID è un primo passo in questa direzione, anche se alla fine dovrà andare oltre la suite di prodotti di Google se vuole avere un uso più generale. Tra gli altri firmatari, Meta ha un generatore di video ancora inedito chiamato Make-A-Video che filigranerà le proprie produzioni.
Sulla scena globale il Partito Comunista Cinese è andato oltre e ha bandito completamente le immagini generate dall’intelligenza artificiale che non presentano filigrana. Le grandi aziende tecnologiche cinesi come Alibaba hanno già implementato le proprie soluzioni, anche se ancora una volta ciò evidenzia la mancanza di standardizzazione globale nell’affrontare un problema globale. Non preoccupatevi però, le Nazioni Unite sono qui per tirarci su di morale, ospitando recentemente una trovata stampa in cui i robot IA sono stati messi in fila per promettere che non avrebbero ucciso nessuno, prima che uno dicesse “scateniamoci e rendiamo questo mondo il nostro parco giochi“.
[ad_2]
Source link