[ad_1]
OpenAI ha annunciato il suo modello da testo a video, Sora, in grado di creare scene realistiche e fantasiose da istruzioni testuali.
Inizialmente, Sora sarà a disposizione dei membri del team rosso allo scopo di valutare potenziali danni o rischi in aree critiche, il che non solo migliorerà le caratteristiche di sicurezza e protezione del modello, ma consentirà anche a OpenAI di incorporare le prospettive e le competenze dei professionisti della sicurezza informatica.
L’accesso sarà esteso anche ad artisti visivi, designer e registi. Questo gruppo eterogeneo di professionisti creativi è stato invitato a testare e fornire feedback su Sora, per perfezionare il modello e servire meglio l’industria creativa. Si prevede che le loro intuizioni guideranno lo sviluppo di funzionalità e strumenti che andranno a beneficio di artisti e designer nel loro lavoro, secondo OpenAI in un sondaggio post sul blog che contiene informazioni aggiuntive.
Sora è un sofisticato modello di intelligenza artificiale in grado di creare scene visive intricate che presentano numerosi personaggi, tipi distinti di movimento e rappresentazioni dettagliate sia dei soggetti che dei loro sfondi.
La sua comprensione avanzata va oltre il semplice seguire le istruzioni dell’utente; Sora interpreta e applica la conoscenza di come questi elementi si presentano naturalmente e interagiscono nel mondo reale. Questa capacità consente la generazione di immagini altamente realistiche e contestualmente accurate, dimostrando una profonda integrazione dell’intelligenza artificiale con la comprensione delle dinamiche del mondo fisico.
“Stiamo lavorando con i red teamer – esperti di dominio in aree come disinformazione, contenuti che incitano all’odio e pregiudizi – che testeranno in modo contraddittorio il modello. Stiamo anche creando strumenti per aiutare a rilevare contenuti fuorvianti, come un classificatore di rilevamento in grado di individuare quando un video è stato generato da Sora. Prevediamo di includere i metadati C2PA in futuro se implementeremo il modello in un prodotto OpenAI”, ha affermato OpenAI nel post. “Oltre a sviluppare nuove tecniche per prepararci all’implementazione, stiamo sfruttando i metodi di sicurezza esistenti che abbiamo creato per i nostri prodotti che utilizzano DALL·E 3, che si applicano anche a Sora.”
OpenAI ha implementato rigorosi meccanismi di moderazione dei contenuti all’interno dei suoi prodotti per mantenere l’aderenza alle politiche di utilizzo e agli standard etici. Il suo classificatore di testo può esaminare e rifiutare qualsiasi richiesta di inserimento di testo che richieda contenuti che violano queste politiche, come violenza estrema, contenuti sessuali, immagini che incitano all’odio, somiglianza con celebrità o violazione della proprietà intellettuale.
Allo stesso modo, vengono utilizzati classificatori avanzati di immagini per esaminare ogni fotogramma dei video generati, garantendo che siano conformi alle politiche di utilizzo impostate prima di essere visualizzati dagli utenti. Queste misure fanno parte dell’impegno di OpenAI per un’implementazione responsabile dell’IA, con l’obiettivo di prevenire usi impropri e garantire che il contenuto generato sia in linea con le linee guida etiche.
[ad_2]
Source link