[ad_1]
Purple Llama è un progetto importante che Meta ha annunciato il 7 dicembre. Il suo obiettivo è migliorare la sicurezza e il benchmarking dei modelli di intelligenza artificiale generativa. Con la sua enfasi sugli strumenti open source per aiutare gli sviluppatori a valutare e migliorare la fiducia e la sicurezza nei loro modelli di intelligenza artificiale generativa prima della distribuzione, questo programma rappresenta un progresso significativo nel campo dell’intelligenza artificiale.
Nell’ambito del progetto ombrello Purple Llama, gli sviluppatori possono migliorare la sicurezza e l’affidabilità dei modelli di intelligenza artificiale generativa creando strumenti open source. Molti sviluppatori di applicazioni AI, inclusi grandi fornitori di cloud come AWS e Google Cloud, produttori di chip come AMD, Nvidia e Intel e aziende di software come Microsoft, stanno lavorando con Meta. L’obiettivo di questa partnership è fornire strumenti per valutare la sicurezza e le funzionalità dei modelli al fine di aiutare la ricerca e le applicazioni commerciali.
CyberSec Eval è una delle caratteristiche principali mostrate da Purple Llama. Questa raccolta di strumenti ha lo scopo di valutare i rischi di sicurezza informatica nei modelli che generano software, come un modello linguistico che classifica i contenuti che potrebbero essere offensivi, violenti o descrivere attività illecite. Con CyberSec Eval, gli sviluppatori possono valutare la possibilità che un modello di intelligenza artificiale produca codice non sicuro o che aiuti gli utenti a lanciare attacchi informatici utilizzando test di benchmark. Si tratta di modelli di addestramento per produrre malware o eseguire operazioni che potrebbero produrre codice non sicuro al fine di trovare e correggere le vulnerabilità. Secondo gli esperimenti preliminari, il 30% delle volte, i grandi modelli linguistici raccomandavano un codice vulnerabile. È possibile ripetere questi test di benchmark sulla sicurezza informatica per verificare che le modifiche al modello stiano migliorando la sicurezza.
Meta ha anche rilasciato Llama Guard, un enorme modello linguistico addestrato per la categorizzazione del testo, oltre a CyberSec Eval. Ha lo scopo di riconoscere ed eliminare il linguaggio dannoso, offensivo, sessualmente esplicito o che descrive attività illegali. Llama Guard consente agli sviluppatori di testare il modo in cui i loro modelli reagiscono alle richieste di input e alle risposte di output, rimuovendo alcune cose che possono causare la generazione di materiale improprio. Questa tecnologia è essenziale per impedire che materiale dannoso venga creato o amplificato involontariamente da modelli di intelligenza artificiale generativa.
Con Purple Llama, Meta adotta un duplice approccio alla sicurezza e alla protezione dell’intelligenza artificiale, affrontando sia gli elementi di input che quelli di output. Questa strategia onnicomprensiva è fondamentale per ridurre le difficoltà che comporta l’intelligenza artificiale generativa. Purple Llama è una tecnica collaborativa che impiega tattiche sia aggressive (squadra rossa) che difensive (squadra blu) per valutare e mitigare i possibili rischi connessi all’IA generativa. La creazione e l’utilizzo di sistemi di IA etici dipendono fortemente da questo punto di vista a tutto tondo.
Per riassumere, il progetto Purple Llama di Meta rappresenta un importante passo avanti nel campo dell’intelligenza artificiale generativa in quanto fornisce ai programmatori le risorse necessarie per garantire la sicurezza e l’incolumità dei loro modelli di intelligenza artificiale. Questo programma ha il potenziale per stabilire nuovi parametri di riferimento per la creazione e l’uso coscienziosi di tecnologie di intelligenza artificiale generativa grazie alla sua metodologia onnicomprensiva e cooperativa.
Fonte immagine: Shutterstock
[ad_2]
Source link