[ad_1]
Google si sta basando sul successo del lancio di Gemini con il rilascio di una nuova famiglia di modelli di intelligenza artificiale leggeri chiamati Gemma. I modelli Gemma sono aperti e progettati per essere utilizzati da ricercatori e sviluppatori per innovare in sicurezza con l’intelligenza artificiale.
“Riteniamo che il rilascio responsabile degli LLM sia fondamentale per migliorare la sicurezza dei modelli di frontiera, per garantire un accesso equo a questa tecnologia rivoluzionaria, per consentire una valutazione e un’analisi rigorosa delle tecniche attuali e per consentire lo sviluppo della prossima ondata di innovazioni”, hanno scritto i ricercatori dietro Gemma in a rapporto tecnico.
Insieme a Gemma, Google sta rilasciando anche un nuovo Toolkit di intelligenza artificiale generativa responsabile che include funzionalità per la classificazione e il debug della sicurezza, nonché le best practice di Google per lo sviluppo di modelli linguistici di grandi dimensioni.
Gemma è disponibile in due dimensioni del modello: 2B e 7B. Condividono molti degli stessi componenti tecnici e infrastrutturali di Gemini, che Google dice consente ai modelli Gemma di “raggiungere le migliori prestazioni della categoria per le loro dimensioni rispetto ad altri modelli aperti”.
Gemma fornisce inoltre l’integrazione con JAX, TensorFlow e PyTorch, consentendo agli sviluppatori di passare da un framework all’altro secondo necessità.
I modelli possono essere eseguiti su una varietà di tipi di dispositivi, inclusi laptop, desktop, IoT, dispositivi mobili e cloud. Google ha inoltre collaborato con NVIDIA per ottimizzare Gemma per l’utilizzo sulle GPU NVIDIA.
È stato inoltre ottimizzato per l’uso su Google Cloud, il che offre vantaggi come l’implementazione con un clic e le ottimizzazioni dell’inferenza integrate. È accessibile tramite Vertex AI Model Garden di Google Cloud, che ora contiene oltre 130 modelli AI, e tramite Google Kubernetes Engine (GKE).
Secondo Google Cloud, attraverso Vertex AI, Gemma potrebbe essere utilizzata per supportare attività di intelligenza artificiale generativa in tempo reale che richiedono bassa latenza o creare app in grado di completare attività di intelligenza artificiale leggere come generazione di testo, riepilogo e domande e risposte.
“Con Vertex AI, i costruttori possono ridurre i costi operativi e concentrarsi sulla creazione di versioni personalizzate di Gemma ottimizzate per il loro caso d’uso”, ha scritto Burak Gokturk, VP e GM di Cloud AI presso Google Cloud. post sul blog.
Su GKE, i potenziali casi d’uso includono la distribuzione di modelli personalizzati in contenitori insieme alle applicazioni, la personalizzazione del servizio di modelli e la configurazione dell’infrastruttura senza la necessità di fornire nodi e l’integrazione dell’infrastruttura AI in modo rapido e scalabile.
Gemma è stata progettata per allinearsi ai principi di intelligenza artificiale responsabile di Google e ha utilizzato tecniche di filtraggio automatico per rimuovere i dati personali dai set di formazione, apprendimento per rinforzo dal feedback umano (RLHF) per allineare i modelli a comportamenti responsabili e valutazioni manuali che includevano red teaming, test contraddittori, e valutazioni delle capacità del modello per risultati potenzialmente negativi.
Poiché i modelli sono stati progettati per promuovere la ricerca sull’intelligenza artificiale, Google offre crediti gratuiti a sviluppatori e ricercatori che desiderano utilizzare Gemma. È possibile accedervi gratuitamente utilizzando Kaggle o Colab oppure gli utenti che utilizzano Google Cloud per la prima volta possono ottenere un credito di $ 300. I ricercatori possono anche richiedere fino a 500.000 dollari per i loro progetti.
“Al di là delle misurazioni delle prestazioni all’avanguardia sulle attività di benchmark, siamo entusiasti di vedere quali nuovi casi d’uso emergono dalla comunità e quali nuove capacità emergono man mano che avanziamo insieme nel campo. Ci auguriamo che i ricercatori utilizzino Gemma per accelerare un’ampia gamma di ricerche e speriamo che gli sviluppatori creino nuove applicazioni, esperienze utente e altre funzionalità vantaggiose”, hanno scritto i ricercatori.
[ad_2]
Source link