[ad_1]
Docker ha annunciato un nuovo GenAI Stack in collaborazione con Neo4j, LangChain e Ollama durante il keynote della conferenza annuale degli sviluppatori DockerCon. Questo stack GenAI è progettato per aiutare gli sviluppatori a creare rapidamente e facilmente applicazioni di intelligenza artificiale generativa senza cercare e configurare varie tecnologie.
Include componenti preconfigurati come modelli linguistici di grandi dimensioni (LLM) di Ollama, database vettoriali e grafici di Neo4j e il framework LangChain. Docker ha anche introdotto il suo primo prodotto basato sull’intelligenza artificiale, Docker AI.
Lo stack GenAI affronta casi d’uso comuni per l’intelligenza artificiale generativa ed è disponibile nel Docker Learning Center e su GitHub. Offre LLM open source preconfigurati, assistenza da Ollama per la configurazione di LLM, Neo4j come database predefinito per migliorare le prestazioni del modello AI/ML, grafici della conoscenza per migliorare le previsioni GenAI, orchestrazione LangChain per applicazioni di ragionamento sensibili al contesto e vari supporti strumenti e risorse. Questa iniziativa mira a consentire agli sviluppatori di sfruttare le funzionalità AI/ML nelle loro applicazioni in modo efficiente e sicuro.
“Gli sviluppatori sono entusiasti delle possibilità di GenAI, ma il tasso di cambiamento, il numero di fornitori e l’ampia variazione negli stack tecnologici rendono difficile sapere dove e come iniziare”, ha affermato Scott Johnston, amministratore delegato di L’amministratore delegato di Docker, Scott Johnston. “L’annuncio di oggi elimina questo dilemma consentendo agli sviluppatori di iniziare in modo rapido e sicuro utilizzando gli strumenti, i contenuti e i servizi Docker che già conoscono e apprezzano insieme alle tecnologie dei partner all’avanguardia nello sviluppo di app GenAI”.
Agli sviluppatori vengono fornite semplici opzioni di configurazione che offrono varie funzionalità, tra cui il caricamento semplice dei dati e la creazione di indici vettoriali. Ciò consente agli sviluppatori di importare dati, creare indici vettoriali, aggiungere domande e risposte e memorizzarli all’interno dell’indice vettoriale.
Questa configurazione consente query avanzate, arricchimento dei risultati e creazione di grafici della conoscenza flessibili. Gli sviluppatori possono generare risposte diverse in diversi formati, come elenchi puntati, catene di pensiero, problemi di GitHub, PDF, poesie e altro ancora. Inoltre, gli sviluppatori possono confrontare i risultati ottenuti tra diverse configurazioni, inclusi LLM singoli, LLM con vettori e LLM con integrazione di vettori e grafici della conoscenza.
[ad_2]
Source link