GrAI Matter Labs (GML) ha presentato il GrAI VIP, un SoC AI basato sulla scarsità ottimizzato per latenza ultrabassa e elaborazione a bassa potenza all’endpoint. Secondo l’azienda, il processore di inferenza della visione riduce drasticamente la latenza delle applicazioni. Ad esempio, può ridurre le latenze end-to-end per reti di deep learning, come Resnet-50, dell’ordine di un millisecondo.
Una soluzione AI vicino al sensore, il GrAI VIP offre capacità in virgola mobile a 16 bit per ottenere le migliori prestazioni della categoria con un inviluppo a bassa potenza. Il processore edge AI si basa sulla tecnologia NeuronFlow di GML, che combina il paradigma del flusso di dati dinamico con l’elaborazione sparsa per produrre un’elaborazione in rete massicciamente parallela. Rivolto ad applicazioni che si basano sulla comprensione e sulla trasformazione dei segnali prodotti da una moltitudine di sensori all’edge, GrAI VIP può essere utilizzato nell’automazione industriale, nella robotica, nell’AR/VR, nelle case intelligenti e nell’infotainment nelle automobili.
GML ha dimostrato il suo SoC AI Life-Ready alla fiera Global Industrie di questo mese. Gli sviluppatori di applicazioni di intelligenza artificiale che cercano risposte ad alta fedeltà e bassa latenza per i loro algoritmi edge possono ora ottenere l’accesso anticipato alla piattaforma VIP GrAI full-stack, inclusi i kit di sviluppo hardware e software.
Pagina del prodotto Grai VIP
GraAI Matter Labs
Trova più schede tecniche su prodotti come questo su Datasheets.com, ricercabili per categoria, parte n., descrizione, produttore e altro ancora.