[ad_1]
Un nuovo microcontrollore afferma di offrire accelerazione di machine learning (ML) assistita da hardware per l’Internet delle cose (IoT) e applicazioni industriali come casa intelligente, sorveglianza di sicurezza, dispositivi indossabili e robotica. Si prevede che ciò abbasserà significativamente la barriera nell’interazione uomo-macchina e aggiungerà consapevolezza contestuale alle applicazioni finali.
Figura 1 L’MCU abilitato per ML supporta MHI completo, consapevolezza situazionale e funzionamento autonomo. Fonte: Infineon
L’MCU di fascia alta di Infineon con accelerazione di calcolo ML, PSoC Edge, si rivolge a un nuovo spazio di applicazioni di calcolo e controllo reattive. Steve Tateosian, vicepresidente senior dei microcontrollori presso Infineon, lo definisce un punto di svolta in termini di prestazioni di elaborazione dal lato hardware. “Porterà a miglioramenti significativi delle prestazioni durante l’esecuzione di applicazioni di rete neurale.”
Ha aggiunto che le applicazioni ML avanzate sono state tradizionalmente realizzate nel cloud. “Con PSoC Edge, attività come l’elaborazione del linguaggio naturale possono essere eseguite localmente sul dispositivo”, ha affermato Tateosian. “Gli sviluppatori riceveranno anche supporto per codice e strumenti ML per le loro applicazioni.
L’abilitazione degli strumenti e l’infrastruttura di supporto software sono cruciali per gli MCU abilitati al machine learning. Pertanto, Infineon ha integrato la suite di strumenti ML end-to-end di Imagimob, la startup con sede a Stoccolma, in Svezia, che Infineon ha acquisito all’inizio di quest’anno, nella sua piattaforma software Modus Toolbox. ModusToolbox fornisce una raccolta di strumenti di sviluppo, librerie e risorse runtime integrate per sviluppatori di sistemi integrati.
figura 2 La toolchain ML supporta un’ampia gamma di casi d’uso, tra cui IoT di consumo, progetti industriali, di casa intelligente e indossabili. Fonte: Infineon
Gli MCU PSoC Edge si basano su un processore Arm Cortex-M55 ad alte prestazioni integrato dalla tecnologia Helium di Arm per funzionalità DSP e ML avanzate per accelerare l’elaborazione della rete neurale. Cortex-M55 è abbinato ad Arm Ethos-U55, una NPU appositamente progettata per accelerare l’inferenza ML in dispositivi IoT e embedded con vincoli di area.
Inoltre, Cortex-M33 è abbinato al NNLite a bassissimo consumo di Infineon, un acceleratore hardware proprietario destinato ad accelerare le reti neurali utilizzate nelle applicazioni ML. Inoltre, è presente un’ampia memoria su chip, inclusa RRAM non volatile e supporto per memoria esterna protetta ad alta velocità.
Questo mix di potenza di elaborazione scalabile e memoria è supportato da un ecosistema di software e strumenti. Che, secondo Infineon, fornirà supporto per lo sviluppo ML end-to-end, dall’immissione dei dati all’implementazione del modello.
Contenuto relativo
- Le tecnologie chiave spingono l’intelligenza artificiale al limite
- Come distribuire rapidamente TinyML sugli MCU
- TinyML arriva nel mondo incorporato nel 2023
- Il deep learning sugli MCU è il futuro dell’edge computing
- Perché i fornitori di MCU stanno collaborando con le piattaforme TinyML
- Finalmente arriva il primo MCU con processore Arm Cortex-M85
googletag.cmd.push(function() { googletag.display(‘div-gpt-ad-inread’); });
Il post La prossima frontiera dell’embedded: gli MCU abilitati al machine learning è apparso per la prima volta su EDN.
[ad_2]
Source link