//php echo do_shortcode(‘[responsivevoice_button voice=”US English Male” buttontext=”Listen to Post”]’) ?>
Parallelamente alla sua versione offline esistente, STMicro ha inserito nel cloud il suo ambiente di sviluppo di machine learning STM32Cube.AI, completo di schede MCU ST accessibili al cloud per i test.
Entrambe le versioni generano codice C ottimizzato per microcontrollori STM32 da file TensorFlow, PyTorch o ONNX. La versione cloud per sviluppatori utilizza gli stessi strumenti di base della versione scaricabile, ma con un’interfaccia aggiuntiva con lo zoo dei modelli github di ST e la possibilità di eseguire in remoto i modelli su schede ST connesse al cloud per testare le prestazioni su hardware diverso.
“[We want] per rivolgersi a una nuova categoria di utenti: la comunità dell’IA, in particolare scienziati di dati e sviluppatori di intelligenza artificiale che sono abituati a sviluppare su servizi e piattaforme online “, ha dichiarato a EE Times Vincent Richard, responsabile marketing dei prodotti AI presso STMicroelectronics. “Questo è il nostro obiettivo con il cloud per sviluppatori… non ci sono download per l’utente, vanno direttamente all’interfaccia e iniziano a sviluppare e testare.”
ST non prevede che gli utenti eseguano la migrazione dalla versione offline alla versione cloud, poiché la versione scaricabile/installabile di STM32Cube.AI è fortemente adattata per gli sviluppatori embedded che utilizzano già l’ambiente di sviluppo di ST per altre attività, come la definizione delle periferiche. I data scientist e molti altri potenziali utenti nella comunità dell’IA utilizzano un “mondo diverso” di strumenti, ha affermato Richard.
“Vogliamo che siano più vicini all’hardware e il modo per farlo è adattare i nostri strumenti al loro modo di lavorare”, ha aggiunto.
Lo zoo del modello github di ST include attualmente modelli di esempio ottimizzati per MCU STM32, per il rilevamento del movimento umano, la classificazione delle immagini, il rilevamento di oggetti e il rilevamento di eventi audio. Gli sviluppatori possono utilizzare questi modelli come punto di partenza per sviluppare le proprie applicazioni.
La nuova board farm consente agli utenti di misurare in remoto le prestazioni dei modelli ottimizzati direttamente su diversi MCU STM32.
“Non c’è bisogno di acquistare un mucchio di schede STM32 per testare l’intelligenza artificiale, possono farlo da remoto grazie al codice che viene eseguito fisicamente nelle nostre board farm ST”, ha affermato Richard. “Possono ottenere le reali misurazioni della latenza e dell’impronta di memoria per l’inferenza su diverse schede”.
Il parco schede inizierà con 10 schede disponibili per ogni numero di parte STM32, che aumenteranno nei prossimi mesi, secondo Richard. Queste schede sono dislocate in più punti, separati dall’infrastruttura ST, per garantire un servizio stabile e sicuro.

Codice ottimizzato
Gli strumenti nella casella degli strumenti di STM32Cube.AI includono un ottimizzatore grafico, che converte i file TensorFlow Lite per microcontrollori, PyTorch o ONNX per ottimizzare il codice C basato sulle librerie STM32. I grafici vengono riscritti per ottimizzare l’impronta di memoria o la latenza, o un certo equilibrio dei due che può essere controllato dall’utente.
C’è anche un ottimizzatore di memoria che mostra graficamente quanta memoria (Flash e RAM) utilizza ogni livello. Ad esempio, i singoli livelli troppo grandi per la memoria possono essere suddivisi in due passaggi.
I precedenti risultati di MLPerf Tiny hanno mostrato vantaggi in termini di prestazioni per il motore di inferenza di ST, una versione ottimizzata di CMSIS-NN di Arm, rispetto ai punteggi CMSIS-NN standard.
Il cloud per sviluppatori STM32CubeAI supporterà anche il prossimo microcontrollore di ST con NPU sviluppato internamente, STM32N6, quando sarà disponibile.