Il microcontrollore accelerato di rete neurale a bassa potenza MAX78000 di Maxim Integrated sposta l'intelligenza artificiale (AI) verso il limite senza compromessi sulle prestazioni nei dispositivi Internet of Things (IoT) alimentati a batteria. L'esecuzione di inferenze AI a meno di 1/100 dell'energia delle soluzioni software migliora notevolmente il tempo di esecuzione per le applicazioni AI alimentate a batteria, consentendo al contempo nuovi casi d'uso di IA complessi precedentemente considerati impossibili. Questi miglioramenti di potenza non vengono compromessi in termini di latenza o costi: il MAX78000 esegue inferenze 100 volte più velocemente rispetto alle soluzioni software eseguite su microcontrollori a bassa potenza, a una frazione del costo delle soluzioni FPGA o GPU.
La tecnologia AI consente alle macchine di vedere e ascoltare, dando un senso al mondo in modi che prima erano poco pratici. In passato, portare le inferenze dell'IA all'edge significava raccogliere dati da sensori, fotocamere e microfoni, inviare quei dati al cloud per eseguire un'inferenza, quindi inviare una risposta all'edge. Questa architettura funziona ma è molto impegnativa per le applicazioni edge a causa della scarsa latenza e delle prestazioni energetiche. In alternativa, è possibile utilizzare microcontrollori a bassa potenza per implementare semplici reti neurali; tuttavia, la latenza soffre e solo le attività semplici possono essere eseguite all'edge.
Integrando un acceleratore di rete neurale dedicato con una coppia di core del microcontrollore, il MAX78000 supera questi limiti, consentendo alle macchine di vedere e ascoltare schemi complessi con un'elaborazione AI locale a bassa potenza che viene eseguita in tempo reale. Applicazioni come visione artificiale, audio e riconoscimento facciale possono essere rese più efficienti poiché il MAX78000 può eseguire inferenze a meno di 1/100 di energia richiesta da un microcontrollore. Il cuore del MAX78000 è un hardware specializzato progettato per ridurre al minimo il consumo di energia e la latenza delle reti neurali convoluzionali (CNN). Questo hardware funziona con un intervento minimo da parte di qualsiasi core del microcontrollore, rendendo l'operazione estremamente snella. Energia e tempo vengono utilizzati solo per le operazioni matematiche che implementano una CNN.Per trasferire in modo efficiente i dati dal mondo esterno al motore CNN, i clienti possono utilizzare uno dei due core del microcontrollore integrati: il core Arm® Cortex®-M4 a potenza ultra bassa o il core RISC-V a potenza ancora inferiore.
Lo sviluppo dell'IA può essere impegnativo e Maxim Integrated fornisce strumenti completi per un'esperienza di valutazione e sviluppo più fluida. Il MAX78000EVKIT # include ingressi audio e telecamera e demo in esecuzione pronte all'uso per l'individuazione di parole chiave di vocabolario di grandi dimensioni e il riconoscimento facciale. La documentazione completa aiuta gli ingegneri ad addestrare le reti per il MAX78000 negli strumenti a cui sono abituati a utilizzare: TensorFlow o PyTorch.
Vantaggi principali
- Bassa energia: l'acceleratore hardware abbinato a microcontrollori Arm M4F e RISC-V a bassissima potenza sposta l'intelligenza verso il bordo a meno di 1/100 di energia rispetto alle soluzioni integrate più vicine della concorrenza.
- Bassa latenza: esegue funzioni di intelligenza artificiale a livello periferico per ottenere insight complessi, consentendo alle applicazioni IoT di ridurre o eliminare le transazioni cloud e taglia la latenza di oltre 100 volte rispetto al software.
- Alta integrazione: il microcontrollore a bassa potenza con acceleratore di rete neurale consente insight complessi e in tempo reale nei dispositivi IoT alimentati a batteria.
Disponibilità e prezzi
- Il MAX78000 è disponibile presso i distributori autorizzati; prezzi disponibili su richiesta.
- Il kit di valutazione MAX7800EVKIT # è disponibile per $ 168.
- Per dettagli sulle soluzioni di intelligenza artificiale di Maxim Integrated, visitare