In collaborazione con |
Un set di hardware e software pensato per migliorare l’impiego dell’intelligenza artificiale nel mobile. A cominciare dal riconoscimento degli oggetti nelle immagini
Project Trillium è un prodotto 3-in-1: un processore, un co-processore e un kit di sviluppo software pensato per sfruttare al meglio la tecnologia del machine learning, una branca dell’intelligenza artificiale, sui dispositivi mobile e non solo.
L’unione fa la forza
ARM, chip-designer britannico che vende i suoi progetti a chi poi li realizza fisicamente (Apple, Samsung, Huawei: tutti sono clienti di ARM), ha deciso di creare una piattaforma pensata appositamente per il machine learning: non si tratta di una prima assoluta, visto che il Kirin 970 di Huawei e lo Snapdragon 845 di Qualcomm dispongono già di unità interne dedicate a questo tipo di algoritmi.
Leggi anche:Â Huawei: tutto di AI il mio Kirin voglio vestire
Quello che ARM vuole fare, però, è creare un prodotto che vada oltre il semplice impiego in uno smartphone: si parte dal processore ARM ML, formato da un modulo fisso e da uno programmabile, disegnato appositamente per svolgere le operazioni tipiche di un algoritmo di machine learning. I due aspetti si integrano tra loro: la parte fissa è quella pensata per la massima efficienza energetica, quindi per abbattere i consumi, mentre il layer programmabile lascia la porta aperta a funzioni e operazioni che potranno essere studiate e implementate nel prossimo futuro per compiere compiti specifici.
ARM OD è il secondo elemento del puzzle: in questo caso parliamo di un processore, o meglio forse un co-processore, specializzato per la Object Detection (OD, appunto). Il compito di questa unità è quello di analizzare le immagini e identificare parti del corpo da tradurre in metadati: informazioni che possono essere utili sia per il riconoscimento biometrico che per tecnologie di sorveglianza, rendendo questo chip utile anche per essere montato da telecamere e altri dispositivi analoghi per il controllo del territorio.
Infine c’è ARM NN SDK: sigla complessa che racchiude una serie di librerie, open source, pensate per consentire di sfruttare la tecnologia delle reti neurali (Neural Networks: NN) attingendo alle capacità dei processori basati su core Cortex-A e Cortex-M, sulle GPU di classe Mali (la G72 dispone di un unità di calcolo appositamente studiate), sui nuovi processori appena descritti (ARM ML e ARM OD) e ovviamente anche altre risorse hardware presenti non direttamente sviluppate da ARM. L’SDK serve a riunire tutto, insomma, fa da ponte fra i diversi elementi.
Project Trillium è già pronto?
L’annuncio odierno di ARM, come sottolineato da Anandtech, è un po’ diverso dal solito. Il rilascio di queste novità avverrà gradualmente, con le prime tecnologie relative a ARM OD e ARM NN SDK pronte per i partner già a metà 2018, mentre il processore ARM ML sarà disponibile a partire dall’inizio del 2019.
Quello che ARM vuol far passare come messaggio è che non si tratta di un semplice marchio “machine learning” appiccicato su un prodotto, bensì di un approccio sistemico che interessa la sua intera offerta e che si evolverà nel tempo. L’ultima infornata di Cortex-A e GPU Mali conteneva i primi passaggi di questa visione, che ora prosegue con gli annunci relativi al machine learning e che in futuro si arricchirà di ulteriori tasselli.
Come già detto, la parte relativa al software – indispensabile per rendere pratico e conveniente l’impiego di questi strumenti – è pienamente compatibile con ecosistemi esistenti come Caffe, Caffe2, TensorFlow ecc: è un tratto comune a tutti gli annunci fatti in tal senso in quest’ultimo anno, segnale che fortunatamente questo mercato si sta riunendo attorno a degli standard comuni di sviluppo. Questo significherà che chi sviluppa potrà portare il proprio prodotto su tutte le piattaforme, e al contempo che l’utente finale non dovrà preoccuparsi troppo di cosa acquistare visto che i vantaggi del machine learning si faranno strada dappertutto.