Al via entro l’anno una piattaforma pensata per aiutare le persone a capire da quali condizioni o disturbi possano essere affette. Partendo dalle foto della pelle, dei capelli e delle unghie
All’ultima I/O, la conferenza dedicata agli sviluppatori, Google ha presentato un gran numero di novità. Si va dalla cybersicurezza per le password su Chrome all’integrazione dei sistemi Wear OS e Tizen di Samsung per i dispositivi indossabili fino alla versione beta di Android 12 o a nuovi sistemi di videochat in 3D. Su tutte, al centro ci sono state e ci saranno ancora per giorni fra workshop e sessioni per gli esperti, le potenzialità dell’intelligenza artificiale. Per esempio nell’elaborazione e nello scambio del discorso naturale con gli utenti in carne e ossa. Ma non solo. Anche per intervenire con precisione in alcune questioni di salute.
Nel corso dell’evento, infatti, Big G ha presentato una sorta di “web tool”, cioè uno strumento web che sfrutta proprio le enormi potenzialità dell’intelligenza artificiale di casa Mountain View per aiutare le persone a identificare problemi di salute e possibili disturbi a partire dalle foto della pelle, dei capelli e delle unghie. Una versione pilota dovrebbe essere lanciata entro l’anno, per ora è stata appunto mostrata solo una dimostrazione.
In cosa consiste lo strumento? Facile. L’idea è che gli utenti possano utilizzare la fotocamera del loro smartphone per caricare foto dell’area che dà problemi, ad esempio un rash cutaneo, una serie di bolle mai avute prima o simili manifestazioni anomale sulla pelle. Dovranno poi rispondere a una serie di domande di anamnesi e su eventuali altri sintomi che stiano accusando. Come risultato, la piattaforma di Google fornirà una serie di possibili condizioni da una lista di ben 288 patologie che è stata allenata a riconoscere. Ovviamente non si tratta di una diagnosi ma solo di un modo per spingere le persone a prendere coscienza del possibile problema e rivolgersi al più presto a uno specialista.
La decisione di progettare e rilasciare (prossimamente) uno strumento di questo tipo è legato alla prevalenza delle domande relative alle condizioni e alle patologie dermatologiche: “Le persone chiedono continuamente a Google chiarimenti su questi aspetti – ha spiegato Karen DeSalvo, responsabile della salute a Google Health, a The Verge. Nel mondo, fra l’altro, c’è una certa carenza di dermatologi. Per cui l’idea è supportare le persone sulle condizioni potenziali, senza doversi rassegnare a ore e ore di ricerche online dovendo capire da sé se i sintomi accusati corrispondano o meno a quelli descritti magari negli articoli o in caotici forum specializzati.
Come è stato addestrato il sistema
Il sistema è stato addestrato su milioni di immagini di problemi della pelle, migliaia di scatti di pelle in buone condizioni e dandogli in pasto anche 65mila immagini di diagnosi cliniche. Ovviamente il modello ha bisogno di conoscere età, sesso, dermotipo ed etnia per poter suggerire possibili patologie. I risultati? Testato su mille immagini di problemi dermatologici da pazienti di tipo totalmente diverso, lo strumento ha individuato la condizione corretta all’interno dei primi tre suggerimenti l’84% delle volte. E nel 97% dei casi ha comunque suggerito il disturbo effettivo nella lista dei risultati.
Le ricerche
Un lavoro che ha fondamenta solide, visto che si basa su precedenti ricerche di Big G, pubblicate la scorsa primavera su Nature Medicine, in cui si spiegava come la propria AI fosse in grado di identificare 26 comuni problemi della pelle con lo stesso livello di affidabilità dei dermatologi in carne e ossa. E lo scorso aprile il gruppo ha pubblicato un’altra indagine su Jama in cui si spiega come questi strumenti possano essere molto utili a medici non specializzati in dermatologia per aiutare i propri pazienti. Intanto, arriveranno altri test sul campo insieme a un team della Stanford University mentre l’Unione Europea ha già fornito a questo sistema la certificazione di dispositivo medico di classe I, a basso rischio.