Orientamenti e iniziative per la creazione di una cultura del dato e lo sviluppo di una strategia nazionale per l’adozione della AI: intervista all’onorevole Alessandro Fusacchia.
L’interesse per i sistemi artificiali è cresciuto dagli anni 90 ad oggi, accompagnato da una sempre maggiore adozione di algoritmi di apprendimento automatico (machine learning) per specializzarli verso skill di analisi o deduzione secondo necessità. Nell’ambito della ricerca sono invece numerosi i progetti di apparati autonomi, automi e bot specializzati nei diversi campi applicativi.
In Italia il tema non è affatto nuovo: l’Associazione Italiana per l’Intelligenza Artificiale (AIxIA) fin dal 1988, anno della sua fondazione come associazione scientifica senza fini di lucro, si prefigge lo scopo di promuovere la ricerca e la diffusione delle tecniche proprie dell’Intelligenza Artificiale. L’AIxIA è membro della European Association for Artificial Intelligence EurAI (EurAI precedentemente ECCAI) a sua volta fondata nel 1982 per rappresentare la comunità Europea dell’Intelligenza Artificiale. In Europa infatti, il tema è molto sentito, tanto che la vicepresidente della Commissione Margrethe Vestager, intervenendo presso la commissione speciale per l’Intelligenza Artificiale (AI) del Parlamento Ue ha dichiarato come si pensi ad un “investimento di oltre 20 miliardi di euro l’anno per il prossimo decennio per i centri di eccellenza collegati alle aziende e un sostegno speciale dedicato agli hub per l’innovazione digitale per investire nelle competenze, nelle infrastrutture e nei super computer”. Pur sottolineando l’importanza dell’impatto che l’adozione e lo sviluppo dell’AI possono dare l’attenzione della Commissione UE è anche rivolta all’impatto per l’ambiente, dato che i consumi di CO2 attualmente comportano 5 volte il numero delle attuali emissioni chiudendo con una indicazione centrata sul la capacità di controllo: “”Nessuna azienda adotterà nuove tecnologie se non sarà sicura di poterle controllare“.
Periodicamente esperti e appassionati di questa branca tecnologica sono riuniti in convegni e workshop specifici. L’ultimo in ordine di tempo quello organizzato dall’osservatorio intelligenza artificiale dell’ANSA che a fine ottobre ha richiamato l’attenzione sull’esigenza che la AI si sviluppi mettendo al centro l’etica, per garantire che in futuro le società che adottano le intelligenze artificiali possano ancora rispecchiare i valori di giustizia, equità e sostenibilità. Un messaggio indirizzato anche alla politica per un intervento teso a creare delle regole per la generazione di algoritmi di AI, affinché la componente etica ne costituisca una solida base senza la quale è difficile “fare una rivoluzione che porti bene e progressi a tutti” (Giulio Anselmi Presidente Ansa). Moltissime le applicazioni possibili: dalla sanità all’industria, dal giornalismo alle attività di analytics in vari settori di mercato. Anche in Vaticano l’interesse per l’AI è cresciuto significativamente e sempre per dibattere sulle implicazioni etiche a fine novembre sono state riunite personalità internazionali per firmare il documento di Rome Call for AI Ethics proposto dal Vaticano tramite l’accademia Pontificia per condividere un testo a sostegno di un approccio etico alle nuove tecnologie. Nel documento, il Vaticano propone sei principi (trasparenza, inclusione, responsabilità, imparzialità, affidabilità, sicurezza e privacy) per evitare un approccio discriminatorio delle tecnologie.
I passi italiani verso l’Intelligenza artificiale
Uno dei primi passi nel percorso istituzionale verso l’AI è stata la costituzione della Task Force IA nel 2017 dall’Agenzia per l’Italia digitale per redigere un primo studio relativo agli impatti dell’Intelligenza artificiale sull’evoluzione dei servizi pubblici. Al termine, nel 2018 è stato pubblicato il Libro Bianco sull’Intelligenza Artificiale presentato nel marzo dello stesso anno. Tutte le attività della task force sono state documentate nel sito dedicato all’iniziativa. Nel 2019 l’AGID ha contribuito alla stesura delle Proposte per una Strategia nazionale sull’Intelligenza Artificiale, elaborata dal gruppo di esperti istituito presso il Mise e posta in consultazione pubblica dal 19 agosto 2019 al 13 settembre 2019, al fine di raccogliere osservazioni e suggerimenti per un raffinamento della strategia e nuovamente pubblicata per la consultazione finale è a luglio 2020.
L’ultimo atto nella serie di iniziative italiane istituzionali riguarda i lavori dell’intergruppo sull’Intelligenza artificiale che a fine settembre di quest’anno ha incontrato il presidente del Consiglio dei Ministri Giuseppe Conte a Palazzo Chigi per “dare un contributo alla definizione della strategia nazionale e far sì che l’Intelligenza Artificiale, vista come strumento per lo sviluppo sostenibile, in Italia e a livello europeo, diventi una priorità per Governo e Parlamento” ha chiarito l’On. Alessandro Fusacchia. A sua volta il presidente Conte ha commentato come il quadro europeo sia promettente aggiungendo che “l’Intelligenza artificiale debba entrare nel Piano che stiamo mettendo a punto, anche grazie al dialogo proprio con i parlamentari, per accedere ai fondi europei di Next Generation EU”. Nel corso dell’incontro è stato anche ricordato il raccordo che si sta costruendo con altri parlamentari del Parlamento europeo e di altri parlamenti nazionali dei Paesi europei, per organizzare una rete paneuropea sull’AI.
Abbiamo incontrato l’On. Alessandro Fusacchia per approfondire gli obiettivi e lo sviluppo delle attività in Italia in materia di IA
L’intervista ad Alessandro Fusacchia
Quali sono le questioni etiche di adozione legate all’AI per chiarirlo ai meno esperti di queste tematiche?
Con l’intergruppo parlamentare stiamo facendo incontri ed organizzando momenti di confronto per aumentare la consapevolezza interna degli stessi parlamentari e per confrontarci con gli esperti della società civile, media e cittadinanza. In questo contesto di lavoro, la prima questione da affrontare sulla AI è sempre la dimensione etica in relazione all’enorme potenziale di calcolo per banche dati e per l’automazione dei processi decisionali. Queste scelte devono includere considerazioni etiche a causa delle relative implicazioni di arbitrio e consapevolezza, ovvero la capacità di decidere implica considerazioni etiche. L’esempio piu’ semplice riguarda l’automazione alla guida: se un’auto a guida autonoma per evitare un pedone, debba scegliere di puntare verso il fosso con il rischio di far morire il conducente o investire il pedone per salvaguardare l’autista è senz’altro una scelta che richiede fondamento di etica. Con il Presidente Conte è stato discusso come sia necessario un quadro regolatorio nazionale ed europeo per definire il perimetro di sviluppo degli algoritmi di AI. Nell’Intergruppo siamo convinti che sebbene l’AI supporta la presa di decisioni, l’ultima istanza del processo decisionale, deve essere dell’uomo e a tal fine vorremmo anche chiedere una revisione della Costituzione affinché si specifichi che siamo uno stato di diritto ma di diritto “umano”. Nell’esempio quindi, sebbene il guidatore sia supportato dal sistema di AI, l’ultima decisione su cosa fare in una simile situazione emergenziale deve restare al conducente umano del veicolo.
Dato l’obiettivo sulla formazione di una strategia nazionale per l’adozione della AI quali sono gli ambiti secondo lei prioritari per avviare questa adozione?
Non sta al parlamento o ai politici, definire quali sono gli ambiti di mercato più promettenti, ma certamente ci sono ambiti in cui lo sviluppo delle AI può avere impatti importanti, ad esempio, per combattere disuguaglianze o per garantire opportunità per le nuove generazioni. Sicuramente per il SSN è fondamentale il rapporto fra salute e adozione di algoritmi di AI. È talmente considerato un “fattore chiave”, che un gruppo di parlamentare insieme ad alcuni rappresentanti della società civile (gruppo “salute in movimento”) hanno risposto alla consultazione pubblica, con alcune proposte nella strategia nazionale emessa dal MISE. Si va dalla telemedicina, alla diagnostica o alla drug discovery. Esiste poi una questione di trasferimento dei benefici della AI a tutte le aziende del tessuto nazionale e in questo caso anche se con industria 4.0 sono state migliorate le dotazioni tecnologiche con quelle più efficienti, ancora giacciono nei magazzini perché non se ne sanno sfruttare le potenzialità, non si sa gestire la mole di dati che è prodotta. Quindi nasce l’esigenza di dotarsi del capitale umano per un uso ottimizzato di quello che si è comprato e affinché l’uso della AI si svolga di pari passo ad una gestione ultramoderna del trattamento dei dati (accorta e accurata). Le strart up sono fondamentali in questo processo, sia per gli ambiti di nicchia ed eccellenza tecnologica (nuove tecnologie e algoritmi sempre più intelligenti), sia x i servizi che servono al tessuto produttivo delle medie imprese italiane. Sarebbe anche utile rafforzare il rapporto fra l’AI e le industrie culturali e creative, coniugando l’innovazione tecnologica con le industrie più tradizionali che tutelano il made in italy e con tutti i contesti di mercato che esaltano la cultura alla bellezza: cinema, turismo, recupero borghi interni.
Come sta lavorando oggi l’intergruppo parlamentare sul tema AI e che scadenze e obiettivi si è dato?
Oggi ragioniamo mediante occasioni di confronto pubblico, formazione per i parlamentari, incontri su tematiche verticali specifiche ma anche esperimenti come quello a Modena con il sistema Lucy per portare l’AI nelle scuole. È tuttavia cruciale costruire una vera cultura del dato, perché le AI ne producono molti e dobbiamo essere pronti a questa mole di informazioni.Come scadenze e obiettivi, stiamo ragionando sulla legge di bilancio con interventi trasversali fra più parlamentari che fanno parte dell’intergruppo, ma dobbiamo riprendere il ragionamento sulla strategia nazionale per rivederla e poi attuarla. Vorremmo anche depositare proposte di legge e fare in modo che l’intergruppo non abbia solo un impatto sulla dimensione culturale, divulgativa e di confronto pubblico, ma anche concreto nella fase quadro normativi con interventi specifici su alcune questioni.
Avete già affrontato i temi di sicurezza della AI per garantire la sicurezza dello strumento e consentire uno sviluppo e adozione sicura? Se no, come pensate di organizzarvi rispetto alla comprensione di questo delicato aspetto?
Ne abbiamo discusso più volte e alcuni sono più focalizzati di altri su questo tema, ma devo dire che essendo l’intergruppo molto variegato nella sua rappresentanza ci sono tante opinioni e non sempre concordi, quindi il tema sicurezza che spesso è associato a controllo o sovranità digitale presenta sfaccettature diverse. È uno dei temi su cui ci confrontiamo ma su cui non abbiamo sviluppato ancora una visione comune.