Fabio De Felice, professore di ingegneria all’Università degli Studi di Napoli Parthenope, imprenditore “seriale” e fondatore di Protom, dialogando con il giornalista Roberto Race prova a esplorare quali possano essere i rischi dell’innovazione e se c’è la necessità di pensare un’etica per lo sviluppo. Un estratto dal libro “Il mondo nuovissimo” (Luiss Edizioni).
Navigando i mari della rete siamo giunti alle porte di un mondo nuovissimo. È il continente inesplorato delle intelligenze artificiali, dei sistemi di digital twin e del deeplearning; ma è anche quello degli squilibri della società digitale. Sono questi alcuni dei temi al centro che animano il dialogo tra Fabio De Felice, Professore di ingegneria all’Università degli Studi di Napoli Parthenope, imprenditore “seriale” e fondatore di Protom, nonché componente della taskforce Digitalization del B20, il Business Forum del G20 e il giornalista Roberto Race, segretario generale di Competere.Eu e membro della Taskforce Finance & Infrastructure del B20, il Business Forum del G20, entrambi autori de “Il mondo nuovissimo Dialoghi su etica e intelligenza artificiale” (Luiss Edizioni).
Race: Negli ultimi due secoli, le trasformazioni radicali introdotte dall’evoluzione industriale hanno avuto, come caratteristica fondamentale, una velocità dolce e accettabile. Il riverbero sui processi produttivi si è manifestato con una frequenza lunga e con effetti misurabili, in un lasso di tempo generalmente non inferiore a cinquant’anni. A partire dalla fine del Novecento, invece, il lasso di tempo in cui si sono verificati cambiamenti di profondo impatto si è via via ridotto, fino a un “range” di tre-sette anni, e questi cambiamenti hanno avuto effetto più diretto e profondo sulla vita delle persone. L’impatto della tecnologia sulle nostre vite sta crescendo rapidamente e algoritmi di IA vengono applicati in diversi ambiti. È praticabile un utilizzo delle tecnologie che non comprometta la struttura ontologica dell’umano?
De Felice: Mezzo secolo è un periodo sufficientemente lungo per tollerare le ricadute sugli individui circa i cambiamenti tecnologici che il mercato si occupa di propagare. A causa di quella che potremmo definire una strategia di sopravvivenza psichica, l’apertura al cambiamento, nell’essere umano, è frenata (e controbilanciata) dall’abitudine, forza inerziale che resiste alle sollecitazioni del dinamismo e all’inclinazione al cambiamento permanente, che è una fra le principali espressioni dello spirito del nostro tempo. Metabolizzare un’innovazione, che incide sulla “carne viva” dei consumatori e, quindi, sul corpo sociale, richiede un tempo fisiologico, certamente più lungo di tre-sette anni. Per di più, come abbiamo osservato a proposito delle campagne di vaccinazione anti Covid-19, ogni impulso alla rapidità, in campi come la salute e la sicurezza, reca con sé il sospetto di essere “eterodiretti”, quindi, ancora e sempre, in balia del dominio della tecnica.
Questo confligge non poco con la quickness of change che sembra, viceversa, requisito prioritario del digitale. Una rapidità che, oltretutto, si propone con intensità crescente, destando riserve e timori, i quali vanno ad aggiungersi, diciamo pure, ai soliti sospetti, sortiti dall’intelligenza artificiale…
Va da sé che la velocità raggiunta dal progresso tecnologico non ha precedenti nella storia umana. L’apparato percettivo-sensoriale dell’uomo sembra adeguarsi, con fatica e non senza difficoltà, agli upgrade dell’universo virtuale, che, tra l’altro, sembra aver raggiunto dimensioni fuori controllo, rispetto alle stesse dimensioni fisiche della realtà. Questo avviene perché ciò che esiste e ha significato è, ormai, frutto di un sistema di interconnessione permanente, costituito dall’interazione tra virtuale e reale. E questo pone, già, una prima, ineludibile questione etica…
Quale?
La supremazia degli algoritmi sull’agire umano, per la quale l’IA, invece di alleviare il bisogno di sicurezza delle persone, ne approfondisce, oltremodo, il senso di smarrimento labirintico: questo, agli inizi del Novecento, lo chiamavamo “alienazione”, considerandolo un tratto tipico della condizione contemporanea. Il labirinto è diventato una prigione, dove le piattaforme tecnologiche, deputate a renderci la vita più facile, a causa del tracciamento permanente dei nostri modelli di comportamento, condizionano la libertà di scelta. Quello che sembra perduta, ineluttabilmente, pare essere la freedom of choice su cui si fonda il concetto di “diritti individuali” nelle società a democrazia matura, come quelle occidentali.
In effetti, affidando i nostri dati ai signori delle piattaforme, consegniamo le nostre individualità alla supremazia degli algoritmi?
È un dispotismo dolce, subliminale, all’altezza dei tempi moderni, quello che chiede all’utenza, in cambio della fruizione senza costo dei servizi in rete, la patria potestà su una messe di informazioni che riguardano i nostri gusti estetici, i nostri giudizi, gli orientamenti politici e religiosi e – infine – le passioni e le emozioni, che ci distinguono nel profondo. Il progresso tecnologico consente di ricostruire, come in un identikit, la trama della nostra concezione del mondo. Non si sfugge a questa realtà dei nostri giorni, poiché è facile constatare che possiamo uscire di casa anche senza patente e portafogli, ma non potremmo mai farlo senza avere con noi il cellulare: un medium che ci colloca nel mondo, ma al tempo stesso, ci consegna al mondo, senza tregua e senza rimedio. Al culmine di questo progressivo alienare le proprie facoltà, c’è l’IA all’acme del trapasso dal processo al prodotto: dalla fungibilità industriale, tutta interna alla dimensione della manifattura, al fallout che ne segue sui gruppi e gli individui che compongono il tessuto sociale.
Può fare qualche esempio per chiarire meglio questo assunto?
Certo! L’automazione robotica, che caratterizza la vita della fabbrica, si è estesa ai dispositivi, dei quali tutti siamo divenuti dipendenti, anche al di fuori delle mura aziendali. Lo abbiamo potuto osservare, in particolare, con il lockdown, che ha avuto, in questo processo, una funzione catalizzatrice. Al tempo delle grandi restrizioni dovute alla pandemia, digitale, connessioni, lavoro da remoto, cloud computing, reti 5G compongono, “salvificamente”, l’ambiente in cui viviamo. L’altra faccia di questa condizione contemporanea è la sensazione di essere giunti all’avvento del “capitalismo di sorveglianza” di cui parla la sociologa e saggista statunitense Shoshana Zuboff. Non è così? Il digitale consente di rilevare il tracciato dei nostri più minuti orientamenti, mediante la mappa degli accessi quotidiani effettuati in qualità di naviganti, e di trasformarli in un patrimonio informazionale, da cui è possibile ricavare profitti. Essere in rete conferisce la percezione di un potere acquisito con la connessione e, al tempo stesso, ci scaglia nella condizione, appunto, di “irretiti”: prigionieri da controllare e da manipolare. E questo stato d’animo diffuso è un magmatico coacervo, in cui ribolle un impulso di rivalsa contro ogni forma di persuasione occulta.
Viene da pensare ai movimenti No Vax, i quali, com’è noto, finiscono per attribuire alla somministrazione di un vaccino il compito di introdurre microchip nel corpo di miliardi di persone a scopo di controllo sociale, di sapore orwelliano.
La domanda appassionante, che si staglia dal fondale opaco, vero o presunto, dello strapotere del digitale, è la seguente: è possibile, con la tecnologia, giungere alla riaffermazione della centralità dell’essere, limitando i danni derivanti da un uso pervasivo e sregolato delle più recenti innovazioni?
È praticabile un utilizzo delle tecnologie che non comprometta la struttura ontologica dell’umano? Ancora: è possibile considerare la tecnologia come rimedio, anziché subirla come minaccia, nel solco di scienziati come Bernardt Stiegler, che arriva a parlare della tecnologia come pharmacon, sostanza curativa – o anche antidoto – che cura l’anima di chi è utente?
Volendo approfondire il tema, va riconosciuto anzitutto un aspetto, vale a dire la neutralità che ab initio viene attribuita alla tecnologia come strumento.
Per dirla tutta, cosa si richiede alla IA quando è noto che l’introduzione di fattori etici non dipende dalla IA ma dall’uso che ne fa l’uomo?
Rammentiamo che, ab initio, agisce un approccio che è figlio proprio della fase primordiale dell’IA, quando essa si manifesta come automatismo robotico, che accelera e migliora le prestazioni umane, ma solo in fase produttiva. Siamo ancora in un ambito indifferenziato, che precede il punto di vista etico, poiché interno al perimetro della realtà industriale e, senza fallout riferibili al vissuto di individui singoli, non c’è ragione di pensare che l’intelligenza operazionale dei robot possa dare fastidio a chicchessia. Quando l’ambito che concerne applicazioni del sistema di intelligenza artificiale chiama in causa, viceversa, azioni individuali, ben al di là del perimetro della fabbrica – quali, ad esempio, l’approvazione di richieste di prestito ipotecario, l’e-recruiting, il credito online o pratiche tariffarie personalizzate –, vale a dire decisioni dirette ai singoli individui assunte sulla base di specifiche informazioni personali, qual è il feedback? Cosa pensiamo del fatto che, decisioni in capo a sistemi automatizzati possano causare ripercussioni ingiuste per le persone (e per le imprese)?
Il primo elemento che andrebbe considerato, quando si affronta il tema dell’etica del digitale è quindi la discriminante che segue: evitare processualità decisionali del tutto prive della supervisione umana.
Nessun algoritmo, infatti, può garantire l’equità della decisione automatica o assicurare che una tale deliberazione non determini distorsioni, dal punto di vista etico. Nessuno accetterebbe anche la lontana ipotesi che da un algoritmo possa derivare un rischio di discriminazione. L’importanza di ottenere algoritmi equi e corretti è cruciale. Solo la supervisione umana può permettere di prevedere la possibilità di correggere o sovvertire una conclusione frutto di un sistema automatizzato.
Riassumendo, andrebbe stabilito, per regola, il richiamo dei princìpi etici ogni qualvolta le decisioni automatizzate abbiano a che fare coi dati personali di un individuo. Ma un altro aspetto attiene al livello di affidabilità della tecnologia quando essa amministra dati personali. Spam, phishing, hack di email, trafugamento dei dati personali – per non dire dell’hack del conto bancario o della carta di credito – sono fenomeni che hanno interessato più della metà della popolazione mondiale. Due terzi in Europa e l’80% negli Stati Uniti è la quantità di persone che è rimasta vittima di un uso improprio dei dati.
Appare evidente che la scarsa sicurezza informatica, applicata alla protezione dei dati, ha implicazioni di carattere etico, oltre che tecnologico. A favore della IA etica, viceversa, c’è la sua capacità di stimolare la crescita economica sostenibile, con un ruolo sempre più importante in aree come l’assistenza sanitaria, l’istruzione e l’ecocompatibilità, come si evince dal documento, elaborato dalla Commissione europea, intitolato Linee guida etiche per l’IA affidabile (2019). Indirizzo che trova conferma anche nella proposta di regolamento sull’approccio europeo all’intelligenza artificiale pubblicata il 21 aprile 2021, in cui vengono valutati i rischi connessi a questo strumento, con l’obiettivo di “salvaguardare i valori e i diritti fondamentali dell’UE e la sicurezza degli utenti”. Fino ad arrivare alla più recente approvazione da parte delle istituzioni europee del primo regolamento al mondo sull’intelligenza artificiale, noto come Artificial Intelligence (AI) Act, nel quale si dà inizio a un percorso di standardizzazione di regole e di approccio sul tema dell’IA. Il regolamento Europeo sull’intelligenza artificiale si fonda proprio su una serie di principi etici e di tutela dei diritti fondamentali della persona. La vera novità rispetto agli approcci in discussione negli Stati Uniti e in Inghilterra è la traduzione di questi principi in misure e restrizioni cogenti estremamente forti e precise. Ed è proprio in questa sua forza che potrebbe annidarsi il punto debole del nuovo regolamento. In Europa abbiamo ancora pochissima esperienza sugli strumenti e le misure adottate, mancano competenze e sistemi di valutazione da parte dei governi e degli organi di vigilanza, così come nella maggior parte delle imprese che investiranno nell’intelligenza artificiale, comprando tecnologia altrui. Altre criticità non banali sono la frammentazione regolatoria del mondo digitale e quella relativa al modello di governo della vigilanza.
E che dire dell’IA che può essere utilizzata, come strumento di primo piano, per rimediare alla discriminazione? Intendo dire che alcuni sistemi di IA possono essere utilizzati per testare e rilevare discriminazioni che possano emergere all’interno di un set codificato di dati…
L’IA e il deep learning devono basarsi su una tecnologia che resti rispettosa della dignità umana e dei fondamentali diritti individuali, quali la privacy, la trasparenza e il corretto uso dei dati. Inoltre, l’IA può giocare un ruolo importante nella tutela dei cosiddetti “diritti diffusi”, quali il rispetto per l’ambiente o la promozione dell’economia sostenibile. Una Carta dei valori che riguardi il rapporto tra intelligenza artificiale, impresa e società potrebbe rappresentare una fonte di ispirazione etica e la comunità scientifica può aiutare le aziende ad accelerare l’adozione di soluzioni di IA etiche, dove si riconosce che la dignità dell’essere umano è sacra e non negoziabile. La focalizzazione è sulla intelligenza umana in cui agisce l’intenzionalità (capacità di interiorizzare sia oggetti fisici che oggetti astratti come i doveri e i valori). L’IA, che è straordinariamente capace di risolvere problemi più e meglio dell’uomo, manca tuttavia di “intelligenza generale”; infatti, nessun sistema di IA ha la capacità di svolgere compiti per i quali non è programmato.
Le potenzialità dei sistemi di intelligenza artificiale sono molteplici, ma un algoritmo deve avere un uso limitato in un contesto in cui agiscono questioni come le esperienze di vita e interrogativi che riguardano la coscienza.
L’essere umano è un sistema particolarmente complesso, in cui incidono, profondamente, fattori come l’umana dignità e la responsabilità morale, inapplicabili alle macchine e che la tecnologia non contempla, né è in grado di spiegare. Inoltre la rimozione dei pregiudizi, che non è esclusa dall’uso di un algoritmo, perché i sistemi di IA possono soffrire dell’inclusione di pregiudizi, è questione aperta per la quale non esiste una soluzione tecnica. Va ribadito che l’uomo non è un ente composto di sola ragione, perché gli è propria una capacità creativa che non potrà mai essere fagocitata dalla prevedibilità algoritmica e le sue facoltà si sprigionano, ampiamente, solo quando avverte di essere libero di riscoprire il suo io e di perseguire la propria individuazione. Tutto ciò non coincide in alcun modo con la sua identità digitale, nemmeno quando essa si manifesta, magistralmente, come alterità virtuale.
***
Quali sfide attendono la società di domani? Quali sono i rischi e quali le possibilità offerte dallo sviluppo tecnologico? Per la rubrica “Futuro da sfogliare” un estratto del libro “Il mondo nuovissimo” (Luiss Edizioni) di Fabio De Felice, professore di ingegneria all’Università degli Studi di Napoli Parthenope, imprenditore “seriale” e fondatore di Protom nonché componente della taskforce Digitalization del B20, il Business Forum del G20 e Roberto Race, consulente in corporate e reputation strategy per multinazionali, giornalista, segretario generale di Competere.Eu e membro della Taskforce Finance & Infrastructure del B20, il Business Forum del G20.