Il Parlamento europeo ha approvato a larga maggioranza (523 voti favorevoli, 46 contrari e 49 astensioni) l’AI Act, il primo testo che a livello internazionale punta a disciplinare il settore dell’intelligenza artificiale. L’UE è al lavoro da diversi anni su questo fronte, con l’obiettivo di fornire un framework legale per quanto riguarda ciò che le aziende possono e non possono fare con l’AI generativa. Thierry Breton, il commissario UE che ormai da tempo ci ha abituato a un linguaggio social molto schietto, ha postato su X: «Democrazia: 1 / Lobby: 0». Vediamo dunque che cosa comporta l’AI Act approvato dal Parlamento europeo, che ora attende solo il periodo standard prima della pubblicazione in Gazzetta Ufficiale.
Ai Act: è tutta una questione di rischi
Stando al nuovo testo dell’AI Act, appena approvato, è prevista una classificazione dei rischi collegati all’impiego di software di intelligenza artificiale. Quattro le gradazioni: inaccettabile, alto, basso e minimo. Secondo quanto stabilito dall’UE i programmi con grado di rischio inaccettabile non possono essere attivi sul territorio europeo.
Leggi anche: L’AI Act è importante, ma il Data Act non è da meno
Uno dei casi più noti di AI con rischio inaccettabile è quello del social scoring, un punteggio sociale che verrebbe attribuito a ciascun cittadino attraverso sistemi di sorveglianza. La deriva di tutto questo porterebbe a un’Europa in cui ci sono cittadini di serie A e cittadini invece molto più penalizzati in base unicamente al controllo sui loro comportamenti nella vita di tutti i giorni.
Per quanto riguarda invece i software classificati ad alto rischio, sono ammessi nel mercato europeo a condizioni però stringenti per gli operatori. Viene infatti richiesta trasparenza, documentazione chiara e periodica, impegno per contrastare i bias.
Come si legge sul sito del Parlamento europeo, nella maggior parte dei casi il sistema di riconoscimento biometrico mediante l’AI è vietato: “Le eccezioni ristrette sono rigorosamente definite e regolamentate, ad esempio quando necessario per la ricerca di un minore scomparso, per prevenire una minaccia terroristica specifica e imminente o per individuare, individuare, identificare o perseguire un autore o sospettato di un reato grave”.
E i chatbot in che categoria di rischio sono?
I sistemi classificati a rischio limitato comprendono, ad esempio, i chatbot. Contenuti scritti, audio e video devono essere espressamente pubblicati e presentati come prodotti dall’intelligenza artificiale. “I fornitori dovranno inoltre garantire che i contenuti generati dall’IA siano identificabili”, si legge sempre sul portale del Parlamento europeo.
AI Act, rischio minimo. In che senso?
L’AI Act appena approvato e presto legge consente l’uso gratuito dell’AI a rischio minimo. Sotto questa definizione rientrato ad esempio “videogiochi abilitati per l’IA o filtri antispam”. La stragrande maggioranza dei sistemi di AI utilizzati nell’UE rientra in questa categoria.