In fase di sperimentazione: gli utenti potranno segnalarli e la piattaforma li eliminerà in automatico. Anche se il problema rimane scovarli
Deepfake, video fasulli nei quali il volto di una persona viene perfettamente (o almeno, sempre più indistinguibilmente) sovrapposto alle azioni del protagonista di un filmato. E non solo. Con esiti a volte ironici, altre volte inquietanti e preoccupanti, altre ancora palesemente aggressivi, violenti e molesti. Un filone che, alla pari del mondo dell’universo dei meme, è cresciuto nella sottocultura del mondo dei forum e aggregatori in stile 4chan e nell’ultimo anno e mezzo si è affacciato anche nei media principali, lievitando in importanza e precisione. Si deve al fatto che le soluzioni di intelligenza artificiale diventano sempre più potenti e, al contempo, economiche. Avete presente il finto Matteo Renzi di qualche settimana fa a Striscia alla notizia su Canale 5? Ecco, quello è un deepfake (potete vederlo qui) anche se non dei migliori, che per giunta non venne neanche annunciato dai conduttori. Creando un bel po’ di confusione.
La mossa di Twitter
Ora anche Twitter passa all’attacco: ha appena introdotto nuove regole per combattere i deepfake, in particolare quando possano costituire una seria minacia “alla sicurezza fisica di una persona o condurre a violenza offline”. La svolta del social dell’uccellino è d’altronde chiara da tempo: importa, e molto, anche ciò che accade, o può accadere, fuori dal social rispetto ai provvedimenti che vengono presi online.
Dunque la piattaforma di Jack Dorsey ha annunciato di essere al lavoro su nuove regole per occuparsi di ciò che ha definito “media sintetici e manipolati”, ovviamente quelli che dovessero essere fatti circolare sul proprio sito. Foto, video e audio che siano stati alterati in modo significativo, specialmente per mettere in scena eventi o situazioni mai accadute, ricadranno totalmente sotto questa nuova etichetta i cui contenuti potranno essere segnalati dagli utenti o rimossi. Il gruppo ha spiegato perché, appunto, ha ben chiaro i danni potenziali che possono derivare da un simile avvelenamento dei contenuti.
La santa alleanza contro i deepfake
Si partirà tuttavia con un periodo sperimentale, per concedere agli utenti la possibilità di migliorare i meccanismi di segnalazione di questi contenuti ed evitare di farci finire in mezzo anche video di altro genere, magari del tutto e totalmente ironici e non realizzati con le tecniche usate per i deepfake. Tuttavia, dalle campagne disinformazione alle strategie, luride, di “revenge porn” fabbricato su misura, i rischi negli abusi dei deepfake sono molti. Proprio di recente anche Amazon si è unita alla Deepfake Detection Challenge, una sorta di iniziativa che unisce anche Microsoft, il Mit di Boston e l’università di Oxford, che punta a favorire lo sviluppo di strumenti informatici semplici da usare – oggi non ce ne sono se non a livello accademico – da mettere a disposizione di organizzazioni e governi per individuare con certezza i video alterati. Un’impresa non da poco.