La Commissione Europea ha presentato il piano per la lotta alla diffusione di contenuti illegali in Rete. Se non funziona, si passerà ad una legge
Ieri la Commissione Europea ha presentato alla stampa il suo piano d’azione nella lotta alla diffusione di contenuti illegali in rete di concerto con i Big Tech. Ma se questi non prenderanno provvedimenti, il prossimo passo sarà di carattere legislativo.
Il piano della Commissione
Bruxelles – Ad illustrare il nuovo documento erano presenti Andrus Ansip, Commissario Vice-Presidente per il Mercato Unico Digitale, Vera Jourova, Commissaria alla Giustizia e alla difesa dei Consumatori, Julian King, Commissario alla Sicurezza, e Mariya Gabriel, nuova Commissaria per l’Economia Digitale.
Non si tratta del primo passo in questo senso, sia a Bruxelles che nei singoli stati membri, da ultima la Germania, diversi provedimenti sono stati già adottati, più o meno vincolanti. È di maggio scorso infatti la presentazione dei primi risultati frutto dell’accordo della Commissione Europea, nella persona della Jourova, con Facebook, Youtube, Twitter e Microsoft per l’adozione di un codice di condotta condiviso nella lotta ai contenuti illegali online.
Un Regolamento, come ultima possibilità
Con il nuovo programma si prosegue su questo cammino: partire da una strategia di soft law, fatta di memorandum, codici di condotta, adozioni “spontanee” da parte delle OTT (Over the top) e, solo laddove non si raggiungano i risultati sperati, passare successivamente ad un nuovo Regolamento, con conseguenti sanzioni in caso di inadempienza.
Lo stato di diritto di applica online come offline. Non possiamo accettare un Digital Wild West e dobbiamo agire. Il codice di condotta che ho stipulato con Facebook, Twitter, Google e Microsoft mostra che l’auto regolamentazione può essere un buon approccio e funzionare. Ad ogni modo, se queste compagnie non daranno il loro contributo, ci penseremo noi a farlo – Vera Jourova
La Commissione, come ha sottolineato Ansip, non vuole definire quali siano i contenuti illegali, cosa che le leggi nazionali e comunitarie già fanno, ma vuole favorire la pronta rimozione di tali contenuti e crede che, al di là dei grandi meriti delle OTT, queste abbiamo precise responsabilità nel garantire e agevolare questo processo. In caso contrario verrebbe meno la fiducia dei cittadini nell’online, con ripercussioni economiche per l’economia digitale.
Secondo la Commissione i risultati sono incoraggianti
Dal momento in cui sono state adottate, le diverse iniziative della Commissione hanno visto aumentare le percentuali di rimozione di contenuti illegali:
- nel caso dell’odio online, il report di Giugno dice che c’è stato un incremento dal 28% al 59% di contenuti che hanno ricevuto una notifica nell’arco di 6 mesi, con gorsse differenze tra le varie piattaforme; è aumentata inoltre la velocità con cui sono rimossi tali contenuti anche se il 28% ancora richiede oltre una settimana;
- nel campo del terrorismo online, i dati dello EU Internet Forum dicono che l’80-90% dei contenuti individuati da Europol è stato rimosso;
- nel campo del materiale online sull’abuso di minori, il sistema INHOPE già nel 2015 permetteva la rimozione del 91% delle segnalazioni in 72 ore, e di questi 1 su 3 veniva rimosso in 24 ore.
Un difficile bilanciamento
Il problema resta quello di non sfociare nella censura preventiva. La Commissione ne è consapevole, ma insiste ugualmente molto sull’adozione da parte delle OTT di strumenti tecnici in grado di rimuovere i contenuti a rischio, anche in modo automatico. Per farlo cita la premessa 40 della Direttiva sull’e-commerce che incoraggia lo sviluppo di strumenti tecnici di sorveglianza. L‘art 14 della Direttiva infatti prevederebbe la responsabilità dei fornitori di servizi online solo quando questi venissero a conoscenza della presenza di un contenuto illegale e non agissero prontamente alla rimozione (il famoso notice and takedown).
Il Commissario per la Sicurezza King ha insitito ad esempio sul fatto che certi video a contenuto terroristico, considerabili chiaramente illegali, non solo dovrebbero essere rimossi a stretto giro, ma meglio se non fossero proprio caricati su queste piattaforme. Peccato che non sia così semplice individuare anche i video “chiaramente” illegali.
Non tutti sono d’accordo
A non essere d’accordo ci sono diversi europarlamentari tra cui Marietje Schaake che si oppone fermamente all’uso di algoritmi e soluzioni automatiche di rimozione dei contenuti, che potrebbero portare a ledere il diritto fondamentale della libertà d’espressione. Lei stessa si è vista rimuovere un video da YouTube in cui parlava con la Commissaria Malmstrom della legge che aveva fatto approvare contro l’esportazione di quei beni usati per la tortura. Il motivo, quello di aver violato le Community Guidelines. Successivamente YouTube ha ricaricato il video e si è scusata per l’errore ma i dubbi che questo sia avvenuto celermente solo perché la Schaake è un personaggio pubblico restano.
Altri casi simili sono stati raccolti dall’europarlamentare tedesca Julia Reda, del partito dei pirati. In 10 esempi ha mostrato come, diremmo ovviamente, gli algoritmi da soli non sono ancora in grado di applicare e cogliere tutte le eccezioni previste dalla legge, o conoscere gli accordi esistenti tra i vari titolari dei diritti. Tra gli altri, viene citato il caso di un autore che si è visto rimuovere “nel suo interesse” un video amatoriale caricato da lui stesso, con le sue musiche.
Anche European Digital Rights è dello stesso avviso condannando il rischio di privatizzare il controllo della libertà d’espressione online citando “Human, all too human” (1878) di Nietzsche:
Le imprese assorbiranno pezzo dopo pezzo i compiti che prima erano dello Stato.
Difficile trovare una soluzione ma è probabile che il dibattito continuerà oggi stesso al Digital Summit di Tallin.