Eppure non è bastato a evitarne la diffusione, a partire dalla diretta non interrotta. Stesso problema, ovviamente, per tutte le altre piattaforme. La strada per la completa rimozione automatica è ancora lunga
Una diretta durata ben 17 minuti. Che Facebook non è stato in grado di interrompere in tempo reale né successivamente. Stiamo parlando degli attentati alle due moschee di Christchurch, in Nuova Zelanda, nel corso dei quali sono morte oltre 50 persone. Il 28enne “suprematista bianco” – l’etichetta migliore è assassino terrorista – Brenton Tarrant ha infatti trasmesso in soggettiva, come dentro “Fortnite”, le fasi del primo attacco, probabilmente con una camera o il telefono fissati sul casco o berretto. Una clip raggelante rimasta online per diverse ore non solo sul social ma anche altrove, compresa YouTube e i siti di alcune testate nel mondo. Anche al momento è facilmente reperibile: il sito di Michele Santoro, per esempio, continua a mostrarlo.
I video rimossi in 24 ore
Il social network di Menlo Park ha tentato di difendersi rilasciando alcune cifre. Raggelanti anche queste: ci ricordano una volta di più che la mole di contenuti su quel continente digitale è ancora, nonostante tutti i sistemi automatizzati, di miracolosa gestione. La piattaforma ha spiegato di aver rimosso 1,5 milioni di video nelle 24 ore successive al massacro neozelandese. Di queste clip, evidentemente tutte uguali, cioè lo stesso video scaricato e ricaricato, 1,2 milioni sono state eliminate al momento del caricamento. Vale a dire non sono mai arrivate sulle bacheche degli utenti. Pur con questo sforzo considerevole, ben 300mila clip sarebbero dunque riuscite a circolare. Senza contare, appunto, l’eccessivo lasso di tempo trascorso dalla diretta dello stragista xenofobo alla rimozione dei suoi account sulle diverse piattaforme di casa Zuckerberg.
La sfida di una moderazione impossibile
La portavoce Mia Garlick ha spiegato che la società ha anche rimosso “tutte le versioni editate del video che non mostrassero contenuti grafici”, che non è ben chiaro cosa significhi. Il video è stato trasmesso e pubblicato anche su Instagram, Twitter e YouTube, che hanno tentato come possibile di limitarne la diffusione. L’intera operazione, infatti, a partire dal delirante “manifesto” recapitato a media e politici locali, è stata progettata – compresi i nomi scritti sulle armi e sui caricatori – per viralizzarsi in poco tempo.
Così (purtroppo) è andata nonostante i provvedimenti delle piattaforme. Perfino Reddit ha chiuso un sottocanale chiamato r/watchpeopledie. Ma Tarrant aveva fatto ricorso anche a un forum ancora più complesso da controllare come “8chan”. Come spiega giustamente The Verge, il fatto che Facebook abbia rimosso più di un milione di copie di questo video, e le sue versioni modificate, racconta “l’enorme sfida che si trova di fronte nel moderare il sito. Nella sua corsa verso una crescita rapidissima la sua capacità di rimuovere contenuti offensivi, illegali o molesti lascia ancora a desiderare e consente ai sospettati o agli autori di diffondere rapidamente il loro messaggio”.
La politica chiede spiegazioni
Anche la politica chiederà conto. La premier neozelandese Jacinta Ardern (nella foto sopra) ha spiegato di voler incontrare i vertici dell’azienda e Jeremy Corbin, il leader laburista britannico, ha spiegato che queste piattaforme dovrebbero agire più rapidamente, ponendosi il problema di una loro regolamentazione più rigida. Negli ultimi anni i passi in avanti sono stati tuttavia importanti: YouTube, per esempio, ha spiegato lo scorso anno che ormai otto contenuti vietati su 10 vengono individuati automaticamente e rimossi, nella stragrande totalità dei casi prima che possano raccogliere anche una sola visualizzazione. Evidentemente non basta, considerando la massa di utenti che frequenta e si informa tramite i social network.