Su 600 contenuti segnalati ne sono stati rimossi solo 169. Nella maggior parte dei casi si tratta di discorsi d’odio che colpiscono la comunità ebraica o che discriminano sulla base della nazionalità o della religione
Contenuti segnalati come hate speech rimossi nel 28.2% dei casi e solo il 40% delle volte entro 24 ore. È quanto rileva il monitoraggio condotto in 6 settimane dalla Commissione europea su Twitter, Facebook, Google e Youtube.
Un codice di autoregolamentazione
Lo scorso maggio, Facebook, Microsoft, Twitter e YouTube sottoscrivevano un Codice di condotta per il contrasto dell’hate speech online presentato dalla Commissione europea. Avallando il testo di autoregolamentazione, le aziende si impegnavano a mettere in atto procedure di segnalazione efficaci e a politiche, a rendere chiare per la comunità le proprie politiche e linee di condotta sui discorsi d’odio e a verificare le segnalazioni relative a casi di hate speech entro 24 ore.
La Commissione, a distanza di alcuni mesi, ha dunque deciso di effettuare un monitoraggio per verificare l’effettiva applicazione del codice, affidando il compito a 12 organizzazioni in 9 paesi europei; tra queste, per l’Italia, l’Ufficio nazionale antidiscriminazioni razziali.
Su 600 segnalazioni, 169 sono state rimosse
Seicento, in totale, le segnalazioni monitorate dagli enti e le associazioni coinvolte. Target delle parole d’odio oggetto del monitoraggio è stata nel 23.7% delle segnalazioni la comunità ebraica. Seguono i discorsi d’odio sulla base della nazionalità (21%) e quelli contro i musulmani (20.2%).
Le segnalazioni riguardavano contenuti pubblicati prevalentemente su Facebook (45% dei casi, ossia 270 segnalazioni), seguiti da quelli su Twitter (27%, che equivale a 163), YouTube (21%, 123 contenuti) e altre piattaforme (7%).
La classifica cambia se si guarda al numero di contenuti segnalati e rimossi: ad aver rimosso il maggior numero di contenuti è YouTube, con il 48.5%; viene poi Facebook (la rimozione ha interessato il 28.3% dei casi) e infine Twitter (con il 19.1%).
Complessivamente sono stati rimossi 169 contenuti segnalati, pari al 28.2%. La percentuale di rimozioni varia da paese a paese: in Francia il 58.1% dei contenuti è stato eliminato, in Germania il 52%, nel Regno Unito il 20.5%, in Austria l’11.4%. L’Italia registra il minor numero di contenuti rimossi: solo il 3.6% (su 110 segnalazioni).
Solo nel 40% dei casi i contenuti segnalati sono stati analizzati e rimossi entro 24 ore. A far alzare i tempi medi occorsi, in questo caso, Twitter: se Facebook ha lavorato il 50% delle segnalazioni entro i tempi indicati dal codice e YouTube il 60.8%, Twitter si ferma al 23.5%.
Uno sforzo ancora insufficiente
I risultati suggeriscono che il codice di autoregolamentazione è stato, finora, insufficiente a gestire un fenomeno di sempre più ampie dimensioni. Di fatto poco sembra essere cambiato rispetto al passato: ad aprile avevamo segnalato a Facebook 100 commenti che incitavano apertamente all’odio o alla violenza, contravvenendo in modo palese agli standard della comunità e solo 9 erano stati rimossi.
Il mese scorso abbiamo provato a ripetere l’esperimento con Twitter: impossibile, perché non è prevista la possibilità di tracciare le proprie segnalazioni. In pratica, se si vuole essere a conoscenza delle sorti del contenuto segnalato, è necessario monitorarlo in autonomia, senza comunque poter essere certi che l’eventuale rimozione sia conseguenza diretta della propria segnalazione.
Quello del contrasto all’hate speech è un percorso lungo e complesso sul quale, al momento, si procede per tentativi. Appare, però, sempre più evidente che sia necessario agire parallelamente su più piani: quello della contronarrativa, quello degli strumenti del diritto e quello della tecnologia. Su quest’ultimo interviene, parzialmente, il codice voluto dalla Commissione. Senza lo sforzo concreto e congiunto dei vari attori coinvolti, tuttavia. su tale percorso non si può che procedere ancor più lentamente.