Il social media è stato messo sotto la lente d’ingrandimento da parte del Guardian per capire come sono valutati i contenuti segnalati
Contenuti valutati in appena 10 secondi e una tendenza alla tolleranza: è quanto rilevato dall’inglese The Guardian in relazione alla moderazione nel social network Facebook.
Le osservazioni fatte della testata sono state possibili grazie all’analisi di centinaia di documenti ottenuti dal quotidiano e prontamente soprannominati Facebook Files che sarebbero stati prodotti dall’azienda fondata da Mark Zuckerberg per fornire indicazioni ai moderatori su come valutare, e quindi stabilire se rimuovere o meno, contenuti violenti: hate speech, terrorismo, pornografia, razzismo, autolesionismo sono solo alcuni dei temi trattati dai manuali, dai grafici e dagli opuscoli esaminati.
Un tema, quello della moderazione dei contenuti, al quale come Carta di Roma si dedica da tempo: poco più di un mese fa, ad aprile, avevamo pubblicato i risultati di un piccolo test condotto su Facebook, nel quale rilevavamo come, su 100 commenti segnalati esplicitamente incitanti all’odio, solo 29 fossero stati rimossi.
Poco tempo e molte zone grigie
I Facebook Files, secondo quanto sostiene il Guardian, mostrerebbero le difficoltà affrontate da coloro che si occupano della moderazione dei contenuti segnalati: il lavoro è tantissimo, cosa che significherebbe, concretamente avere spesso “solo 10 secondi” per prendere una decisione. Proprio a inizio maggio l’azienda ha annunciato di voler assumere 3mila nuove persone per allargare le squadre addette alla revisione delle segnalazioni.
Un problema, quello della mole di lavoro e del poco tempo a disposizione che contribuisce probabilmente ad ampliare il margine di errore di chi interviene. Dei 71 contenuti incitanti all’odio rimasti online dopo la nostra segnalazione, 7 sono stati rimossi in un successivo momento poiché la loro non rimozione, come spiegato da Facebook, era stata un errore. Un esempio, in piccola scala, di come le sviste possano verificarsi.
Numerosi altri elementi importanti per comprendere i meccanismi che conducono alla rimozione dei contenuti si troverebbero all’interno dei documenti, a partire dalla definizione di ciò che sarebbe in grado di rappresentare una vera minaccia: “il linguaggio violento – riporta il Guardian citando i Facebook Files – è nella maggior parte dei casi non credibile fino a quando la specificità del linguaggio non ci fornisce una base ragionevole per credere che non si tratti più della semplice espressione di un’emozione, ma del passaggio a una pianificazione. Da questo punto di vista contenuti come Ti ucciderò o Vai a quel paese e muori non sono credibili e rappresentano un’espressione violenta di avversione e frustrazione”.
Questo inciderebbe sui tempi di intervento: come ci è stato spiegato ad aprile da Facebook, in seguito a un confronto sui risultati del test, nel decidere quali segnalazioni trattatare per prime i moderatori si basano sul cosiddetto “real world risk”, ossia il livello di rischio corso dalla vittima o dalle vittime dell’attacco al di fuori della piattaforma.
Ecco, quindi, che gli esempi qui a fianco, riportati dal Guardian troverebbero una spiegazione: “Qualcuno spari a Trump” è rimosso, mentre “Picchiamo i bambini grassi” no, perché il primo costituirebbe per Facebook una minaccia reale e il secondo solo l’espressione di frustrazione e risentimento.
Monika Bickert, capo politica globale di Facebook, spiega che “non tutti i contenuti violenti o non condivisibili violano gli standard della nostra community. Abbiamo diverse comunità a livello globale e le persone hanno opinioni molto diverse su cosa si debba o meno condividere. Ci saranno sempre delle zone grigie. Ad esempio, il confine tra satira, humor e contenuti inappropriati è molto sottile”.
Facebook si difende: «Costruiamo tecnologia ma non scriviamo le notizie»
Della lista che sarebbe stata fornita da Facebook ai moderatori rispetto ai contenuti accettabili, il Guardian mette in evidenza alcuni elementi: le foto di abusi su animali possono essere condivise, a meno che non siano troppo sconvolgenti; è consentito pubblicare immagini di nudo artistico ma non immagini che mostrino l’attività sessuale; i video di morti violente non devono sempre essere eliminati perché possono contribuire a creare la consapevolezza di problemi come la malattia mentale.
Per uscire dal limbo creato dalle zone grigie, negli Stati Uniti e in Europa, è stato chiesto a Facebook di seguire le medesime regole di tutte le principali compagnie televisive e giornalistiche, il che imporrebbe dei limiti maggiori in merito alle policy di pubblicazione.
Ma per ora la risposta di Bickert è stata: “Siamo un nuovo tipo di compagnia. Non una compagnia tecnologica tradizionale ma neanche una compagnia media tradizionale. Noi costruiamo tecnologia e ci sentiamo responsabili per come venga usata, però non scriviamo le notizie che le persone leggono sulle piattaforme”, riporta il Guardian.