Contenuti valutati in appena 10 secondi e una tendenza alla tolleranza: è quanto rilevato dall’inglese The Guardian in relazione alla moderazione nel social network Facebook.
Le osservazioni fatte della testata sono state possibili grazie all’analisi di centinaia di documenti ottenuti dal quotidiano e prontamente soprannominati Facebook Files che sarebbero stati prodotti dall’azienda fondata da Mark Zuckerberg per fornire indicazioni ai moderatori su come valutare, e quindi stabilire se rimuovere o meno, contenuti violenti: hate speech, terrorismo, pornografia, razzismo, autolesionismo sono solo alcuni dei temi trattati dai manuali, dai grafici e dagli opuscoli esaminati.
Un tema, quello della moderazione dei contenuti, al quale come Carta di Roma si dedica da tempo: poco più di un mese fa, ad aprile, avevamo pubblicato i risultati di un piccolo test condotto su Facebook, nel quale rilevavamo come, su 100 commenti segnalati esplicitamente incitanti all’odio, solo 29 fossero stati rimossi.
I Facebook Files, secondo quanto sostiene il Guardian, mostrerebbero le difficoltà affrontate da coloro che si occupano della moderazione dei contenuti segnalati: il lavoro è tantissimo, cosa che significherebbe, concretamente avere spesso “solo 10 secondi” per prendere una decisione. Proprio a inizio maggio l’azienda ha annunciato di voler assumere 3mila nuove persone per allargare le squadre addette alla revisione delle segnalazioni.
Un problema, quello della mole di lavoro e del poco tempo a disposizione che contribuisce probabilmente ad ampliare il margine di errore di chi interviene. Dei 71 contenuti incitanti all’odio rimasti online dopo la nostra segnalazione, 7 sono stati rimossi in un successivo momento poiché la loro non rimozione, come spiegato da Facebook, era stata un errore. Un esempio, in piccola scala, di come le sviste possano verificarsi.
Numerosi altri elementi importanti per comprendere i meccanismi che conducono alla rimozione dei contenuti si troverebbero all’interno dei documenti, a partire dalla definizione di ciò che sarebbe in grado di rappresentare una vera minaccia: “il linguaggio violento – riporta il Guardian citando i Facebook Files – è nella maggior parte dei casi non credibile fino a quando la specificità del linguaggio non ci fornisce una base ragionevole per credere che non si tratti più della semplice espressione di un’emozione, ma del passaggio a una pianificazione. Da questo punto di vista contenuti come Ti ucciderò o Vai a quel paese e muori non sono credibili e rappresentano un’espressione violenta di avversione e frustrazione”.
Questo inciderebbe sui tempi di intervento: come ci è stato spiegato ad aprile da Facebook, in seguito a un confronto sui risultati del test, nel decidere quali segnalazioni trattatare per prime i moderatori si basano sul cosiddetto “real world risk”, ossia il livello di rischio corso dalla vittima o dalle vittime dell’attacco al di fuori della piattaforma.
La policy di Facebook sui contenuti violenti che indica ciò che può o meno restare sul sito. Fonte: Guardian
Ecco, quindi, che gli esempi qui a fianco, riportati dal Guardian troverebbero una spiegazione: “Qualcuno spari a Trump” è rimosso, mentre “Picchiamo i bambini grassi” no, perché il primo costituirebbe per Facebook una minaccia reale e il secondo solo l’espressione di frustrazione e risentimento.
Monika Bickert, capo politica globale di Facebook, spiega che “non tutti i contenuti violenti o non condivisibili violano gli standard della nostra community. Abbiamo diverse comunità a livello globale e le persone hanno opinioni molto diverse su cosa si debba o meno condividere. Ci saranno sempre delle zone grigie. Ad esempio, il confine tra satira, humor e contenuti inappropriati è molto sottile”.
Della lista che sarebbe stata fornita da Facebook ai moderatori rispetto ai contenuti accettabili, il Guardian mette in evidenza alcuni elementi: le foto di abusi su animali possono essere condivise, a meno che non siano troppo sconvolgenti; è consentito pubblicare immagini di nudo artistico ma non immagini che mostrino l’attività sessuale; i video di morti violente non devono sempre essere eliminati perché possono contribuire a creare la consapevolezza di problemi come la malattia mentale.
Per uscire dal limbo creato dalle zone grigie, negli Stati Uniti e in Europa, è stato chiesto a Facebook di seguire le medesime regole di tutte le principali compagnie televisive e giornalistiche, il che imporrebbe dei limiti maggiori in merito alle policy di pubblicazione.
Ma per ora la risposta di Bickert è stata: “Siamo un nuovo tipo di compagnia. Non una compagnia tecnologica tradizionale ma neanche una compagnia media tradizionale. Noi costruiamo tecnologia e ci sentiamo responsabili per come venga usata, però non scriviamo le notizie che le persone leggono sulle piattaforme”, riporta il Guardian.
Pylos e il silenzio dell’informazione
A Lampedusa c’è la tomba di una giovane donna di nome Ester. Aveva 18 anni e veniva dalla Nigeria. Era incinta ed è morta di stenti su un barcone carico di migranti rimasto in balia delle onde per giorni
Leggi tutti gli articoli su immigrazione, asilo e minoranze pubblicati dalla stampa italiana.
Quiz: quanto ne sai di persone migranti e rifugiate?
Le migrazioni nel 2021, il nuovo fact-checking di Ispi
Trump e G7 catalizzano l’attenzione dell’informazione mainstream
© 2014 Carta di Roma developed by Orange Pixel srlAutorizzazione del Tribunale di Roma n° 148/2015 del 24 luglio 2015. - Sede legale: Corso Vittorio Emanuele II 349, 00186, Roma. - Direttore responsabile: Domenica Canchano.