Uno studio dell’università statunitense di Rochester ha mostrato come gli utenti di Twitter utilizzino parole in codice per incitare all’odio evitando che il contenuto venga rimosso
Parole comuni per camuffare l’incitamento all’odio online. La ricerca di un metodo efficace per rilevare il linguaggio in codice utilizzato per mascherare l’hate speech è al centro dello studio condotto da un gruppo di ricercatori dell’università di Rochester, negli Stati Uniti.
La squadra si è soffermata in particolare su Twitter, analizzando circa 250mila tweet in inglese pubblicati tra il 23 settembre e il 18 ottobre 2016, una settimana dopo le elezioni presidenziali negli Stati Uniti: ciò che ha rilevato è il ricorso sistematico da parte degli utenti a parole codificate che in realtà ne celano ben altre.
Un sotterfugio per evitare la rimozione dei commenti. La frase “gas the skypes”, per esempio, non appare immediatamente come antisemita (vedi tabella sopra), poiché sembra far riferimento al noto programma. In che modo, allora, i ricercatori hanno individuato tale strategia?
Il contrasto all’odio online passa per la tecnologia
Per approfondire i tweet codificati, i ricercatori dell’università di Rochester hanno analizzato il comportamento degli utenti solitamente propensi all’hate speech attraverso un software che analizza le relazioni instaurate tra le parole sulla base dell’indice di correlazione di Pearson. Il risultato dell’analisi sono stati 3 hashtag e 7 parole, 10 termini che indicano un hate code.
Ad esempio, l’hashtag #MAGA, riferito allo slogan make America great again (far tornare grande l’America) usato da Trump durante le elezioni è stato mutuato anche, come codice, in #MAWA, make America white again (far tornare l’America bianca) con connotazioni marcatamente razziste.
Infine, applicando un algoritmo (Apriori) per la ricerca delle associazioni, sono stati identificati dei modelli di tweet costituiti da due o più parole codificate e ne è emerso che essi contengono talvolta più parole in codice, mostrando che l’odio online, su Twitter è trasversale e non sempre diretto verso una sola comunità alla volta.
Lo studio condotto ha un’accuratezza pari, nell’approssimazione, al 79,43%: un passo in più verso un modello di analisi che consenta d’identificare in maniera sempre più immediata l’hate speech online.