Il più grande studio indipendente sull’odio su TikTok ha scoperto che i video anti-asiatici e filo-nazisti raccolgono milioni di visualizzazioni, spesso utilizzando canzoni pop per eludere i moderatori automatici della piattaforma.
i punti principali:
- Il report di TikTok “Hatescape” è stato il risultato di tre mesi di ricerca
- I ricercatori hanno scoperto che azioni semplici come l’ortografia errata di una parola erano sufficienti per nascondere un video ai moderatori
- Diverse tecniche di dribbling sono incluse nell’app
Un rapporto dell’Institute for Strategic Dialogue (ISD), un centro di ricerca con sede a Londra per combattere l’estremismo, ha affermato che la principale piattaforma sociale è “popolare tra coloro che intendono utilizzare gli spazi online per produrre, diffondere e promuovere l’odio e l’estremismo”.
Il rapporto Hatescape, il risultato di tre mesi di ricerca, ha scoperto che alcuni dei suoi contenuti razzisti o terroristici erano motivati o collegati agli australiani.
Uno dei video che ha raccolto più di due milioni di visualizzazioni include un uomo caucasico che mangia una mazza in un riferimento offensivo agli stereotipi sui cinesi.
Altri video mostrano australiani che appaiono come un uomo in nero o come un ufficiale di polizia durante una “rievocazione” dell’omicidio di George Floyd, la cui morte ha suscitato proteste globali lo scorso anno con il titolo “Black Lives Matter”.
“Questo genere di cose si ripete su tutta la linea”, ha detto l’autore dello studio Kieran O’Connor.
“I commenti qui sotto enfatizzano gli argomenti trattati e come generano situazioni spiacevoli”.
Anche se non sorprende che i gruppi marginali utilizzino piattaforme di social media per pubblicare materiale odioso, gli esperti affermano che TikTok ha generato modi creativi per distribuire contenuti ed evitare le rimozioni automatiche.
Queste stranezze includevano qualcosa di semplice come cambiare la colonna sonora, ma non è ancora chiaro cosa funzioni esattamente.
“TikTok è noto per essere una piattaforma molto difficile da studiare, per una ragione è un nuovo genere e non c’è molta metodologia”, ha affermato Ariel Bogle, analista presso l’International Electronic Policy Center (ICPC).
“È anche guidato da un algoritmo che è rimasto molto misterioso”.
O’Connor ha affermato che nel suo campione di 1.030 video – compilato utilizzando una libreria di hashtag e frasi popolari pubblicate da gruppi marginali – c’erano contenuti altrettanto orribili su tutti i tipi di gruppi protetti.
Nel caso dei contenuti anti-asiatici, c’è stato un uso diffuso di hashtag legati al COVID-19, che secondo O’Connor hanno reso il contenuto più rilevabile e potrebbero esporlo a persone che altrimenti non lo vedrebbero.
“Questo è il motivo per cui così tanti creatori contrassegnano i loro contenuti con queste parole e frasi comuni”, ha affermato.
Quasi la metà dei video nel campione erano materiale filo-nazista, molti dei quali mostravano scene dirette della sparatoria di Christchurch o includevano persone che leggevano direttamente dal manifesto del tiratore.
Il contenuto è illegale in molte giurisdizioni e alcuni post potrebbero contenere un collegamento che indirizza gli spettatori a un canale di messaggistica crittografato con contenuti più estremisti.
È stato scoperto che TikTok attrae anche altri tipi marginali come i gruppi anti-transgender o l’ideologia degli uomini a modo loro, una propaggine del movimento incel anti-donne.
Secondo il signor O’Connor, più dell’80% dei video erano ancora in diretta alla conclusione dello studio, ma ABC sa che da allora la piattaforma li ha cancellati tutti dopo che sono stati segnalati da ISD.
Sebbene TikTok abbia affermato di rimuovere la stragrande maggioranza dei contenuti che violano la sua politica entro 24 ore, molte delle funzionalità utilizzate per eludere i suoi moderatori sono integrate nella piattaforma.
Sia Ms. Bogle che ISD hanno indicato modi semplificati per evitare la moderazione come l’aggiunta di un numero extra a un account vietato o errori di ortografia di parole chiave o frasi.
Altre manovre evasive hanno riguardato l’utilizzo della funzione “Stitch” o “Duetto” dell’app per abbinarla semplicemente a un altro video, che in molti casi si è rivelato sufficiente per evitare la censura.
“C’è sempre una sorta di gioco del gatto e del topo, con la moderazione di TikTok”, ha detto Bogle.
TikTok può anche disattivare l’audio dei video che contengono audio che violano le linee guida della community, ma una soluzione efficace è utilizzare i brani dei cataloghi dell’app.
La canzone preferita dei gruppi marginali, secondo Mr. O’Connor, era Little Dark Age degli MGMT.
Nel campione di ISD c’era anche un posto di rilievo nella persona di Gotye che conoscevo così come Running Up That Hill di Kate Bush.
Nessuna di queste canzoni contiene connotazioni estreme.
O’Connor ha affermato che mentre TikTok ha imparato dalle insidie e dagli errori commessi da altre società di social media e la maggior parte dei video segnalati ha avuto un basso coinvolgimento, ha affermato che la società ha bisogno di maggiore trasparenza su come modifica il suo contenuto.
“C’è una lacuna nell’applicazione dell’approccio di TikTok all’odio e all’estremismo… Questo contenuto è stato rimosso, ma in modo incoerente”, ha affermato.
Una portavoce di TikTok ha affermato che i social media apprezzano “molte” le ricerche prodotte da ISD e altre organizzazioni.
“TikTok proibisce categoricamente l’estremismo violento e il comportamento di odio e il nostro team dedicato rimuoverà qualsiasi contenuto di questo tipo in quanto viola le nostre politiche e mina l’esperienza creativa e gioiosa che le persone si aspettano sulla nostra piattaforma”, ha affermato in una nota.
“Apprezziamo molto la nostra collaborazione con ISD e altri la cui ricerca critica sulle sfide a livello di settore aiuta a far progredire il modo in cui implementiamo le nostre politiche per mantenere la nostra piattaforma sicura e accogliente”.