La vera storia che torna a circolare degli scacchi razzisti bloccati su YouTube perché il «bianco attacca il nero»


Uno studio pubblicato lo scorso gennaio da due ricercatori del Language Technologies Institute della Carnegie Mellon University, in Pennsylvania, ha dimostrato che l’algoritmo di YouTube per rilevare frasi razziste o relative all’hate speech «può fare degli errori». Il paper, i cui risultati sono stati diffusi dal britannico Independent, è stato pubblicato da Ashique R. KhudaBukhsh e Rupak Sarkar, ed è incentrato sulla chiusura di Agadmator, canale specializzato da oltre 1 milione di iscritti, oscurato per 24 ore lo scorso 28 giugno.
Il fatto
Tutto è iniziato per una frase gergale, «il bianco attacca il nero», usata durante una presentazione sul canale tra l’amministratore dell’account, il croato Antonio Radic, e il Gran Maestro giapponese Kikaru Nakamura. Intercettando la frase come minacciosa, l’algoritmo di YouTube ha quindi rimosso il video, considerando il contenuto e l’intero canale come uno spazio «dannoso e pericoloso». Lo stesso Radic aveva pubblicato un video dove spiegava ai follower quanto accaduto, domandandosi quali criteri fossero stati applicati dalla piattaforma di proprietà di Google.
La ricerca
Per rispondere a questa domanda, KhudaBukhsh e Sarkar hanno utilizzato due software utilizzati per la ricerca di argomenti e frasi offensive dove hanno caricato 680 mila commenti rilasciati su cinque canali scacchistici diversi. I due studiosi hanno quindi proseguito selezionando 1000 commenti tra quelli segnalati dall’algoritmo come offensivi da almeno uno dei due programmi. I risultati ottenuti scandagliando personalmente ogni frase sono chiari: l’82 per cento non conteneva riferimenti razzisti, ma solo termini gergali come blocco, contrattacco e cattura. «Non sappiamo quale strumento venga usato da YouTube, ma queste cose possono accadere se si usa l’intelligenza artificiale per scovare frasi o insulti razzisti», ha riferito all’Independent KhudaBukhsh.
Leggi anche:
- Tregua tra Facebook e l’Australia: revocato il blocco della condivisione degli articoli dei media nazionali
- «Danni al cervello dopo l’overdose. Ma la musica mi ha salvata». Demi Lovato si racconta in un documentario – Il video
- Il razzismo spiegato da Barbie e Nikki: «Il discorso non è facile, ma è necessario» – Il video
- I QAnon sono un pericolo, YouTube rimuove i contenuti complottisti che alimentano odio e violenza
- Coronavirus, quanto è affidabile la ricerca su YouTube per informarci sul Covid-19?