In Evidenza Benjamin NetanyahuDonald TrumpGoverno Meloni
TECNOLOGIAIntelligenza artificialeRazzismoScacchiUSAYouTube

La vera storia che torna a circolare degli scacchi razzisti bloccati su YouTube perché il «bianco attacca il nero»

23 Febbraio 2021 - 19:38 Luca Covino
Il paper analizza il ban dello scorso giugno di uno dei canali di scacchi più famoso al mondo, chiuso dalla piattaforma di Google per razzismo per la frase «il bianco attacca il nero»

Uno studio pubblicato lo scorso gennaio da due ricercatori del Language Technologies Institute della Carnegie Mellon University, in Pennsylvania, ha dimostrato che l’algoritmo di YouTube per rilevare frasi razziste o relative all’hate speech «può fare degli errori». Il paper, i cui risultati sono stati diffusi dal britannico Independent, è stato pubblicato da Ashique R. KhudaBukhsh e Rupak Sarkar, ed è incentrato sulla chiusura di Agadmator, canale specializzato da oltre 1 milione di iscritti, oscurato per 24 ore lo scorso 28 giugno.

Il fatto

Tutto è iniziato per una frase gergale, «il bianco attacca il nero», usata durante una presentazione sul canale tra l’amministratore dell’account, il croato Antonio Radic, e il Gran Maestro giapponese Kikaru Nakamura. Intercettando la frase come minacciosa, l’algoritmo di YouTube ha quindi rimosso il video, considerando il contenuto e l’intero canale come uno spazio «dannoso e pericoloso». Lo stesso Radic aveva pubblicato un video dove spiegava ai follower quanto accaduto, domandandosi quali criteri fossero stati applicati dalla piattaforma di proprietà di Google.

La ricerca

Per rispondere a questa domanda, KhudaBukhsh e Sarkar hanno utilizzato due software utilizzati per la ricerca di argomenti e frasi offensive dove hanno caricato 680 mila commenti rilasciati su cinque canali scacchistici diversi. I due studiosi hanno quindi proseguito selezionando 1000 commenti tra quelli segnalati dall’algoritmo come offensivi da almeno uno dei due programmi. I risultati ottenuti scandagliando personalmente ogni frase sono chiari: l’82 per cento non conteneva riferimenti razzisti, ma solo termini gergali come blocco, contrattacco e cattura. «Non sappiamo quale strumento venga usato da YouTube, ma queste cose possono accadere se si usa l’intelligenza artificiale per scovare frasi o insulti razzisti», ha riferito all’Independent KhudaBukhsh.

Leggi anche:

Articoli di TECNOLOGIA più letti