In Evidenza Legge di bilancioOpen ArmsTony Effe
ESTERIGermaniaGoogleIntelligenza artificialeRazzismoVaticanoWeb

Papi neri e soldati tedeschi coi tratti asiatici, Google sospende il suo programma di immagini AI dopo le polemiche

22 Febbraio 2024 - 16:03 Redazione
Lo stop temporaneo al servizio Gemini, ideato per contrastare ChatGPT, per rivedere i parametri: «Troppo woke»

Google si auto-censura. L’azienda statunitense ha interrotto temporaneamente il suo nuovo modello di intelligenza artificiale «Gemini», ideato per contrastare ChatGPT, dopo le polemiche sull’errata rappresentazione delle immagini storiche generate dall’Ai. Un paio di giorni fa un utente ha infatti sollevato perplessità dopo che lo strumento di intelligenza artificiale aveva proposto quattro immagini di soldati tedeschi del 1943: uno di carnagione bianca, uno nero e due donne asiatiche. Diverse persone hanno inoltre condiviso sui social network immagini generate dall’intelligenza artificiale raffiguranti i padri fondatori dell’America e i Papi come individui non bianchi. Per gli utenti le AI sarebbero «troppo woke», scrive la Bbc, e questa sarebbe la prova. Tempestiva la risposta di Google, che su X ha fatto sapere dell’immediata interruzione del servizio: «Stiamo già lavorando per risolvere i recenti problemi con Gemini. Mentre lo facciamo, metteremo in pausa la generazioni di immagini ritraenti persone e presto pubblicheremo una versione migliore», si legge in una nota dell’azienda.

Anche Jack Krawczyk, responsabile del team «Gemini», ha ammesso – sempre sui social – che il generatore di immagini necessita di alcune migliorie. «Prendiamo sul serio la rappresentazione e i pregiudizi e continueremo a farlo – si legge nel post -. I contesti storici hanno più sfumature e lavoreremo per adattarli». Non è la prima volta che uno strumento di intelligenza artificiale finisce al centro delle polemiche per il suo “modello” di rappresentazione. Un’indagine del Washington Post dello scorso ha mostrato come il generatore di immagini Stable Diffusion XL rappresentava i percettori di buoni pasto negli Usa come persone nere, nonostante il 63% dei destinatari fosse bianco. Un algoritmo può essere infatti razzista e sessista perché – spiegano gli esperti – come tutti i prodotti dell’ingegno umano anche quelli informatici subiscono le influenze di chi li ha creati.

Leggi anche:

Articoli di ESTERI più letti