In Evidenza AlluvioniGoverno MeloniIsraele
SCIENZE E INNOVAZIONEDeepfakeIntelligenza artificialePedofiliaPedopornografia

AI e pedopornografia: «Siamo vicini al punto di non ritorno»

18 Ottobre 2024 - 12:31 Antonio Di Noto
Ad affermarlo è l'Internet Watchdog Foundation, specializzata nel combattere la diffusione di immagini pedopornografiche online

La quantità di immagini generate dall’intelligenza artificiale raffigurante abusi sessuali su minori sta raggiungendo un «punto di non ritorno». Secondo l’ultimo report dell’Internet Watchdog Foundation (IWF), questo genere di contenuti è ormai ampiamente disponibile online e facilmente reperibile, essendo presente in aree della rete pubblicamente accessibili, e non solo sul dark web, al quale si può accedere solo utilizzando browser specifici. Citato dal Guardian, il direttore esecutivo ad interim dell’IWF, Derek Ray-Hill ha avvertito di un pericoloso spartiacque: nemmeno l’Internet Watchdog Foundation – che negli ultimi sei mesi ha fatto rimuovere 74 contenuti, rispetto ai 70 dell’intero anno precedente – e altre associazioni attive nello stesso campo sono più in grado di affermare con certezza se un’immagine sia reale o generata artificialmente.

«Le immagini AI pedopornografiche addestrate su vittime vere»

I contenuti condivisi negli scorsi sei mesi hanno già superato in numero quelli dello scorso anno. Inoltre, secondo quanto affermato da Ray-Hill, il livello di sofisticatezza delle immagini indica che l’intelligenza artificiale è stata addestrata su immagini e video di vittime reali. Oltre alle immagini AI che ritraggono vere vittime di abusi, i tipi di materiale visionati dall’IWF includono video deepfake in cui la pornografia per adulti era stata manipolata in modo da ringiovanire i protagonisti fino alla soglia della pedopornografia. Lo stesso è stato fatto con personaggi famosi, mentre, in altri casi, con l’intelligenza artificiale sono stati denudati bambini presenti in immagini online.

L’intelligenza artificiale e il porno

L’IWF spiega di aver segnalato le Url deI contenuti presenti su server russi, statunitensi, giapponesi e olandesi in modo che le compagnie che li gestiscono possano rimuoverle. L’IWF ha reso noto che otto segnalazioni su dieci di immagini illegali create tramite intelligenza artificiale provengono da cittadini che le hanno trovate su siti pubblici come forum o gallerie di media creati con l’intelligenza artificiale. Quello tra AI e pornografia è un rapporto che negli ultimi mesi è diventato sempre più evidente. Eclatanti, a gennaio 2024 sono state le immagini porno deepfake di Taylor Swift, in cui la cantante appariva intenta in atti sessuali più o meno espliciti.

Immagine di copertina generata con l’AI

Articoli di SCIENZE E INNOVAZIONE più letti
leggi anche