Così i pedofili usano l’intelligenza artificiale per creare materiale pedopornografico
In queste ore emerge sempre di più un altro uso più che controverso dell’intelligenza artificiale. Applicazioni in grado di generare immagini fotorealistiche simili a Midjourney vengono utilizzate da reti di pedofili per creare materiale pedopornografico da diffondere online. Ad essere al centro dell’attenzione in queste ore è il software Stable Diffusion. Come altri programmi, Stable Diffusion permette di dare vita a immagini basandosi su una descrizione fornita dall’utente. Nato per scopi artistici, negli scorsi mesi il software è stato utilizzato per creare immagini di abusi sessuali su bambini, incluse scene di stupro. Ciò è reso possibile dalla natura open source del programma, che può girare in locale bypassando le restrizioni sui contenuti sessuali previste nella versione originale e sui competitor Midjourney e Dall-E.
La compravendita
Ad indagare, riporta la Bbc è la polizia britannica. Nel Paese, immagini pedopornografiche generate digitalmente sono trattate alla stessa maniera delle foto vere e proprie. Al momento, non si riscontrano leggi simili in Italia. Social fulcro della condivisione è il giapponese Pixiv, dove le foto artificiali vengono diffuse, spesso per pubblicizzare vero materiale pedopornografico. Coinvolta anche la piattaforma Patreon, che i pedofili usano per ottenere i pagamenti richiesti per inviare la «roba vera» a chi vuole acquistarla. Man mano che la differenza tra fotografie e immagini generate dell’AI si assottiglia, diventa sempre più difficile distinguere le une dalle altre, commenta al Washigton Post Daniel Lyons, professore di diritto al Boston College.
I rischi
E questo è solo uno dei rischi che questa pratica comporta. Un altro riguarda i controlli, che devono avvenire su una quantità di materiale sempre crescente e sempre più complicato da verificare. A ciò si aggiunge il fatto che le immagini vengono create a partire da vere foto trovate su Internet, attingendo, quindi a foto di bambini in carne ed ossa, con la possibilità di creare traumi e altri problemi ad essi correlati. Infine, l’intelligenza artificiale permette di creare deepfake a partire da veri volti. Un caso ancor più complicato da gestire.
Leggi anche:
- «Instagram è il social preferito dai pedofili per contenuti sessuali e l’algoritmo li aiuta» – L’inchiesta del Wsj
- No! Questa non è una fotografia di Epstein con le sue vittime. Creata con l’Intelligenza Artificiale
- Gli avvertimenti di Musk a Meloni, i rischi dell’intelligenza artificiale e la ricetta contro la denatalità: «Dovete fare bambini!»