In Evidenza ENISiriaUSA
TECNOLOGIABambiniInchiesteIntelligenza artificialePedofiliaPedopornografiaSocial mediaWeb

Così i pedofili usano l’intelligenza artificiale per creare materiale pedopornografico

29 Giugno 2023 - 16:29 Antonio Di Noto
Alla base ci sono i software che generano immagini a partire da un prompt scritto dagli utenti

In queste ore emerge sempre di più un altro uso più che controverso dell’intelligenza artificiale. Applicazioni in grado di generare immagini fotorealistiche simili a Midjourney vengono utilizzate da reti di pedofili per creare materiale pedopornografico da diffondere online. Ad essere al centro dell’attenzione in queste ore è il software Stable Diffusion. Come altri programmi, Stable Diffusion permette di dare vita a immagini basandosi su una descrizione fornita dall’utente. Nato per scopi artistici, negli scorsi mesi il software è stato utilizzato per creare immagini di abusi sessuali su bambini, incluse scene di stupro. Ciò è reso possibile dalla natura open source del programma, che può girare in locale bypassando le restrizioni sui contenuti sessuali previste nella versione originale e sui competitor Midjourney e Dall-E.

La compravendita

Ad indagare, riporta la Bbc è la polizia britannica. Nel Paese, immagini pedopornografiche generate digitalmente sono trattate alla stessa maniera delle foto vere e proprie. Al momento, non si riscontrano leggi simili in Italia. Social fulcro della condivisione è il giapponese Pixiv, dove le foto artificiali vengono diffuse, spesso per pubblicizzare vero materiale pedopornografico. Coinvolta anche la piattaforma Patreon, che i pedofili usano per ottenere i pagamenti richiesti per inviare la «roba vera» a chi vuole acquistarla. Man mano che la differenza tra fotografie e immagini generate dell’AI si assottiglia, diventa sempre più difficile distinguere le une dalle altre, commenta al Washigton Post Daniel Lyons, professore di diritto al Boston College.

I rischi

E questo è solo uno dei rischi che questa pratica comporta. Un altro riguarda i controlli, che devono avvenire su una quantità di materiale sempre crescente e sempre più complicato da verificare. A ciò si aggiunge il fatto che le immagini vengono create a partire da vere foto trovate su Internet, attingendo, quindi a foto di bambini in carne ed ossa, con la possibilità di creare traumi e altri problemi ad essi correlati. Infine, l’intelligenza artificiale permette di creare deepfake a partire da veri volti. Un caso ancor più complicato da gestire.

Leggi anche:

Articoli di TECNOLOGIA più letti