I pedofili stanno utilizzando la tecnologia dell’intelligenza artificiale per creare e vendere immagini e video di abusi sessuali su minori che sembrano realistici. Alcuni, come spiega la BBC, accedono alle immagini pagando abbonamenti ad account su siti di condivisione di contenuti tradizionali come Patreon, che però ha spiegato di avere una politica di “tolleranza zero” su tali immagini sul suo sito. Il Consiglio del capo della polizia nazionale ha definito “oltraggioso” quanto sta accadendo e ha spiegato come alcune piattaforme stiano realizzando “enormi profitti” ma non si assumano “responsabilità morale”.
Utilizzando un software di intelligenza artificiale chiamato Stable Diffusion, che aveva lo scopo di generare immagini da utilizzare nell’arte o nella progettazione grafica, i pedofili creano immagini fake di bambini oggetto di abusi sessuali. Infatti il software Stable Diffusion consente agli utenti di creare qualsiasi tempo di immagine utilizzando prompt di parole. Spesso viene però usato per creare immagini finte anche nell’ambito della pedopornografia. Tra queste immagini anche quelle di stupri di neonati e bambini piccoli.
L’allarme: “Inondazione di immagini di abusi sessuali”
Le squadre investigative della polizia britannica che indagano sugli abusi sui minori hanno già riscontrato in rete vari contenuti del genere. La giornalista Octavia Sheepshanks ha spiegato alla BBC che c’è stata una “enorme inondazione” di immagini generate dall’intelligenza artificiale. “Da quando le immagini generate dall’intelligenza artificiale sono diventate possibili, c’è stata questa inondazione… Non sono solo ragazze molto giovani, sono pedofili che parlano di bambini piccoli” ha spiegato. Nel Regno Unito, generare immagini che ritraggono abusi sessuali su minori è come possedere, pubblicare o trasferire un’immagine reale.
Il generatore di immagini AI Stable Diffusion è stato creato come collaborazione globale tra accademici e un certo numero di aziende. L’azienda ha dichiarato alla BBC che “proibisce qualsiasi uso improprio per scopi illegali o immorali sulle nostre piattaforme e le nostre politiche sono chiare sul fatto che ciò include CSAM (materiale pedopornografico)”. Ha sottolineato inoltre: “Sosteniamo fortemente gli sforzi delle forze dell’ordine contro coloro che abusano dei nostri prodotti per scopi illegali o nefasti”. Ian Critchley dell’NPCC ha affermato di essere anche preoccupato che il flusso di AI realistiche o immagini “sintetiche” possa rallentare il processo di identificazione delle vere vittime di abusi.