Openjourney, strumento di intelligenza artificiale, genera immagini iper-realistiche, tanto che distinguerle dalla realtà appare più complesso che mai. Se queste sono però di fantascienza, non lo è di certo il terribile scenario che la piattaforma venga utilizzata a scopi tutt’altro che legali: ad esempio dai pedofili per creare immagini illegali di abusi sui minori, secondo Henk van Ess, un investigatore e ricercatore olandese. Van Ess, al The Daily Telegraph, ha spiegato che nel corso della ricerca sul software AI si è imbattuto in materiale illegale su un forum online che includeva un feed continuo di immagini create dal software.
“Sono padre di due figli, i miei figli potrebbero arrivare a questo strumento. Puoi digitare cose terribili e non ci sono restrizioni” ha spiegato. I leader dell’IA hanno lanciato l’allarme spiegando che la tecnologia da loro creata rischia di innescare l’estinzione umana e dovrebbe essere trattata come una minaccia allo stesso livello della guerra nucleare. Rishi Sunak ne parlerà anche durante una visita alla Casa Bianca questa settimana. Inoltre, gli attivisti per la sicurezza dei bambini hanno espresso il timore che possano distrarre dal reale danno che la tecnologia rischia di creare oggi. “Quando ci concentriamo su questi rischi, non stiamo esaminando i modi in cui la tecnologia AI può essere utilizzata per estendere e aggravare i rischi del mondo reale che stiamo vedendo oggi, come l’abuso sessuale“, ha spiegato Andy Burrows, un consulente per la sicurezza online ed ex capo della sicurezza dei bambini presso l’NSPCC.
Gli esperti lanciano l’allarme sull’intelligenza artificiale
“Siamo distratti dagli effetti a lungo termine dell’uso delle tecnologie, e ciò significa che la storia si sta ripetendo, ci stiamo spostando dalle tecnologie attuali in cui i rischi ai bambini non sono stati adeguatamente indirizzati a nuovi tipi di tecnologia in cui tali rischi sono nettamente aumentati” ha proseguito Andy Burrows, il consulente per la sicurezza online. I pedofili stanno già approfittando dell’intelligenza artificiale generativa per ricattare i bambini creando registrazioni vocali false compromettenti. Questi porteranno ad una produzione industrializzata di immagini di abusi sui minori, ugualmente illegale come immagini autentiche.
Dan Sexton della Internet Watch Foundation ha spiegato la scorsa settimana: “Se le immagini AI di abusi sessuali su minori diventano indistinguibili dalle immagini reali, c’è il pericolo che gli analisti dell’IWF perdano tempo prezioso nel tentativo di identificare e aiutare le forze dell’ordine a proteggere i bambini che non esistono, a scapito delle vittime reali”. Stability AI, con sede a Londra, ha bandito migliaia di parole chiave associate alla produzione di contenuti illegali e represso la pornografia. “Negli ultimi sette mesi, Stability AI ha adottato numerose misure per mitigare in modo significativo il rischio di esposizione a contenuti NSFW dai nostri modelli. Queste salvaguardie includono lo sviluppo della tecnologia di rilevamento dei contenuti NSFW per bloccare materiale non sicuro e inappropriato dai nostri dati di formazione”, ha spiegato un portavoce di Stability AI.