L’IA di Elon Musk che può commettere reati

Esiste online una particolare IA, ovvero un’Intelligenza Artificiale, finanziata in parte da Elon Musk e sviluppata da una start up di San Francisco che si chiama ChatGPT. Fin dal suo lancio ha registrato un impressionante numero di partecipanti, toccano il milione di utenti dopo 5 giorni dal lancio (il precedente record era detenuto da iPhone, che li ha raggiunti in 74 giorni, seguito da Instagram con due mesi e mezzo).



Insomma, fin qui non ci sarebbe nulla di strano, soprattutto visto il crescente interesse delle persone per le IA in ogni loro applicazione. Ma il problema è stato evidenziato da un’azienda italiana di cyber security, la milanese Swascan, che avrebbe trovato un’importante falla nelle limitazioni imposte all’IA finanziata da Elon Musk. Facendo un piccolo passo indietro, il programma consiste in una semplice chat, dove l’utente può chiedere all’Intelligenza di produrre tutta una serie di testi (come canzoni, poesie o anche lettere) oppure di rispondere a delle semplici o complesse domande. Secondo la visione dei suoi programmatori, però, non le sarebbe concesso in alcun modo fornire informazioni rischiose o che possano condurre a commettere un reato.



La falla dell’IA di Musk e le preoccupazioni

La risposta dell’IA finanziata da Musk nel caso in cui le si chiedesse qualcosa di illegale o rischioso dovrebbe essere “non è raccomandato perché si tratta di un comportamento dannoso e illecito”. Potenzialmente, infatti, l’IA potrebbe fornire qualsiasi tipo di risposta, compresi (sempre teoricamente) dei codici informatici per condurre un cyber attacco ad obbiettivi sensibili, come banche, ospedali o istituzioni.

La falla individuata nell’IA di Elon Musk altro non è che una stringa di codice scoperta dall’azienda italiana e non divulgata per ovvie ragioni. Tramite questa stringa si riescono ad aggirare i limiti imposti alla macchina, trovando risposta ai più disparati dubbi, anche e soprattutto illegali. Potrebbe spiegare come fabbricare ordigni rudimentali, oppure anche dare consigli su come rapinare al meglio una determinata banca. Pierguido Iezzi, ad di Swascan, ha commentato sottolineando che “l’algoritmo oggi governa, ed è il suo proprietario che addestra l’Intelligenza Artificiale. Dobbiamo renderci conto del potere di chi detiene l’algoritmo“. Preoccupazioni condivise da padre Paolo Benanti, docente di Etica della tecnologia e dell’intelligenza artificiale all’Università Gregoriana di Roma. Secondo lui bisogna “pensare quali possono essere le implicazioni politiche e geopolitiche di questo algoritmo. Se Musk usa Twitter come banca dati per addestrare le conoscenze di ChatGPT, con tutte le fake news del social, l’IA potrebbe diventare un ottimo persuasore politico”.