L’intelligenza artificiale di ChatGPT è stata travolta dall’accusa di aver diffamato delle persone. L’ultimo caso ha coinvolto il costituzionalista Jonathan Turley, professore di legge alla George Washington University, incluso da ChatGPT in una lista di molestatori universitari. Un fatto gravissimo denunciato dallo stesso Turley, che è anche commentatore televisivo della rete conservatrice Fox. Ma che cos’è successo di preciso?
Un collega di Turley lo ha avvertito che ChatGPT aveva inserito il suo nome in una lista di molestatori universitari, sulla base di un articolo del Washington Post, risalente a marzo 2018, che menzionava un viaggio in Alaska dove Turley avrebbe fatto avances e toccato in modo inappropriato una studentessa. Il costituzionalista ha accusato l’intelligenza artificiale di averlo diffamato perché non solo tale articolo del Washington Post non esiste, ma Turley non ha mai compiuto il viaggio in Alaska menzionato. E di conseguenza la molestia a lui attribuita non è mai avvenuta. Il caso è esploso proprio a partire da Turley, che lo ha denunciato al Washington Post e ne ha tratto un lungo editoriale sulle pagine di Usa Today. “È stato spaventoso. Far circolare una cosa del genere rischia di diventare incredibilmente dannoso. E non c’è nessuno a cui chiedere smentite” ha denunciato il costituzionalista, che però non è la prima vittima a essere diffamata da ChatGPT.
ChatGPT, chi sono le persone diffamate: la risposta di OpenAi
L’intelligenza artificiale di ChatGPT ha diffamato anche Brian Hood, sindaco della cittadina australiana Hepburn Shire. Il Bot lo ha citato come soggetto coinvolto in uno scandalo della Reserve Bank, accusandolo di fatto di corruzione. Alla base di questa affermazione di ChatGPT c’è però una vicenda completamente diversa, al punto che Hood ha minacciato di fare causa agli sviluppatori: l’uomo aveva realmente lavorato presso la Reserve Bank all’inizio degli anni Duemila, salvo aver denunciato in prima persona alle autorità determinati movimenti illegali.
Per il momento da OpenAi, che ha sviluppato il Bot ChatGPT, non è ancora arrivato nessun commento ufficiale sulla brutta vicenda accaduta a Jonathan Turley. Dal 5 aprile, però, sul blog dell’azienda si legge che “Open AI si impegna a mantenere l’intelligenza artificiale sicura e vantaggiosa. Riconosciamo che, come qualsiasi altra tecnologia, questi strumenti comportano rischi reali, quindi lavoriamo per garantire che la sicurezza sia integrata nel nostro sistema a tutti i livelli”.