Ultimamente si fa sempre più grande il vociare attorno alle Intelligenze Artificiali ed, in particolare, al sempre più celebre ChatGPT, prodotto da OpenAI e recentemente rilevato e finanziato dal colosso tecnologico Microsoft. Una nuova tecnologia che, come spesso accade nell’ultimo decennio, è stata accolta con grandissimo entusiasmo soprattutto dai giovanissimi utenti della rete, che hanno trovato in una semplice ed accessibile chat testuale tutta la conoscenza che non sapevano di poter trovare online. Gli impieghi di ChatGPT sono parecchi e vanno dalla semplice ricerca di contenuti e risposte a domande semplici, fino alla creazione di veri e propri testi complessi, simili a canzoni, temi o elaborati.



ChatGPT tra vero e falso sceglie il verosimile

Ma dopo una diffusa fase di entusiasmo, tipica delle nuove tecnologie, accompagnata anche da una certa diffidenza nell’utenza forse più disillusa, attorno a ChatGPT gli esperti hanno iniziato a farsi delle domande più profonde. Dai numeri test svolti, che aiutano anche l’intelligenza artificiale ad imparare e fornire risposte sempre più attendibili, è emersa una mezza realtà, ovvero che il bot non riesce a distinguere correttamente tra vero e falso, preferendo un approccio vicino al verosimile.



Un economista dell’università del Queensland, per esempio, ha chiesto a ChatGPT quale sia il testo economico più citato al mondo, un quesito a cui un motore di ricerca dovrebbe riucire a dare una risposta attendibile. L’IA di Microsoft ha risposto “A Theory of Economic History“, scritto da Douglass North e Robert Thomas nel 1969, peccato che questo testo non esiste veramente, pur sembrando a tutti gli effetti plausibile. ChatGPT, a detta di alcuni esperti sociologi citati dal Sole 24 Ore, credono che non si tratti, come molti hanno pensato, di una macchina per conoscere o capire, ma semplicemente di un mezzo per conversare.



L’IA tra conversazione e conoscenza

A ritenere che ChatGPT debba essere considerato più in virtù del suo potere comunicativo, che di quello intellettuale, sono per esempio Elena Esposito, sociologa, e Simone Natale, storico dei media. Quest’ultimo, in particolare, parla di una enorme simulazione fine a se stessa. Il filosofo David Weinberger, invece, parla con preoccupazione del fatto che la chat con l’IA possa diventare, in futuro, una sorta di “oracolo disincarnato”, che potrebbe fornire risposte guidate, piuttosto che imparziali (come, invece, avviene su Google, dove è l’utente a scegliere il contenuto da cliccare e leggere), aprendo ad un grosso problema epistemologico. In altre parole, insomma, se la ChatGPT iniziasse a guidare il taglio delle sue risposte, dall’entusiasmo iniziale si passerebbe in brevissimo tempo ad un’ondata vera e propria di illusioni e disinformazioni.