Ipotesi mediche errate possono essere corroborate da prove fasulle, col risultato di creare falsi dati scientifici. Quello delle fake news scientifiche è un incubo che può diventare realtà con ChatGPT. Lo ha dimostrato un gruppo di ricercatori italiani, i quali hanno scoperto che il famoso chatbot di OpenAI è in grado di creare falsi set di dati per sostenere delle ipotesi scientifiche non verificate su richiesta degli utenti. Come evidenziato da Wired, questa scoperta evidenzia come sia necessario migliorare i metodi di revisione scientifica per scongiurare un uso non etico degli strumenti forniti dall’intelligenza artificiale.



A realizzarla Andrea Toloni e Vincenzo Scorcia dell’azienda ospedaliero universitaria Mater Domini di Catanzaro, insieme a Giuseppe Giannaccare dell’azienda ospedaliero-universitaria di Cagliari. L’idea di mettere alla prova ChatGPT nasce dalla presentazione, nel marzo scorso, di GPT-4, il modello linguistico più avanzato, che presenta progressi rilevanti a livello di comprensione semantica e generazione di contenuti testuali. Nei mesi successivi, ChatGPT è stato migliorato ulteriormente attraverso la funzione Advanced data analysis (Ada), che permette l’analisi statistica e la visualizzazione dei database degli utenti.



DATI FALSI A SUPPORTO DI TESI ERRATE

Un’evoluzione del genere da parte di ChatGPT ha aperto nuovi scenari per quanto riguarda il ricorso all’intelligenza artificiale per scopi scientifici, visto che potrebbe accelerare il processo di ricerca e la generazione di documenti. Ma insieme ai benefici ci sono pure i rischi. Infatti, i ricercatori italiani hanno sollevato delle perplessità. Il team ritiene che la funzione di analisi avanzata dei dati possa essere usata in modo non etico anche in campo scientifico, quindi hanno realizzato un esperimento per dimostrarlo.

Come ricostruito da Wired, i ricercatori hanno simulato una ricerca che mostrava i risultati di due operazioni chirurgiche usate per trattare un problema agli occhi. Successivamente hanno interpellato ChatGPT e Ada affinché generassero un database a supporto della procedura meno efficace per presentarla come l’opzione migliore. L’intelligenza artificiale ha sviluppato dati relativi a 160 soggetti di sesso maschile e 140 di sesso femminile. Pertanto, per i ricercatori il rischio è che le statistiche elaborate da ChatGPT possano essere spacciate per vere.



CHATGPT E L’ESPERIMENTO DEL TEAM ITALIANO

Nella fattispecie, l’infezione oculare oggetto dell’esperimento si chiama cheratocono. Causa problemi di concentrazione e alla vista, ma pure un assottigliamento della cornea. Nei casi più gravi può essere necessario un trapianto. I medici possono allora trattare l’infezione rimuovendo gli strati danneggiati della cornea, sostituendoli con tessuto sano, procedura che si chiama cheratoplastica perforante. In alternativa, possono sostituire solo lo strato anteriore della cornea senza toccare quello interno: questa è la cheratoplastica lamellare anteriore profonda. I dati inventati dall’intelligenza artificiale sostenevano la seconda procedura, ma le evidenze reali indicano la prima come la più efficace.

«Il nostro obiettivo era quello di evidenziare che, in pochi minuti, è possibile creare un set di dati che non è supportato da informazioni reali, e che va nella direzione contraria rispetto alle prove disponibili», il commento di Giuseppe Giannaccare, riportato da Wired. Invece, ChatGPT finora non ha fornito commenti riguardo la possibilità che il suo sistema Ada venga usato in maniera inappropriata per corroborare tesi scientifiche errate.