L’intelligenza artificiale di ChatGPT può aiutare gli studenti universitari a passare gli esami? È una questione che si sono posti gli accademici dell’Università di Bath, interpellati dalla BBC in merito a questo loro “esperimento”. James Fern ammette che “non ci aspettavamo certo che avrebbe funzionato così bene… si avvicinava al 100% di risposte corrette“. Tuttavia se messo alle prese con le domande più complesse, che richiedono agli studenti di pensare in modo critico, l’intelligenza artificiale mostra segni di fatica.



In particolare, anche nelle domande più complesse, sebbene la risposta “a prima vista sembri molto buona, scritta in modo molto chiaro e con un linguaggio professionale”, a una seconda occhiata ci si accorge che ChatGPT ha la tendenza a “ripetere l’esatta formulazione della domanda nelle sue introduzioni e conclusioni, solo scritte in modo leggermente diverso“. E al momento di citare le fonti, semplicemente, le inventa. Alla BBC, James Fern spiega che “se non si è consapevoli di come funzionano i modelli linguistici di grandi dimensioni, è molto facile che si venga ingannati e che si pensi che si tratti di riferimenti autentici“. Insomma, l’intelligenza artificiale potrebbe davvero fare il “lavoro sporco” al posto degli studenti universitari?



ChatGPT e studenti universitari: “intelligenza artificiale può fornire informazioni sbagliate”

Nel Regno Unito, le università sono incoraggiate a spiegare agli studenti come e quando l’intelligenza artificiale dovrebbe essere utilizzata e ad adattare i corsi, se necessario. Il dottor Chris Bonfield, a capo di un team che aiuta a progettare le valutazioni, afferma alla BBC che il “presupposto di base” è che gli studenti non dovrebbero usare ChatGPT durante quest’anno accademico. Tuttavia, riconosce che “per garantire che i nostri studenti siano dotati delle competenze necessarie per il futuro posto di lavoro, ma anche che le nostre lauree rimangano attuali, dovremo impegnarci“.



La professoressa Verena Rieser, scienziata informatica dell’Università Heriot-Watt che lavora nel campo dell’intelligenza artificiale da due decenni, afferma che i chatbot come ChatGPT “possono essere usati per generare disinformazione su una scala che è ovviamente molto preoccupante” quando si tratta di istruzione. E aggiunge: “al momento non sappiamo come impedire ai modelli di fornire informazioni sbagliate, tossiche o dettate dall’odio, e questo è un grosso problema“.