Mentre nelle scuole italiane ci si barcamena con il divieto di usare il telefono cellulare durante l’orario scolastico, in altre sedi educative e università del mondo è già stata aperta la battaglia contro l’intelligenza artificiale nell’ultima sua versione: la ChatGPT (Generative Pre-trained Transformer). Si tratta di un software appena rilasciato (novembre 2022) e che già spopola. Questo potente modello di intelligenza artificiale applicata al linguaggio, sviluppato dalla californiana Open IA, la società americana di ricerca e distribuzione che si prefigge di “plasmare il futuro della tecnologia”, ha una capacità di generare un testo simile a quello umano.
Le implicazioni che ne derivano si possono raccogliere sotto due punti di vista. In primo luogo, questa potente tecnologia cambia, o dovrebbe cambiare, il nostro modo di interagire con il computer. Il sito di Open IA specifica che l’interazione è colloquiale: “Il formato di dialogo consente a ChatGPT di rispondere a domande di follow-up, ammettere i propri errori, contestare premesse errate e rifiutare richieste inappropriate”.
Il sito chiarisce inoltre che il modello è il risultato algoritmico dello schema di una conversazione, in cui si privilegia l’apprendimento basato sul rinforzo (Reinforcement Learning from Human Feedback). Il congegno ha cioè “imparato” ad assestarsi prendendo spunto dalle persone con le quali ha chattato (o, per meglio dire, dal personale utilizzato per produrre la nuova tecnologia). Si è in qualche modo adattato mediante una serie di feedback che hanno reso la risposta ai quesiti posti sempre più verosimile. ChatGPT non ha nulla a che vedere con la ricerca di parole, temi o argomenti sul web, ponendo la sua forza nell’essenza stessa del dialogo, dove ci si misura continuamente con lo spessore della domanda e l’identità dell’interlocutore. Particolarmente alte sono dunque le aspettative dei fruitori.
In secondo luogo, se utilizzata nel campo dell’istruzione, l’innovazione può comportare varie e talvolta inquietanti (specie per i docenti) eventualità. Il robot cosiddetto “conversazionale” è in grado di riassumere un libro e di redigere un compito scritto in pochi minuti facendo guadagnare tempo. È evidente il salto che si può compiere a livello, per esempio, di compiti assegnati a casa, di tesi, tesine e quant’altro.
Ciò che preoccupa il mondo scolastico e universitario è come assicurare che un lavoro intellettuale sia il frutto dell’uomo e non di un robot. Più profondamente ci si chiede, nella misura in cui questo meccanismo pare sovrapporsi a certe parti dell’attività umana, se l’uomo perderà una delle sue caratteristiche fondamentali, cioè la riflessione. Da qui, una serie di misure di contrasto che sono già attive in vari Paesi.
In Francia, per esempio, l’istituto di studi politici “Sciences Po” ha cercato di vigilare sull’uso di ChatGPT obbligando gli studenti a dichiarare esplicitamente, sotto pena di sanzione in caso di menzogna, se nell’esecuzione dei loro compiti intendessero fare o avessero fatto ricorso ai nuovi sistemi. Il plagio prodotto dalla costruzione artefatta dei dati è stato bollato come tale da altre strutture educative e formative. Nelle scuole di New York, per citare un’altra realtà, la ChatGPT è stata proibita per evitare che gli studenti utilizzassero il marchingegno informatico per ottenere nei compiti a casa risposte simil-umane, staccate perfino dal ricorso alle fonti della rete (sarebbe già tanto, viene da pensare, se almeno i ragazzi imparassero a usare utilmente Internet).
Si potrebbe proseguire analizzando le sfaccettature di questa modalità tipica della società odierna che rispetto a un evento nuovo, anziché prenderlo in considerazione e comprenderlo sotto tutte le sfumature possibili, si difende vietando o imponendo regole, per quanto giustificate esse possano apparire.
In realtà ci sono, a quanto pare, tre ragioni per non avere paura di ChatGPT.
La prima è che il nuovo formato è tutto sommato ottuso, alla prova dei fatti, cioè capace di rispondere secondo certe previsioni, ma incapace di usare la logica. Così per esempio, se si chiede a ChatGPT “di che colore era il cavallo bianco di Napoleone” è probabile che l’applicazione vada in confusione, ammettendo di non avere sufficienti informazioni per giungere a una soluzione: cosa di per sé ridicola di fronte a una evidenza.
La seconda è che il mondo informatico sta già elaborando strumenti che consentono di ostacolare i sistemi più opachi, migliorando la trasparenza dei metodi. Su queste pagine ci si è occupati di recente di questa interessante svolta attinente all’uso della moralità in campo scientifico.
Un terzo motivo di riscatto viene dalla stessa consistenza del processo di elaborazione della conoscenza propria dell’uomo, che resta comunque superiore a quella delle macchine. Almeno nell’ambito dell’espressione letteraria, estetica e religiosa. In questo senso riprendiamo, in sintesi, un interessante editoriale del quotidiano Le Figaro del 10 febbraio 2023, a firma Étienne de Montety. È possibile, argomenta lo scrittore e giornalista, che l’intelligenza artificiale sembri d’ora in poi più potente dell’essere umano. Ma resta “artificiale”: può utilizzare delle parole, copiare delle idee e riprodurre dei ragionamenti, fino a prendere le apparenze della creazione letteraria… Tuttavia, la letteratura fa appello a qualcosa di diverso dall’intelligenza e dall’erudizione: essa attinge alla sensibilità dell’autore, ai suoi ricordi, al suo immaginario, tutte zone inattingibili del suo essere. Essa esplora dei piani sepolti della sua storia, riporta alla superficie i sogni più lontani. Questa dimensione irrazionale dello scrittore è al di fuori della portata della macchina: si può chiamare l’animo umano.
Fin qui la citazione. Ma questa “irrazionalità”, si potrebbe chiosare in conclusione, non è una fuga dal campo della ragione. Molto spesso intendiamo per “irrazionale” il confine ultimo della ragione scientifica, là dove essa sperimenta l’accesso al campo altrettanto “ragionevole” della probabilità. È proprio questo uso della ragione in tutti i suoi fattori che ci fa cogliere la pertinenza della letteratura e della religione (e di ogni fenomeno estetico) al campo del linguaggio simbolico, analogico, evocativo. Un linguaggio che comunica certezze morali le quali, stiamone certi, nessun algoritmo o rete neurale artificiale potrà replicare.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.