Significativo è l’esempio a cui il documento stesso per la regolamentazione dell’IA fa cenno a proposito dell’attività di screening dei curriculum vitae. Quale sarebbe la differenza tra lo screening dei cv compiuto tramite IA e uno screening compiuto con strumenti statistici che non ricadono nel dominio dell’IA?



Perché si parla di criteri etici nella valutazione dei cv da parte della IA? Per il software sono solo parametri che concorrono all’analisi, visto che l’IA non ha concetti come sesso, orientamento politico o religioso e neppure di razza, ma semmai li hanno i suoi programmatori. O, meglio, li hanno coloro per conto dei quali i programmatori lavorano e sviluppano un software.



Se si riflette su questa osservazione, non ci vuole molto a capire che, semmai, è chi progetta un sistema simile a dover porre la dovuta attenzione a evitare che alcuni parametri predominino sugli altri (generando così discriminazione). E, in seconda battuta, è chi utilizza il risultato generato da un prodotto simile a doversi accertare – in via preventiva – che non siano stati commessi errori di questo tipo nella programmazione del software. Esattamente come, prima di presentare un report generato con Excel al vostro amministratore delegato, è bene che controlliate (o facciate controllare) il rapporto a dovere, per evitare figuracce nel migliore dei casi: madornali errori decisionali nel peggiore.



E allora, se proprio vogliamo parlare di etica, perché non imporre alle aziende che oggi detengono le maggiori IA generative disponibili, di riconoscere un contributo agli autori delle informazioni reperite dalla scansione del web, utilizzate per addestrare i propri sistemi che producono poi enormi guadagni per loro creatori?

Questo sarebbe in effetti professionalmente molto etico. O forse solo normale, in un mondo in cui uno si impossessa di beni altrui a insaputa degli altri.

Ma a pensarci bene, il fatto che per addestrare una IA occorrano informazioni prodotte dall’uomo in grande quantità, non suona un po’ strano? Se l’IA implicasse la vera intelligenza, non ci sarebbe bisogno di farlo; un esemplare già addestrato potrebbe generare informazioni utili all’addestramento di un suo simile.

In realtà, come si è detto all’inizio, una IA non è davvero intelligente e non è in grado di produrre nulla di davvero originale. Può solo riorganizzare, statisticamente, le informazioni che ha incamerato producendo un documento che mostra in un’altra forma quelle stesse informazioni. Il che può essere rilevante e utile, ma non apporta niente di sostanzialmente nuovo.

Per questo il prodotto di una IA non può essere usato per addestrare un’altra IA: manca quella varietà e quella giusta dose di novità che fa la differenza qualitativa tra un documento generato, ad esempio, con ChatGPT e quello stilato da un essere umano con reali capacità cognitive.

Per capirci, prendiamo l’esperimento che è stato condotto nel 2023 al Politecnico di Torino, e che è finito sui giornali, dove ChatGPT è stato utilizzato per rispondere ai test scritti che vengono sottoposti agli studenti del primo anno di Informatica. Seppur con piccoli errori e imprecisioni, ChatGPT è riuscito a superare il test. Quando poi la squadra di ricercatori ha aumentato la difficoltà, proponendo a ChatGPT un test più avanzato, del tipo che debbono affrontare gli studenti della laurea magistrale, l’IA ha miseramente fallito, producendo risposte a caso.

Cos’è successo? Semplice: la macchina è riuscita a cavarsela con le domande più facili o quelle a risposta multipla di cui ha trovato esempi nella sterminata documentazione su cui è stata addestrata. Ma quando le è stato chiesto di ragionare davvero e di usare in modo creativo, come un vero essere umano, ciò che aveva imparato, l’IA ha mostrato in modo chiarissimo quale fossero i suoi limiti, e cioè il confine tra imitazione e vera intelligenza.

Test simili sono stati condotti su temi diversi (per esempio, giurisprudenza, medicina) in altre università con risultati identici; discreto successo negli esami a risposta multipla, fallimento in quelli dove è richiesto un reale impiego di facoltà cognitive/deduttive. Il che mostra chiaramente due cose; la prima, ma l’avevamo già capito, è che l’IA non è davvero intelligente, con tutto quello che ne consegue. La seconda, decisamente più grave, è che abbiamo nel tempo impoverito e indebolito sempre più le metodologie di studio e di verifica per umani (e continuiamo a farlo), riducendo l’uomo a poco più di un automa particolarmente abile. Insomma, non è l’IA che diventa intelligente, ma l’uomo che rinuncia a esprimere le sue potenzialità.

Il che ci riporta al concetto “dell’uomo al centro”. Vogliamo che l’essere umano sia il principio guida per questa e altre tecnologie simili? Bene, allora torniamo a fare gli umani. A partire dalla scuola.

Tralasciamo poi il dibattito, piuttosto sterile, secondo cui l’IA ruberà il lavoro agli esseri umani che saranno quindi ridotti a mendicare, causa ondate di licenziamenti a favore del sempre maggiore impiego di software intelligenti. Basta ricordare che l’IA è solo uno strumento. Che potrebbe arrecare enormi vantaggi se fosse impiegato in modo consapevole e mondato dalle metafore antropomorfizzanti o millenaristiche che la accompagnano: e cioè se gli esseri umani si comportassero da tali e, soprattutto, smettessero di perseguire pigrizia mentale e impoverimento culturale con l’energia che sappiamo.

E allora si potrebbe imparare a usare in modo adeguato uno strumento formidabile, così come secoli fa si è imparato a usare il cavallo. Che è un animale splendido e utilissimo per percorrere lunghe distanze. Ma che se non addomesticato può essere molto pericoloso.

Per non parlare poi della fastidiosa tendenza dei cavalli a portare i cavalieri inesperti dove vogliono loro. O meglio, a portarli dove chi addestra cavalli ha ritenuto bene andassero a finire i cavalieri inesperti. Che è il vero rischio dell’IA: e cioè il rischio di affidarsi al cavallo, addestrato da altri, per sapere dove andare.

(3- fine)

— — — —

Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.

SOSTIENICI. DONA ORA CLICCANDO QUI