Da potenziale alleata a “ladra di pensieri”: mentre cambia il nostro modo di lavorare, l’intelligenza artificiale rimodella in modo sottile anche il modo di pensare e arrivare a ridurre il pensiero critico. Sull’efficienza dell’AI non ci sono dubbi, però finché si tratta di affidare all’AI attività semplici nessun problema, se invece le si affida un lavoro “pesante”, si rischia di far ‘atrofizzare’ le proprie facoltà critiche. A lanciare l’allarme è un nuovo studio condotto da Carnegie Mellon e da Microsoft Research, al fine di capire se l’AI li sta aiutando o sta danneggiando il loro pensiero critico.
I risultati sono preoccupanti: l’AI ci rende supervisori, anziché pensatori, perché anziché sviluppare idee originali, molte persone si limitano a curare i risultati prodotti dall’AI. Se da un lato migliora l’efficienza del lavoro, dall’altro riduce lo sforzo nel pensare in maniera critica, quindi più ci si fida dell’intelligenza artificiale, meno si pensa con la propria testa. Lo studio in questione ha esaminato 936 casi reali di professionisti che usano l’AI per compiti che vanno dalla stesura di relazioni all’analisi di dati.
I ricercatori hanno concluso che quando la fiducia risposta nell’intelligenza artificiale è alta, lo sforzo per elaborare un pensiero critico è basso; chi nutre maggiore fiducia in se stesso è più propenso a sviluppare un pensiero critico; infine, cambia l’applicazione dello sforzo cognitivo, dalla risoluzione dei problemi alla verifica dei fatti e all’integrazione.
LO STUDIO MICROSOFT SULL’AI
Per pensiero critico va intesa la capacità di analizzare, sintetizzare e valutare le informazioni, abilità che si maturando con la ‘pratica’. Con l’avvento dell’intelligenza artificiale, però, le persone tendono a chiedere di generare argomentazioni, anziché formularle, di controllare se i risultati ‘suonano bene’, anziché risolvere i problemi, ritrovandosi a sfogliare i riassunti anziché effettuare delle ricerche approfondite. Se l’AI commette degli errori e gli esseri umani non se ne accorgono? Il paradosso è così servito: se la fiducia nell’AI è cieca, il pensiero si impigrisce, con effetti negativi per coloro che si occupano di medicina, giornalismo e legge.
Un altro risultato inaspettato di questo studio è che i lavoratori che usano l’intelligenza artificiale producono risultati più simili a quelli che lavorano senza, perché l’AI tende ad adottare le risposte ‘medie’, quindi c’è minore diversità di pensiero e la prevedibilità algoritmica prevale sull’originalità. Il problema, è bene precisarlo, non è rappresentato dall’AI in sé, perché è solo uno strumento. Il problema sorge quando gli esseri umani smettono di impegnarsi, affidandosi ciecamente ad essa.
I RISCHI E LE SFIDE DELL’INTELLIGENZA ARTIFICIALE
L’AI, dunque, dovrebbe spingere gli utenti a verificare le informazioni fornite per alimentare il pensiero critico, il giudizio umano non andrebbe del tutto sostituito, ma integrato dall’intelligenza artificiale, quindi dovrebbe agire come un dialogo socratico, interrogando gli utenti, anziché fornire solo risposte.
Lasciando all’intelligenza artificiale il carico di lavoro cognitivo degli esseri umani, si corre il rischio di creare una generazione di lavoratori che eccellono nell’esecuzione rapida, ma non sono in grado di risolvere problemi nuovi. La sfida è trovare un equilibrio, la vera promessa è di farsi aiutare dall’AI per liberarsi da compiti banali per potersi concentrare su attività creative e critiche, di livello superiore. In definitiva, l’intelligenza artificiale potrebbe renderci più stupidi, ma solo se glielo permetteremo.