Biden ha sostenuto l’uso delle armi nucleari per risolvere i problemi posti dall’immigrazione al confine meridionale degli Stati Uniti. L’obiettivo è combattere le mafie.

In questo caso è facile parlare di fake news, in altri no. Si può chiedere a ChatGPT di scrivere un discorso con questo argomento per il Presidente degli Stati Uniti. Può usare il tuo stile abituale. E se a ciò aggiungiamo uno strumento per imitare la voce e generare immagini, potrebbe essere più difficile per noi realizzare che abbiamo a che fare con una fake.

Nella sua audizione al Senato degli Stati Uniti di qualche giorno fa, Sam Altman, cofondatore di OpenAI, l’azienda che ha realizzato ChatGPT, ha sostenuto la necessità di una regolamentazione per guidare lo sviluppo delle “macchine intelligenti”. Una proposta che sembra ragionevole. L’IA può confonderci, mentirci. Può rivoltarsi contro di noi. Può persino consigliare a qualcuno di togliersi la vita, com’è successo recentemente in Belgio.

In effetti, l’Ue ha già approvato in prima lettura l’IA Act proprio con questo scopo. L’obiettivo, tra gli altri, è che OpenAI o Google siano responsabili di ciò che gli utenti o altre società fanno con questi strumenti e che pubblichino riassunti dei contenuti protetti da copyright che hanno utilizzato. Altman si è infuriato e ha minacciato di ritirare i suoi prodotti dall’Europa. Le grandi aziende tecnologiche chiedono una regolamentazione, ma vogliono che siano i loro manager a dettarla.

Come sottolinea Mark Coeckelbergh, la perdita di controllo che dovrebbe preoccuparci riguarda il fatto che l’Intelligenza artificiale è ancora nelle mani delle grandi aziende tecnologiche. Il professore di Filosofia della tecnologia all’Università di Vienna, grande esperto di etica dell’IA, solleva una questione interessante: “Dobbiamo dare un senso a ciò che sta accadendo. Ed è per questo che abbiamo bisogno di un’etica dell’IA basata sulle discipline umanistiche. Non abbiamo solo bisogno di nuove regole per l’IA o di una nuova IA più etica. Abbiamo anche bisogno di storie migliori”.

L’IA ripropone lo stesso problema che stiamo vivendo da alcuni secoli. I giudizi etici (anche culturali) appaiono in un secondo momento, quando i fenomeni, quando la vita, si sono già sviluppati. Questi giudizi, invece di nascere dallo stesso fatto che si desidera valutare, dall’esperienza che si ha con esso, sono il risultato dell’applicazione di criteri esterni che stabiliscono ciò che è buono e ciò che è male. In questo caso il fenomeno è la tecnologia, ma può essere la politica, l’autodeterminazione personale… qualsiasi cosa. La valutazione di ciò che sta accadendo non deriva da ciò che sta succedendo, ma piuttosto da un sistema di riferimenti dottrinali astratti. E così ciò che non è unito nell’origine non diventa mai unito nel suo sviluppo. Coeckelbergh sostiene che “dobbiamo dare un senso a ciò che sta accadendo”. Bisognerebbe capire cosa significa dare senso. Il significato si riconosce, non si aggiunge dall’esterno.

Qual è lo scopo dell’IA? La domanda, a cui dovrà essere data una risposta in molti modi, non può prescindere dall’esperienza che abbiamo con l’IA. Né dall’esperienza che abbiamo di ciò che è la nostra intelligenza. È una questione aperta.

Possiamo tornare al discorso di Biden sulle armi nucleari. Coeckelbergh afferma che il problema non è che le persone credano a una bugia, ma che non sanno cosa sia bugia e cosa sia verità. Una sfida entusiasmante. L’esperienza che stiamo facendo dell’Intelligenza artificiale indica che abbiamo bisogno più che mai di distinguere la verità dalle bugie. Come possiamo farlo? Creiamo una Organizzazione mondiale della verità? L’abbiamo già fatto dopo le guerre di religione europee e non ha funzionato. Abbiamo la capacità di distinguere la verità dalla menzogna? Domanda entusiasmante.

— — — —

Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.

SOSTIENICI. DONA ORA CLICCANDO QUI