Paolo Benanti, teologo e presidente della Commissione per l’AI oltre che consigliere di Papa Francesco, sulle pagine de La Stampa parla di cosa significhi guardare alla tecnologia con un approccio etico: “Non è certo cercare le tavole dei Dieci Comandamenti della tecnologia, ma è chiedersi e chiedere quale forma di potere inietta un certo tipo di innovazione tecnologica all’interno della società”. L’etica della tecnologia “considera la tecnologia come un costrutto socio-tecnico, cerca di mettere in luce che tipo di relazioni ci sono tra tecnologia e vita sociale. Rispetto all’intelligenza artificiale, dovremmo chiederci quale effetto essa abbia sulle nostre capacità decisionali” spiega.
Oggi un’altra “grande questione che ci si pone davanti è la capacità di persuasione della macchina. In tanti studi che leggo, trovo che, purtroppo, è diffusa una retorica simile a quella che abbiamo visto con il tabacco e con le armi: non si distingue tra persuasione e manipolazione, cosa che da Aristotele in poi abbiamo imparato a distinguere” sottolinea ancora Benanti, facendo poi un esempio pratico, quello del semaforo (che impone un comportamento) e della rotonda (che si basa sul principio “ti regoli come vuoi”). All’aeroporto di Schiphol, per fare un altro esempio pratico, avevano un problema: pulire i bagni degli uomini costava quasi il doppio rispetto a pulire quelli delle donne. Hanno così disegnato una mosca all’interno del water per spingere gli uomini a centrare il foro. “Si è passati di fatto da una norma a un dispositivo informazionale che spinge sull’uomo e cambia il suo comportamento” spiega il teologo.
Benanti: “L’intelligenza artificiale? La piattaforma non è un soggetto neutro”
Cosa fa di una legge qualcosa che è lecito? Paolo Benanti, sulle pagine de La Stampa, spiega ancora: “John Rawls, nella sua Teoria della Giustizia, ci suggerisce alcuni criteri formali: una legge, per essere conforme allo stato di diritto, deve rispettare tre condizioni: essere conoscibile, universale e generale. Ora, come si fa a rendere legittime le regole di funzionamento delle macchine intelligenti? Proviamo a vedere se rispettano quelle condizioni. Queste regole sono conoscibili? Si potrebbe rendere il codice open, cosicché tutti lo leggano. Ma già Ken Thompson, vincitore del premio Turing, in un suo paper del 1982 Trusting the Trust, ha dimostrato che non possiamo essere certi che l’algoritmo faccia solo quello che detta il codice; inoltre chiunque potrebbe alterare il codice. Seconda condizione: sono universali? Beh, l’algoritmo profila. Terza condizione: sono generali? Le macchine intelligenti obbediscono solo al padrone dei server”.
Ma allora possiamo aver fiducia in queste macchine intelligenti? “Una macchina di Ai che lavora senza sosta con quelle modalità di cui abbiamo parlato rischia di erodere la fiducia che sta alla base del contratto sociale: tutti gli studi sulla polarizzazioni lo dimostrano. Perché una piattaforma non è un soggetto neutro: è un soggetto che monetizza rispetto a questa polarizzazione. Ovvero estrae valore rispetto a un qualcosa che è un valore comune e condiviso, che è la collettività sociale” scrive Benanti. È dunque vero che le persone esposte ai sistemi di intelligenza artificiale non cambiano idea nel lungo termine ma “è altrettanto vero che questi sistemi inducono a comportamenti nell’immediato (per esempio all’acquisto). Ed è questa differenza tra manipolazione e persuasione che va rimessa al centro del dibattito pubblico”. Dunque, in conclusione, “mantenere la centralità del lato umano della relazione uomo-macchina non sia solo una questione educativa o formativa: è una questione di tolleranza del sistema democratico. Occorre reintrodurre probabilmente una categoria che già esiste nel diritto: la differenza tra pericolo e rischio“.