Sotto la pressione della velocità a cui si stanno evolvendo le intelligenze artificiali, di cui ChatGPT è la punta dell’iceberg, l’Unione europea si appresta ad approvare il Regolamento in materia. Recentemente agli utilizzi vietati degli algoritmi intelligenti si è aggiunto quello per il riconoscimento facciale massivo. Si tratta del quarto divieto che si aggiunge a quelli che proibiscono l’immissione sul mercato di intelligenze artificiali deputate alla valutazione del comportamento sociale delle persone e di quelle che possono influenzare e distorcere il comportamento delle persone. A questo si aggiunge un’ulteriore categoria di usi che potremmo considerare come degli “osservati speciali”, perché ritenuti ad alto rischio e quindi soggetti a periodiche revisioni per comprendere se non sia il caso di vietarli.
Sono ragionevolmente certo che nei prossimi anni si accenderanno feroci dibattiti perché, mai come in questo caso, a rischi enormi corrispondono opportunità altrettanto grandi. Il caso del riconoscimento facciale è stato soltanto il primo che ha visto su schieramenti contrapposti i fautori di una linea di massima sicurezza nella prevenzione e identificazione dei reati e quelli di una maggiore tutela della privacy dei cittadini. Gli esempi futuribili non mancano. Pensiamo al mondo dell’istruzione e del lavoro, in particolare rispetto alla selezione e valutazione, oppure a intelligenze artificiali che potrebbero gestire le priorità di servizi di emergenza come ambulanze e vigili del fuoco. L’elenco potrebbe essere molto lungo, ma esiste un tema macroscopico e di carattere molto più generale. Per comprendere la natura del mio dubbio faccio due piccole premesse.
La prima. In definitiva noi esseri umani sappiamo che prendere la decisione giusta dipende molto spesso dalla quantità e dalla qualità di informazioni di cui disponiamo. Negli ultimi decenni abbiamo, forse a ragione, maturato la convinzione che grazie alla tecnologia tutte le informazioni necessarie per fare la cosa giusta siano disponibili. Per contro esse sono troppe perché qualsiasi bipede dotato di razionalità sia in grado di gestirle e valutarle in assoluto o almeno in tempi ragionevoli. Le intelligenze artificiali suppliscono apparentemente a questo nostro limite.
La seconda. Molti sostengono che definire questi sistemi “intelligenti” sia sbagliato visto che non esiste una definizione certa e condivisa di cosa sia l’intelligenza. Posso dire che in fondo non è rilevante che questi algoritmi siano intelligenti, perché noi desideriamo semplicemente che non sbaglino mai, e questo ci aspettiamo. Detto questo, arrivo al mio dubbio. Un essere umano avrà il coraggio e si assumerà la responsabilità di contraddire un’intelligenza artificiale che dispone di molte più informazioni di lui ed è stata costruita per essere infallibile?
In pratica, un medico sarà abbastanza “coraggioso” da cambiare, sulla base della sua sola esperienza professionale, la diagnosi di un sistema addestrato a fare esclusivamente quello? E ancora. Un insegnate sarà tanto “arrogante” da modificare la valutazione del tema di uno studente fatta da un’intelligenza artificiale allenata sulla base di 10 milioni di temi? Credo che la questione sia tutta in questi termini, e nel nostro senso di appartenenza comune che, per andare un passo oltre Kant, non è soltanto la Ragione.
Chiudo con un’ulteriore e grave preoccupazione che mi lascia l’articolo 2 del Regolamento, laddove recita: “Il presente regolamento non si applica ai sistemi di IA sviluppati o usati per scopi esclusivamente militari”. Mi domando a questi sistemi quali regole si applicheranno perché il rischio mi sembra qualcosa di più che semplicemente “alto”.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.
SOSTIENICI. DONA ORA CLICCANDO QUI