A proposito di intelligenza artificiale e della necessità di fare molta attenzione ne scrivevo sul Sussidiario esattamente un anno fa: di conseguenza non posso fare a meno di compiacermi che voci ben più importanti della mia invitino alla prudenza, e soprattutto ritengano necessarie delle regole.

Così l’Unione europea, che ha pubblicato il suo “Libro Bianco” in materia, parla di requisiti obbligatori per applicazioni ad alto rischio, di sicurezza e responsabilità, di governance. Dal Vaticano si sostiene il rischio che l’informazione e la conoscenza possano diventare una esclusiva di grandi gruppi economici. Infine Microsoft e Ibm si fanno portavoce della necessità per gli operatori del settore di confrontarsi sul tema per comprenderne appieno la portata. Quali sono le ragioni che improvvisamente sembrano spingere verso tanta prudenza?



In definitiva stiamo discutendo di una tecnologia che potrebbe garantirci vantaggi inimmaginabili. Facciamo un passo indietro. Per molto tempo le intelligenze artificiali sono state costruite sulla base di schemi di matematica precisione, ovvero chi le sviluppava sapeva esattamente quale era l’obiettivo, quali dati dovevano essere utilizzati per l’apprendimento e soprattutto perché alla fine il sistema avrebbe preso una data decisione.



Oggi la situazione è radicalmente cambiata, perché le grandi masse di dati disponibili (i Big Data) hanno reso possibile un addestramento delle intelligenze artificiali di tipo statistico, quindi basato essenzialmente sui dati. Si è compreso che le reti neurali, se hanno abbastanza informazioni, sono in grado di svolgere correttamente il loro compito: sia esso il riconoscimento di un viso oppure la possibilità di un automobilista di causare incidenti.

A questo punto sorge il vero problema: nessun essere umano sarebbe in grado di comprendere la ragione che ha spinto il sistema a fare quella scelta. Possiamo veramente immaginare un domani in cui dovremo confrontarci con “qualcosa” da noi creato che risponde a logiche che ci risultano completamente oscure?



Aggiungiamo un altro elemento. Un addestramento fondato principalmente sulle basi dati presenta un secondo rischio. Tecnicamente si chiama “bias”, e si presenta quando un sistema mostra dei pregiudizi che lo portano alla discriminazione. Non è difficile immaginare cosa potrebbe accadere se chi sviluppa un’intelligenza artificiale destinata alla prevenzione del crimine fosse razzista. Altrettanto facile è comprendere quali rischi potrebbero derivare se i dati di addestramento fossero semplicemente imperfetti.

Se sommiamo i due elementi, in futuro potremmo affidare decisioni vitali a entità che “ragionano” in modo a noi incomprensibile e afflitte per giunta da pregiudizi. Credo si sufficiente questa considerazione per capire come sia necessaria una regolamentazione, e questo senza scomodare la possibilità che strumenti tanto potenti possano essere utilizzati per delinquere.

In fondo per causare un disastro sono sufficienti errori commessi in buona fede che, purtroppo, sono anche i più difficili da prevenire.