Ha suscitato un ampio dibattito una recente lettera aperta, promossa dal Future of Life Institute, che vede come primi firmatari i professori Yoshua Bengio e Stuart Russell, tra i primi a occuparsi di Intelligenza artificiale (AI), Elon Musk, fondatore di Tesla e SpaceX, Steve Wozniak, co-fondatore di Apple, e il filosofo israeliano Yuval Noah Harari, tra molti altri (a oggi quasi 1.400 firme) i quali hanno chiesto una pausa di sei mesi nello svolgimento degli esperimenti di AI di “larga portata” (giant AI experiments). Non è la prima volta che Elon Musk ha espresso preoccupazione per l’AI e i suoi possibili impatti negativi sulla società; nel 2015, la descriveva come “più pericolosa della bomba atomica” e nel 2017 chiedeva al Governo degli Stati Uniti di regolamentare tale materia.
Nella lettera aperta, inviata alla Conferenza Internazionale sull’Intelligenza Artificiale (ICAI), Musk, Wozniak e gli altri firmatari hanno affermato che l’AI potrebbe avere effetti imprevisti e potenzialmente dannosi sulla società. In particolare, si sono concentrati sulle possibili conseguenze negative dell’AI “forte”, ovvero un’AI che supera l’intelligenza umana in diversi campi. Questi effetti negativi potrebbero includere la perdita di moltissimi posti di lavoro, la creazione di armi autonome e, almeno in potenza, il rischio di un’AI che si ribelli contro l’umanità.
Tra le frasi chiave utilizzate nella lettera vi sono le seguenti: “L’AI può essere utilizzata per aiutare a risolvere molti dei problemi urgenti del mondo, ma anche creare problemi nuovi e imprevisti”; “Non possiamo prevedere quello che l’AI potrebbe diventare”; “Gli esseri umani non dovrebbero assumere un atteggiamento da spettatori passivi nell’affrontare questa questione”; “C’è un potenziale rischio di un’AI che si ribelli contro l’umanità”; “Non c’è modo di prevedere con certezza se l’AI diventerà o meno un’entità autonoma, ma è prudente essere cauti”.
La lettera chiede una pausa, quindi, di sei mesi negli esperimenti sull’AI “forte” al fine di comprendere meglio le sue possibili conseguenze così come la necessità di sviluppare standard etici e di coinvolgere la società intera, in primis i decisori politici, nella discussione sui suoi potenziali impatti.
L’aspetto principale della lettera, difatti, è quello di mettere in evidenza la mancanza di regolamentazione e controllo nel settore dell’AI in quanto molta parte del suo sviluppo e addestramento viene svolta da imprese tecnologiche che non sono tenute a rendere trasparente i loro algoritmi, qualora fosse pure possibile farlo poiché, in moltissimi di questi casi, l’addestramento (training) delle intelligenze artificiali si configura come una black box. Quest’ultimo aspetto, implica che le conseguenze negative possono rimanere sottotraccia fino a quando non è troppo tardi per porvi rimedio.
Ciò considerato, vi è, dunque, la necessità di coinvolgere la società civile poiché la maggior parte delle decisioni vengono prese da un gruppo ristretto di esperti e imprenditori del settore. Questo porta a una sorta di autoreferenzialità delle decisioni di carattere tecnico, guidate da scelte prettamente economiche tese a massimizzare il solo profitto (piattaforme estrattive) non tenendo conto di altre istanze quali quelle politiche, quelle proveniente da altri stakeholders e dalla società in generale. In questo senso, i firmatari della lettera propongono una pausa di sei mesi e una regolamentazione adeguata del settore con l’obiettivo esplicito che l’attuale e futura ricerca sull’AI venga condotta in modo etico e responsabile. Che tale richiesta parta dagli stessi imprenditori e principali ricercatori dello sviluppo di queste nuove tecnologie è ancor più degno di menzione.
In termini prettamente sociologici tale situazione si configura come un classico caso di ritardo culturale. Questo concetto, introdotto dal sociologo statunitense, William Fielding Ogburn, nel suo testo “Social Change with Respect to Culture and Original Nature”, del 1922, si riferisce al fatto che la cultura umana e le istituzioni sociali evolvono più lentamente delle tecnologie, il che può portare a conflitti e persistenti problemi nella società: vale a dire, un crescente divario tra il possibile a livello tecnologico e il desiderabile a livello sociale. Per evitare tale inevitabile iato, Ogburn suggeriva di agire sulla leva di un cambiamento culturale più rapido basato su una maggiore alfabetizzazione tecnologica. Ciò che del resto, molti decisori politici attuali propongono attraverso una continua attività di up-skilling e re-skilling della forza lavoro. In questo modo, si potrebbe cercare di creare un maggiore allineamento tra le innovazioni tecnologiche come l’AI e le istituzioni sociali, la norma giuridica, i valori etici e le idee culturali.
In questo senso, lo sviluppo di una governance complessiva dell’AI appare essere divenuta un obiettivo esplicito da perseguire, da parte di una porzione vieppiù crescente della società attuale. Ad esempio, alcuni ricercatori stanno lavorando sullo sviluppo di interfacce uomo-macchina (Human-Machine Intelligence, HMI) che consentono agli esseri umani di monitorare e controllare l’AI in tempo reale. Alcune tecniche di limitazione dell’AI stanno esplorando l’uso di vincoli come, ad esempio, quello di operare solo in determinati ambienti o per determinati compiti. Infine, si sta sperimentando la possibilità di creare AI “etiche” le quali potrebbero essere programmate per seguire un codice etico e morale, quasi una sorta di codice deontologico, lo stesso alla base dell’agire professionale di alcune categorie quali i medici o gli avvocati.
Il dibattito vede anche la presenza, seppur minoritaria, di altri esperti che non sono d’accordo con la richiesta di una pausa negli esperimenti svolti sull’AI “forte”. Essi sostengono che il ritmo di sviluppo delle intelligenze artificiali è troppo veloce e che una pausa possa essere dannosa per la competitività globale. Altri ritengono, invece, che l’AI possa essere sfruttata per affrontare alcuni dei problemi più urgenti della società, come il cambiamento climatico e diverse tipologie di malattie quali, ad esempio, l’Alzheimer.
In conclusione, la lettera aperta firmata da Musk e Wozniak, tra altri, ha sollevato importanti questioni etiche sullo sviluppo dell’AI e ha costretto molti intellettuali, ricercatori imprenditori ed esperti a esplicitare le loro preferenze valoriali di fondo riguardo a quello che si annuncia essere uno degli snodi cruciali della società globale prossima ventura. In questo senso, seppur non si arriverà mai a una pausa di sei mesi, il tempo dedicato a questa riflessione collettiva non sarà stato speso invano se sarà servito a favorire la consapevolezza sui limiti e sulle possibilità di un artefatto umano dalle implicazioni assai diffuse e profonde. In ultima istanza, se servirà a far fare un decisivo passo in avanti alle istituzioni sociali, alle norme giuridiche, ai valori etici e alle idee culturali.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.