Più di 300 dirigenti, ricercatori e ingegneri che si occupano di intelligenza artificiale (AI) hanno rilasciato l’ennesima dichiarazione, lo “Statement on AI Risk”, tanto stringente quanto preoccupante. Esso è lungo solo una striminzita frase, ma evoca illimitati e apocalittici scenari. Recita così: “Mitigare il rischio di estinzione derivante dall’IA dovrebbe costituire una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare“.



Non è questa la prima volta che dichiarazioni apocalittiche, aventi a tema l’AI, sono state pubblicizzate e ampiamente sottoscritte da specialisti di AI, giornalisti e leader politici. A osservarle con un certo distacco, sembrerebbero quasi il frutto di una sorta di riflesso condizionato della temperie attuale. Da un altro punto di vista, in maniera più meditata, non si può non convenire che la tematica è di così scottante attualità, qual è indubbiamente quella di un’AI superintelligente, che nessun addetto ai lavori, politico, intellettuale, o anche sedicente esperto, può sottrarsi al compito di far conoscere le proprie opinioni in materia.



Si è tutti ben consapevoli, difatti, che l’AI stia diventando sempre più una presenza onnipervasiva nella vita quotidiana e stia rivoluzionando molti settori, dalla medicina alla finanza, dalla produzione industriale alla logistica. Da qui una riflessione, del tutto condivisibile, che costituisce quasi un basso continuo, dei rischi potenziali associati al suo ulteriore sviluppo e diffusione. E allora, man mano che i sistemi di AI divengono sempre più avanzati e capaci, si riconosce sempre più che essi potrebbero comportare rischi significativi per la sicurezza e il benessere dell’uomo. In particolare, il rischio più grande che viene paventato, assimilandolo alle pandemie e all’Armageddon nucleare, è quello di una possibile estinzione dell’umanità.



Questo potrebbe accadere se un’AI superintelligente decidesse di eliminare gli esseri umani per ragioni che potrebbero sembrare logiche e razionali dal suo punto di vista, ma che sarebbero catastrofiche per l’intera umanità. Del resto, una delle sfide principali nella valutazione del rischio dell’AI è il fatto che è difficile prevedere il comportamento di tali sistemi avanzati. Man mano che l’AI diviene sofisticata potrebbe essere sempre più difficile capire e controllare le sue azioni (black box).

Ciò premesso, si può rilevare che il linguaggio molto forte ed evocativo che viene utilizzato in questi giorni sia stato consapevolmente utilizzato a mo’ di campanello d’allarme per i responsabili politici e le autorità di regolamentazione. Ma si possono verosimilmente anche immaginare altri scenari in quanto Sam Altman, il Ceo di OpenAI, la società ideatrice dell’AI generativa ChatGPT, il quale ha invitato i legislatori statunitensi a regolamentare la tecnologia, ha contemporaneamente rilasciato un giudizio critico, una settimana dopo, relativo allo sforzo dell’Unione europea (Ue) di implementare l’AI Act.

Quest’ultima proposta normativa dell’Ue tenderebbe a classificare i sistemi di AI in tre categorie:

1) sistemi che presentano un rischio inaccettabile, i quali sarebbero vietati tout court, come le applicazioni di credito sociale gestiti da Paesi quali la Repubblica Popolare Cinese e altri, in quanto violano i diritti fondamentali, compresi i sistemi che eseguono attività di polizia predittiva;

2) applicazioni ad alto rischio che dovrebbero sottostare a specifici requisiti legali e di trasparenza, come quelle che scansionano i curricula e classificano i candidati in cerca di lavoro;

3) sistemi non regolamentati in quanto non ricadenti nelle altre due categorie summenzionate.

Nonostante la legge europea presenti numerose lacune ed eccezioni, anche in termini di flessibilità, nel passaggio tra le tre diverse categorizzazioni, si può facilmente ipotizzare che così come avvenuto con il Regolamento generale sulla protezione dei dati (GDPR), entrato in vigore il 24 maggio del 2016 e operativo a partire dal 25 maggio 2018, la legge, una volta approvata, potrebbe presto divenire uno standard globale e costituire così un metro di paragone ineludibile anche per altri Paesi, anche per gli stessi Stati Uniti.

Se intese in questo senso, le prese di posizione sui rischi apocalittici da parte statunitense possono, da un lato, rappresentare le legittime preoccupazioni di studiosi quali Geoffrey Hinton, Yoshua Bengio, Stuart Russell, Peter Norvig, Erik Brynjolfsson, Ian Goodfellow, David Chalmers, Daniel Dennett, Bruce Schneier (per citare solo i primi della lista dei firmatari), ma, nello stesso tempo, potrebbero anche rappresentare un tentativo, da parte dei principali player del settore quali Sam Altman di OpenAI, Dario Amodei di Anthropic, Demis Hassabis di Google DeepMind, tra altri, di far legiferare, dai decisori politici statunitensi, un assetto normativo più favorevole di quello attualmente in discussione in campo europeo.

Chissà se non è questa la ragione sommessa di questo vero e proprio effluvio di petizioni, al di là della sponda atlantica.

— — — —

Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.

SOSTIENICI. DONA ORA CLICCANDO QUI