In una temperie storica in cui l’intelligenza artificiale (IA) sta divenendo sempre più pervasiva, due delle nazioni leader nel settore tecnologico, gli Stati Uniti e il Regno Unito, il 1° aprile hanno firmato un memorandum d’intesa storico sulla sicurezza dei test riferiti all’IA.
Firmata dal Segretario al commercio degli Stati Uniti, Gina Raimondo, e dal Segretario alla tecnologia del Regno Unito, Michelle Donelan, la partnership che fa seguito agli impegni assunti in occasione dell’IA Safety Summit dello scorso novembre a Bletchley Park, vedrà entrambi i Paesi impegnati nell’allineare i loro approcci scientifici e a lavorare a stretto contatto per accelerare le valutazioni di modelli, sistemi e agenti di IA.
L’accordo di Bletchley Park aveva ricevuto il supporto di grandi aziende come Google, OpenAI, Microsoft e Meta, le quali avevano firmato un accordo di cooperazione con l’Unione europea e 10 Paesi, inclusi la Francia, l’Italia e il Giappone, per i test di modelli IA avanzati (general-purpose e highly capable narrow). Sei mesi fa, inoltre, i due Paesi avevano annunciato la creazione di due AI Safety Institute, ma mentre quello britannico era già operativo (AI Safety Institute, AISI), l’omologo statunitense doveva ancora iniziare a funzionare. Questo ritardo aveva sollevato alcuni dubbi sulla reale volontà del Paese d’oltreoceano nell’impegnarsi nella sicurezza dell’IA. Questo annuncio, pertanto, sembra fugare tali preoccupazioni al riguardo.
Il nuovo AI Safety Institute (USAISI) sarà ospitato presso il National Institute of Standards and Technology (NIST), all’interno del Dipartimento del commercio statunitense. Tale collocazione faciliterà lo sviluppo di standard per la sicurezza e fornirà ambienti di test per valutare sia i rischi noti che i rischi emergenti alla frontiera tecnologica. Del resto, la stessa creazione e storia del NIST sono da sempre incentrati nella produzione di definizioni, parametri e strutture scientificamente fondate. L’USAISI comprenderà anche un AI Safety Institute Consortium (AISIC) composto da più di 200 stakeholder (corporation tecnologiche, associazioni di utenti, accademici, ricercatori governativi e del settore industriale nonché organizzazioni della società civile).
L’USAISI avrà il compito precipuo di adempiere alle priorità fissate nell’Excutive Order del Presidente Biden emesso il 30 ottobre 2023. I punti salienti di quest’ultimo sono i seguenti:
1) Richiedere che gli sviluppatori dei sistemi di IA più potenti condividano i risultati dei test di sicurezza e altre informazioni critiche con il Governo degli Stati Uniti;
2) Sviluppare standard, strumenti e test per garantire che i sistemi di IA siano sicuri, protetti e affidabili;
3) Proteggere dai rischi, derivanti dall’utilizzo dell’IA, nella progettazione di materiali biologici di elevata pericolosità;
4) Proteggere gli utenti statunitensi dalle frodi e dagli inganni stabilendo standard e migliori pratiche per rilevare i contenuti generati dall’IA (watermarking), autenticando così i contenuti ufficiali;
5) Stabilire un programma avanzato di cybersecurity per sviluppare strumenti di IA per individuare e correggere le vulnerabilità nel software critico;
6) Sviluppare un successivo memorandum sulla sicurezza nazionale che indirizzi ulteriori azioni sull’IA e sulla sua sicurezza.
Tra le attività svolte finora dall’AISI inglese vi sono alcuni risultati che avevano messo in luce com’era possibile aggirare i guardrail di sicurezza dei Large language model (LLM), i quali alimentano chatbot come ChatGPT, facendo uso di istruzioni di base (prompting) al fine di ottenere informazioni utili a implementare attività sostanzialmente riferibili al “duplice uso”, vale a dire utilizzabili sia per scopi civili che per scopi militari. A questo riguardo, veniva messo in evidenza come tecniche di jailbreak più sofisticate richiedevano solo poche ore di utilizzo e sarebbero state così accessibili ad attori statuali e non, anche relativamente poco qualificati. In alcuni casi, tali tecniche non erano nemmeno necessarie poiché le misure di salvaguardia (guardrail) non si attivavano neppure durante la ricerca di informazioni potenzialmente malevoli. In un altro esempio, un LLM era stato in grado di produrre personas operanti sui social media le quali potrebbero essere utilizzate per diffondere attività di disinformazione e teorie cospirative: ça va sans dire che queste tecniche potrebbero essere facilmente ampliate fino a migliaia di personas con una quantità di tempo e impegno minimali.
L’accordo avrà implicazioni significative per lo sviluppo e l’utilizzo dell’IA in entrambi i Paesi, ma è facile immaginare che i suoi riflessi si estenderanno potenzialmente a tutto il globo. Le aziende e le organizzazioni, difatti, che sviluppano o utilizzano sistemi di IA dovranno conformarsi ai requisiti dell’accordo. In questo senso, vi è la consapevolezza di dover necessariamente adottare soluzioni globali, poiché un’IA non sicura, sviluppata in un determinato Paese, potrebbe comportare elevati rischi anche per il resto del mondo. Infine, le sfide che l’adozione pervasiva di questa tecnologia possono comportare sono molto complesse e sia i Governi che il settore privato dovranno necessariamente unire i loro sforzi per addivenire a delle soluzioni comuni.
In conclusione, l’accordo fa seguito a una serie di passi compiuti in precedenza, e mostra che i principali Paesi occidentali, tra i quali vi è pure l’Italia, sono ben intenzionati nel voler proporre dei modelli di regolazione globale della sicurezza dell’IA. Certo, vi sono ancora molte sfide da affrontare tra cui quella di una definizione condivisa di “sicurezza” dell’IA e ciò potrebbe ostacolare l’implementazione operativa di tali accordi. L’aver, tuttavia, inserito l’USAISI all’interno del NIST potrebbe rappresentare una buona soluzione a livello di architettura istituzionale. Un’ulteriore sfida da raccogliere, da parte di questi Istituti, è l’attuale mancanza di dati sui rischi dell’IA per cui è necessario raccogliere più informazioni e specifiche metriche per comprendere appieno i potenziali impatti negativi dell’IA sulla società.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.