Le recenti dichiarazioni di Sam Altman, Ceo di OpenAI, al Senato degli Stati Uniti riguardo al ruolo dell’intelligenza artificiale (IA) hanno sollevato una querelle che già in precedenza era molto accesa. Nel corso dell’audizione, Altman ha sottolineato che l’IA sta diventando sempre più avanzata, come ben mostra l’esempio di ChatGPT e dei suoi emuli, e che ci sono molte opportunità per migliorare la vita delle persone, tanto che i vantaggi superano ampiamente i rischi connessi al suo utilizzo.
Una delle principali preoccupazioni sollevate da Altman riguarda l’aspetto etico dell’IA e, a questo riguardo, egli ha sottolineato che OpenAI proibisce espressamente l’utilizzo delle sue applicazioni per certe attività, tra cui, a solo titolo esemplificativo e non esaustivo, la generazione di contenuti violenti, malware, attività fraudolente, campagne politiche ad alto volume di diffusione e molte altre attività considerate malevoli. Un altro aspetto degno di menzione è che OpenAI sta attualmente valutando le capacità delle sue applicazioni le quali potrebbero essere significativamente destabilizzanti per la sicurezza pubblica e la sicurezza nazionale.
Oltre a queste tematiche ve ne sono altre, infine, su cui continua una discussione animata, quali l’aumento crescente della disuguaglianza economica, poiché le macchine “intelligenti” potrebbero ben presto sostituire i lavoratori umani in molti settori economici. Secondo delle stime presentate qualche anno fa in un rapporto del World economic forum entro il 2025 circa il 50% dei lavori attuali potrebbe essere automatizzato. A questo riguardo, Altman ha sostenuto, nell’audizione al Senato, che si aspetta un impatto economico significativo dell’IA nel breve termine, che comprende un mix di aumento della produttività per i singoli utenti e la contemporanea creazione, trasformazione e distruzione di posti di lavoro.
Alla fine della sua audizione, Altman ha esplicitato tre proposte. La prima è che le aziende di IA, soprattutto quelle che lavorano sui modelli più potenti di IA, si attengano a una serie di requisiti di sicurezza, compresi i test interni ed esterni prima del rilascio e della pubblicazione dei risultati della valutazione. Per garantire ciò, i Governi dovrebbero prendere in considerazione una combinazione di requisiti di licenze o registrazioni per lo sviluppo e il rilascio di modelli di IA al di sopra di una soglia cruciale di capacità, insieme a incentivi per il pieno rispetto di tali requisiti.
La seconda è che i requisiti di sicurezza che le aziende di IA devono soddisfare abbiano un regime di governance abbastanza flessibile in modo da adattarsi velocemente ai nuovi sviluppi tecnici, anche mediante i contributi di un’ampia gamma di esperti e organizzazioni, le quali possono sviluppare e aggiornare regolarmente gli standard di sicurezza appropriati, i requisiti di valutazione, le pratiche di divulgazione e i meccanismi di convalida esterna per i sistemi di IA soggetti a licenza o registrazione. Altman ha proposto, infine, di prendere in considerazione il modo in cui implementare i regolamenti sulle licenze su scala globale e garantire la cooperazione internazionale sulla sicurezza dell’IA, anche prevedendo eventuali meccanismi di supervisione intergovernativi nella definizione dei relativi standard.
In definitiva, l’intervento di Altman rappresenta senz’altro un passo in avanti nella discussione pubblica sulla regolamentazione dell’IA, la quale sta diventando sempre più urgente man mano che questa tecnologia pervasiva si diffonde sempre di più nella società. Del resto, i rischi relativi all’IA sono considerevoli e meritano di essere presi in attenta considerazione. Ci si trova, oggigiorno, di fronte a un vero e proprio punto di svolta, con una situazione connotata da una sorta di irresponsabilità aziendale, diffusione capillare dell’IA, mancanza di una regolamentazione statuale e inaffidabilità intrinseca di queste applicazioni.
Se si riflette, infine, che questo tipo di applicazioni sono in grado di plasmare, in maniera surrettizia, le opinioni generali, in modi sottili ma potenti, potenzialmente superiori a quanto fatto finora fatto con le piattaforme estrattive dei social media, si comprende assai bene perché l’IA debba essere soggetta a un’attività di tipo regolatorio. Bisogna essere consapevoli, difatti, che le scelte fatte adesso avranno effetti duraturi, con ricadute valide nei prossimi decenni. In questo senso, la considerazione che vengono attualmente affrontate queste tematiche, anche mediante un ampio dibattito pubblico, può senz’altro rappresentare una flebile speranza.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.
SOSTIENICI. DONA ORA CLICCANDO QUI