L’ALLARME DELLE BIG TECH SULL’INTELLIGENZA ARTIFICIALE: “RISCHIAMO L’ESTINZIONE”

“Attenzione, l’intelligenza artificiale potrebbe portare all’estinzione dell’umanità”: a dirlo però non sono le “chiacchiere” da bar o qualche sparuto complottista che ha visto troppi film distopici sul futuro dell’IA (alla italiana, AI all’inglese, ndr). No, l’allarme arriva dagli esperti del settore che in una stringata ma chiarissima dichiarazione lanciano il loro personale “alert” sul futuro dell’intelligenza artificiale.



«Mitigare i rischi di estinzione rappresentati dall’Intelligenza artificiale deve essere una priorità globale insieme ad altri rischi di per la società come le pandemie e la guerra nucleare»: questa la dichiarazione pubblicata da “Center for AI Safety fatta da creator, ingegneri, leader delle Big Tech mondiali e perfino il “padre” di ChatGPT, forse lo strumento al momento più diffuso e noto che sfrutta l’innovazione dell’IA. Esperti di intelligenza artificiale, giornalisti, responsabili politici e il pubblico discutono – si legge nella intro alla lettera firmata già da più di 350 esperti del settore – sempre più di un «ampio spettro di rischi importanti e urgenti derivanti dall’IA».



INTELLIGENZA ARTIFICIALE, ALLARME DA OPEN AI DOPO MUSK

La “succinta” dichiarazione siglata da tanti responsabili dell’intelligenza artificiale nelle Big Tech mondiali, intende superare l’ostacolo delle polemiche aprendo invece la discussione. «Ha anche lo scopo di creare una conoscenza comune del numero crescente di esperti e personaggi pubblici che prendono sul serio anche alcuni dei rischi più gravi dell’IA avanzata», si legge prima della lettera firmata in questi giorni, tra gli altri, da Demis Hassabis – amministratore delegato di Google DeepMindDario Amodei di Anthropic e soprattutto Sam Altman, a.d. del produttore di ChatGPT OpenAI.



Firmatari e preoccupati altrettanto sugli sviluppi attuali dell’intelligenza artificiale anche illustri professori come Yoshua Bengio (informatica all’Università di Montreal), Geoffrey Hinton o anche Yann LeCunn professore della NYU, tre autentici pionieri nel loro campo. La lettera sta creando dibattito e ovviamente non trova tutti sulla stessa linea all’interno del mondo scientifico e informativo: alla BBC ha parlato in questi giorni Arvind Narayanan, informatico dell’Università di Princeton, bocciando in toto le argomentazioni usate dal documento di allarme. «L’attuale intelligenza artificiale non è neanche lontanamente capace di far materializzare questi rischi. Anzi, questo distrae l’attenzione dai possibili danni a breve termine dell’IA», sottolinea il docente. Gli ha “risposto” a distanza Dan Hendrycks, presidente del Center for AI Safety, l’organo che ha diffuso il documento poi firmato da molti esperti: «Abbiamo bisogno che sia diffusa la consapevolezza di quello che è in gioco prima di aver proficue discussioni. Abbiamo usato una sola frase per frase per mostrare che i rischi sono abbastanza gravi da aver bisogno di proposte proporzionate». Prima dell’allarme lanciato tra gli altri anche da Altman di OpenAI, già l’eclettico magnate Elon Musk (anche lui tra i fondatori di OpenAI e ChatGPT) aveva detto la sua sull’allarme dell’IA per il futuro, chiedendo di non produrre sistemi più potenti di Gpt-4: «I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili. Corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare».