L’intelligenza artificiale rappresenta una minaccia per l’uomo? È questo il grande interrogativo che da settimane permea il web e le colonne dei giornali, non ultimo il quotidiano transalpino “La Croix”, che, sull’edizione di martedì 14 febbraio 2023, sottolinea il successo ottenuto da ChatGPT, diretta dalla start-up OpenAI. Addirittura, tale strumento sta stuzzicando l’appetito di Microsoft: la multinazionale, già azionista della società, ha annunciato il 23 gennaio l’intenzione di investirvi “diversi miliardi di dollari”.



Alle spalle di ChatGPT c’è Sam Altman, 37enne nativo di Chicago che ha abbandonato Stanford per lanciare la sua prima start-up, Loopt, a soli 19 anni Adesso sogna in grande: dopo aver impugnato le redini nel 2014 di Y Combinator, uno dei più potenti incubatori di start-up della Silicon Valley, l’anno successivo ha fondato OpenAI insieme a Elon Musk, a soli 30 anni, con l’obiettivo dichiarato di sviluppare una “intelligenza artificiale generale sovrumana” che “porterà benefici a tutta l’umanità”. Ma, ci si interroga, è davvero così?



INTELLIGENZA ARTIFICIALE, L’AI NOW INSTITUTE: “RIPERCUSSIONI SUI SALARI UMANI”

Introducendo l’idea che questi strumenti finiranno per sostituire il lavoratore “oscura il ruolo critico del lavoro umano nel dare forma ai sistemi di intelligenza artificiale”, ha affermato, sempre su “La Croix”, Amba Kak, direttrice dell’AI Now Institute, un centro di ricerca che studia le conseguenze sociali dell’IA. Una recente inchiesta del “Time Magazine” ha inoltre rivelato che OpenAI avrebbe utilizzato moderatori kenioti, pagati meno di due dollari l’ora, per selezionare i contenuti web problematici (pedofilia, incitamento all’odio e così via), al fine di evitare che ChatGPT sfugga di mano.



Amba Kak non nasconde la sua inquietudine: “La svalutazione del lavoro umano può avere ripercussioni sui salari e sulle aspettative dei dipendenti, che ora lavorano con la paura di essere superati dalle macchine”. Secondo Jean-Noël Barrot, ministro per la Transizione digitale, Altman è “aperto al principio della regolamentazione dell’intelligenza artificiale da parte delle autorità pubbliche” e alla “necessità di sviluppare una forma di costituzione per l’IA”. A tal proposito, un regolamento europeo dovrebbe essere adottato già in primavera.