L’intelligenza artificiale e ChatGpt continuano a far discutere non solo l’opinione pubblica ma anche gli esperti del settore. Dopo i dubbi sollevati da Bill Gates ed Elon Musk, che hanno espressamente chiesto di rallentare la corsa allo sviluppo di queste risorse, ora anche altri emeriti professori universitari e ricercatori nel campo della robotica si stanno aggiungendo all’appello sostenendo la necessità di una “pausa di riflessione”, che faccia capire in che direzione occorre andare e soprattutto se sia il caso di limitare alcune funzioni prima che sia troppo tardi. Il quotidiano francese La Croix intervista il professore di ingegneria alla Sorbona, Raja Chatila, che ora ha 71 anni ed ha dedicato gran parte della sua vita a studiare la correlazione necessaria tra etica e robotica.
Il professore è tra i firmatari di una lettera aperta inviata al governo, nella quale insieme ad altri scienziati sostiene che “i politici si devono rendere conto che c’è un problema e occorre fare un’attenta valutazione dei rischi etici prima di riprendere lo sviluppo di tale tecnologia“. Chatila, su richiesta del ministro francese alle tecnologie digitali, firmerà un rapporto del Comitato nazionale per l’etica digitale, del quale è fondatore, in cui si valuterà un regolamento dell’Intelligenza Artificiale.
ChatGpt, Comitato Etico Digitale Francia “Rischiamo di non distinguere più il vero dal falso”
Secondo il professor Raja Chatila, l’Intelligenza Artificiale e soprattutto l’ultimo strumento creatore di testi automatici ChatGpt rappresentano un rischio per gli utenti. Se non sviluppato adeguatamente, in modo etico, afferma Chatila, si andrà verso un “relativismo della verità, nel quale non si riuscirà più a distinguere il vero dal falso”. Quindi è necessario prendere una pausa di riflessione per valutare una regolamentazione. “I testi prodotti da ChatGpt sono talmente simili al parlato umano che tendiamo a trattarli come tali”, ma “la verità non può essere relativa“.
Il professore aggiunge come esempio di etica professionale un suo storico predecessore che ha dato importanza all’informazione sui rischi derivati dalle sue stesse scoperte innovative. Robert Oppenheimer, che nonostante sia considerato il padre della bomba atomica, si oppose allo sviluppo dell’energia nucleare utilizzata a fini militari. Mettendo in primo piano l’etica, perchè “le scoperte tecnologiche sono importanti, ma non devono mai arrivare ad avere una vita autonoma“.