Si è da poco concluso il forum intergovernativo del G7 durante il quale, grazie all’impulso del Premier Giorgia Meloni, ci si è lungamente interrogati sull’impatto dell’intelligenza artificiale (IA) sulla politica, sulle relazioni internazionali, sulla vita individuale e collettiva. In questo contesto, non poco risalto è stato assegnato, dall’ecosistema mediale, alla prima presenza di un Pontefice al G7, proprio per ammonire i potenti della Terra sui pericoli derivanti dall’IA, oltre a prefigurare alcune possibilità di sviluppo, a fini di giustizia sociale e di bene comune, di questo “strumento affascinante e tremendo”. L’IA è ormai integrata, difatti, nella vita privata e pubblica, con effetti la cui portata antropologica non è ancora del tutto compresa.



I decisori pubblici, tuttavia, hanno il compito di colmare questo vuoto di consapevolezza, mettendo a punto gli strumenti normativi per garantire che l’IA sia realmente al servizio dell’umanità (IA antropocentrica) e che, all’opposto, non diventi una fonte di rischi per la persona, la società e la democrazia (disinformazione, cognitive warfare). È fondamentale, pertanto, bilanciare gli aspetti tecnici con considerazioni etiche, sociali e politiche (algoretica), al fine di evitare gli eccessi dell’algocrazia e garantire che l’evoluzione tecnologica sia davvero un fattore di progresso sociale, oltre che tecnico.



La regolazione globale dell’utilizzo di algoritmi e IA, la diffusione di dispositivi connessi (Internet of things, IoT) e delle piattaforme online richiedono, difatti, un costante aggiornamento delle normative e delle pratiche per garantire un’adeguata protezione dei diritti e delle libertà degli individui.

È ciò che si è proposto l’Italia, il 23 aprile scorso, quando è stato emanato dal Consiglio dei ministri il disegno di legge (Ddl) sull’IA: quello italiano è, peraltro, il primo Governo ad aver legiferato in materia subito dopo l’approvazione comunitaria dell’AI Act. Riguardo a quest’ultimo, vale qui sottolineare che l’Unione europea ha promulgato la prima disciplina al mondo di taglio organico e non settoriale dell’IA. L’AI Act rappresenta, dunque, un tentativo avanzato di delineare una strategia antropocentrica di regolazione di questa tecnica ubiquitaria e in ciò marcando una propria specificità rispetto agli approcci deregolamentati o settoriali di altri Paesi, come gli Stati Uniti, e agli approcci autoritari adottati da altri Paesi.



In questo quadro generale, si può inserire anche la recente Relazione del Presidente Garante per la protezione dei dati personali, Pasquale Stanzione, presentata il 3 luglio scorso, che è stata l’occasione per poter delineare un’analisi delle sfide e delle prospettive che caratterizzano diversi settori implicati dallo sviluppo dell’IA (giustizia, sanità, violenza digitale, cybersecurity, agenzie per il lavoro, telemarketing). Uno dei problemi di carattere generale messo in risalto dal Garante della privacy è quello relativo al processo di decision-making che, se affidato agli algoritmi e alla loro pretesa neutralità, rischia vieppiù di assecondare una “svolta ingiuntiva della tecnica, sempre più demiurgica, predittiva e quindi performativa”.

Un aspetto particolarmente rilevante dell’azione del Garante, così come viene sottolineato nella Relazione, ha riguardato la tutela del trattamento dei dati dei minorenni, le cui garanzie specifiche previste hanno permesso di assicurare un maggiore controllo sull’accesso a contenuti inadeguati offerti da sistemi di AI generativa e chatbot, ad esempio perché sessualmente espliciti, come Replika e ChatGPT. Infine, l’attenzione posta dal Garante italiano sulle carenze di sistemi di IA come ChatGPT ha stimolato anche il Comitato europeo per la protezione dei dati (EDPB) a trattare la questione su scala europea portando alla costituzione di una task force ad hoc per affrontare le sfide poste dall’AI e garantire un’applicazione coerente della disciplina di protezione dei dati in tutti gli Stati membri.

La disciplina di protezione dei dati ha introdotto diverse garanzie per tutelare i diritti degli individui. Tra queste, vanno evidenziate: 1) principio di conoscibilità: gli utenti hanno il diritto di conoscere le logiche e le finalità alla base del trattamento dei loro dati personali; 2) divieto di discriminazione algoritmica: i sistemi di IA non devono discriminare gli utenti sulla base di dati personali, come età, genere, razza o religione; 3) principio di trasparenza: i fornitori di sistemi di AI devono fornire informazioni chiare e complete agli utenti sul funzionamento degli algoritmi e sul trattamento dei dati personali; 4) qualità ed esattezza dei dati: i dati utilizzati per addestrare gli algoritmi devono essere accurati, aggiornati e rappresentativi, al fine di evitare bias e distorsioni nei risultati.

In ultimo, il Garante ha rivendicato che l’esperienza maturata nel campo della protezione dei dati personali e la conoscenza approfondita delle implicazioni dell’IA sui diritti individuali rendono il Garante l’Autorità più adatta a svolgere il ruolo di Autorità competente per l’AI Act. Ciò viene motivato con la considerazione che l’indipendenza dell’Autorità competente per l’AI Act è un requisito fondamentale per garantire la tutela dei diritti di libertà, al fine di assicurare decisioni imparziali e libere da condizionamenti politici o economici.

— — — —

Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.

SOSTIENICI. DONA ORA CLICCANDO QUI