Recentemente è stata diffusa la notizia secondo cui la senatrice Liliana Segre avrebbe illustrato una sua proposta per integrare nel noto (famigerato?) regolamento per le IA una serie di emendamenti utili per il contrasto dei fenomeni di intolleranza, razzismo, antisemitismo e istigazione all’odio e alla violenza online.
Leggendo gli emendamenti che propone, al primo punto è detto: “In particolare gli algoritmi devono essere addestrati in funzione del contrasto dei fenomeni di intolleranza, razzismo, antisemitismo e istigazione all’odio e alla violenza”.
La prima domanda che viene in mente a un professionista dell’IT specializzato nello sviluppo software, che ha ben presente quali argomenti comprenda questo generico termine, è: a quale tipo di IA si fa riferimento? Una IA predittiva, impiegata ad esempio dal settore automotive per stimare quando l’usura di un componente diviene critica, sarà costretta ad adottare questi princìpi?
Così espresso, questo punto dell’emendamento rappresenta solo l’ennesimo, opaco, obbligo burocratico per chi si occupa di sviluppo di software basati su queste tecnologie, dalla dubbia interpretazione e ancor più vaga applicazione. Per non parlare dell’eventuale efficacia.
L’emendamento poi prosegue con un concetto che rafforza quello dell'”uomo al centro” contenuto nel documento per la regolamentazione della IA recentemente approvato dal parlamento UE, di cui abbiamo già discusso in un precedente articolo.
Vengono poi date altre indicazioni su come l’utilizzo di una IA non debba alterare il normale processo democratico ma debba invece essere “orientato alla valorizzazione delle diversità e alla protezione della dignità di ogni essere umano, a prescindere dalle distinzioni di sesso, di razza, di lingua, di religione, di opinioni politiche, di condizioni personali e sociali”. Nobili parole e virtuoso il proposito, ma cosa vuol dire in realtà e come andrebbe applicato? Cosa dovrebbe fare esattamente un sistema di intelligenza artificiale, non si capisce bene di che tipo?
Si suggerisce forse di sottoporre qualsiasi strumento di comunicazione online o in generale utile alla produzione di contenuti (e a questo punto valgono anche tutti i programmi di word processing) alla sorveglianza di una IA censoria, per vigilare su ciò che gli utenti scrivono? Ma non sarebbe proprio questo un atto antidemocratico? E ancora, perché continuare a focalizzare l’attenzione sui sistemi IA?
Come ben mostrato dall’ottimo film Brexit. The uncivil war di Toby Haynes, alterazioni del processo democratico avvengono tranquillamente e su larga scala anche senza l’impiego di questo tipo di tecnologia, semplicemente (si fa per dire) avendo accesso ad un database ben costruito e un essere umano particolarmente abile a trarre utili informazioni da quei dati e con abbastanza pochi scrupoli (etici e democratici) ad usarli.
Ancor più banalmente, la democrazia può essere aggirata da un talentuoso spin doctor e da abili (e spregiudicate) manipolazioni delle sorgenti di informazioni.
Pur restando valide le motivazioni della senatrice Segre, non sembra che il regolamento europeo sulle IA, che è già un documento dalla dubbia efficacia di suo, sia lo strumento adatto per metterle in pratica.
Riprendendo l’idea di un supercontrollore IA, sarebbe stato più efficace proporre la creazione di uno strumento di analisi in grado di individuare quei comportamenti particolarmente odiosi e non rispettosi della dignità umana presenti nei contenuti reperibili online ed obbligare per legge tutti i fornitori di servizi social, di comunicazione e i gestori di siti web ad adottarlo per filtrare ciò che viene veicolato tramite le loro piattaforme. Ma a pensarci bene, qualcosa di simile in alcuni Paesi del mondo esiste già ed è adottato con successo. Ad esempio in Cina, dove tutte le comunicazioni sono filtrate e analizzate da “software di Stato”, allo scopo di preservare la moralità e la sicurezza dei cittadini.
Se questi comportamenti possono essere considerati democratici e rappresentano il modello a cui vogliamo tendere, allora l’adozione di questi emendamenti è una buona idea. Ma non nel documento per cui sono stati proposti, mi raccomando. Ciò che davvero traspare dalla proposta della senatrice, è la profonda incomprensione delle tecnologie IA e la drammatica incapacità di regolamentarle efficacemente.
E purtroppo, anche dell’inquietante e persistente tendenza ad umanizzarle quasi fossero un essere reale, realmente intelligente e dotato (o dotabile) di un’etica.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.