Il successo di questa geniale operazione di antropomorfizzazione a fini commerciali di una macchina è testimoniato dai dibattiti oggi in corso sul tema, in cui ci si interroga addirittura sull’etica che una IA dovrebbe avere.

Sembra che anche i nostri rappresentati alla guida dell’UE siano stati pesantemente influenzati da tutto ciò, a giudicare dal contenuto del documento per la regolamentazione dell’IA (il cosiddetto Digital Service Act), in cui si dichiara con grande enfasi che “Il regolamento ha l’obiettivo di migliorare il funzionamento del mercato interno e promuovere l’adozione di un’intelligenza artificiale affidabile e incentrata sull’uomo, garantendo, nel contempo, un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dell’UE, compresa la democrazia, lo Stato di diritto e la tutela dell’ambiente dagli effetti dannosi dei sistemi di intelligenza artificiale nell’Unione, nonché sostenendo l’innovazione”.



Ora, avendo le idee più chiare su cosa è – e cosa non è – una IA, come è possibile interpretare questa affermazione? Come fa esattamente un sistema che pensante non è, e quindi senza cognizione di causa, ad essere consapevole che è l’uomo il beneficiario di quello che produce?

Se pensassimo l’AI come un cacciavite, un martello o un foglio di calcolo pompato a steroidi, ne avremmo un’idea più corretta di quella che se ne ha generalmente oggi. Quindi, se di etica vogliamo parlare, dovremmo discutere dell’etica dell’uomo che lo utilizza, in maniera similare all’uso di un martello che è etico adoperare per inchiodare insieme i pezzi di un mobile in legno, decisamente meno per spaccare le ossa ad un nostro simile, al di fuori di un reparto di ortopedia.



Inoltre, se fissiamo l’attenzione all’IA e non al risultato prodotto con questo strumento, cosa accade se quel risultato viene raggiunto per altre vie, diciamo, “non intelligenti”?

Secondo il Regolamento UE, un sistema IA che valuti l’affidabilità creditizia, o che fornisca indicazioni di premio per assicurazioni sulla vita o sanitarie è classificato ad alto rischio e deve adattarsi a specifici obblighi. Ma sistemi dedicati alla gestione del rischio esistono da tempo, creati con algoritmi che non ricadono nel campo delle IA, e non sono considerati così pericolosi o addirittura lesivi della dignità personale. Certo, la qualità delle analisi svolte da questi strumenti è inferiore a quelli basati su tecnologie IA, ma il meccanismo alla base è lo stesso.



Come esercizio puramente teorico, se acquistassi un database di analisi pre-generato da una IA disponibile in un Paese con regole meno restrittive (ad es. la Cina), e lo utilizzassi poi in Europa con strumenti non basati sull’intelligenza artificiale, avrei raggiunto il mio scopo senza infrangere alcuna legge sulla IA o dovrei ricadere nelle proibizioni introdotte – non si sa con quale efficacia – a livello europeo?

Estremizzando ancora, se stilassi un elenco di possibili caratteristiche di una certa tipologia di soggetti, utilizzando sistemi statistici tradizionali o schiere di matematici a cottimo per analizzare i macro-dati della loro navigazione in rete, il risultato in questo caso sarebbe etico, nel senso indicato per le IA?

Il punto è proprio questo. Penalizzare lo strumento – e cioè l’algoritmo – e non il prodotto, è più che inutile: è dannoso. Ed è dannoso perché non tutela le persone e penalizza l’industria, imponendo un ritardo tecnologico che non farà altro che aggravare la perdita di competitività dell’Europa nei confronti di Paesi come gli Stati Uniti o la Cina, che già oggi minacciano gravemente la forza economica e tecnologica del Vecchio Continente.

Proviamo ora invece ad interpretare il concetto della posizione centrale dell’uomo, sempre espresso nel documento per la regolamentazione delle IA, come un obbligo a non prendere per oro colato i risultati forniti tramite IA, ma come obbligo a sottoporli preventivamente a valutazione da parte di un essere umano.

Perfettamente condivisibile, e anche generalmente logico, in effetti. Talmente condivisibile che non si capisce perché sia necessario specificarlo; se un medico somministra la dose sbagliata di un farmaco senza le dovute verifiche, che il suggerimento arrivi da una IA, da un software tradizionale, o da una calcolatrice, la responsabilità è del medico, non dello strumento.

È giusto definire ambiti in cui l’automatismo possa essere impiegato con grande libertà e distinguerli da altri in cui deve obbligatoriamente essere presente una supervisione umana? In realtà questo vale per qualunque sistema, intelligente o meno che sia.

E allora perché spendere tante energie per concentrarsi solo sull’IA? Un sistema IA per la diagnosi medica non dovrebbe mai essere dato in mano ad un paziente, così come è sempre, assolutamente, sconsigliato tentare di individuare l’origine di un proprio malessere cercandone i sintomi su un motore di ricerca e fidarsi alla cieca di ciò che è scritto nelle pagine web trovate.

Continuando con la lettura del documento, troviamo indicazioni specifiche per i cosiddetti contenuti fake generati tramite IA, come quelli audio e video contenenti rappresentazioni fotorealistiche e/o capaci di riprodurre la voce di persone reali, viventi o meno.

Si sa che, con queste tecniche, è possibile, ad esempio, produrre un filmato, in cui il nostro Presidente della Repubblica, fruendo del suo potere di esternazione, invita le Camere ad abolire la pasta dalla nostra dieta nazionale per eliminare lo stereotipo dell’italiano “Pizza, mandolino, spaghetti” che ci danneggia a livello europeo.

Per questo tipo di prodotti, deve essere ben chiaro che sono frutto di un artificio e non espressione del vero. E questa è senz’altro un’indicazione ragionevole. Ma, ancora una volta, perché insistere sulla tecnica e non sul prodotto? Un video simile, ma creato utilizzando un attore in carne ed ossa particolarmente talentuoso ed affidato alle mani di un abile truccatore è ovviamente altrettanto subdolo e pericoloso. Ne sa qualcosa la nostra presidente del Consiglio Giorgia Meloni (e qualche altro suo illustre collega), ingannata da due comici russi spacciatisi per diplomatici stranieri nel corso di una telefonata.

È ovvio che il maggior rischio con le IA è sulla diffusione e sulla accessibilità di questo tipo di prodotti. Il punto è che penalizzare solo questa tecnologia e non l’uso improprio in generale di immagini o filmati contraffatti non sembra granché utile. Sembra piuttosto uno schema finalizzato a scaricare su un soggetto fittizio – l’IA – le conseguenze, innanzitutto giuridiche, delle azioni di singoli individui, che si avvalgono di questo soggetto fittizio.

Stiamo ovviamente estremizzando, e qualcuno potrebbe obiettare che i sistemi tradizionali non siano efficienti come l’IA debole di cui stiamo parlando. Ma il punto centrale resta: ad essere soggetto a normativa dovrebbe essere il risultato prodotto da uno o più soggetti umani, non lo strumento.

Tutto questo, ancora una volta, è frutto di una distorta visione che ci è stata imposta come dell’IA di un essere pensante, con poteri potenzialmente illimitati, a cui va insegnato a comportarsi responsabilmente ed a rispettare gli umani, quasi fosse un bambino estremamente dotato da educare per evitare che poi da grande faccia danni seri. In pratica HAL 9000, che in effetti viene rappresentato come un bambino viziato che finisce il film cantando “giro, girotondo” prima di essere spento.

(2 – continua)

— — — —

Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.

SOSTIENICI. DONA ORA CLICCANDO QUI