In un articolo rilasciato ad Avvenire qualche tempo fa, sulla base dei risultati di un’inchiesta giornalistica nordamericana (K. Schaul – S. Y. Chen – N. Tiku, Inside the secret list of websites that make AI like ChatGPT sound smart, The Washington Post, 19/04/2023), Paolo Benanti riflette acutamente sul problema della composizione dei “dataset” delle intelligenze artificiali. L’inchiesta statunitense verte in particolare sul dataset di Google, chiamato “C4” (“Colossal Clean Crawled Corpus”), il quale raccoglie campioni di dati testuali di circa 15 milioni di pagine web e “costituisce la principale fonte di addestramento e di acquisizione di informazioni che le intelligenze artificiali mostrano di possedere sul mondo, e inevitabilmente influenza il modo in cui ogni AI risponde alle richieste e alle interazioni degli utenti” (P. Benanti, La fonte dell’intelligenza artificiale incorpora un serio problema etico, Avvenire, 6/05/2023). Dall’indagine del Washington Post si evince però che “C4” contiene dati provenienti da siti ritenuti alquanto problematici e pericolosi, poiché in vario modo aggressivi, discriminatori e lesivi della dignità della persona umana.
Il problema, inoltre, prosegue Benanti, è che, all’opposto dell’atteggiamento di trasparenza sulle fonti che da sempre è indice di autentica ricerca e conoscenza scientifica, le aziende tecnologiche “hanno innalzato una ferrea cortina di mistero su ciò che hanno dato in pasto in fase di addestramento all’intelligenza artificiale. E se, nell’utilizzarle, ci sorprende quanto sembrano in grado di fare, di fatto rimaniamo ciechi sulle fonti e sulle origini di questo sapere” (Benanti, ivi). Per questo l’“algoretica”, termine e campo di studio introdotto pioneristicamente da Benanti con grande passione per l’essere persona dell’uomo e per la tecnologia, al fine di affrontare le rapide innovazioni tecnologiche legate all’intelligenza artificiale, “ci chiede di riflettere su questa sorta di ‘materia prima’ per le IA: la qualità dei dati influenza la qualità e l’affidabilità dei sistemi su cui avviene l’addestramento. Dobbiamo chiederci se e come una scelta di cosa includere in C4 non sia di fatto anche un’opzione di natura politica e con severe conseguenze geopolitiche. Di fatto la scelta dei dati è una scelta – una tokenizzazione, per usare un termine tecnico – di una cultura”. Il rischio realmente possibile, avverte Benanti, è quello di un “colonialismo culturale” (ivi).
Da qualche tempo il teologo e filosofo francescano, che, tra l’altro, in questo anno accademico tiene un corso nella Pontificia Università Gregoriana dal titolo Il crollo di Babele: le sfide del digitale, dei social networks e delle intelligenze artificiali, afferma che è più corretto parlare non di una, ma di più “intelligenze artificiali”, dunque al plurale, come una “grande famiglia di strumenti”, ciascuno dei quali è stato costruito per eseguire compiti distinti e aiutarci a “trovare dei mezzi per risolvere certi problemi” (P. Benanti, L’algoretica. Perché bisogna parlare di “intelligenze artificiali”, Nuova Atlantide, Anno 3, gennaio 2024, n. 11, pp. 27-32: 28).
La pluralità delle IA trae origine anche dalla pluralità delle grandi aziende che le producono: “In questo momento – afferma Benanti in una recente intervista per Vatican News – le grandi innovazioni dell’intelligenza artificiale vengono fatte da nove compagnie globali, che hanno tutte una capitalizzazione superiore al trilione di dollari. Per renderci conto, tutto il Pil della Gran Bretagna è pari a 3,3 trilioni, quindi parliamo di cifre da capogiro. Insomma, non è un prodotto diffuso, non è una cosa a cui tutti possono arrivare. Si rischia sempre di più una forma di dipendenza da pochissimi monopolisti” (A. Gisotti, Benanti: l’Intelligenza Artificiale sia al servizio del bene comune, Vatican News, 12/12/2023).
Diciamo, dunque: non una, ma più torri di Babele, ciascuna delle quali dotata di un progetto, di un capo-cantiere, di operai, di capitali ingenti e di un dataset proprio, perlopiù segretato, a partire da cui addestrare il proprio modello di IA. Al riguardo, Benanti ad esempio ritiene che “le compagnie di IA dovrebbero essere ritenute responsabili qualora usino fonti coperte da diritti d’autore per addestrare i propri chatbots, sebbene egli sia preoccupato del fatto che ciò sia molto difficile da verificare, poiché tali compagnie sono ‘scatole nere’” (J. Horowitz, The Friar Who Became the Vatican’s Go-To Guy on AI, The New York Times, 9/02/2024). Secondo quanto riportato recentemente sul NYT, Benanti ritiene che l’alone di mistero che avvolge le grandi aziende che lavorano all’IA non è, in fondo, nulla di nuovo: “come gli antichi àuguri romani scrutavano il volo degli uccelli per [desumerne] direttive, così le IA, con la loro enorme presa sui nostri dati fisici, emozionali e preferenziali, potrebbero essere i nuovi oracoli, capaci di prendere decisioni e di rimpiazzare Dio con falsi idoli. ‘È qualcosa di antico che probabilmente pensiamo di avere superato’ – ha detto il frate – ‘ma che sta ritornando’” (ivi).
Per questa e altre ragioni riteniamo che, riguardo alla fabbricazione e all’uso delle IA da parte dell’uomo nel tempo prossimo venturo, il pericolo di deriva idolatrica e del cadere preda di “quell’orribile forza” di cui scrisse C.S. Lewis in riferimento al racconto biblico della torre di Babele, non debba essere sottovalutato né tantomeno liquidato come irreale favola di uno scrittore immaginifico. Occorre trovare invece soluzioni sagge e pragmatiche per evitare di entrare nella zona d’ombra di una delle molteplici torri di Babele che in questo inizio del terzo millennio hanno appena iniziato ad ergersi. A tal riguardo, Benanti ha già avanzato una proposta che ci sembra molto ragionevole: “Creare un set di dati pubblico è la prima forma di difesa. Dobbiamo chiederci se non sia arrivato il momento di pensare alla creazione di un nostro dataset culturalmente pesato ed eticamente bilanciato per permettere al Paese e ai servizi pubblici di beneficiare dell’impatto trasformativo dell’IA” (La fonte dell’intelligenza artificiale incorpora un serio problema etico, cit.).
Non vogliamo né demonizzare né innalzare alle stelle l’attuale ricerca sulle IA. Vogliamo comprenderne, per quanto ci è dato di intendere, le implicazioni antropologiche. Per questo, senza angosciato allarmismo né amaro pessimismo, riteniamo che, per guardare con realismo (e, quanto agli addetti ai lavori, perché si dia un contributo costruttivo) all’innovazione e allo sviluppo presente e futuro delle IA e alle relative decisioni politiche delle singole nazioni, oggi sia indispensabile fare memoria del severo monito di Lewis, a fronte del pericolo realmente possibile di un’irrazionale “abolizione dell’uomo”. L’alternativa ad un ascolto attento, non prevenuto di questo monito, in fondo, è una fiducia positivistica, ottusamente irenica, nella bontà incondizionata delle innovazioni tecnoscientifiche e delle finalità perseguite da coloro che lavorano in questo campo; un fideismo di massa che rappresenta ultimamente il rovescio della medaglia del fanatismo religioso di quelle élites tecnocratiche che si sentono legittimate sempre e comunque ad “andare oltre” in nome di qualche bene presunto dell’umanità. Non pretendiamo certo di prevedere alcuno scenario futuro, sapendo che “la linea che separa il bene dal male passa attraverso il cuore di ciascun uomo” (A.I. Solženicyn). In ogni caso, di una cosa siamo certi: che gli sviluppi tecnologici nel campo delle IA non potranno fare a meno di mostrare indirettamente (semmai ce ne fosse ancora bisogno), che lo si voglia o no, che l’uomo è persona.
(3 – fine)
(Nella foto, un’immagine aerea del quartier generale delle comunicazioni del governo britannico (GCHQ) a Cheltenham, Gloucestershire, Inghilterra centro-occidentale. Milioni di immagini webcam di utenti internet non sospettati di atti illeciti sono state raccolte dall’agenzia di spionaggio britannica GCHQ con l’aiuto della National Security Agency (NSA) statunitense, secondo quanto rivelato dal quotidiano Guardian il 27 febbraio 2014. Il programma, nome in codice Optic Nerve, ha raccolto milioni di immagini webcam dagli utenti Yahoo dal 2008 al 2012, trasferendole ai database delle agenzie indipendentemente dal fatto che gli utenti fossero sospettati di terrorismo, afferma il rapporto)
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.
SOSTIENICI. DONA ORA CLICCANDO QUI