Il rapidissimo sviluppo dell’intelligenza artificiale (AI) generativa è stato uno dei progressi tecnologici più trasformativi dell’anno appena trascorso. L’AI, in questo breve scorcio di tempo, ha dimostrato di avere il potenziale per rivoluzionare molti aspetti della vita quotidiana e del mondo del lavoro, fors’anche la sua stessa essenza e natura. Tuttavia, come ogni tecnologia così onnipervasiva, anche l’AI solleva una serie di questioni etiche e filosofiche.
Tali aspetti sono stati ampiamente discussi durante il World economic forum di Davos, che si è tenuto dal 17 al 19 gennaio 2024. I leader politici, economici e tecnologici hanno discusso del potenziale dell’AI per migliorare la vita delle persone, ma anche dei rischi che essa comporta. In particolare, vi è una preoccupazione strisciante, una sorta di basso continuo, riguardo alla possibilità che l’AI possa addirittura mettere in discussione la vita stessa degli esseri umani sulla Terra. Alcuni esperti, difatti, temono che l’AI possa diventare così potente da rappresentare una minaccia esistenziale per l’umanità: prendendo decisioni indipendenti dal controllo umano; facendo uso di armi autonome in grado di uccidere; manipolando il comportamento umano; rimpiazzando gli esseri umani nei luoghi di lavoro; controllando l’accesso alle risorse.
Sarà anche per questa ragione che l’intervento di Sam Altman, tra i più attesi, dopo il licenziamento da OpenAI e il successivo reintegro nella società, ha toccato molti aspetti etici e filosofici dell’implementazione dell’AI nella vita quotidiana. Si è soffermato:
– sull’incremento della produttività (“anche con le sue capacità attuali molto limitate e i suoi difetti molto profondi, le persone stanno trovando modi per utilizzare [questo strumento] per grandi guadagni di produttività e ne comprendono i limiti”);
– sulla trasparenza dei modi di funzionamento degli algoritmi i quali dovranno essere in “grado di spiegarci in linguaggio naturale i passaggi da A a B e potremo decidere se li riteniamo buoni, anche se non li esaminiamo per vedere ogni connessione”;
– sull’insostituibilità dei rapporti di relazione tra gli esseri umani e della cura reciproca tra gli stessi (“gli esseri umani sanno cosa vogliono gli altri. Gli esseri umani avranno strumenti migliori. Abbiamo avuto strumenti migliori in passato, ma siamo ancora molto concentrati l’uno sull’altro”);
– sul processo decisionale, ancora in capo agli esseri umani, in quanto “opereremo tutti a un livello di astrazione leggermente più elevato. Avremo tutti accesso a molte più capacità. Prenderemo ancora delle decisioni. [Gli esseri umani] potrebbero tendere maggiormente verso la cura del tempo, ma prenderemo decisioni su cosa dovrebbe accadere nel mondo”.
– sulla regolazione globale del fenomeno (“le nostre istituzioni hanno il tempo di discutere queste cose per capire come regolamentarlo, come mettere in atto alcuni guardrail”);
– sull’assunzione di responsabilità da parte delle corporazioni tecnologie (“provo molta empatia per il nervosismo generale e il disagio del mondo nei confronti di aziende come noi”).
In generale, il filo conduttore dell’intervento di Altman sembra sia stato quello di offrire al vasto pubblico, nonché ai decisori politici ed economici, una visione non pessimistica dell’AI generativa. Ciò può essere anche inquadrato in una tendenza che si va facendo sempre più strada, oggigiorno, vale a dire che questa tecnologia pervasiva debba essere considerata alla stregua di un’AI antropocentrica. In quest’ottica, vi è ricompresa la visione che gli esseri umani siano gli esseri più importanti sulla Terra. Questa convinzione è stata per secoli il fondamento del pensiero occidentale e ha plasmato la comprensione del mondo e il posto degli esseri umani in esso. Di conseguenza, i sistemi di AI devono essere progettati per risolvere problemi assai significativi per gli esseri umani.
Del resto, lo stesso Premier Giorgia Meloni ha mostrato molto interesse a tale fenomeno e ha affermato, nella conferenza stampa di fine anno, che durante la Presidenza italiana del G7 verrà organizzato un focus sul tema dell’AI e un’iniziativa specifica del suo impatto sul mercato del lavoro. Consapevole, a suo dire, che non si sa bene “se siamo ancora in tempo perché vedo la velocità con la quale corre il progresso e vedo i tempi delle decisioni della politica, particolarmente a livello multilaterale. Queste sono decisioni che vanno prese per essere efficaci a livello globale e mi preoccupa molto”.
In definitiva, ben venga che la necessità di una fase regolatoria venga auspicata non solo dai decisori politici, ma anche da esponenti di spicco delle corporazioni tecnologiche quali Altman, Musk e Gates e che tale tematica, analizzata sotto molteplici sfaccettature, abbia trovato uno spazio così importante durante l’incontro di Davos. Ciò mostra che i tempi sembrano essere davvero maturi, sia in Italia, che a livello globale, per una regolazione globale che possa porre l’AI al servizio dell’essere umano.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.