Ho potuto assistere appena tre giorni fa, a San Francisco, all’EmTech Digital del Mit, la rassegna di tutte le forme di intelligenza artificiale oggi esistenti, in alcuni dei suoi progressi straordinari in settori ben noti, ma non ancora sviluppati fino a ieri, dal riconoscimento dell’immagine di un persona in una folla, alla guida di auto senza pilota, alla gestione di processi produttivi automatizzati, o a quella di diagnosi e terapie mediche.
La velocità con la quale la AI procede è straordinaria e i risultati si vedranno molto prima delle previsioni più ottimistiche. Ma in tutto questo scenario di servizi mancava una cosa importante: la risposta alla domanda “di chi è l’intelligenza alla quale ci si affida?”. La risposta è sempre una sola: dato un certo quadro fatto normalmente di tantissimi dati precedentemente raccolti e memorizzati (miliardi e miliardi…), che fanno da sfondo ad altri raccolti in tempo reale da sensori di vario tipo collegati in un sistema di “internet of things”, c’è un algoritmo (una serie predeterminata di operazioni) che opera per dare soluzioni o anche solo consigli su questo scenario di dati.
L’algoritmo non è necessariamente rigido, e può essere modificato o modificarsi da solo, per raggiungere al meglio i suoi obiettivi grazie al continuo dialogo tra i componenti del sistema IoT (Internet of things). L’algoritmo vive comunque in un ambito di “valori” inizialmente predefiniti.
L’intelligenza naturale è invece caratterizzata dalla capacità di raggiungere compromessi tra valori diversi dettati dall’evolvere delle situazioni nelle quali opera. Questo è specialmente vero nei casi in cui AI viene applicata a sistemi “sociali” complessi dove gli obiettivi di alcuni elementi o di loro gruppi possono essere diversi o addirittura in conflitto con quelli di altri.
La risposta che AI può offrire non è mai in grado di offrire una decisione accettabile a tutti.
Prendiamo ad esempio un caso generale, tipico dei nostri tempi: quello in cui si debba decidere se e come trovare un compromesso tra giustizia e riconciliazione (a puro titolo di esempio ricordiamo le tante storie tragiche fino al momento in cui il compromesso è stato trovato, di Iraq, Rwanda, Sud Africa, eccetera).
E’ indispensabile, se si vuole allargare l’utilizzo di AI a casi che coinvolgono elementi politico-sociali complessi, dotarla di strumenti decisionali nuovi e più rispettosi di una realtà decisionale spesso non lineare. Si deve chiamare in causa l’Affective Computing di Rosalind Picard, una brillante sessantenne francese del Media Lab del Massachusetts Institute of Technology, fondatrice del settore dieci anni fa. Secondo Rosalind Picard, se vogliamo che i computer siano genuinamente intelligenti e interagiscano in modo naturale con noi, dobbiamo dare loro la capacità di riconoscere, capire, persino di avere ed esprimere emozioni.
Le ultime scoperte scientifiche indicano che le emozioni svolgono un ruolo essenziale nel processo decisionale, nella percezione, nell’apprendimento e molto altro — cioè, influenzano gli stessi meccanismi del pensiero razionale. Non solo: un’emozione troppo ridotta può compromettere il processo decisionale.
Già se ne parlava in termini fantascientifici un paio di anni fa sulle pagine scientifiche dei grandi giornali anglosassoni (Affective computing: How “emotional machines” are about to take over our lives). Oggi la realtà sta arrivando e credo che nel giro di cinque anni sarà tra noi.
Rendendo possibile a un robot dotato di questa AI allargata alla percezione di sentimenti e alla capacità di usare la conoscenza storica per costruire decisioni basate su compromessi “emozionali”, si va molto vicini all’identificazione di personalità digitali fino ad ora ritenute impossibili. Il tema di un lato etico della AI diventa fondamentale. Siamo solo agli inizi e la discussione è in corso.
Alessandro Ovi (www.technologyreview.it)