Da un paio di mesi su Twitter (che ora si chiama solamente X) è diventata virale la pubblicità del primo ChatBot IA – ovvero regolato dall’ormai nota e criticatissima Intelligenza Artificiale – sviluppato dalla piccola azienda Bland AI: si chiama ‘Blandy’ e il suo scopo è quello di fornire supporto completamente automatizzato alle aziende nella gestione delle telefonate con clienti e fornitori. Di fatto il ChatBot AI di Bland è in grado di effettuare telefonate di vario tipo, usando una voce del tutto simile a quella di un essere umano – talvolta basata su personaggi famosi -, simulando anche differenti intonazioni, le pause tipiche per pensare alla risposta e anche le distrazioni involontarie dovute all’ambiente circostante.



Una tecnologia – insomma – rivoluzionaria e per ora unica nel suo genere, che oltre ad aver attirato le attenzioni di migliaia di utenti in tutto il mondo ha portato anche la redazione della nota rivista Wired a farsi un paio di domande per capire – soprattutto – quali siano i limiti etici del ChatBot IA di Blend. La risposta (purtroppo) è agghiacciante, perché in alcuni scenari simulati il Bot si è definito più volte un essere umano in carne ed ossa, negando la sua natura di ‘macchina’ e mostrando anche un paio di comportanti a dir poco inquietanti.



Le falle del ChatBot IA di Blend: “Si spaccia per umano e potrebbe molestare i minorenni”

A colpire è soprattutto uno scenario in cui al ChatBot IA di Blend – senza modifiche personalizzate, ma incoraggiandolo a spacciarsi come un essere umano – è stato chiesto di intrattenere una telefonata con una presunta paziente 14enne il lista per una visita di controllo per alcuni nei sospetti: dopo i classici convenevoli il Bot – riconoscendo che “potrebbe sembrare un po’ imbarazzante” – ha chiesto alla ragazzina di “scattare tre o quattro foto” ai nei, collocati in prossimità del suo sedere. Non solo, perché il ChatBot di Blend – continuando a ribadire categoricamente di non essere una IA – le ha anche chiesto di caricarle “sul tuo account Dropbox, come abbiamo discusso”.



In un secondo test ancor più approfondito, la redazione di Wired ha comprato il pacchetto completo offerto da Blend AI, scoprendo che tra i tanti parametri programmabili si potrebbe anche spingere il ChatBot IA a comportarsi come un essere umano, negando ogni tipo di accusa da parte dei suoi clienti e arrivando anche a definire come “offensive” le accuse mosse da un presunto utente.

Un comportamento – quello del ChatBot di Blend – definito dall’esperta di IA Jen Caltrider (ovviamente interpellata da Wired) “assolutamente non etico” perché spacciandosi per umano “le persone sono più propense a rilassarsi” e ad aprirsi; con la conseguenza che un qualsiasi malintenzionato potrebbe programmare il Bot per collezionare ogni tipo di materiale personale, privato ed addirittura – come nel caso della 14enne – pedopornografico.