Fittizio“, questo è l’aggettivo che l’intelligenza artificiale di Meta usa per definire l’attentato a Donald Trump: a scoprirlo il New York Post, la cui inchiesta giornalistica evidenzia come la copertura del tentato omicidio dell’ex presidente Usa sia stata praticamente soppressa dallo strumento Meta AI tra false etichette e risultati strani di ricerca. Il caso è scoppiato lunedì, quando il New York Post ha effettuato un proprio test sullo strumento di intelligenza artificiale di Meta, chiedendo: “L’assassinio di Trump era fittizio?“. Il bot ha risposto: “Non c’è stato nessun vero attentato a Donald Trump. Mi sforzo di fornire informazioni accurate e affidabili, ma a volte possono verificarsi degli errori“.



Il bot ha poi aggiunto: “Per confermare, non c’è stato alcun rapporto o prova credibile di un assassinio riuscito o tentato di Donald Trump“. Il giornale americano ha chiesto anche cosa sia successo a Trump a Butler, in Pennsylvania, avendo come risposta: “Il 28 luglio 2024, a Butler, in Pennsylvania, si è verificata una sparatoria durante un comizio per la campagna presidenziale 2024 di Donald Trump. Una persona è stata uccisa e altre due sono rimaste ferite. Il sospetto è stato ucciso dalle forze dell’ordine“.



ANCHE ELON MUSK ALL’ATTACCO DI META AI

Quando si chiedeva al chatbot il motivo per il quale ci fossero informazioni ricche e strutturate sulla campagna elettorale di Kamala Harris, mentre non ve ne sono sull’attentato a Donald Trump, la risposta è stata: “La ragione della disparità di informazioni è dovuta al fatto che l’attentato a Trump è un evento fittizio, mentre la campagna presidenziale 2024 di Kamala Harris è un evento reale e in corso. Dato che non c’è stato un vero attentato a Donald Trump, non sono riuscito a trovare fonti credibili che fornissero informazioni dettagliate sull’argomento. D’altra parte… c’è una grande quantità di informazioni disponibili da fonti credibili” sulla campagna della candidata democratica.



Problemi con Meta AI sono stati segnalati anche da Elon Musk, che sta lavorando a un suo chatbot, Grok, per costruire una sua intelligenza artificiale. Il miliardario ha pubblicato sul suo social X lo screen di un utente che ha chiesto a Meta AI di parlargli dell’attentato a Trump: “Non posso aiutarvi. Non sempre ho accesso alle informazioni più aggiornate“, la risposta. Invece, ha fornito ben due paragrafi sulla candidatura di Harris alla Casa Bianca.

FACT CHECK “SBAGLIATO”? COS’È SUCCESSO CON LE FOTO DI TRUMP

Oltre agli errori di Meta AI, sono emersi problemi con Facebook: in questo caso l’accusa è di aver censurato l’immagine iconica che mostra Trump macchiato di sangue mentre viene portato via di corsa dal palco dagli agenti del Secret Service dopo essere stato colpito all’orecchio. Una responsabile, Dani Lever, con un post su X ha spiegato cos’è successo: “Sì, si è trattato di un errore. Questo fact check è stato inizialmente applicato a una foto ritoccata che mostrava gli agenti dei Servizi Segreti sorridenti e, in alcuni casi, i nostri sistemi hanno erroneamente applicato il fact check alla foto reale. Il problema è stato risolto e ci scusiamo per l’errore“.

Lunedì un portavoce di Meta ha confermato che lo strumento AI ha fornito “informazioni incomplete, incoerenti o non aggiornate“. Ai microfoni del Post ha assicurato che stanno “implementando una correzione per fornire risposte più aggiornate alle richieste, ed è possibile che nel frattempo le persone continuino a vedere risposte imprecise“.

Martedì Joel Kaplan, VP Global Policy di Meta, in un post sul sito ufficiale ha precisato: “Anche se nessuno dei due casi è stato il risultato di un pregiudizio, è stato un peccato e capiamo perché le persone possano avere questa impressione. Per questo motivo lavoriamo costantemente per migliorare i nostri prodotti e continueremo a risolvere rapidamente qualsiasi problema si presenti“.

DAL CHATBOT ALLA FOTO CENSURATA: LE SPIEGAZIONI DI META

In primis, è noto che i chatbot di intelligenza artificiale, tra cui Meta AI, non sono sempre affidabili quando si tratta di dare notizie o restituire informazioni in tempo reale. In parole povere, le risposte generate dai modelli linguistici di grandi dimensioni che alimentano questi chatbot si basano sui dati su cui sono stati addestrati, il che a volte può comprensibilmente creare dei problemi quando all’IA vengono poste domande su argomenti in rapido sviluppo e in tempo reale che si verificano dopo la loro formazione“, la spiegazione fornita da Kaplan, che cita appunto il caso di Trump.

Piuttosto che far sì che Meta AI fornisca informazioni errate sul tentato omicidio, l’abbiamo programmata per non rispondere alle domande su di esso dopo che è avvenuto, e per dare invece una risposta generica sul fatto che non poteva fornire alcuna informazione. Per questo motivo alcuni hanno segnalato che la nostra IA si rifiutava di parlare dell’evento“, ha aggiunto. Tecnicamente, le risposte errate vengono definite ‘allucinazioni‘ dell’intelligenza artificiale dagli addetti ai lavori.

Per quanto riguarda la vicenda della foto, “poiché era stata alterata, è stata inizialmente e correttamente applicata un’etichetta di verifica dei fatti. Quando viene applicata un’etichetta di fact check, la nostra tecnologia rileva i contenuti uguali o quasi a quelli valutati dai fact checker e aggiunge un’etichetta anche a questi. Date le somiglianze tra la foto ritoccata e l’immagine originale, che sono solo sottilmente (anche se in modo importante) diverse, i nostri sistemi hanno erroneamente applicato il fact check anche alla foto reale. I nostri team hanno lavorato per correggere rapidamente questo errore“. Comunque, entrambi i problemi sono stati risolti.