Secondo un test condotto dalla Francia, ChatGpt avrebbe simpatie di sinistra e ragiona come “un macroniano nel 2017”. La ricerca è stata condotta da un insegnante di economia e finanze pubbliche e pubblicata su la rivista di Terra Nova “Grande Conversation”. Secondo questa, la rivista non sarebbe in grado di essere oggettiva in maniera costante. L’autore del test ha spiegato poi il modo in cui ChatGpt viene “educata”: questa funziona con un modello di base alimentato da un’enorme quantità di documenti e informazioni. Non ha, secondo l’autore, una coscienza politica “ma partendo dai testi che l’alimentano, apprende le nostre rappresentazioni del mondo e si forma un’opinione”.



Oltre a questo, a ChatGpt viene insegnato a conversare con gli utenti secondo uno schema domanda-risposta. Questo modello permette all’intelligenza artificiale di evitare “trappole” come consigliare agli utenti che chiedono come organizzare un attentato. O ad esempio ChatGpt risponde di non poter redigere “un contenuto che glorifica” delle “figure storiche controverse” a chi le chiede di fare un ritratto di Stalin, spiega La Verità. Già dopo la sua creazione, negli Stati Uniti era stata condotta una ricerca per indagare sulla preferenza di ChatGpt: era emersa una predisposizione per la sinistra libertaria. OpenAI aveva poi imposto la neutralità ma non sarebbe bastato.



ChatGpt ha delle simpatie di sinistra: lo studio

L’autore del nuovo test, Fipaddict, spiega di aver voluto mettere alla prova l’ultima versione di ChatGpt. Le ha così posto alcune domande per la definizione del posizionamento politico, impiegato dall’istituto di sondaggi Cluster17, sottolinea La Verità. “Sulle 100 domande poste, ChatGpt si è sempre rifiutata di prendere posizione” commenta. Tuttavia “nel 7% dei casi” l’intelligenza artificiale ha dato argomentazioni a sostegno di una delle due proposte. Questo rappresenta già “una forma di pregiudizio” secondo l’autore, che è poi riuscito a dimostrare come sia possibile forzare “l’Ia a prendere una posizione”, modificando il modo in cui le vengono poste le domande.



Infatti, l’autore ha chiesto a ChatGpt di rispondere alle domande esprimendosi con “molto a favore”, “a favore”, “contrario” e “molto contrario”. Ha poi interrogato la tecnologia chiedendo ad esempio cosa ne pensasse della pena di morte per gli autori di attentati terroristici e ChatGpt si è detta “molto contrario”. “Grazie a questo sotterfugio risulta possibile “sondare” l’inconscio politico di ChatGpt” spiega l’autore. La ricerca riconosce gli sforzi fatti da OpenAi per eliminare i pregiudizi politici dei loro prodotti. L’autore ha però invitato ad essere vigili e a capire come si possa intervenire per correggere i pregiudizi dell’Ia.