C’è chi dice che ChatGPT non deve farci paura, altri evidenziano le mille potenzialità e come può rivoluzionare le nostre vite. Ma ci sono anche ombre e lati oscuri, come quello dei lavoratori pagati meno di due dollari l’ora ed esposti alle peggiori nefandezze di Internet. Dall’inchiesta realizzata dal periodico TIME, è emerso che OpenAI, l’azienda che ha creato il bot che genera un testo su qualsiasi argomento o tema, nel 2020 aveva un problema. GPT-3, che era il “papà” di ChatGPT, era esposto a commenti razzisti, violenti e sessisti. Quindi, era facile che creasse frasi che potevano essere create allo stesso modo.



Un problema di non poco conto, che OpenAI ha affrontato in maniera drastica: “depurando” i dati con un sistema di intelligenza artificiale che doveva far arrivare solo materiale “pulito” a ChatGPT. Ma anche questo sistema andava addestrata. Entra in gioco Sama, azienda californiana che appalta lavoratori in Kenya, Uganda, e India per le big tech che necessitano di filtrare dati di enormi dataset. Tra i clienti ci sono Google, Microsoft e Meta (Facebook). Uno degli aspetti su cui punta molto a livello comunicativo è quello etico, perché avrebbe iniziato ad uscire dalla povertà oltre 50mila lavoratori.



SOTTOPAGATI PER “FILTRARE” TESTI CHOC SU INTERNET

La realtà però sarebbe diversa, visto che i lavoratori kenioti sarebbero pagati da 1,32 dollari all’ora ad un massimo di 2 dollari l’ora, peraltro in un ambiente tossico e con le brutture di Internet, visto il loro compito, quello cioè di addestrare il sistema di intelligenza artificiale a riconoscere temi violenti, razzisti o sessisti, in modo da fornire a ChatGPT dati ripuliti. Quindi, devono esaminare migliaia tra i peggiori frammenti di conversazioni, interventi su forum e commenti sui social. Stando a quanto riportato dal TIME, Sama ha coinvolto un team di circa 30 lavoratori, divisi in tre gruppi su tre turni. Nelle loro 8-9 ore di lavoro, hanno dovuto leggere ed etichettare tra 150 e 250 passaggi di testo, ognuno dei quali composto da almeno 100 parole fino ad un massimo di mille. Un dipendente di Sama al periodico ha dichiarato di aver lavorato a testi con rimandi ad abusi sessuali su minori, omicidio, suicidio, tortura, incesto e pure autolesionismo, arrivando ad accusare problemi psicologici. «È stata una vera e propria tortura. (..) Continui a portarti dentro quelle schifezze», ha dichiarato. Ma non è l’unico a ritenere di essere mentalmente segnato da questo lavoro.



OPENAI SCARICA RESPONSABILITÀ SU SAMA

OpenAI non è direttamente coinvolta in questa vicenda, perché il contratto con Sama prevedeva il pagamento di una tariffa oraria di 12,50 dollari a dipendente. L’azienda californiana ha fornito diverse rassicurazioni sulle procedure di sicurezza relative ai lavoratori, ma evidentemente qualcosa non ha funzionato nei controlli che un appaltatore dovrebbe compiere sull’azienda a cui appalta un lavoro. Infatti, OpenAI ha diffuso un comunicato per spiegare di non aver mai imposto a Sama un limite di produttività e scaricare le responsabilità sull’azienda californiana. «L’azienda prende molto sul serio la salute mentale dei nostri dipendenti e quella dei lavoratori delle società a cui appaltiamo i lavori», ha dichiarato il portavoce di OpenAI.