Meta, l’azienda a capo di Facebook, finisce sotto la lente di ingrandimento, per le gravissime accuse di traffico di esseri umani e attività antisindacali. Tutta colpa di un contratto di lavoro con una ditta, la società di ousourcing Sama, che l’anno scorso, stando a quanto sostenuto dall’ex dipendente Daniel Motaung, avrebbe imposto delle “condizioni di lavoro irragionevoli” ai lavoratori, a cominciare da retribuzioni irregolari, un inadeguato sostegno alla salute mentale e violazioni della privacy.
Il problema principale, come si legge su Wired, è che la società che andrà a rimpiazzare Sama, la Majorel, è accusata dal Financial Times di essere probabilmente peggiore. Ha infatti già dei contratti con Meta in Marocco e un dipendente che lavora a Nairobi ha spiegato che: “Il lavoro è traumatizzante e ci pagano noccioline”, così come riferito a Wired US. Tornando a Sama, Daniel Motaung fa il moderatore di contenuti ed ha spiegato di essere pagato 2,20 dollari all’ora, circa due euro, per vedere post in continuazione di decapitazioni e abusi sui minori. Di conseguenza ha deciso di citare in giudizio il suo datore di lavoro, con il tribunale che ha fatto sapere che sia Meta quanto Sama fossero “legittime parti” del caso.
META CITATA IN GIUDIZIO DA MODERATORE: LA PRECEDENTE CAUSA DEL 2020
Già nel 2020 l’azienda a cui capo vi è Mark Zuckerberg aveva dovuto pagare 52 milioni di dollari per risolvere un caso promosso da alcuni moderatori di contenuti americani circa dei problemi di salute mentale che hanno purtroppo riscontrato a seguito del loro lavoro. Secondo Foxglove, il fatto che Motaung sia riuscito a citare in tribunale l’azienda rappresenta quindi una grande vittoria, un messaggio a Facebook e a tutte le altr big tech operanti in Africa: “La giustizia keniota – sostiene – è uguale a qualsiasi gigante tecnologico, e i giganti farebbero bene a svegliarsi e rispettare il popolo keniota e la loro legge”.
Facebook è solito impiegare migliaia di moderatori, ricordano i britannici della BBC per moderare i contenuti che vengono pubblicati e segnalati dagli utenti o dai sistemi di intelligenza artificiale, e controllare se gli stessi violino gli standard della comunità della piattaforma. Di conseguenza vengono poi rimossi dopo la visione e coloro che lavorano in questa sezione sono costretti a vedere cose indicibili ogni giorno. A riguardo il signora Motaung ha spiegato che il video filmato che ha visto è stato quello di un “uomo vivo che veniva decapitato”.