Come contrastare estremismo, disinformazione, incitamento all’odio e frodi online? L’evoluzione di Internet, anche grazie ai social, non ha aperto solo nuove prospettive, ma ha anche evidenziato le sue vulnerabilità. Sul tema si è interrogata in Italia anche la Commissione straordinaria intolleranza, razzismo, antisemitismo, istigazione all’odio e alla violenza, che chiede un cambio di passo al legislatore. Ma una mano potrebbe darla l’intelligenza artificiale (IA), insieme a quella umana. Ne parla Inbal Goldberger, VP of Trust & Safety at ActiveFence, sulle colonne del sito del World Economic Forum, che peraltro fa una premessa curiosa: «Vi informiamo che questo articolo è stato condiviso su siti web che abitualmente travisano i contenuti e diffondono disinformazione».



Quindi, si precisa che il contenuto dell’articolo esprime l’opinione dell’autore, non del World Economic Forum. Il fatto che un articolo sugli abusi online, quindi anche sulla disinformazione, parta da queste premesse rende bene l’idea della situazione. Ma torniamo alle proposte per arginare questo fenomeno. Assumere moderatori non basta, serve invece un approccio sofisticato, cioè combinare «la potenza di una tecnologia innovativa, la raccolta di informazioni al di fuori della piattaforma e l’abilità di esperti in materia che capiscono come operano gli attori delle minacce». Un lavoro che coinvolge intelligenza artificiale (IA), appunto, e umana.



I LIMITI DI INTELLIGENZA ARTIFICIALE E MODERATORI

«I tentativi delle piattaforme online di fermare questi abusi hanno portato a una situazione simile a quella di Roadrunner e Wile E. Coyote», osserva Inbal Goldberger. Questo perché ad evolversi non è solo Internet, ma anche coloro che ne abusano. I pedofili, ad esempio, hanno cambiato il loro linguaggio, vengono usate inoltre nuove metodologie per diffondere fake news, ad esempio si usano accorciatosi di link per nascondere un riferimento ad un sito web di disinformazione. L’intelligenza artificiale (IA) può aiutare, ma da sola non può farcela, perché ad esempio «è meno efficace nel rilevare violazioni sfumate in lingue su cui non è stata addestrata – una lacuna di cui possono approfittare gli attori delle minacce». L’intelligenza artificiale (IA) manca di contesto. Ad esempio, non sa discernere sempre tra il nudo di un dipinto rinascimentale e un’immagine pornografica. Il rischio in questi casi è di avere una moderazione eccessiva, che limita la libertà di espressione online, o una moderazione blanda, che espone gli utenti appunto ad abusi. Invece i moderatori umani e gli esperti del settore possono individuare le sfumature. D’altra parte, ci sono delle limitazioni geografiche, motivo per il quale ne servirebbero tanti e di zone diverse per cogliere tutte le sfumature.



COME CONTRASTARE EFFICACEMENTE GLI ABUSI ONLINE

L’intelligenza artificiale (IA) garantisce velocità, i moderatori precisione. Quindi, combinare questo sforzo può bastare? Non proprio. «I loro sforzi combinati non sono ancora sufficienti per individuare in modo proattivo i contenuti dannosi prima che raggiungano le piattaforme. Per essere proattivi, i team che si occupano di fiducia e sicurezza devono capire che i contenuti abusivi non iniziano e si fermano sulle loro piattaforme. Prima di raggiungere le piattaforme tradizionali, gli attori delle minacce si riuniscono negli angoli più oscuri del web per definire nuove parole chiave, condividere URL di risorse e discutere a lungo di nuove tattiche di diffusione», scrive Inbal Goldberger sul sito del World Economic Forum. Sono luoghi segreti dove terroristi, haters, predatori di bambini ed esperti di disinformazione hanno campo libero. L’accesso a queste informazioni è tutt’altro che semplice. Cosa propone allora Goldberger? «Piuttosto che affidarsi all’IA per rilevare su scala e agli esseri umani per esaminare i casi limite, è fondamentale un approccio basato sull’intelligenza. Introducendo l’intelligenza curata dall’uomo, multilingue e fuori piattaforma negli insiemi di apprendimento, l’IA sarà in grado di rilevare abusi online nuovi e sfumati su scala, prima che raggiungano le piattaforme tradizionali». Un’intelligenza artificiale (IA) più “intelligente” e sofisticata, integrata ad un processo di moderazione, «consente ai team di ridurre significativamente il tempo che intercorre tra l’introduzione di nuovi metodi di abuso online e il momento in cui l’intelligenza artificiale è in grado di rilevarli. In questo modo, i team che si occupano di fiducia e sicurezza possono fermare le minacce online prima che raggiungano gli utenti».