Il team di Call of Duty, il gioco sparatutto dei record, sta portando avanti la sua personale battaglia contro i comportamenti inopportuni online, ritenuti dallo stesso “tossici”, moderando la chat vocale del gioco. Il tutto farà il suo esordio il prossimo 10 novembre quando debutterà Call of Duty Modern Warfare III, nuovo attesissimo capitolo della saga a firma Activision. Il team collaborerà con Modulate per fornire una moderazione globale della chat vocale live, in tempo reale, su larga scala.



Il nuovo sistema di moderazione si basa su ToxMod, tecnologia che sfrutta l’intelligenza artificiale: sarà quindi possibile identificare in tempo reale l’eventuale linguaggio non consono, come ad esempio incitamento all’odio, molestie, discriminazioni e altro ancora. Si tratta di un nuovo “filtro” che va ad aggiungersi agli altri sistemi di moderazione portati avanti da COD negli ultimi tempi, compreso quello che registra fino a 14 lingue diverse in merito alle chat all’interno del gioco, nonché il sistema di segnalazione dei giocatori in-game già collaudato.



CALL OF DUTY, NUOVO SISTEMA DI MODERAZIONE CONTRO LINGUAGGIO TOSSICO: INIZIALMENTE SOLO IN INGLESE

Lo scorso 30 agosto è scattata in Nord America una fase dimostrativa di tale nuovo metodo di moderazione della chat vocale, riservato al Nord America e per i giochi Call of Duty: Modern Warfare II e Call of Duty: Warzone. Il 10 novembre prossimo, ci sarà quindi il lancio globale del nuovo filtro che comunque sarà disponibile all’inizio solo in inglese, anche se si prevede l’implementazione di altre lingue in futuro.

Fino ad oggi, fa sapere il gioco di Activision, più di un milione di account ha violato il Codice di Condotta di Call of Duty, tutti prontamente individuati dal team di moderatori grazie anche a dei continui aggiornamenti della tecnologia. E’ inoltre emerso che dopo una prima infrazione il 20 per cento degli stessi giocatori non ha più registrato dei problemi, chiaro indizio di come il sistema di avvertimento funzioni.