«Il bianco attacca il nero» e così YouTube decide di bloccare il canale video per 24 ore: algoritmo anti-razzista perfetto penserete, e invece no. Il canale è stato sì bloccato ma si tratta di video sugli scacchi caricati dal famoso campione croato Antonio Radic scambiato per una giornata intera per un account di bieco razzismo da condannare e bloccare al più presto. Che l’intelligenza artificiale non sia perfetta non ci voleva certo il caso degli scacchi a certificarlo, che però sempre più spesso il “potere” degli algoritmi abbia maggior peso rispetto al sensato rigor logico umano, ecco qui si gioca gran parte del futuro della digitalizzazione.



Due ricercatori per mesi hanno cercato di comprendere le ragioni del blocco dell’account verificatosi lo scorso 28 giugno e durato solo 24 ore: e la conclusione, data in esclusiva all’Indipendent, vede Ashique R. KhudaBukhsh e Rupak Sarkar della Carnegie Mellon University tutt’altro che “sereni” per quanto avvenuto. «Uso di termini gergali legati al gioco sono stati scambiati per espressioni discriminatorie da parte dell’intelligenza artificiale», spiegano i ricercatori.



UN ALGORITMO DETERMINA LA MORALE?

«Non sappiamo quale strumento venga usato da YouTube ma queste cose possono accadere se si usa l’intelligenza artificiale», sottolinea ancora KhudaBukhsh. comprendendo però che i termini “bianco” e “nero” usati più volte hanno fatto scattare gli alert dell’algoritmo in AI della più importante piattaforma video-streaming al mondo. Dopo mesi di accurate ricerche sperimentali con due diversi software per scovare “gli argomenti offensivi”, i ricercatori hanno scoperto che non solo la colorazione degli scacchi ha determinato l’alert “razzismo”, ma anche i termini “attacco”, “blocco”, “contrattacco”, “cattura”, “minaccia”.



Il Daily Mail ha poi chiesto lumi a YouTube del perché possano avvenire errore del genere – anche perché la piattaforma ha chiuso e poi riaperto il canale video sugli scacchi senza alcun avviso al suo proprietario – e la risposta di YouTube sconcerta: «non appena siamo stati informati dell’errore abbiamo velocemente riabilitato l’account». Come se il problema fosse la “velocità” della risoluzione (per carità, elemento importante, di certo un giorno intero è cosa assai grave). Ma in un mondo dove tutti – giustamente – chiediamo maggior digitalizzazione e miglior rapporto possibile tra uomo e macchina, possiamo permettere davvero il demandare morale e censura ad un algoritmo la cui intelligenza stenta spesso a dimostrarsi come tale?