I sistemi di riconoscimento facciale hanno già sollevato diverse perplessità. Ora, per la prima volta, è proprio l’uso di questa tecnica di intelligenza artificiale che trascina la polizia di Cardiff in tribunale. A intentare una causa per violazione dei dati personali e limitazione del diritto alla privacy è Ed Bridges, un trentenne impiegato statale residente nel Galles del Sud, che dichiara che l’essere stato ripreso dalle telecamere di sorveglianza in una zona commerciale della città nel dicembre 2017 e l’anno successivo durante un corteo contro le armi sia lesivo dei suoi diritti civili.
Come avviene per le centinaia di migliaia di frequentatori dei luoghi pubblici della città portuale dove dal 2015 è attivo un sistema automatico di riconoscimento facciale AFR Automated Facial Recognition, una volta catturata l’immagine del volto, questa viene messa a confronto con il database delle foto segnaletiche di persone ricercate, scomparse o comunque attenzionate dalla forza pubblica. Con i sistemi più recenti e sofisticati si riesce a riconoscere una persona anche se questa ha il viso ruotato, o comunque non in visione frontale. In Inghilterra grazie a una capillare rete di telecamere di sorveglianza i volti registrati e sottoponibili al confronto con immagini raccolte per strada sono già 20 milioni. Di fatto una parte preponderante della popolazione britannica è identificabile mentre va in giro.
In questi giorni si sono tenuti i primi dibattimenti del processo intentato da Ed Bridges, il quale è spalleggiato da Liberty, movimento per i diritti civili che lo ha aiutato ad avviare una campagna di crowdfunding per sostenere le spese legali. La raccolta a largo spettro di dati biometrici mediante telecamere di sorveglianza, assimilabile al rilevamento di impronte digitali o prelievo di materiale biologico, senza il consenso dell’interessato, lede i diritti universali della persona e viola il principio GDPR, secondo l’accusa. La tesi della difesa è che i dati setacciati con la tecnica di AFR, una volta superato il confronto con database, quelli senza interesse per la polizia, vengono distrutti.
Il caso prosegue nelle prossime settimane e la sentenza di Cardiff s’inserirà nel panorama problematico della questione. Appena la settimana scorsa la municipalità di San Francisco, culla dell’hi-tech, ha messo al bando il ricorso al software di riconoscimento facciale per la polizia locale e le agenzie investigative. È la prima grande metropoli statunitense a fare questa scelta con il voto della quasi maggioranza del consiglio comunale. Mentre la questione etica legata ai software di riconoscimento facciale assume rilievo anche sul fronte commerciale. Il caso di Amazon fa da apripista?
Lo scorso aprile è stata pubblicata la peer-review di una ricerca del MIT Media Labs, denominata Gender Shades, dalla quale emerge che il sistema Rekognition sviluppato da Amazon confonde per il 31% dei casi, i volti femminili di persone di colore con quelli di genere maschile. Errore non altrettanto marchiano nel caso di maschi bianchi. L’azienda nella presentazione sul blog della ricerca ha minimizzato questo bias il quale ha invece richiamato l’attenzione di diversi esperti di AI che hanno firmato una lettera aperta all’azienda. Tant’è che l’assemblea degli azionisti che si è tenuta mercoledì scorso è stata chiamata a esprimersi su due proposte in materia. Primo, se Amazon dovesse smettere di vendere i sistemi di sorveglianza Rekognition alle agenzie federali. Secondo, se commissionare uno studio indipendente per appurare se il sistema lede ai diritti civili. Voto negativo per entrambe, ma più rilevante è la notizia che lo stesso giorno si è tenuta la prima audizione al Congresso su questi software di sorveglianza di massa, che chiamerà a deporre tutti gli stakeholders: dalle aziende alle forze dell’ordine agli attivisti civili.
È ancora prematuro indicarne l’esito, tuttavia questi sono segnali che confermano che i sistemi di riconoscimento facciale per la tutela dell’ordine pubblico avranno un futuro sempre più controverso. Rimane fuori la Cina dove da tempo queste tecnologie servono anche per misurare il social credit ovvero il patentino di cittadino affidabile. Si tratta di un complesso meccanismo di monitoraggio del credito sociale attribuito a ciascun individuo attuato dal Governo cinese. Per ora su base volontaria per arrivare nel 2020 al dispiegamento obbligatario del programma che interesserà un miliardo e quattrocentomila cittadini cinesi.