La Commissione Europea con l’IA Act sulla regolamentazione dei sistemi di riconoscimento, ha espressamente vietato per legge l’identificazione facciale scansionata in diretta, per evitare una “sorveglianza di massa“. I dettagli del provvedimento saranno discussi prossimamente nelle negoziazioni tra singoli Stati membri, ma sono arrivate già numerose critiche alla norma. L’avvocato Christiane Wendehorst, già a capo del comitato di Bioetica digitale Data Ethics, intervistata da Die Presse avverte in merito ai rischi di questo divieto, che potrebbero comportare una maggiore violazione della privacy, con la necessità di introdurre sistemi ancora più invasivi rispetto al riconoscimento facciale.



La questione è controversa, ma secondo la professoressa “non c’è molto da festeggiare” per questo traguardo, perchè più che una protezione nei confronti dei cittadini, potrebbe invece diffondere ancora di più la paura, ingiustificata di strumenti basati sull’intelligenza artificiale, che invece, se ben regolamentati potrebbero presentare più benefici che rischi per la società. Basterebbe pensare al fatto, dice l’esperta , che “già strumenti come Google o i social e molte App installate nei nostri smartphone, hanno sistemi predittivi che si basano sul IA, e questi poi saranno soggetti alla futura legge Europea“.



L’UE vieta riconoscimento facciale in diretta, ma le immagini potranno essere scansionate a posteriori

Christiane Wendehorst, esperta di valutazione rischi per il digitale, sostiene che il pacchetto di leggi europee per la regolamentazione dell’IA, possa creare numerosi problemi. Alcuni di questi legati ad una minore protezione della privacy, dovuta al divieto del riconoscimento facciale che imporrebbe per il futuro nuove misure, probabilmente più invasive. Ad esempio la norma che impone, in seguito ad un reato di poter scansionare tutte le immagini facciali delle riprese dalle telecamere di videosorveglianza, non esclude anche il riconoscimento di persone terze.



Mentre inizialmente la norma prevedeva di identificare soltanto i presunti responsabili dell’illecito. Per l’avvocato l’analisi delle immagini a posteriori, tramite IA “è anche peggio rispetto al riconoscimento in diretta preventivo“. Critiche anche per le leggi di trasparenza sui testi generati da ChatGpt, resta infatti la questione della scritta obbligatoria, ma non indelebile. “Così si potrà cancellare l’avvertenza” o comunque, usando strumenti alternativi sarà possibile aggirare facilmente la norma e continuare ad ‘ingannare‘ gli utenti.