Lo scorso 13 marzo il Parlamento europeo ha approvato il Regolamento sull’Intelligenza Artificiale. Il Regolamento, a oggi non ancora pubblicato, sarà applicabile dopo due anni dalla sua entrata in vigore, salvo talune previsioni che si applicheranno anticipatamente, e sarà direttamente precettivo in ciascuno degli Stati membri, che dovrà garantirne l’attuazione anche mediante l’adozione di specifiche disposizioni nazionali.
Ai sensi del Regolamento, che costituisce il primo atto normativo sistematico di ambito continentale sulla materia, l’uso dell’IA “può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale e ambientale” e così anche nel mondo del lavoro. Nondimeno, a seconda delle modalità di applicazione e del livello di sviluppo tecnologico, l’utilizzo dell’IA può comportare seri rischi fino a fornire potenzialmente “strumenti nuovi e potenti per pratiche di manipolazione, sfruttamento e controllo sociale”.
In ragione di ciò, il Regolamento si pone l’obiettivo di “migliorare il funzionamento del mercato interno e promuovere la diffusione di un’IA antropocentrica e affidabile, garantendo nel contempo un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta, compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, contro gli effetti nocivi dei sistemi di IA nell’Unione e promuovendo l’innovazione”
A tal fine il Regolamento identifica due classi di sistemi di IA problematiche, individuando da un lato una classe di strumenti vietati in toto in cui rientrano i sistemi che consentono di “inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro“, e dall’altro una classe ad “alto rischio“, comprendente le tecnologie utilizzabili “per l’assunzione o la selezione di persone fisiche, in particolare per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati”, nonché “per adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti contrattuali di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento delle persone“.
Entrambi i citati sistemi, infatti, possono avere “un impatto significativo” “in termini di prospettive di carriera e sostentamento e di diritti dei lavoratori“, perpetuando potenzialmente “modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale“.
Ricadrebbe in tali previsioni il noto “caso Amazon”, azienda che aveva sviluppato negli Usa un programma sperimentale di talent finding automatizzato per valutare i candidati. Con riferimento ai ruoli IT, tuttavia, il sistema escludeva automaticamente i candidati di sesso femminile; il software, infatti, si basava su dati raccolti negli ultimi dieci anni e la maggior parte delle persone assunte in detto arco temporale in ambito informatico era di sesso maschile. Rilevando tale “bias” e il clamore mediatico destato dalla vicenda, Amazon ha ritenuto di chiudere il progetto.
Possibili esiti discriminatori possono derivare altresì dai sistemi di IA, utilizzati anche dalle funzioni HR di primarie aziende multinazionali, che analizzano dizione, tono della voce e movimenti facciali nelle interviste di selezione del personale. A riguardo l’European Disability Forum, rivolgendo una specifica raccomandazione alla Commissione europea, ha evidenziato i pericoli derivanti dall’uso di alcuni sistemi di IA quali HireVue, che potrebbero discriminare le persone con disabilità scrutinando le espressioni facciali e la voce “fuori dalla norma” ed escludendo in particolare persone non vedenti e/o non udenti ovvero affette da disturbi del linguaggio o con esiti da ictus.
La qualificazione di tali sistemi come “ad alto rischio” obbliga coloro che li utilizzano, e quindi anche i datori di lavoro, ad adottare “misure tecniche ed organizzative” idonee a garantire un utilizzo conforme alla normativa europea e nazionale, e viene previsto il dovere delle imprese di “informare e consultare i lavoratori o i loro rappresentanti a norma del diritto e delle prassi dell’Unione o nazionali” in merito “alla decisione di mettere in servizio e utilizzare sistemi di IA“. Pertanto, nell’ambito dei rapporti di lavoro, occorre che l’attuazione dei sistemi di IA avvenga nel rispetto della normativa nazionale vigente.
In particolare, come è noto, l’art. 4 dello Statuto dei Lavoratori disciplina le condizioni di utilizzo di impianti audiovisivi e di altri strumenti dai quali derivi anche la possibilità di controllo a distanza dell’attività dei lavoratori. Inoltre, il successivo art. 8 vieta al datore di lavoro, ai fini dell’assunzione e nel corso dello svolgimento del rapporto di lavoro, di effettuare indagini, anche a mezzo di terzi, sulle opinioni politiche, religiose o sindacali del lavoratore, nonché su fatti non rilevanti ai fini della valutazione della sua attitudine professionale. Al riguardo, con riferimento agli strumenti informatici, già in passato la Corte di Cassazione ha ritenuto incompatibile con il disposto di cui all’art. 8 “l’acquisizione e conservazione dei dati relativi alla navigazione Internet dei dipendenti“. Sono altresì incompatibili con la normativa in materia di privacy (di derivazione europea) i sistemi che reperiscono informazioni dal web e dai profili social dei candidati (ad esempio rilevando i like o le condivisioni di contenuti su Instagram, Facebook, ecc.) e che possono trarre informazioni “extralavorative” sui candidati stessi, e in particolare circa le loro ideologie politiche e religiose, l’orientamento sessuale o l’origine etnica, ovvero “dati particolari” ex art. 9 del Regolamento Ue 2016/679.
Rientrano nell’ambito di operatività del Regolamento – e dovranno essere attentamente verificati – anche i sistemi a oggi già in uso presso molte aziende nell’ambito dei processi di HR Analytics, i quali permettono, tra l’altro, di ottimizzare i processi di selezione e assunzione del personale e di elaborare dati predittivi in merito alla vita aziendale dei singoli dipendenti e di categorie “omogenee“. Al riguardo la giurisprudenza sta già intervenendo su vari fronti per limitare e contingentare l’applicazione dei sistemi di IA nel mondo del lavoro, applicando estensivamente le citate previsioni dello Statuto dei lavoratori e del GDPR.
In tal senso è opportuno ricordare i recenti provvedimenti con cui il Garante per la protezione dei dati personali ha statuito che il riconoscimento facciale per controllare le presenze sul posto di lavoro viola la privacy dei dipendenti e ha sanzionato cinque società per aver trattato in modo illecito i dati biometrici di un numero elevato di lavoratori (provvedimenti nn. 105-109 del 22/02/2024).
Anche il Tribunale di Torino – con la recentissima sentenza n. 231/2024 – ha ribadito l’obbligo per una società attiva nel settore del food delivery di comunicare le informazioni idonee a chiarire il funzionamento degli algoritmi utilizzati e consentire di rendere “prevedibile” e “trasparente” la decisione adottata dal sistema automatizzato e illustrare le misure adottate per prevenire decisioni di natura discriminatoria, nel rispetto del d.lgs. n. 152/1997 (come modificato dal c.d. “Decreto Trasparenza”).
Similarmente il Tribunale di Palermo, con atto del 20 giugno 2023, ha dichiarato antisindacale l’omessa comunicazione alle OO.SS. delle informazioni di cui al d.lgs. 1526/ 1997 specificando che l’obbligo riguarda anche le informazioni relative agli scopi, alle finalità, alla logica e al funzionamento dei sistemi automatizzati, nonché agli aspetti del rapporto di lavoro e della sua cessazione sui quali incide l’utilizzo di tali sistemi, con particolare riferimento alle modalità con le quali il sistema assegna un punteggio ai corrieri, procede alla disconnessione temporanea o definitiva dei lavoratori, sorveglia l’adempimento e valuta le prestazioni lavorative.
Ed è paradossale che un importante presidio a tutela della dignità dei lavoratori dinnanzi alle nuove e sempre più sofisticate e invasive tecnologie riviene da uno Statuto “vecchio” di oltre mezzo secolo, ovvero lo Statuto dei lavoratori approvato nel 1970.
Valutando le nuove disposizioni normative, lo stato dell’arte e gli orientamenti giurisprudenziali emergenti, si può ritenere che l’utilizzo di sistemi di IA nei rapporti di lavoro possa comportare significativi benefici in termini di efficienza nella gestione delle risorse umane e dei processi decisionali, ma al contempo rischi da non sottovalutare. Pertanto, nell’attesa dell’entrata in vigore del Regolamento e della sua esecuzione a livello nazionale, è consigliabile introdurre i sistemi di IA con cautela e in un rapporto di collaborazione e informazione con le rappresentanze sindacali e i lavoratori.
Sullo sfondo pare pertinente e illuminante i futuri approdi normativi ed ermeneutici il messaggio di Capodanno del Santo Padre in occasione – e non è un caso – della Giornata Mondiale della Pace: “Non possiamo fare a meno di considerare l’impatto delle nuove tecnologie in ambito lavorativo, mansioni che un tempo erano appannaggio esclusivo della manodopera umana vengono rapidamente assorbite dalle applicazioni industriali dell’intelligenza artificiale. Anche in questo caso, c’è il rischio sostanziale di un vantaggio sproporzionato per pochi a scapito dell’impoverimento di molti. Il rispetto della dignità dei lavoratori e l’importanza dell’occupazione per il benessere economico delle persone, delle famiglie e delle società, la sicurezza degli impieghi e l’equità dei salari dovrebbero costituire un’alta priorità per la Comunità internazionale, mentre queste forme di tecnologia penetrano sempre più profondamente nei luoghi di lavoro“.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.
SOSTIENICI. DONA ORA CLICCANDO QUI