Le IA, ovvero le ormai famose Intelligenze Artificiali, sono finite al centro di uno studio condotto dall’Unesco, che ha appurato come siano maschiliste e discriminatorie, diffondendo stereotipi contro le donne e le minoranze, sia etniche che sociali (come membri della comunità LGBT e disabili). Per condurre l’indagine sono stati presi in esame sia il noto chatbot ChatGPT, nelle sue versioni 2 e 3.5, ma anche Llama 2, prodotta da Meta.



In entrambi i casi in esame, le IA hanno dimostrato la loro natura maschilista e discriminatoria, con una prevalenza di risposte stereotipate da parte del bot di Meta. Complessivamente, interagendo con i modelli generativi, le donne sono state associate a ruoli lavorativi legati a casa, famiglia e bambini quattro volte in più degli uomini, associati invece a parole come affari, dirigenti, stipendio e carriera. Le IA di OpenAI, ugualmente accusate di essere maschiliste e discriminatorie, hanno ottenuto risultati migliori di quella di Meta (maschilista nel 20% delle risposte e omofoba nel 70%), che tende a riprodurre più fedelmente le opinioni che gli utenti condividono sui social dell’azienda.



I rischi associati alle IA maschiliste e discriminatorie

Insomma, le IA secondo l’Unesco, spesso critico nei confronti della nuova tecnologia, sono tutte, a vario titolo, maschiliste e discriminatorie perché in fase di addestramento la maggior parte dei testi usati riproducono proprio quegli stereotipi, sottorappresentando donne e minoranze, se non discriminandole del tutto. Secondo i ricercatori, però, oltre ad essere potenzialmente un problema dal punto di vista della sensibilità individuale, questo meccanismo potrebbe creare anche problemi nell’occupazione.

Le IA maschiliste e discriminatorie, infatti, potrebbero attribuire punti minori ai curriculum che le donne presentano per una qualsiasi posizione, solo in virtù del sesso e non delle effettive competenze riportate. È il caso capitato, tra gli altri, ad una ragazza, esclusa dalle selezioni fatte grazie all’algoritmo perché nel cv era contenuta una parola che faceva intendere si trattasse di una donna, associata al suo ruolo di “capitano del club di scacchi femminile”. Inoltre, le IA maschiliste e discriminatorie potrebbero anche danneggiare donne e minoranze nel caso si tratti di sistemi che vagliano le richieste di accesso ad assicurazioni o prestiti bancari. Occorre, secondo l’Unesco, che i modelli aggiornino i loro stereotipi, eliminandoli del tutto e prendendo esempio dal chatbot di Google, rimosso dal mercato perché eccessivamente incline a sovrarappresentare le minoranze etniche nella creazione di immagini personalizzate.