BLOG

Devillers, I sistemi di intelligenza artificiale amplificheranno i pregiudizi di genere

Letture - Redazione - 23 Giugno 2023

Sul quotidiano Le monde del 7 giugno 2023 è stato pubblicato lo scritto di Laurence Devillers, professoressa all’Université Paris-Sorbonne e ricercatrice presso il Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi) del CNRS1, e guida del gruppo di ricerca Dimensioni affettive e sociali nelle interazioni parlate. La docente, nota per i  suoi interessi di ricerca che si concentrano sull’interazione persona-macchina, sul rilevamento delle emozioni, sul dialogo orale e sulla robotica affettiva e interattiva, prende posizione sul ruolo dell’A.I. con riferimento ai pregiudizi di genere.

Riportiamo qui di seguito una libera traduzione del testo, a cura di Anna Zilli.

L’originale è disponibile a  questo link.

I sistemi di intelligenza artificiale amplificheranno i pregiudizi di genere su tutta la linea

di Laurence Devillers

Sulla base dell’apprendimento delle regolarità statistiche più salienti, l’IA rischia di riprodurre discriminazioni che serviranno da base per i sistemi successivi, avverte la professoressa, che sostiene la necessitò dell’introduzione di una regolamentazione

Il 12 maggio, al forum Sistemic, un movimento lanciato dall’imprenditrice Aude de Thuin per combattere la sottorappresentazione delle donne nella scienza, nella tecnologia digitale, nell’ingegneria e nella matematica, è stato ampiamente discusso il tema dell’intelligenza artificiale (AI) e degli stereotipi di genere che veicola. La ministra per l’uguaglianza di genere, Isabelle Rome, i matematici Cédric Villani e Mélanie Guénais, l’imprenditore Charles-Edouard Bouée, Nathalie Collin, vice direttrice generale del gruppo La Poste, e molti altri intervenuti hanno avvertito di questo pericolo reale per l’equilibrio della nostra società, a cui dobbiamo porre immediatamente rimedio.

I ruoli e gli stereotipi di genere vengono acquisiti attraverso l’educazione e la socializzazione degli individui. Fin dagli inizi della tecnologia digitale, le professioni IT e AI sono state considerate professioni maschili. Eppure non richiedono alcuna qualità fisica. Al contrario, le professioni della sanità o della giustizia, sempre meno attraenti per i loro salari, sono ora professioni femminili.
Ancora oggi, solo il 22% dei professionisti dell’IA in tutto il mondo sono donne, secondo il Rapporto sull’uguaglianza di genere del Forum.

La modalità principale dell’AI è quella del machine learning, ovvero la capacità dei programmi di apprendere le regolarità statistiche più salienti di grandi set di dati. Questi grandi modelli linguistici (presentati da Google nel 2017) imparano a produrre, da miliardi di testi, le risposte di sistemi conversazionali come ChatGPT e servono molte altre applicazioni (traduzione, sommario, ecc.).

La capacità di prendere in considerazione l’intero contesto per determinare il significato di una parola e di utilizzare meccanismi di attenzione nell’apprendimento è il principale vantaggio di queste reti neurali digitali. ChatGPT è in grado di scrivere correttamente in più lingue senza alcuna comprensione o controllo della veridicità delle sue parole. Questi sistemi sono anche capaci di allucinazioni, invenzioni di testi e plagio. Così possono riscrivere le nostre conoscenze e amplificare i nostri stereotipi. Eppure i testi prodotti dal calcolo statistico in risposta alle nostre domande in ChatGPT ci sembrano sviluppati da esseri umani!

I dati raccolti per l’apprendimento automatico sono discriminatori, in particolare in termini di genere.
I pregiudizi dei dati possono arrivare fino a stereotipi grezzi, come un’intelligenza artificiale che genera immagini quale DALL-E, che mostra giovani e sexy segretarie femminili accanto a chirurghi maschi bianchi sulla cinquantina.

Le donne non sono sufficientemente rappresentate nelle discussioni sull’IA e sul digitale in generale, dovrebbero partecipare al dibattito nei media e nei circoli decisionali su un piano di parità con gli uomini per spiegare queste questioni etiche di discriminazione. È necessario che gli oggetti informatici e i libri siano scritti e costruiti da persone di tutti i generi per rappresentare la diversità della società.

I robot sessuali, gli agenti e gli avatar degli animali domestici rafforzano gli stereotipi di genere e presentano modelli di dominio, una sorta di alienazione dalle donne. Le voci GPS, i corpi degli agenti o dei robot dovrebbero rappresentare la diversità di genere, non una scelta di genere predefinita.

Tuttavia, l’80% dei programmatori sono uomini e l’80% dei robot di chat  (Sofia, Alexa) sono femminilizzati (voce, viso, corpo).
Tuttavia, è semplice forzare i costruttori di chatbot a scegliere casualmente il genere associato all’oggetto. Non esiste un agente conversazionale neutrale, gli assegniamo necessariamente un genere. ChatGPT è ad esempio piuttosto maschile ma può essere chiesto di interpretare un ruolo femminile.

Perché ci sono così poche ragazze nella scienza e nella tecnologia? Sicuramente perché l’aspetto socio-tecnico e interdisciplinare dei sistemi di AI non è mai stato spiegato. L’opacità in cui operano sistemi come ChatGPT e DALL-E per quanto riguarda la scelta dei dati e la parametrizzazione degli algoritmi favorisce l’emergere di rischi sociali significativi, ad esempio in termini di profilazione degli individui, manipolazione o rafforzamento dei pregiudizi esistenti. C’è un urgente bisogno di coinvolgere più donne per costruire sistemi che seguano regole etiche.

Ricordiamo le specialiste di bias AI Timnit Gebru e Margaret Mitchell, che hanno entrambe lavorato nella divisione AI etica di Google e sono stati licenziate poco dopo che Gebru ha pubblicato uno studio scientifico sui pregiudizi dei sistemi di intelligenza artificiale nel 2020.
Sentire il pioniere dell’IA Geoffrey Hinton dire la stessa cosa sui rischi dell’IA segnalati da Gebru oggi è scioccante perché, lavorando a Google Brain, non ha detto nulla all’epoca. Hinton, che ha appena lasciato Google e mette in guardia sui pericoli dell’IA, continua a non citare lo studio di Timnit Gebru!

I sistemi di intelligenza artificiale mantengono e amplificheranno i pregiudizi di genere in tutte le aree. L’IA è un’imitazione artificiale e siamo nell’illusione proiettando caratteristiche umane su queste macchine, o addirittura considerandole come oracoli!

Domani, è probabile che l’IA produca testi ancora più discriminanti che serviranno come base di apprendimento per altri ChatGPT. E’ necessario prendere molto sul serio questo tema e fornire soluzioni attraverso regole, standard e guide etiche in Europa e nel mondo.

Potrebbe interessarti anche