Il motore di ricerca delle riviste Pacini Giuridica.
Visita il Portale
BLOG

GenAI, segregazione occupazionale e uguaglianza di genere

Letture - Redazione - 8 Marzo 2026

L’intelligenza artificiale generativa non è “neutrale” rispetto al genere. I dati più recenti dell’Organizzazione Internazionale del Lavoro mostrano che l’esposizione alla GenAI si distribuisce lungo le linee già note della segregazione occupazionale, rischiando di amplificare divari strutturali nel mercato del lavoro .

Il Research Brief Gen AI, occupational segregation and gender equality in the world of work evidenzia che le occupazioni a prevalenza femminile sono quasi il doppio più esposte alla GenAI rispetto a quelle a prevalenza maschile (29% contro 16%) . Non solo: le prime presentano anche un rischio di automazione più elevato, con il 16% collocato nei gradienti di esposizione più alta, contro il 3% delle occupazioni maschili .

Il dato è strettamente connesso alla concentrazione delle donne in ruoli amministrativi, di supporto e segretariali, che rientrano nei livelli di esposizione più elevati (cfr. anche la tabella di dettaglio sulle occupazioni esposte, p. 16). L’elemento decisivo è che la tecnologia incrocia una segregazione occupazionale preesistente. La GenAI non crea il divario; lo attraversa e può rafforzarlo.

Il rapporto sottolinea un aspetto spesso trascurato nel dibattito pubblico: l’impatto più diffuso della GenAI riguarda la trasformazione delle mansioni e delle condizioni di lavoro, più che la pura sostituzione occupazionale .

La riorganizzazione dei compiti, la ridefinizione dei flussi decisionali e l’introduzione di strumenti algoritmici di monitoraggio e valutazione possono tradursi in un’intensificazione dei carichi di lavoro, in una riduzione dell’autonomia professionale e nell’incorporazione di bias nei sistemi di gestione delle performance. Per settori ad alta presenza femminile, come sanità e cura, l’integrazione di strumenti di IA senza adeguata consultazione, formazione e interoperabilità rischia di produrre nuovi deficit di lavoro dignitoso .

In termini giuridici, ciò sposta l’attenzione dal solo tema dei licenziamenti tecnologici a quello, più complesso, della modifica dell’organizzazione del lavoro, della trasparenza degli algoritmi e del controllo sulle metriche valutative.

Mentre le donne risultano più esposte agli effetti della GenAI, restano sottorappresentate nei settori STEM e nell’AI, rappresentando circa il 30% della forza lavoro nell’AI a livello globale .

La sottorappresentazione non è solo un problema di accesso alle opportunità emergenti, comportando ricadute sistemiche. Team di sviluppo poco diversificati e dataset non rappresentativi possono produrre esiti discriminatori nei sistemi di reclutamento, valutazione o credito . Si crea così un circolo vizioso in cui l’esclusione dalla progettazione alimenta tecnologie distorsive, che a loro volta rafforzano l’esclusione. Per il diritto antidiscriminatorio, questo scenario impone di interrogarsi sulla qualificazione dei bias algoritmici come possibili discriminazioni indirette e sull’onere probatorio in contesti altamente tecnicizzati.

Il Brief richiama con forza le cause profonde della segregazione: norme sociali e legali discriminatorie, distribuzione diseguale del lavoro di cura non retribuito, barriere nell’accesso alla formazione e alla progressione professionale .

A livello globale, le responsabilità di cura sono tra i principali fattori che mantengono milioni di donne fuori dal mercato del lavoro . Senza politiche di supporto, servizi e infrastrutture adeguate, la transizione digitale rischia di stratificarsi su basi già diseguali. Ne deriva che la governance della GenAI non può essere disgiunta da politiche macroeconomiche e settoriali sensibili al genere, da sistemi di formazione continua inclusivi e dal rafforzamento delle istituzioni del mercato del lavoro.

Il punto conclusivo del rapporto è netto: l’esito non è predeterm La GenAI può essere leva di maggiore uguaglianza oppure fattore di consolidamento delle disparità.  La differenza risiede nelle scelte regolative.inato. Occorre integrare l’eguaglianza di genere nella progettazione e implementazione dei sistemi, sviluppare tecniche di debiasing e dataset rappresentativi, garantire il coinvolgimento effettivo delle lavoratrici e dei lavoratori nei processi decisionali e valorizzare il dialogo sociale nella gestione delle trasformazioni tecnologiche .

In una prospettiva europea, ciò si intreccia con gli obblighi di trasparenza, informazione e consultazione, con le discipline sulla protezione dei dati, con le nuove regole sull’intelligenza artificiale e con il quadro consolidato del diritto antidiscriminatorio.

 

Per approfondire

Research Brief GenAI 2026

Potrebbe interessarti anche