Presentata alla 24ª Esposizione Internazionale “Inequalities” della Triennale di Milano, Not For Her. AI Revealing the Unseen è un’installazione del Politecnico di Milano concepita dalla Rettrice Donatella Sciuto insieme al team di ricerca guidato da Nicola Gatti, Ingrid Paoletti e Matteo Ruta con la direzione artistica di Umberto Tolino e Ilaria Bollati. L’opera trasforma il format del colloquio di lavoro in un’esperienza immersiva che mette a fuoco, attraverso una AI generativa, le discriminazioni di genere ancora radicate nei processi di selezione. Chi si presta al gioco potrebbe sentirsi domandare cose del tipo: “Come pensa di gestire il lavoro se dovesse avere un figlio?” e altre domande discriminanti, grazie a un’opera che non smaschera i bias dell’IA, ma rimanda al mittente quelli umani.
“La discriminazione parte da noi”: in Triennale c’è una AI che lo mostra chiaramente
La Rettrice del Politecnico di Milano, Donatella Sciuto, svela a Domus i retroscena di Not For Her, una installazione che usa la Gen-AI come strumento per denunciare le discriminazioni di genere nei luoghi di lavoro.
View Article details
- Francesco D'Isa
- 01 agosto 2025
Il cuore del progetto è un Large Language Model (una versione di ChatGPT) con Retrieval-Augmented Generation: alle richieste dell’utente il sistema aggiunge, in tempo reale, frammenti testuali provenienti da documenti HR, normative e testimonianze di discriminazione. “Dal punto di vista tecnico, il sistema aggrega vari strumenti già disponibili con algoritmi che abbiamo studiato e realizzato in modo dedicato”, spiega la rettrice Donatella Sciuto, “questo perché i modelli linguistici attuali non sono in grado di condurre autonomamente una conversazione complessa diretta a un obiettivo preciso”. Ogni bivio individua una specifica forma di pregiudizio – maternità presunta, oggettivazione sessuale, età, cura familiare – e orienta le domande successive. “La discussione può prendere infinite pieghe e direzioni che si sviluppano lungo una molteplicità di storie, tutte queste però con un unico scopo che è quello di far vivere una esperienza di discriminazione al visitatore. Ciascuna è il risultato dalle risposte del singolo intervistato”.
La discriminazione parte da noi. Allargare o ridurre le disuguaglianze è il frutto delle nostre scelte. Servono nuove competenze, prima ancora che nuovi sistemi. Servono professionisti consapevoli, non semplici utilizzatori.
Donatella Sciuto
Il dialogo non si basa soltanto sulle parole. Riconoscimento vocale, analisi facciale e tracking posturale estraggono timbro, pause, micro-espressioni e inclinazione del capo; quei segnali vengono inglobati nei prompt inviati all’LLM e modulano tono di voce e gestualità dell’avatar. “Usiamo un albero di decisione che segue, passo a passo, il visitatore sulla base delle sue risposte. Si tratta di un modello predittivo, dove ogni nodo rappresenta una variabile, un “plot twist”, come si direbbe in gergo. Il percorso definisce la tipologia specifica di discriminazione che il visitatore andrà a subire”, precisa la rettrice. Il risultato è una conversazione plastica, capace di cambiare registro con facilità. Le traiettorie sono finite, i dialoghi potenzialmente infiniti. Se l’AI rileva che l’utente è una donna alla prima esperienza, può incalzare: “È pronta a restare oltre le 20 se i bambini si ammalano?”. Se la candidata dichiara di non volere figli, il bias slitta su un piano più intimo: “Ha un compagno disposto ad accettare le sue ambizioni?”. “Mi piace usare la metafora dello sceneggiatore”, chiarisce Sciuto, “abbiamo fornito informazioni affinché il sistema potesse assemblare un numero potenzialmente infinito di dialoghi”.
Per evitare caricature, il team ha lavorato con recruiter professionisti e con persone che hanno condiviso episodi reali di sessismo. Le trascrizioni, anonimizzate, finiscono nel motore Rag come materiale vivo. “L’autenticità è la base della nostra credibilità”, sottolinea la rettrice. Tre settimane di test full-time in sessioni da dieci minuti ciascuna hanno calibrato tono, lessico e ritmo, eliminando gli stereotipi più grossolani e preservando la durezza del reale. Stupore e rabbia sono le emozioni più frequenti nel pubblico. “La prima reazione è lo stupore per la naturalezza dell’interazione”, racconta Sciuto; “la seconda è la rabbia: il sistema mette l’utente in forte disagio”. Qualcuno litiga con l’avatar, altri restano in silenzio, disorientati. Se l’intervistato parla troppo, l’algoritmo lo interrompe; se appare compiacente, l’avatar può spingersi a un ambiguo invito a cena. “Il sistema riesce a mettere in grande disagio l’utente e questo fa scaturire sensazioni come l’irritazione e il disappunto. Ci sono stati visitatori che si sono ingaggiati in vere e proprie liti, altri che hanno “subito”, sommessi. Io stessa ho fatto diverse sessioni di test e ho provato a comportami in modo diverso. Le emozioni che ho provato sono umane. Possiamo però imparare a gestirle. Questo strumento può allenarci a farlo”.
Il Politecnico sta valutando una versione itinerante per Open Day e seminari sulle carriere Stem dove il gender gap è ancora marcato. “Un’idea” dice Sciuto, “potrebbe essere quella di metterla a disposizione durante gli eventi di orientamento, a favore delle ragazze che si immaginano una carriera accademica e lavorativa nelle materie Stem. Qui la discriminazione è ancora forte. Alcune aziende si sono poi dimostrate interessate non solo nell’ottica dell’assunzione, ma nella dimensione più ampia dell’inclusione”. Una versione online, invece, è esclusa: servirebbero infrastrutture di calcolo oggi fuori portata perfino per le grandi università. Spostare lo sguardo dai bias “della” macchina a quelli “nella” società implica nuove competenze, non soltanto nuovi algoritmi. “Quello che è importante capire e ricordare è che la macchina deve essere calibrata sulla base di esigenze specifiche” ammonisce Sciuto, “queste vanno valutate con estrema ratio dagli esseri umani. La discriminazione parte da noi. Allargare o ridurre le disuguaglianze è il frutto delle nostre scelte. Servono nuove competenze, prima ancora che nuovi sistemi. Servono professionisti consapevoli, non semplici utilizzatori”.
Video di Variante Artistica
Servono più laureati Stem – e più donne nei percorsi tecnici – insieme a normative chiare, assessment continui e dataset controllati. Senza questi presìdi, la tecnologia rischia di amplificare, anziché ridurre, le disuguaglianze.
Not for her ribalta la narrativa consueta: un’IA programmata per discriminare allo scopo di denunciare la discriminazione. Nel paradosso dello specchio digitale, l’avatar mostra che la frontiera dell’equità non si gioca dentro i modelli linguistici, ma nelle scelte, culturali prima che tecniche, di chi li addestra.
- “Not For Her. AI Revealing the Unseen”
- concepita dalla Rettrice Donatella Sciuto insieme al team di ricerca guidato da Nicola Gatti, Ingrid Paoletti e Matteo Ruta con la direzione artistica di Umberto Tolino e Ilaria Bollati
- Triennale di Milano, 24ª Esposizione Internazionale – Inequalities
- 13 maggio-9 novembre 2025
- Variante Artistica
Immagine di apertura: Vista dell'installazione “Not For Her. AI Revealing the Unseen”, Triennale di Milano, 24ª Esposizione Internazionale – Inequalities. Foto Luca Trelancia