laR+ Ticino

Ai, un’intelligenza con le lenti del pregiudizio maschile

Landoni (professoressa Usi): l’intelligenza artificiale rischia di amplificare gli stereotipi di genere. Ecco il progetto TADAA per decostruirli a scuola

(Keystone)
22 gennaio 2025
|

L’intelligenza artificiale rischia di essere un nuovo amplificatore delle disparità di genere e più in generale di quelle sociali. Per verificare l’assunto – suggerisce Monica Landoni, professoressa presso la Facoltà di informatica dell’Università della Svizzera italiana – basta chiedere a uno strumento di traduzione automatica che utilizza ‘large language models’, come ChatGpt, di tradurre dall’inglese all’italiano “a doctor and a nurse”. Risultato: “Un dottore e un’infermiera”.

«Il sistema funziona facendo una mappatura nella lingua richiesta e in caso di ambiguità sceglie la declinazione del termine più probabile, per questo attribuisce la professione medica a un uomo e quella infermieristica a una donna, perpetrando così un tipo di stereotipo ancora molto diffuso nella società per cui ci sarebbero lavori prettamente maschili e altri prettamente femminili», spiega Landoni. L’origine di questa riproduzione sta nel fatto che algoritmi e intelligenza artificiale (Ai) apprendono da dati spesso contenenti discriminazioni o parziali.

Essere uomo, un titolo preferenziale

«Se li si considera da una prospettiva di genere – articola la ricercatrice – da un lato i dati disponibili in molti casi descrivono ambienti di lavoro e di vita maschili, in cui la maggior parte dei ruoli considerati di prestigio sono appannaggio di uomini mentre alle donne sono attribuiti compiti assistenziali». Un effetto concreto del fatto che l’intelligenza artificiale si rifaccia a questo terreno può essere quello di un sistema informatico che in una procedura di assunzione favorisca la candidatura di un uomo rispetto a quella di una donna nonostante i maggiori requisiti della seconda. È quanto è riuscito a dimostrare un avvocato losannese, David Raedler, nel caso di una sua cliente che aveva postulato per un lavoro di alto profilo nell’ambito del marketing e al cui posto, a causa di una discriminazione algoritmica, era stato scelto un uomo meno preparato. Basandosi sui dati a disposizione il sistema aveva infatti stabilito che il genere maschile costituiva un titolo preferenziale per la posizione in questione in quanto c’erano molti più uomini che la ricoprivano.

Un pregiudizio pervasivo e latente

Dall’altro lato tra i problemi a monte c’è quello «della grande carenza di dati disaggregati che riguardano le donne», riprende Landoni, facendo riferimento al cosiddetto ‘gender data gap’, ben tematizzato nel saggio del 2019 della giornalista e scrittrice Caroline Criado Perez dal titolo “Invisibili. Come il nostro mondo ignora le donne in ogni campo. Dati alla mano”. L’autrice porta alla luce l’enorme assenza di dati disponibili sui corpi, le abitudini e i bisogni femminili ed espone come questo abbia creato “un pregiudizio pervasivo e latente che ha un riverbero profondo, a volte perfino fatale, sulla vita delle donne”. Un’assenza riconducibile al fatto che a capo delle politiche pubbliche e nelle posizioni decisionali e di potere ci sono quasi sempre solo uomini che non si rendono conto che la loro esperienza non è universale. Ma anche al fatto, specifica Landoni, che le donne sono più complicate da studiare: nei vari esperimenti è più facile che vengano scelti soggetti maschili perché il loro corpo funziona in maniera più costante – non hanno ad esempio il ciclo mestruale – e conducono stili di vita più lineari e meno frenetici rispetto alle donne che oltre al lavoro retribuito si occupano molto più spesso anche della maggior parte dell’accudimento dei figli, degli anziani e dei malati, nonché della cura della casa.

Itinerari meno lineari

A tal proposito l’autrice di “Invisibili” mostra come gli itinerari degli uomini tendano a essere semplici, dalla periferia al centro e viceversa due volte al giorno. Mentre la modalità di viaggio comune alle donne di tutto il pianeta prevede più tappe concatenate: per accompagnare i bambini a scuola, per fare la spesa, per portare un genitore dal medico, per andare sul posto di lavoro part time. Questo, unito alla conseguente minor disponibilità economica, porta le donne a muoversi maggiormente a piedi, per di più spingendo passeggini e sedie a rotelle, su marciapiedi e terreni che non sempre sono progettati tenendo conto di tali loro bisogni, scarsamente analizzati.

«La prima cosa da fare è riconoscere e accettare che ci siano delle differenze senza un giudizio e una gerarchizzazione. E poi trovare un modo per fare loro spazio» commenta Landoni. È quanto è stato fatto nel rivedere il piano sgombera-neve di una località svedese che – racconta Criado Perez – dopo aver capito l’importanza di disporre anche di percorsi pedonali e ciclabili ben puliti grazie a una direttiva sulle pari opportunità, si è trovata da un anno all’altro con una diminuzione degli incidenti del 50% e conseguenti risparmio in termini di spese ospedaliere e per l’assenza dal posto di lavoro. Che le traiettorie delle donne siano più disomogenee «è vero non solo nella realtà quotidiana ma anche metaforicamente – afferma la professoressa –. Abbiamo condotto un’analisi sulle storie delle donne in ambito informatico e ci siamo resi conto che sono contraddistinte da percorsi meno lineari rispetto agli uomini: ad esempio molte studiano in altri settori più “confortevoli” prima di arrivare a quello informatico. L’informatica spesso non è la loro prima scelta perché non si sentono parte di un mondo ancora percepito come prevalentemente maschile e chiuso, una sorta di club per soli ragazzi».

Sottorappresentanza doppiamente allarmante

Per Landoni questa bassa rappresentanza femminile nell’ambito delle tecnologie dell’informazione e della comunicazione (Ict), riscontrabile a partire già dalla scelta di studi – nella facoltà in cui insegna le studentesse sono solo il 17% – è doppiamente allarmante. Da una parte perché se la tendenza non cambia «sarà sempre più difficile riempire i posti di lavoro e trovare competenze giuste per un’industria in piena espansione e in cui già manca personale qualificato. Il pericolo è di non avere abbastanza persone in grado di far funzionare un settore che è ormai alla base dello sviluppo e del benessere della nostra società». D’altro canto, «tenere lontane le donne dalla possibilità di scegliere questo cammino ha un’implicazione molto importante sulla varietà di profili impiegati che resta limitata. In questo modo gli algoritmi continueranno a venir prodotti a senso unico tenendo conto dei bisogni e delle visioni di una limitata porzione della popolazione», dice l’esperta. Il mondo insomma resterà a misura e somiglianza dell’uomo.

Questione di voci

Qualche esempio pratico di quanto questo sia realtà? «Gli smartphone sono troppo grandi per le mani delle donne, che fanno spesso fatica a scrivere con una sola di esse. Mentre l’interazione con gli assistenti vocali è decisamente più complicate per il sesso femminile – testimonia Landoni –: l’agente per la navigazione in auto dà molta più retta a mio marito che non a me. Spesso non mi capisce o mi ignora perché questi dispositivi sono allenati su voci maschili». Quanto poi alle voci degli assistenti vocali «a seconda che quelle loro assegnate siano maschili o femminili si ha una risposta completamente diversa da parte degli utenti. In ambiti come l’educazione la voce femminile è più accettabile e ritenuta normale, in altri invece si imposta a prescindere quella maschile in quanto considerata più autorevole. E anche questo non fa che riprodurre gli stereotipi di sempre».

Preconcetti da scardinare fin dalla più tenera età

Ma come aumentare la presenza di competenze e visioni femminili nel settore informatico? «Anzitutto, se ci fossero più donne arriverebbero più donne perché il fatto di vederlo come un ambiente prettamente maschile limita l’accesso alle persone che non si vedono rappresentate. Essere così in minoranza non fa sentire a proprio agio e porta persino a dubitare di essere all’altezza – premette la professoressa –. Questo avviene perché lo stereotipo di ragazzi bravi in matematica e ragazze brave nelle scienze umane è ancora parecchio forte. Genitori e insegnanti però possono giocare un ruolo importante per scardinarlo fin dalla più tenera età». Ed è proprio in questo solco che tenta di inserirsi il progetto ‘TADAA’ ideato da Landoni e finanziato dal Fondo nazionale svizzero per la ricerca scientifica: «L’intento è di studiare come rendere consapevoli docenti, studenti e le loro famiglie della presenza di stereotipi nel loro pensiero e di come questi ingiustamente limitino le aspirazioni di ragazze e donne a una possibile carriera nell’ambito delle tecnologie dell’informazione e della comunicazione».

Ciò che con ‘TADAA’ Landoni e la sua équipe cercano di fare, lavorando assieme agli insegnanti e ai bambini in età scolare, è «presentare l’informatica come qualcosa alla portata di tutte e tutti – illustra la ricercatrice –. L’idea è di smontare fin da piccoli il preconcetto che l’informatica non sia una materia per le ragazze e di limitare i citati percorsi tortuosi che vediamo spesso nelle colleghe. Al contempo questo dev’essere accompagnato alla responsabilizzazione anche di chi lavora nelle università per creare ambienti che siano accoglienti per le ragazze in modo che non si sentano isolate ed escluse».

Ricchezza e saggezza: non da donne

Nello specifico, «ai bambini proponiamo esperienze positive e divertenti in informatica come la scrittura di alcune righe di codice o altri esperimenti volti anche alla sensibilizzazione. Ad esempio, in una scuola locale abbiamo spiegato ai piccoli alunni come funziona a grandi linee un ‘large language model’ e proposto loro di scegliere degli aggettivi che idealmente li definissero per poi chiedere allo strumento di creare una loro rappresentazione in base ad essi. Quando hanno visto che alla definizione di una persona saggia e ricca corrispondeva sistematicamente solo quella di un uomo di mezza età oppure a quella di una persona coraggiosa e forte solo quella di un ragazzo si sono trovati un po’ contrariati e hanno quindi riflettuto criticamente sul funzionamento di questi strumenti e su chi ne abbia la responsabilità. Questo è rassicurante poiché dimostra la loro comprensione rispetto al fatto che non si tratta di qualcosa di magico o infallibile».

Sviluppare senso critico, agire per una maggiore equità

Un approccio dunque utilizzato per far comprendere ai più piccoli «la logica dello strumento, che se il programma informatico conosce solo gattini rossi quando gli si chiede un gattino grigio ne mostra comunque uno rosso; se conosce solo personaggi illustri al maschile alla richiesta di esperienze e storie illustri ne proporrà solo al maschile. Insomma, se si basa su dati che sono ‘biased’ – prevenuti – restituisce risultati che sono ‘biased’». La speranza, conclude Landoni, «è che bambini e bambine sviluppino il loro senso critico, capiscano come funzionano questi sistemi e quanto possano essere fallibili e ingiusti. Ma anche quante potenzialità gli stessi abbiano per individuare le storture – perché se ben allenati possono fare anche questo – agendo in favore di una maggior equità».