L’intelligenza artificiale è ovunque, da ChatGPT che scrive i tuoi compiti universitari fino agli algoritmi che ti suggeriscono cosa guardare su Netflix. Ma c’è un lato oscuro, un po’ meno “futuristico” e molto più “vecchio stampo”: l’AI ha un problema di genere. Non è neutrale né imparziale, ma tende a riflettere e, spesso, ad amplificare i pregiudizi che esistono già nella nostra società. In poche parole, l’AI pensa ancora in modo maschilista.
Te ne accorgi quando l’IA usa il maschile come standard o quando associa le donne a ruoli domestici e gli uomini a posizioni di potere. È un problema concreto, di cui si parla anche nel libro di Laura Venturini, “Prompt Mindset“.
Il gender gap nell’AI non è solo una questione etica, ma ha un impatto pratico, per esempio nel recruiting. Come spiegato da Paolo Lupi e Antonio Perrucci nel loro libro “Intelligenza artificiale e mercato del lavoro“, se un algoritmo viene “allenato” con un dataset di profili IT prevalentemente maschili, indovina un po’? Continuerà a preferire candidati uomini, perpetuando una discriminazione che sembrava superata.
La sfida: aggiustare l’algoritmo (e la realtà)
Allora, che si fa? Butti via tutto e torni all’età della pietra? Ovviamente no. La soluzione, come spiega la professoressa Daniela Giordano dell’Università di Catania, è intervenire. Il modo migliore è agire sulla qualità dei dati con cui l’IA viene addestrata.
Oggi, i modelli di AI generativa hanno “divorato” l’intero web: libri, articoli, Wikipedia e tutto il resto. Se questi contenuti sono tossici o “sbilanciati” (tipo la rappresentazione delle donne in posizioni subalterne), il risultato finale sarà altrettanto sbilanciato. La risposta è semplice, ma complessa da attuare: pulire e bilanciare i dati a monte, assicurandosi che ogni “classe” (in questo caso, i generi) sia rappresentata in modo equo.
Il “diritto all’oblio” per gli algoritmi (e non solo)
La professoressa Giordano, che ha un passato da “cervello in fuga” e ha lavorato con le prime forme di intelligenza artificiale già nel secolo scorso, ci spiega che esistono anche tecniche “ex post” per sistemare le cose.
Una di queste è l’unlearning, che letteralmente fa “disimparare” all’algoritmo quello che ha appreso. Questa tecnica è utile sia per ridurre i bias, sia per proteggere la nostra privacy. Sai che, grazie all’AI Act europeo, hai il diritto di chiedere all’AI di “dimenticare” i tuoi dati?
Un altro metodo è usare dei filtri a posteriori. L’algoritmo genera una risposta, ma poi un filtro (spesso basato su feedback umani) la valuta e la corregge. Questo è fondamentale per garantire che l’AI sia allineata ai nostri valori e, soprattutto, che sia sicura. Non vuoi mica che un’IA ti insegni a costruire una bomba, no?
Un problema non solo tecnologico, ma culturale
Ma come siamo arrivati a questo punto? Il problema è che l’AI non nasce in una bolla. Riflette la società che la crea, e nella società le cose non sono ancora a posto. Le donne sono ancora una minoranza nel settore tech: solo il 22% a livello globale, e ancora meno in posizioni di leadership.
Laura Venturini, che ha un background da filologa e ora è una stratega digitale, crede che la soluzione sia la consapevolezza. Il problema non si risolve solo con la presenza femminile, ma con l’educazione di tutti, anche degli uomini, sui rischi e i pregiudizi degli algoritmi.
Come sottolinea il filosofo Luciano Floridi, non basta la buona volontà delle aziende. Serve un vero e proprio cambiamento culturale. I numeri che vediamo nell’AI non sono solo statistiche, ma sono lo specchio di problemi profondi che la nostra società deve ancora risolvere. Dopotutto, se vogliamo algoritmi più giusti, dobbiamo prima di tutto creare una realtà più giusta.
L’articolo L’Intelligenza Artificiale ha un problema di genere (e perché dovremmo farci caso) proviene da CorriereNerd.it.
Aggiungi un commento