Nell’era dell’innovazione tecnologica, si tende a considerare l’intelligenza artificiale come qualcosa di oggettivo, neutrale, imparziale. Ma dietro al codice, ai dati, agli algoritmi, si nasconde una realtà ben più umana: l’IA impara da ciò che osserva, e se il mondo che osserva è squilibrato, anche le sue risposte lo saranno.
A dirlo con chiarezza è Gaia Contu, dottoranda in etica della robotica alla Scuola Superiore Sant’Anna di Pisa, che ha portato l’attenzione su un nodo cruciale: la differenza tra uomini e donne nella scienza e nella tecnologia non è solo un problema di rappresentanza, ma ha effetti diretti sulla qualità dei sistemi che costruiamo. Quando i dati usati per “allenare” un’intelligenza artificiale rispecchiano un mondo in cui le donne sono sottorappresentate in certi ruoli, marginalizzate in alcune attività o addirittura ignorate in certi contesti, l’algoritmo assimila questa distorsione come se fosse una regola.
I bias – cioè i pregiudizi impliciti – non nascono nella macchina, ma nei dati che le vengono forniti. Se nei dataset utilizzati per selezionare candidati al lavoro compaiono soprattutto uomini in posizioni dirigenziali, l’IA “impara” che un uomo è il profilo ideale. Se negli archivi medici i test farmacologici sono condotti prevalentemente su uomini, le diagnosi automatizzate saranno meno efficaci per le donne. E se nei testi online c’è una sistematica associazione tra il genere femminile e ruoli subordinati o stereotipati, l’algoritmo non farà altro che riproporli, amplificando il divario.
“La questione di genere – ha spiegato Contu – non la inseriamo nel dibattito sull’intelligenza artificiale per una questione etica o sociale, ma perché condiziona la parte tecnologica dei processi. E quindi va presidiata e studiata”. È un cambio di paradigma importante: non si tratta solo di garantire equità, ma di migliorare le prestazioni dell’IA, di renderla più affidabile, più precisa, più adatta a interpretare la complessità del reale.
Questa consapevolezza è particolarmente urgente in un momento in cui l’IA viene integrata in settori decisivi come la sanità, il lavoro, l’istruzione, la giustizia. Se lasciata senza controllo, l’intelligenza artificiale può non solo replicare i pregiudizi di genere, ma rafforzarli, renderli sistematici, invisibili e quindi più difficili da smascherare. Perché un algoritmo non ha intenzioni, ma ha effetti. E se non viene progettato con attenzione, può trasformarsi in un potente strumento di discriminazione.
Contu ha inoltre accennato alle frontiere della robotica nel campo della cura, in particolare degli anziani, e alla necessità di umanizzare le interazioni con le macchine. Anche in questo caso, la sfida è introdurre nei dispositivi tecnologici elementi come la gentilezza, l’empatia, la bellezza – caratteristiche che storicamente sono state associate a ruoli “femminili” e quindi poco considerate nella progettazione ingegneristica. Ma è proprio da qui che può passare un cambiamento radicale: ripensare l’innovazione non come pura potenza funzionale, ma come strumento relazionale, sensibile, inclusivo.
Se l’intelligenza artificiale sarà davvero intelligente, dipenderà da quanto saprà riconoscere e correggere i limiti che eredita da noi. E tra questi, la questione di genere è forse uno dei più profondi e strutturali. Perché la neutralità non è l’assenza di differenze, ma la capacità di comprenderle e integrarle.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: L’AI act non affronta il il “rischio insito nel sistema stesso”, le allucinazioni, i bias, Matteo Flora, “abbiamo l’evidenza matematica che è impossibile generare degli LLM, che non allucinano”
Può interessarti anche: Gli algoritmi al 90% sono addestrati in lingua inglese ,vengono tradotti e questo porta bias, ma anche valori e riferimenti culturali ed antropologici di un’altra lingua, un altro popolo
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Seguici su X: https://x.com/Presskit_
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.