Uno studio dell’UNESCO ha rivelato tendenze preoccupanti nei modelli Large Language (LLM) a produrre pregiudizi di genere, nonché omofobia e stereotipi razziali. Le donne venivano descritte come lavoratrici domestiche molto più spesso degli uomini – quattro volte più spesso secondo un modello – ed erano spesso associate a parole come “casa”, “famiglia” e “bambini”, mentre i nomi maschili erano collegati a “affari”. ”, “dirigente”, “stipendio” e “carriera”.
Lo studio Bias Against Women and Girls in Large Language Models esamina gli stereotipi nei Large Language Models (LLM) – strumenti di elaborazione del linguaggio naturale che sono alla base delle popolari piattaforme di intelligenza artificiale generativa – tra cui GPT-3.5 e GPT-2 di OpenAI e Llama 2 di META. Mostra prove inequivocabili di pregiudizi contro le donne nei contenuti generati da ciascuno di questi grandi modelli linguistici.
Ogni giorno sempre più persone utilizzano modelli linguistici di grandi dimensioni nel lavoro, nello studio e a casa. Queste nuove applicazioni di intelligenza artificiale hanno il potere di modellare in modo sottile le percezioni di milioni di persone, quindi anche piccoli pregiudizi di genere nei loro contenuti possono amplificare in modo significativo le disuguaglianze nel mondo reale. La nostra Organizzazione chiede ai governi di sviluppare e applicare quadri normativi chiari e alle aziende private di effettuare un monitoraggio e una valutazione continui dei pregiudizi sistemici, come stabilito nella Raccomandazione dell’UNESCO sull’etica dell’intelligenza artificiale, adottata all’unanimità dai nostri Stati membri a novembre 2021.
I LLM open source come Llama 2 e GPT-2 – apprezzati perché gratuiti e accessibili a un vasto pubblico – hanno mostrato i pregiudizi di genere più significativi. Tuttavia, lo studio conclude anche che la loro natura aperta e trasparente può rappresentare un forte vantaggio nell’affrontare e mitigare questi pregiudizi attraverso una maggiore collaborazione all’interno della comunità di ricerca globale, rispetto a modelli più chiusi, che includono GPT 3.5 e 4 (la base per ChatGPT). e Gemelli di Google.
Narrazioni più ricche nelle storie sugli uomini
Parte dello studio ha misurato la diversità dei contenuti nei testi generati dall’intelligenza artificiale focalizzati su una vasta gamma di persone attraverso uno spettro di generi, sessualità e background culturali, anche chiedendo alle piattaforme di “scrivere una storia” su ciascuna persona. I LLM open source, in particolare, tendevano ad assegnare lavori più diversificati e di alto livello agli uomini, come ingegnere, insegnante e medico, relegando spesso le donne a ruoli tradizionalmente sottovalutati o socialmente stigmatizzati, come “domestici”. cuoco” e “prostituta”.
Llama 2 ha generato storie su ragazzi e uomini dominate dalle parole “tesoro”, “bosco”, “mare”, “avventuroso”, “deciso” e “trovato”, mentre le storie sulle donne facevano l’uso più frequente delle parole “giardino”. ”, “amore”, “sentito”, “gentile”, “capelli” e “marito”. È stato anche descritto che le donne lavorano in ruoli domestici quattro volte più spesso degli uomini nei contenuti prodotti da Llama.
Atteggiamenti omofobici e stereotipi razziali
Gli studi hanno inoltre evidenziato che i LLM avevano la tendenza a produrre contenuti negativi nei confronti delle persone gay e di particolari gruppi etnici. Quando ai tre modelli di intelligenza artificiale è stato chiesto di completare frasi che iniziavano con la frase “una persona gay è…”, il 70% del contenuto generato da Llama 2 era negativo. Gli esempi includono: “La persona gay era considerata la più bassa nella gerarchia sociale”. Il 60% dei contenuti generati da GPT-2 erano negativi, comprese le frasi “La persona gay era considerata una prostituta, un criminale e non aveva diritti”.
Quando ai LLM è stato chiesto di generare testi su diverse etnie – prendendo l’esempio di uomini e donne britannici e zulu – si è scoperto che mostravano alti livelli di pregiudizi culturali. Agli uomini britannici venivano assegnate varie occupazioni, tra cui “autista”, “dottore”, “impiegato di banca” e “insegnante”. Agli uomini Zulu era più probabile che venissero assegnate le occupazioni di “giardiniere” e “guardia di sicurezza”. Il 20% dei testi sulle donne Zulu assegna loro ruoli di “domestiche”, “cuoche e “governanti”.
La Raccomandazione dell’UNESCO deve essere attuata con urgenza
Nel novembre 2021, gli Stati membri dell’UNESCO hanno adottato all’unanimità la Raccomandazione sull’etica dell’IA, il primo e unico quadro normativo globale in questo campo. Nel febbraio 2024, anche 8 aziende tecnologiche globali, tra cui Microsoft, hanno approvato la raccomandazione. I quadri richiedono azioni specifiche per garantire l’uguaglianza di genere nella progettazione degli strumenti di intelligenza artificiale, compresi fondi riservati per finanziare programmi di parità di genere nelle aziende, incentivare finanziariamente l’imprenditorialità femminile e investire in programmi mirati per aumentare le opportunità delle ragazze e delle donne. partecipazione alle discipline STEM e ICT.
La lotta agli stereotipi passa anche attraverso la diversificazione delle assunzioni nelle imprese. Secondo i dati più recenti, le donne rappresentano solo il 20% dei dipendenti in ruoli tecnici nelle principali aziende di machine learning, il 12% dei ricercatori di intelligenza artificiale e il 6% degli sviluppatori di software professionali. È evidente anche la disparità di genere tra gli autori che pubblicano nel campo dell’intelligenza artificiale. Gli studi hanno rilevato che solo il 18% degli autori delle principali conferenze sull’intelligenza artificiale sono donne e oltre l’80% dei professori di intelligenza artificiale sono uomini. Se i sistemi non vengono sviluppati da team diversi, sarà meno probabile che soddisfino le esigenze di utenti diversi o addirittura proteggano i loro diritti umani.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: ChatGPT tende ad assecondarci anche per questo “spara fandonie”, la spiegazione di Padre Benati
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.