“Uno dei problemi degli algoritmi è che al 90% sono addestrati in lingua inglese”, spiega Nunzia Ciardi, vicedirettrice dell’Agenzia per la Cyber Sicurezza Nazionale, è stata per anni a capo della polizia postale.
“Gli output sono degli output che in qualche modo traducono. Quando noi interrogiamo un’intelligenza artificiale in italiano, poi abbiamo una risposta in italiano, ma tutto questo passa attraverso un processo di elaborazione dei dati in un’altra lingua e la lingua, credo che sia abbastanza elementare da dire, porta con sé una serie di valori, di espressioni, di riferimenti culturali, di riferimenti antropologici.
Quindi otteniamo delle risposte, ma anche dei bias cognitivi, oltre al fatto che i dati portano con sé dei bias.
Pensiamo che ancora adesso ChatGPT4, interrogata su un insegnante, ha risposto automaticamente con ‘she’, il genere femminile di default.
Questo già dà l’idea di quali bias cognitivi si portano dietro i dati e quindi abbiamo degli output che hanno assorbito quei bias cognitivi. La lingua è uno di questi.”
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Il futuro del giornalismo con l’intelligenza artificiale: scriverà notizie e le presenterà ai moderatori AI di Deep Fake News
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.