Intelligenza artificiale e controllo della disinformazione: “si sta creando un paradosso: rischiamo di introdurre all’interno di modelli buoni delle forme di bias che in realtà vanno a tarpare le ali a tutto ciò che non è necessariamente offensivo o malevolo”

Con l’intelligenza artificiale “si sta creando un po’ un paradosso, perché rischiamo di introdurre all’interno di questi modelli buoni delle forme di bias che in realtà vanno a tarpare le ali a tutto ciò che non è necessariamente offensivo o malevolo”, denuncia l’avv. Lucia Maggi, foro di Milano, durante l’incontro “AI e manomissioni delle informazioni, discriminazioni, fake news e rischi per la democrazia”, organizzato dall’ordine degli avvocati di Milano.

“Vi faccio un esempio: ci sono degli strumenti, la comunità scientifica definisce degli strumenti basati su intelligenza artificiale, per esempio, per riconoscere quei meme che possono essere misogini, quindi che hanno spunti violenti contro le donne. Per riuscire a riconoscere questi meme misogini, dobbiamo allenare la macchina a riconoscerli, quindi a imparare da questo.

Qual è il rischio? Che, ad esempio, avendo dei meccanismi che imparano in modo non opportuno o utilizzando dei dati particolarmente sbilanciati, si rischia l’effetto contrario e quindi magari di etichettare un meme, un testo, o un video che in realtà non è misogino, ma che l’algoritmo identifica come tale. E qui si crea un po’ il paradosso.

Quindi, come dobbiamo definire la bilancia?

Da una parte, vogliamo algoritmi di intelligenza artificiale che siano accurati nel riconoscere questi contenuti discriminatori, offensivi, eccetera. Dall’altra parte, però, per riuscire a riconoscerli, rischiamo di introdurre dei bias, e quindi la domanda che bisogna porsi è: abbiamo questi strumenti, da una parte li dobbiamo alimentare anche in forma benevola, dall’altra parte, per alimentarli anche in forma benevola, qualche bias, volenti o nolenti, lo introduciamo. Qual è il punto di equilibrio?

E la domanda è: qual è il rischio per l’uomo, qual è il rischio tollerabile per l’uomo di questi strumenti?

Quindi cosa prediligo? L’accuratezza nell’identificare un contenuto offensivo, violento, contro un bersaglio o il bias che rischio di introdurre perché, per riconoscere quel fenomeno, devo insegnargli un pochino di più che cos’è quel fenomeno, ad esempio, violento e offensivo? Bisogna cercare questo punto di equilibrio che ancora oggi stiamo cercando”.

Come sempre trovare l’equilibrio è la cosa più difficile in assoluto in tutti i campi.

Fonte

e opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: Armi autonome e problemi legati agli errori dell’IA, inclusi i bias. I rischi spiegati nel rapporto Public Citizen

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts