Aumentare la trasparenza sui modelli di intelligenza artificiale per rendere Internet più libero, il Mit di Boston

Ci sono “tre cose fondamentali che secondo loro le aziende tecnologiche e i legislatori dovrebbero fare per rendere Internet più libero:

Aumentare la trasparenza sui modelli di intelligenza artificiale
Una delle principali raccomandazioni di Freedom House è quella di incoraggiare una maggiore divulgazione pubblica di come sono stati costruiti i modelli di intelligenza artificiale. I modelli linguistici di grandi dimensioni come ChatGPT sono notoriamente imperscrutabili (dovresti leggere il lavoro dei miei colleghi su questo argomento) e le aziende che sviluppano gli algoritmi si sono opposte alla divulgazione di informazioni su quali dati hanno utilizzato per addestrare i loro modelli.

“La regolamentazione governativa dovrebbe mirare a garantire maggiore trasparenza, fornire meccanismi efficaci di controllo pubblico e dare priorità alla protezione dei diritti umani”, afferma il rapporto.

Mentre i governi fanno a gara per tenere il passo in uno spazio in rapida evoluzione, una legislazione completa potrebbe essere fuori portata. Ma le proposte che impongono requisiti più ristretti – come la divulgazione dei dati di formazione e test standardizzati per individuare le distorsioni nei risultati – potrebbero trovare la loro strada verso politiche più mirate. (Se sei curioso di sapere di più su cosa potrebbero fare gli Stati Uniti in particolare per regolamentare l’intelligenza artificiale, ho trattato anche quello.)

Quando si tratta di libertà di Internet, una maggiore trasparenza aiuterebbe anche le persone a riconoscere meglio quando vedono contenuti online sponsorizzati dallo stato, come in Cina, dove il governo richiede che i contenuti creati da modelli di intelligenza artificiale generativa siano favorevoli al Partito Comunista.

Sii cauto quando usi l’intelligenza artificiale per scansionare e filtrare i contenuti
Le società di social media utilizzano sempre più algoritmi per moderare ciò che appare sulle loro piattaforme. Se da un lato la moderazione automatica aiuta a contrastare la disinformazione, dall’altro rischia anche di danneggiare l’espressione online.

“Mentre le aziende dovrebbero considerare il modo in cui le loro piattaforme e i loro prodotti sono progettati, sviluppati e distribuiti in modo da non esacerbare le campagne di disinformazione sponsorizzate dallo stato, devono essere vigili per preservare i diritti umani, vale a dire la libertà di espressione e associazione online”, afferma Mallory. Knodel, responsabile tecnologico del Center for Democracy and Technology.

Inoltre, Knodel afferma che quando i governi richiedono alle piattaforme di scansionare e filtrare i contenuti, ciò spesso porta ad algoritmi che bloccano ancora più contenuti del previsto.

Come parte della soluzione, Knodel ritiene che le aziende tecnologiche dovrebbero trovare modi per “migliorare le funzionalità human-in-the-loop”, in cui le persone hanno ruoli pratici nella moderazione dei contenuti e “affidarsi all’agenzia degli utenti per bloccare e segnalare la disinformazione”. .”

Sviluppare modi per etichettare meglio i contenuti generati dall’intelligenza artificiale, in particolare quelli relativi alle elezioni
Attualmente, etichettare immagini, video e audio generati dall’intelligenza artificiale è incredibilmente difficile. (Ho scritto qualcosa su questo argomento in passato, in particolare sui modi in cui i tecnologi stanno cercando di fare progressi sul fronte professionale). Ma qui non esiste un gold standard, quindi i contenuti fuorvianti, soprattutto in ambito elettorale, hanno il potenziale per causare gravi danni.

Allie Funk, una delle ricercatrici del rapporto Freedom House, mi ha raccontato di un esempio in Nigeria di un clip audio manipolato dall’intelligenza artificiale in cui si poteva sentire il candidato presidenziale Atiku Abubakar e il suo team dire che avevano intenzione di truccare le schede elettorali. La Nigeria ha una storia di conflitti legati alle elezioni e Funk afferma che una disinformazione come questa “minaccia davvero di infiammare potenziali disordini latenti” e di creare “impatti disastrosi”.

L’audio manipolato dall’intelligenza artificiale è particolarmente difficile da rilevare. Funk afferma che questo esempio è solo uno tra i tanti riportati dal gruppo e che “parla della necessità di tutta una serie di diversi tipi di etichettatura”. Anche se non potrà essere pronto in tempo per le elezioni del prossimo anno, è fondamentale iniziare a capirlo adesso”.

Tratto da: https://www.technologyreview.com/2023/10/09/1081215/how-to-fight-for-internet-freedom/

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime notizie su www.presskit.it

Può interessarti anche: L’intelligenza artificiale sa creare contenuti sintetici, studi accademici dall’aspetto autorevole, notizie dal suono plausibile, immagini bufale e video deepfake

Può interessarti anche: Il Tony Blair Institute chiede di etichettare come deepfake i contenuti creati con l’intelligenza artificiale

Può interessarti anche: Intelligenza artificiale: se tutto è manipolabile non possiamo più credere a nulla di ciò che vediamo o sentiamo

Seguici su Facebook https://www.facebook.com/presskit.it

Seguici su Sfero: https://sfero.me/users/presskit-quotidiano-on-line

Seguici su Telegram https://t.me/presskit

Related Posts