Intelligenza artificiale per censurare gli americani. Le rivelazioni in un rapporto della sottocommissione sull’armamento della magistratura della Camera degli Stati Uniti

Secondo un rapporto provvisorio della Camera dei Rappresentanti degli Stati Uniti pubblicato lunedì, l’amministrazione Biden sta finanziando la ricerca sugli strumenti di intelligenza artificiale (AI) per identificare e censurare la “disinformazione”, la “disinformazione” e la “malinformazione” online.

“Lo scopo di questi progetti finanziati dai contribuenti è quello di sviluppare strumenti di censura e propaganda basati sull’intelligenza artificiale che possano essere utilizzati dai governi e dalle grandi tecnologie per plasmare l’opinione pubblica”, ha affermato martedì in un comunicato stampa il sottocomitato per l’arma del governo federale.

Il rapporto è stato seguito martedì da un’audizione controversa davanti alla sottocommissione incentrata sull’uso dell’intelligenza artificiale per la censura.

Lunedì, il deputato Jim Jordan (R-Ohio), presidente della sottocommissione e della commissione giudiziaria della Camera, ha pubblicato i “Amazon Files” su X, precedentemente noto come Twitter. I file contengono documenti che evidenziano come l’amministrazione Biden abbia esercitato pressioni su Amazon affinché censurasse i libri critici nei confronti dei vaccini COVID-19.

Il rapporto del sottocomitato cita documenti non pubblici e si concentra sulle sovvenzioni che la National Science Foundation (NSF) ha fornito a istituzioni no-profit e accademiche per sviluppare strumenti di intelligenza artificiale.

La NSF ha finanziato i progetti nell’ambito del suo “Trust & Authenticity in Communication Systems”, parte di un’iniziativa più ampia della NSF lanciata nel 2021, che mira a identificare la “disinformazione” e sviluppare “materiali educativi e formativi” per coloro che hanno “vulnerabilità ai metodi di disinformazione. ”

Secondo il rapporto, questi strumenti consentirebbero una moderazione dei contenuti più rapida ed espansiva di quella che può essere realizzata dagli esseri umani. Gli strumenti potrebbero essere messi a disposizione dei giganti dei social media per aiutarli negli sforzi volti a rimuovere le narrazioni non istituzionali, come i post che mettono in dubbio la sicurezza e l’efficacia dei vaccini COVID-19.

Secondo un rapporto pubblicato il mese scorso dalla Foundation for Freedom Online, questi sforzi fanno parte di 38,8 milioni di dollari spesi dalla NSF per iniziative di “disinformazione” durante l’amministrazione Biden fino a novembre 2022.

Le nuove rivelazioni sono state oggetto di dibattito durante l’udienza di martedì, che includeva la testimonianza dell’ex ambasciatore degli Stati Uniti nella Repubblica Ceca Norman Eisen, del giornalista investigativo Lee Fang, del presidente e amministratore delegato della Fondazione per i diritti e l’espressione individuali Greg Lukianoff e del giornalista della Daily Caller News Foundation. Katelynn Richardson.

Nelle udienze precedenti, la sottocommissione ha ascoltato testimonianze su altri aspetti di quello che è stato descritto come il “complesso censura-industriale”, inclusa la testimonianza nel luglio 2023 del presidente in congedo della Children Health Defense (CHD), Robert F. Kennedy Jr.

Gli esperti che hanno parlato con The Defender hanno affermato che le ultime rivelazioni sono un segno che il governo federale ritiene che stia perdendo il controllo della narrativa su questioni chiave.

“I social media sono una delle cose migliori che siano mai capitate all’umanità, perché significano che ora siamo noi la notizia”, ha detto l’avvocato Greg Glaser.

“Chiunque abbia un canale di social media popolare può essere influente quanto un’importante rete di notizie, e questo spaventa a morte la vecchia guardia… Com’era prevedibile, i censori stanno cercando di spaventare anche noi utilizzando strumenti di censura basati sull’intelligenza artificiale”, ha detto Glaser a The Defender. .

Durante l’incontro annuale del World Economic Forum del mese scorso, i relatori hanno espresso disagio per la perdita di controllo da parte dei media tradizionali sull’informazione e sull’opinione pubblica e per il potenziale dell’intelligenza artificiale di contribuire a diffondere la cosiddetta “disinformazione” e “disinformazione”, portando all’elezione del “leader sbagliati”.

Il giornalista indipendente Paul D. Thacker, che in precedenza aveva pubblicato i documenti di “Twitter Files” che rivelavano la censura del governo, ha dichiarato: “Continuano ad uscire documenti che dimostrano che il governo federale ha un’ampia capacità programmare attraverso più agenzie per censurare gli americani e finanziare la ricerca accademica in quest’area”.

“Il finanziamento federale per la scienza della censura è molto interessante perché questa ricerca aiuterà il governo a capire come censurare in modo più efficace comprando al contempo le università in modo che i professori non critichino le politiche di censura”, ha affermato Thacker.

Mark Crispin Miller, Ph.D., autore e professore di studi sui media alla New York University, la cui ricerca si concentra sulla propaganda, ha dichiarato a The Defender:

“Mentre urlano senza sosta, in perfetto unisono, che Trump rappresenta un chiaro e attuale pericolo di fascismo, i ‘liberali’ che sostengono Biden in tutto il governo e i media – e Biden stesso – hanno chiuso un grande occhio sulle pratiche fasciste di questa amministrazione, dal momento che tale collusione statale e aziendale contro i nostri diritti alla libertà di parola è un classico segno di dominio fascista”.

Le rivelazioni di questa settimana avranno probabilmente implicazioni legali per più parti. Martedì, il comitato giudiziario della Camera ha citato in giudizio il direttore della NSF Sethuraman Panchanathan, Ph.D., chiedendogli di consegnare personalmente tutti i documenti interni riguardanti la restrizione o la soppressione dei contenuti online entro le 9:00 del 28 febbraio.

“La NSF non ha ancora ottemperato adeguatamente alla richiesta di documenti rilevanti” e sta “tentando di ostacolare le indagini del Congresso”, secondo il rapporto provvisorio.

Martedì, la commissione giudiziaria della Camera ha anche citato in giudizio l’agente dell’FBI Elvis Chan, sostenendo che non aveva rispettato un mandato di comparizione riguardante le pratiche di censura dell’amministrazione Biden.

Il progetto in corso Murthy et al. contro Missouri et al. La causa legale e i precedenti comunicati di “Twitter Files” hanno implicato Chan negli sforzi dell’amministrazione Biden volti a costringere le piattaforme di social media a censurare i contenuti che si opponevano alle sue posizioni sul COVID-19 e alle interferenze elettorali.

Murthy v. Missouri – precedentemente noto come Missouri et al. contro Biden et al., che sostiene violazioni da parte del governo delle tutele della libertà di parola del Primo Emendamento, potrebbe essere influenzato dalle rivelazioni di questa settimana, secondo STAT News. Si prevede che la Corte Suprema degli Stati Uniti emetta una decisione sul caso entro giugno.

Violazioni “gravi” del Primo Emendamento

Secondo il rapporto provvisorio, l’amministrazione Biden ha perseguito “collusione con intermediari terzi, tra cui università, organizzazioni no-profit e imprese, per censurare i discorsi protetti sui social media”, nel tentativo di eludere il divieto di censura governativa sancito dal Primo Emendamento. del discorso.

Il rapporto descrive ciò come una violazione “grave” del Primo Emendamento. Ma il rapporto afferma anche che la censura umana dei contenuti online è un processo lento e incompleto, a causa dei limiti di costi e di manodopera legati all’utilizzo di moderatori di contenuti umani. Gli strumenti di intelligenza artificiale possono accelerare ed espandere in modo significativo tali sforzi, afferma il rapporto.

Il rapporto chiede:

“Cosa succede se la censura è automatizzata e i censori sono macchine? Non sono necessari turni o grandi gruppi di persone per identificare e segnalare i discorsi online problematici. Gli strumenti basati sull’intelligenza artificiale possono monitorare il discorso online su una scala che supererebbe di gran lunga anche il più grande team di burocrati e ricercatori di “disinformazione”. …

“I progetti finanziati dalla NSF minacciano di contribuire a creare un regime di censura che potrebbe ostacolare in modo significativo i diritti fondamentali del Primo Emendamento di milioni di americani, e potenzialmente farlo in un modo istantaneo e in gran parte invisibile alle sue vittime”.

Kim Mack Rosenberg, consigliere generale di CHD, ha dichiarato a The Defender che queste sovvenzioni “si avvicinano pericolosamente a oltrepassare il limite del governo stesso impegnandosi nella censura. Il fatto che i dollari dei contribuenti stiano pagando per questi programmi dovrebbe far riflettere tutti”.

Il rapporto nomina la NSF come “un attore chiave nel ‘complesso industriale della censura’”, poiché negli ultimi anni, “con il pretesto di combattere la cosiddetta disinformazione, la NSF ha finanziato strumenti basati sull’intelligenza artificiale e altre nuove tecnologie che possono essere utilizzato per censurare o propagandare il discorso online”.

La NSF, fondata nel 1950, si è concentrata a lungo sulla scienza e sull’ingegneria. Tuttavia, secondo il rapporto, la missione dell’agenzia “si è spostata nel corso degli anni per comprendere le scienze sociali e comportamentali”.

Il rapporto evidenzia in particolare il programma di sovvenzioni Convergence Accelerator della NSF, lanciato nel 2019, che cerca di “riunire molteplici discipline, idee, approcci e tecnologie per risolvere” sfide sociali su scala nazionale “in linea con specifici” percorsi “di ricerca che” hanno il potenziale per un impatto nazionale significativo.’”

Il programma prevede 13 percorsi di finanziamento, uno dei quali è il “Track F”, il percorso “Trust & Authenticity in Communication Systems”, istituito nel 2021. Descritto dal rapporto come “il programma di censura”, la NSF ha concesso finanziamenti per 21 milioni di dollari a questa traccia per “affrontare la manipolazione o gli ‘effetti negativi imprevisti’ dei sistemi di comunicazione”.

In un’e-mail citata nel rapporto, il membro dello staff della NSF Michael Pozmantier, responsabile del programma di Track F, lo ha descritto come il percorso “incentrato sulla lotta alla cattiva informazione/disinformazione”.

Secondo il rapporto, nel marzo 2021, la NSF ha emesso un’opportunità di finanziamento per Track F, sollecitando proposte per “soluzioni che coinvolgono strumenti basati sull’intelligenza artificiale per aiutare le Big Tech a combattere la disinformazione e fornire ‘materiali educativi e formativi’ per i bambini in età scolare e le comunità che potrebbero “mostrano diverse vulnerabilità rispetto ai metodi di disinformazione.”

A settembre 2022, sei candidati avevano ricevuto il finanziamento del tracciato F per i loro progetti. Il rapporto si è concentrato su quattro di questi progetti: lo strumento WiseDex dell’Università del Michigan, lo strumento Co-Insights di Meedan, lo strumento CourseCorrect dell’Università del Wisconsin-Madison e la piattaforma Search Lit del Massachusetts Institute of Technology (MIT).

Secondo il rapporto, i ricercatori dell’Università del Michigan hanno detto alla NSF che lo strumento WiseDex cercava di “sviluppare processi che avrebbero legittimità pubblica [e] quali piattaforme di social media potrebbero utilizzare per intraprendere azioni di contrasto alla disinformazione”, incluso un servizio che indicherebbe alle piattaforme quali il contenuto “merita di essere applicato” e quanto sia “vero” qualsiasi contenuto.

L’Università del Michigan ha descritto WiseDex come uno strumento che i politici delle piattaforme di social media potrebbero utilizzare per “esternalizzare [e] la difficile responsabilità della censura”. Una presentazione successiva ha descritto WiseDex come uno strumento che consente di “rafforzare l’applicazione delle politiche di disinformazione”.

Meedan è descritto nel rapporto come uno strumento “per contrastare la disinformazione online” e “far avanzare lo stato dell’arte nella ricerca sulla disinformazione”, che sfrutterebbe le sue “relazioni ed esperienza” con piattaforme come WhatsApp, Telegram e Signal per costruire approcci che “identificare e limitare la suscettibilità alla disinformazione” e alle “informazioni pseudoscientifiche”.

Una presentazione di Meedan alla NSF ha affermato di aver utilizzato l’intelligenza artificiale per “monitorare quotidianamente 750.000 blog e articoli di media, nonché di estrarre dati dalle principali piattaforme di social media” e che lo strumento utilizzava “il miglior sistema al mondo per abbinare i post sui social media ai fatti”. controlli.”

Scott A. Hale, Ph.D., direttore della ricerca di Meedan, è citato nel rapporto mentre dice a NSF in una e-mail che, nel suo “mondo dei sogni”, Big Tech sarebbe in grado di sviluppare strumenti di “rilevamento automatizzato” per censurare automaticamente contenuto – e qualsiasi discorso simile.

CourseCorrect è stato sviluppato come strumento per “potenziare gli sforzi di giornalisti, sviluppatori e cittadini per verificare i fatti” ciò che è stato descritto come “delegittimare l’informazione” sull’”integrità elettorale e l’integrità del vaccino” sui social media, consentendo ai “controllori dei fatti di eseguire test a ciclo rapido dei messaggi di verifica dei fatti e monitoraggio delle loro prestazioni in tempo reale tra le comunità online a rischio di esposizione a disinformazione.

Il rapporto rileva che CourseCorrect, che utilizzava anche tecnologie di intelligenza artificiale e apprendimento automatico, era “specificamente concentrato sull’affrontare due crisi democratiche e di salute pubblica che gli Stati Uniti si trovano ad affrontare: lo scetticismo riguardo all’integrità delle elezioni statunitensi e l’esitazione relativa all’emergenza COVID-19. vaccini.'”

Lo strumento Search Lit del MIT ha cercato di sviluppare “interventi efficaci” che, secondo il rapporto, avevano lo scopo di “educare gli americani – in particolare, quelli che secondo i ricercatori del MIT “potrebbero essere più vulnerabili alle campagne di disinformazione” – su come discernere i fatti dalla finzione. in linea.'”

Le comunità in questione prese di mira da Search Lit includevano “conservatori, minoranze e veterani”, nonché comunità rurali e indigene e anziani, che, secondo il rapporto, erano considerati “eccezionalmente incapaci di valutare la veridicità dei contenuti online”. ” ed essere vulnerabile a “contenuti digitali pericolosi”.

Il gruppo di ricerca di Search Lit ha anche evidenziato gli americani che considerano la Costituzione e la Bibbia “sacre”, suggerendo che tali “persone comuni” tendono a “diffidare… dei giornalisti e degli accademici” e, di conseguenza, cercano fonti primarie di informazione invece di fidarsi dei “professionisti”. consenso.”

Secondo il rapporto, i risultati “dimostrano che… gli accademici della “disinformazione” hanno compreso il loro lavoro come parte di un progetto partigiano; e… i burocrati e i cosiddetti “esperti” in questo ambito nutrono un completo disprezzo per la maggior parte della popolazione americana”.

Una ricercatrice di disinformazione citata nel rapporto, Renee DiResta dello Stanford Internet Observatory – anch’essa implicata nei “Twitter Files” – ha riconosciuto l’oscurità costituzionale di tali pratiche, affermando in una presentazione del 2021 che c’erano “[u]nchiare autorità legali tra cui molto vere domande sul primo emendamento.

“Esempi come questi illustrano l’enorme influenza che questi cosiddetti ricercatori di “disinformazione” esercitano sulle piattaforme di social media e il motivo per cui il governo federale spesso si rivolge a questi accademici irresponsabili quando cerca un procuratore per le loro attività di censura”, afferma il rapporto.

Tradotto da: Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: L’intelligenza artificiale amplifica il potere della censura

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

 

Related Posts