Manipolazione dei social 3.0. I rischi dell’intelligenza artificiale raccontati in un libro gratuito

Il mondo potrebbe ricordare il 2022 come l’anno dell’intelligenza artificiale generativa (AI): l’anno in cui i modelli linguistici di grandi dimensioni (LLM), come GPT-3 di OpenAI, e i modelli text-to-image, come Stable Diffusion, hanno segnato un cambiamento epocale nel potenziale di manipolazione dei social media. Questo è quello che sostengono gli autori di “L’ascesa dell’intelligenza artificiale generativa e l’imminente era della manipolazione dei social media 3.0 – Astroturfing cinese di prossima generazione e gestione dell’intelligenza artificiale onnipresente”  di William Marcellino, Nathan Beauchamp-Mustafaga, Amanda Kerrigan, Lev Navarre Chao, Jackson Smith

Gli LLM ottimizzati per la conversazione (come ChatGPT) possono generare contenuti di testo naturalistici e dal suono umano su larga scala, mentre i modelli da testo a immagine open source possono generare immagini fotorealistiche di qualsiasi cosa (reale o immaginaria) e possono farlo a scala. Utilizzando la tecnologia esistente, gli avversari statunitensi potrebbero costruire infrastrutture digitali per produrre contenuti realistici ma non autentici (falsi) che potrebbero alimentare personaggi umani online altrettanto realistici ma non autentici: account su Twitter, Reddit o Facebook che sembrano reali ma sono costrutti sintetici, alimentati dall’intelligenza artificiale generativa. e avanzare narrazioni che servono gli interessi di quei governi.

In questa prospettiva, gli autori sostengono che l’emergere di un’intelligenza artificiale generativa potente e onnipresente rappresenta una potenziale minaccia alla sicurezza nazionale in termini di rischio di uso improprio da parte degli avversari statunitensi (in particolare, per la manipolazione dei social media) che il governo degli Stati Uniti e la più ampia tecnologia e politica comunità dovrebbe affrontare in modo proattivo ora. Sebbene gli autori si concentrino sulla Cina e sul suo Esercito popolare di liberazione come esempio illustrativo della potenziale minaccia, una varietà di attori potrebbe utilizzare l’intelligenza artificiale generativa per la manipolazione dei social media, compresi attori non statali tecnicamente sofisticati (sia nazionali che stranieri). Le capacità e le minacce discusse in questa prospettiva sono probabilmente rilevanti anche per altri attori, come Russia e Iran, che si sono già impegnati nella manipolazione dei social media.

Potete scaricare il libro in inglese qui: https://www.rand.org/pubs/perspectives/PEA2679-1.html

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  L’intelligenza artificiale sa creare contenuti sintetici, studi accademici dall’aspetto autorevole, notizie dal suono plausibile, immagini bufale e video deepfake

Può interessarti anche: Dieci esempi di intelligenza artificiale usati per influenzare le elezioni

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Related Posts