L’informazione e la disinformazione viaggiano a colpi di intelligenza artificiale. Washington ha lanciato un algoritmo per scovare la propaganda russa nei media occidentali. In una guerra è sempre molto difficile capire da che parte stia la verità dato che entrambe le parte fanno propaganda e cercano di controllare l’informazione. Rispetto al passato ora abbiamo un attore in più, l’intelligenza artificiale, che a seconda di come è programmata può cercare e cancellare o segnalare notizie ritenute false o propaganda dai suoi programmatori.
“Washington ha sviluppato un sistema basato sull’intelligenza artificiale per individuare e raccogliere la disinformazione “russa” su Internet”, ha dichiarato il Segretario di Stato americano Antony Blinken alla cerimonia di premiazione annuale di Freedom House 2023.
Il Dipartimento di Stato ha creato “un aggregatore di contenuti ucraini online abilitato dall’intelligenza artificiale per raccogliere la disinformazione russa verificabile e condividerla con i partner di tutto il mondo”, ha dichiarato Blinken. Il governo sta collaborando con alcuni studiosi per essere in grado di “individuare in modo affidabile i testi falsi generati dai chatbot russi”, ha aggiunto.
Lo scorso anno, la società di analisi Graphika e lo Stanford Internet Observatory hanno dichiarato che centinaia di account pro-occidentali sono stati probabilmente gestiti dall’unità Centcom del Pentagono negli ultimi cinque anni.
A marzo, The Intercept ha riportato documenti di contratti federali, suggerendo che il Comando per le operazioni speciali degli Stati Uniti intende condurre campagne di propaganda utilizzando la tecnologia deep fake.
Entrambe le parti in causa usano tutti gli strumenti, anche tecnologici, per sostenere che la guerra che stanno combattendo è giusta.
Parlando di intelligenza artificiale in generale, Blinken ha avvertito che la tecnologia può ritorcersi contro ognuno di noi e “amplificare la discriminazione e consentire abusi”. “Corre anche il rischio di rafforzare i governi autocratici, anche abilitandoli sfruttare i social media in modo ancora più efficace per manipolare le loro persone e seminare divisione tra e all’interno dei loro avversari”, ha detto. “Questi includono il principio secondo cui le persone dovrebbero essere protette da situazioni pericolose e inefficaci AI, e che le persone dovrebbero sapere quando viene utilizzato un sistema automatizzato e capire come li influenza “, ha aggiunto.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: La disinformazione viaggia anche grazie a foto generate con l’AI: l’arresto di Tramp una fake
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it