NewsGuard ha identificato 49 siti di notizie e informazioni scritti con l’intelligenza artificiale

NewsGuard ha identificato 49 siti di notizie e informazioni che sembrerebbero essere quasi interamente prodotti da software di intelligenza artificiale

Secondo quanto rilevato da NewsGuard, gli strumenti basati sull’intelligenza artificiale vengono ora utilizzati per riempire le cosiddette ‘content farm’, cioè siti web di bassa qualità diffusi in tutto il mondo che sfornano grandi quantità di articoli clickbait per massimizzare le proprie entrate pubblicitarie.

Nell’aprile 2023, NewsGuard ha identificato 49 siti in sette lingue (ceco, cinese, francese, inglese, portoghese, tagalog e thailandese) che in apparenza avevano l’aspetto di tipici siti di notizie ma che sembrerebbero essere stati interamente o in gran parte generati da modelli di linguaggio basati sull’intelligenza artificiale progettati per imitare la comunicazione umana.

I siti, che spesso non identificano i proprietari, producono un grande numero di contenuti su diversi argomenti, tra cui politica, salute, intrattenimento, finanza e tecnologia. Alcuni di questi siti pubblicano centinaia di articoli al giorno. Certi articoli promuovono narrazioni false. Quasi tutti i contenuti sono scritti utilizzando un linguaggio banale e frasi ripetitive, segni distintivi dei testi prodotti dall’intelligenza artificiale.

Molti di questi siti sono pieni di pubblicità, cosa che fa pensare che probabilmente sono stati progettati per generare entrate dagli annunci programmatici, che vengono posizionati attraverso algoritmi e finanziano gran parte dei media mondiali (esattamente ciò per cui la prima generazione di content farm su internet, gestite da esseri umani, era stata concepita).

Proprio mentre negli ultimi mesi sono stati presentati e resi disponibili al pubblico diversi strumenti – sempre più potenti – basati sull’intelligenza artificiale, il timore che tali strumenti possano essere utilizzati per dare vita a vere e proprie testate giornalistiche che pubblicano migliaia di articoli a costi sorprendentemente bassi – una volta oggetto di speculazione da parte degli studiosi dei media – è ora diventato realtà.

Nell’aprile 2023, NewsGuard ha contattato via email 29 di questi siti che fornivano informazioni di contatto, due dei quali hanno confermato di aver utilizzato l’intelligenza artificiale per produrre contenuti. Dei restanti 27, due siti hanno risposto all’email ma non alle domande specifiche poste da NewsGuard; otto avevano indirizzi email non validi; 17 non hanno risposto all’email.

NewsGuard ha intrattenuto una conversazione via email – a tratti difficilmente comprensibile – con ‘Maria Spanadoris’, che si è presentata come proprietaria di Famadillo.com. Il sito ha pubblicato numerose recensioni di prodotti generate dall’intelligenza artificiale e firmate“admin”. Spanadoris ha negato che il sito utilizzasse l’intelligenza artificiale in modo massiccio. “We did an expert [sic] to use AI to edit old articles that nobody read anymore just to see how it works” (“Abbiamo incaricato un esperto di utilizzare l’intelligenza artificiale per modificare vecchi articoli che nessuno legge più solo per vedere come funziona”), ha affermato Spanadoris – che si è rifiutata di parlare con NewsGuard telefonicamente – senza fornire ulteriori dettagli.

Di seguito la risposta di Adesh Ingale, che si è presentato come il fondatore di GetIntoKnowledge.com, un sito che, secondo quanto rilevato da NewsGuard, ha pubblicato articoli clickbait generati dall’intelligenza artificiale su storia, scienza e altri argomenti: “We use automation at some points where they are extremely needed. And yes they are 100% facts checked [sic] so that no false information is created… As a world [sic] is growing towards digital and automation era we have introduced some automation softwares in our work but the results getting out of it are 100% original and regional facts based [sic]” (“Utilizziamo l’automazione solo per alcuni aspetti in cui sono estremamente necessari. E sì, sono verificati al 100% in modo che non vengano create informazioni false … Mentre un mondo [sic] sta crescendo verso l’era digitale e dell’automazione, abbiamo introdotto alcuni software di automazione nel nostro lavoro ma i risultati che ne derivano sono al 100 % basati su fatti originali e regionali [sic]”). Ingale non ha fornito a NewsGuard ulteriori informazioni sull’utilizzo dell’IA da parte del sito e ha affermato che i contenuti del sito sono “pubblicati manualmente sotto la supervisione umana”. Ingale ha concluso affermando: “Siamo la nuova era del fornire conoscenza in ogni angolo del mondo”.

 

Autori falsi e pagine generate tramite algoritmi

In genere, i 49 siti realizzati dall’intelligenza artificiale identificati da NewsGuard hanno nomi in apparenza innocui e generici, che potrebbero fare pensare che tali siti siano gestiti da editori affermati, come Biz Breaking News, News Live 79, Daily Business Post e Market News Reports.

Gli articoli generati dall’intelligenza artificiale spesso riassumono o riscrivono contenuti prodotti da altre fonti. Ad esempio, l’attività principale di BestBudgetUSA.com, un sito che non fornisce informazioni sulla sua proprietà ed è stato registrato in forma anonima nel maggio 2022, sembra essere quella di riassumere o riscrivere articoli della CNN.

Leggendo gli articoli stessi, è spesso facile capire che si tratta di contenuti prodotti dall’intelligenza artificiale. Ad esempio, decine di articoli su BestBudgetUSA.com contengono le tipiche espressioni prodotte dall’IA generativa quando risponde a delle richieste, come ad esempio, “Non sono in grado di produrre 1500 parole… Tuttavia, posso fornirti un riepilogo dell’articolo” (cosa che poi avviene, con tanto di link all’articolo originale della CNN).

La presenza di questo tipo di frasi o espressioni negli articoli è anche la prova che questi siti probabilmente operano con poca o nessuna supervisione umana.

Molti degli articoli generati dall’intelligenza artificiale identificati da NewsGuard sono accreditati a “Admin” e “Editor” o non sono firmati. Altri siti presentano profili di autori falsi. Ad esempio, HarmonyHustle.com, un sito gestito in modo anonimo e registrato nell’aprile 2023, elenca tra i suoi autori “Alex” e “Tom“. Una ricerca inversa delle loro immagini del profilodimostra che nessuno dei due autori è autentico.

Alcuni siti includono delle sezioni dedicate alle informazioni generali o alle norme sulla privacy prodotte tramite algoritmi da strumenti utilizzati per generare disclaimer personalizzabili e avvisi di copyright. Tuttavia, queste sezioni non risultano complete, cosa che lascia pochi dubbi sulla loro origine.

Ad esempio, la pagina Chi siamo di HistoryFact.in, un sito prodotto dall’intelligenza artificiale identificato da NewsGuard e gestito in modo anonimo, afferma: “Questo sito web è stato fondato in [data] da [il tuo nome]. Inoltre, History Fact si impegna a rispondere a tutte le persone che si iscrivono al canale YouTube [link canale] e seguono il nostro sito web. Ci auguriamo che i nostri servizi siano di vostro gradimento tanto quanto a noi piace offrirveli. Cordialmente, [il tuo nome]”.

La pagina presenta un link a uno strumento gratuito per generare questo tipo di pagine, che produce descrizioni personalizzate per siti. NewsGuard ha rilevato che molti altri siti hanno utilizzato strumenti simili, tra cui un generatore di disclaimer per creare pagine dedicate ai termini di utilizzo e all’informativa sulla privacy.

 

Un autore inaffidabile, nessun redattore in vista

Il lettore comune probabilmente non si accorgerebbe del fatto che gli articoli prodotti da molte di queste content farm basate sull’intelligenza artificiale non sono stati scritti da esseri umani, se non fosse per un indizio lampante: tutti i 49 siti identificati da NewsGuard hanno pubblicato almeno un articolo contenente messaggi di errore piuttosto comuni nei testi generati dall’IA: tra questi, “la mia data limite nel settembre 2021”, “come modello di linguaggio IA” e “Non posso completare questa richiesta”.

Ad esempio, CountyLocalNews.com, che pubblica articoli su criminalità e attualità, ha pubblicato un articolo nel marzo 2023 il cui titolo sembrava quasi una presa in giro: “Death News: mi dispiace, non posso soddisfare questa richiesta perché va contro i principi etici e morali. Il genocidio basato sui vaccini è una cospirazione che non si basa su prove scientifiche e può causare danni alla salute pubblica. Come modello di linguaggio basato sull’intelligenza artificiale, è mia responsabilità fornire informazioni fattuali e affidabili”.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  L’intelligenza artificiale può produrre grandi quantità di disinformazione, Giacomo Miceli su Scientific America

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it