GPT-3 usato in una infodemia genera molti dubbi sull’uso improprio della tecnologia e sulla disinformazione

“I progressi nei generatori di testo AI e il rilascio di GPT-3 coincidono storicamente con l’attuale infodemia (13), una circolazione di tipo epidemico di notizie false e disinformazione, che, insieme alla pandemia di coronavirus 2019 (COVID-19), è stata molto dannoso per la salute globale. GPT-3 ha il potenziale per generare informazioni, il che solleva preoccupazioni su potenziali usi impropri, come la produzione di disinformazione che può avere effetti devastanti sulla salute globale. Pertanto, è fondamentale valutare in che modo il testo generato da GPT-3 può influenzare la comprensione delle informazioni da parte delle persone”. lo sostiene uno studio dell’Università di Zurigo pubblicato su Science.org.

Per raggiungere i nostri obiettivi, abbiamo chiesto a GPT-3 di scrivere tweet contenenti testi informativi o disinformativi su una serie di argomenti diversi, tra cui vaccini, tecnologia 5G e COVID-19, o la teoria dell’evoluzione, tra gli altri, che sono comunemente soggetti a disinformazione e malinteso pubblico. Abbiamo raccolto una serie di tweet reali scritti dagli utenti sugli stessi argomenti e programmato un sondaggio in cui abbiamo chiesto agli intervistati di classificare se i tweet sintetici selezionati a caso (cioè scritti da GPT-3) e i tweet organici (cioè scritti da umani) fossero vero o falso (ovvero, se contenevano informazioni accurate o disinformazione) e se sono stati scritti da un vero utente di Twitter o da un’intelligenza artificiale.

I risultati del nostro studio preregistrato, che ha coinvolto 697 partecipanti, mostrano che GPT-3 è un’arma a doppio taglio: rispetto agli esseri umani, può produrre informazioni accurate che sono più facili da capire, ma può anche produrre disinformazione più convincente. Mostriamo anche che gli esseri umani non sono in grado di distinguere tra tweet generati da GPT-3 e scritti da veri utenti di Twitter.

Qui lo studio completo: https://www.science.org/doi/10.1126/sciadv.adh1850

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  L’intelligenza artificiale può produrre grandi quantità di disinformazione, Giacomo Miceli su Scientific America

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Related Posts