E’ successo su The Guardian. L’articolo dal titolo “l’uccisione di una giovane donna nella scuola di Sydney mette in luce il problema della violenza maschile in Australia” è stato accompagnato da un sondaggio, poi rimosso, generato dall’intelligenza artificiale. Sondaggio che secondo l’editore ha causato“danni significativi alla reputazione” del giornale.
Il servizio di aggregazione di notizie di Microsoft ha pubblicato il sondaggio automatizzato accanto a un articolo del Guardian sulla morte di Lilie James, un’allenatrice di pallanuoto di 21 anni trovata morta con gravi ferite alla testa in una scuola di Sydney la scorsa settimana.
Il sondaggio, creato da un programma di intelligenza artificiale, chiedeva: “Quale pensi sia il motivo della morte della donna?” Ai lettori è stato quindi chiesto di scegliere tra tre opzioni: omicidio, incidente o suicidio.
I lettori hanno reagito con rabbia al sondaggio, che è stato successivamente rimosso. Un lettore ha detto che uno dei reporter del Guardian citati nell’articolo adiacente, che non aveva nulla a che fare con il sondaggio, dovrebbe essere licenziato. Un altro ha scritto: “Questo deve essere il sondaggio più patetico e disgustoso che abbia mai visto”.
“Si tratta chiaramente di un uso inappropriato di genAI [IA generativa] da parte di Microsoft su una storia di interesse pubblico potenzialmente angosciante, originariamente scritta e pubblicata dai giornalisti del Guardian”, ha scritto l’amministratore delegato del Guardian Media Group, Anna Bateson.
Bateson ha aggiunto di aver dimostrato “il ruolo importante che un forte quadro di copyright svolge nel consentire agli editori di essere in grado di negoziare i termini in base ai quali viene utilizzato il nostro giornalismo”.
Microsoft ha una licenza con il Guardian per pubblicare il giornalismo dell’organizzazione giornalistica. L’articolo del Guardian e il sondaggio di accompagnamento sono apparsi su Microsoft Start, un sito Web e un’app di aggregazione di notizie.
Bateson ha chiesto garanzie a Smith sul fatto che: Microsoft non applicherà la tecnologia sperimentale dell’intelligenza artificiale sul giornalismo del Guardian o insieme ad esso senza l’approvazione dell’editore; e Microsoft chiarirà sempre agli utenti quando gli strumenti di intelligenza artificiale vengono utilizzati per creare unità e funzionalità aggiuntive accanto a marchi di notizie affidabili come The Guardian. Bateson ha detto che c’erano “forti ragioni” affinché Microsoft aggiungesse una nota all’articolo assumendosi la responsabilità del sondaggio.
Un portavoce di Microsoft ha dichiarato: “Abbiamo disattivato i sondaggi generati da Microsoft per tutti gli articoli di notizie e stiamo indagando sulla causa del contenuto inappropriato. Un sondaggio non avrebbe dovuto apparire accanto a un articolo di questo tipo e stiamo adottando misure per evitare che questo tipo di errore si ripeta in futuro”.
Qui trovare l’articolo sulla morte della giovane donna: https://www.theguardian.com/australia-news/2023/oct/31/lilie-james-australia-sydney-school-coach-st-andrews-cathedral-death
Il racconto di quanto è avvenuto su The Guardian: https://www.theguardian.com/media/2023/oct/31/microsoft-accused-of-damaging-guardians-reputation-with-ai-generated-poll
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Il Tony Blair Institute chiede di etichettare come deepfake i contenuti creati con l’intelligenza artificiale
Può interessarti anche: Intelligenza artificiale e giornalismo: i gradi di fiducia diminuiranno
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it