Usano l’intelligenza artificiale per resuscitare digitalmente le vittime di crimini atroci e far loro raccontare le storie di come questi bambini della vita reale sono stati uccisi. Per dare una parvenza di legalità alla cosa molti degli account hanno un disclaimer in cui si afferma che il video non utilizza foto reali delle vittime, come un modo per “rispettare la famiglia”
Vengono pubblicato su account TikTok, alcuni anche con 50.000 follower. Si tratta di video di vittime di reati nella vita reale che raccontano le loro storie. I video, alcuni dei quali hanno milioni di visualizzazioni, coinvolgono una vittima che parla in prima persona dei raccapriccianti dettagli della propria morte; la maggior parte di loro non ha un avviso di contenuto in anticipo.
“Sono piuttosto strani e inquietanti”, afferma Paul Bleakley, assistente professore di giustizia penale presso l’Università di New Haven in una internista denuncia su RollingStone. “Sembrano progettati per innescare forti reazioni emotive, perché è il modo più sicuro per ottenere clic e Mi piace. È scomodo da guardare, ma penso che potrebbe essere questo il punto”
“Qualcosa del genere ha un reale potenziale per rivittimizzare le persone che sono state vittime prima”, afferma Bleakley. “Immagina di essere il genitore o il parente di uno di questi bambini in questi video di intelligenza artificiale. Vai online, e con questa strana voce acuta, ecco un’immagine AI [basata su] il tuo bambino deceduto, che entra nei dettagli molto cruenti su quello che gli è successo”
Nessuno degli account a cui Rolling Stone ha contattato ha risposto alle richieste di commento, ma il fatto che cambino l’aspetto delle vittime è probabilmente dovuto alle linee guida della community di TikTok che vietano le rappresentazioni deepfake di privati o giovani, una politica istituita dalla piattaforma a marzo.
“La proliferazione di questi video di vittime di crimini reali su TikTok è l’ultima questione etica sollevata dall’immensa popolarità del genere del vero crimine in generale. Sebbene documentari come The Jinx e Making a Murderer e podcast come Crime Junkie e My Favorite Murder abbiano raccolto un immenso seguito di culto, molti critici del genere hanno messo in dubbio le implicazioni etiche del pubblico che consuma le storie della vita reale di orribili assalti e omicidi come puro intrattenimento. , con l’ascesa di investigatori da poltrona e ossessivi del vero crimine che potenzialmente ritraumatizzano i cari delle vittime”, commenta Christopher Cruz su RollingStone.
“Ci sono anche problemi legali potenzialmente spinosi associati alla creazione di video deepfake, aggiunge Bleakley, paragonando l’ascesa dei video AI true-crime alla popolarità del porno deepfake. Sebbene non esista una legge federale che renda illegali immagini e video deepfake non consensuali, sia la Virginia che la California hanno vietato la pornografia deepfake e all’inizio di questo mese il membro del Congresso Joe Morelle ha proposto una legislazione che rende sia un crimine che una responsabilità civile per qualcuno diffondere tali immagini. I video deepfake true-crime sono diversi dal porno deepfake per ovvi motivi, tuttavia Bleakley ha potuto vedere come le famiglie in lutto potrebbero voler intentare causa civile contro i creatori di tali video, in particolare se vengono monetizzati, anche se osserva che sarebbe difficile per le famiglie argomentare per diffamazione per decesso dei soggetti. “È un’area grigia molto appiccicosa e torbida”, dice.
Una cosa è chiara, tuttavia: con la tecnologia AI che si evolve rapidamente ogni giorno e poche o nessuna regolamentazione in atto per frenarne la diffusione, la domanda non è se video come questi diventeranno più popolari, ma piuttosto quanto peggio sarà il matrimonio di veri il crimine e l’intelligenza artificiale otterranno. Si può facilmente immaginare che i creatori di veri crimini siano in grado non solo di ricreare le voci delle “vittime” di omicidio, ma anche di ricreare i dettagli cruenti dei crimini. “Questa è sempre la domanda con qualsiasi nuovo sviluppo tecnologico”, afferma Bleakley. “Dove si fermerà?”
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Geoffrey Hinton, pioniere dell’Ai, mette in guardia dai pericoli degli algoritmi: disinformazione, ma non solo
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it