Immagini sessualmente esplicite generate con l’intelligenza artificiale per truffare le persone

Nuove tecnologie, nuove truffe. Stanno aumentando le truffe fatte con immagini sessualmente esplicite generate con l’intelligenza artificiale. I “deepfake” vanno ben oltre le immagini photoshoppate. Sono più realistiche e stanno diventando più diffusi e pervasivi.

Immagini o video innocenti caricati sui social media o inviati nei messaggi possono essere trasformati in immagini sessualmente esplicite, generate dall’intelligenza artificiale che sono “realistiche” e quasi impossibili da discernere, ha affermato l’FBI.

I predatori, che in genere si trovano in un altro paese, usano come arma le immagini manipolate e AI contro i giovani per estorcere denaro a loro o alle loro famiglie, o come tentativo di ottenere immagini sessualmente vere, secondo l’FBI.

Il fenomeno in America sta aumentando a ritmi vertiginosi, anche se i numeri restano piccoli. Almeno una dozzina di suicidi legati alla sextortion sono stati segnalati in tutto il paese, secondo gli ultimi numeri dell’FBI dell’inizio di quest’anno.

Il numero di casi di sextortion segnalati a livello nazionale è aumentato del 322% tra febbraio 2022 e febbraio 2023, secondo l’FBI, che ha affermato la scorsa settimana che c’è stato un aumento significativo da aprile a causa delle immagini manipolate dall’intelligenza artificiale.

Molte vittime sono maschi di età compresa tra 10 e 17 anni, anche se ci sono state vittime di appena 7 anni, ha detto l’FBI. Anche le ragazze sono state prese di mira, ma le statistiche mostrano che un numero maggiore di ragazzi è stato vittima.

L’FBI descrive la sextortion come un crimine che “costringe le vittime a fornire foto o video sessualmente espliciti di se stesse, minacciando poi di condividerle pubblicamente o con la famiglia e gli amici della vittima”.

“Gli attori malintenzionati utilizzano tecnologie e servizi di manipolazione dei contenuti per sfruttare foto e video – in genere catturati dall’account di social media di un individuo, Internet aperto o richiesti dalla vittima – in immagini a tema sessuale che sembrano realistiche a somiglianza di una vittima, poi falli circolare sui social media, forum pubblici o siti web pornografici”, ha dichiarato l’FBI in un PSA del 5 giugno.

“Molte vittime, tra cui minorenni, non sanno che le loro immagini sono state copiate, manipolate e fatte circolare fino a quando non sono state portate alla loro attenzione da qualcun altro”.

Cosa fare per aiutare i ragazzi

Michelle DeLaune, presidente e CEO del National Center for Missing & Exploited Children, ha spiegato che le giovani vittime di questo crimine “si sentono come se non ci fosse via d’uscita”.

“Ma vogliamo che sappiano che non sono soli. Nell’ultimo anno, il National Center for Missing & Exploited Children ha ricevuto più di 10.000 segnalazioni relative a sextortion”, ha detto DeLaune all’inizio di quest’anno. “Per favore, parla con i tuoi figli di cosa fare se loro (o i loro amici) vengono presi di mira online. NCMEC ha risorse gratuite per aiutarli a navigare in una situazione travolgente e spaventosa”.

Fonte: https://www.foxnews.com/us/ai-deepfakes-innocent-images-fuel-spike-sextortion-scams-fbi-warns

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Come difendersi dalle truffe nel mondo delle criptomonete: 5 consigli utili

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

 

Related Posts