Immagini pedopornografiche create con l’intelligenza artificiale, le protezioni sono state aggirate

Con l’intelligenza artificiale digitando poche parole puoi creare qualsiasi immagine che ti piace, ad esempio un gatto che tiene in mano una banana nello stile di van Gogh. Per non fare cose illegali “sono alcune protezioni messe in atto molti di questi strumenti hanno vietato le parole o frasi per impedire alle persone di creare immagini illegali o offensive. Ma ora sappiamo che non ha funzionato davvero”, spiega il giornalista investigativo Joe Tidy alla Bbc.

“Ci sono solo tre organizzazioni in tutto il mondo autorizzate a cercare attivamente materiale pedopornografico, e questa è una di queste, la Internet Watch Foundation qui a Cambridge. In questa struttura altamente protetta, l’IWF trova, rimuove e registra alcune delle immagini e dei video più ripugnanti che si possano immaginare. Sono analisti esperti che dicono di vedere una marea di immagini realizzate con l’intelligenza artificiale.

Ci sono immagini in stile cartoonesco di una ragazza sulla spiaggia. Direi che probabilmente ha dai tre ai sei anni. È davvero realistica. È abbastanza realistica. Se lo vedessi, penserei che fosse un’immagine photoshoppata. Ovviamente la posa è disgustosa e questo mi farebbe immediatamente dubitare che sia reale o meno, ma è difficile saperlo.

Ci sono immagini in una location classica,  una camera da letto ed è abbastanza classico delle immagini reali che vediamo di bambini in posa nella camera da letto. Quindi vedi quel tipo di immagine, bambini che fanno quella posa per bambini così piccoli? SÌ. È un’immagine orribile, solo l’idea di quello che sta facendo qui. So che l’hai redatta per me, ma è ancora… Sì, è ancora potente ed è difficile, assolutamente. Perché queste sono immagini di bambini abusati sessualmente. E non possiamo farne a meno, perché è quello che sta succedendo.

Diventa molto più realistico, molto più realistico di quello che ti ho mostrato. Varia. Quindi da quello stile fino a dove è molto difficile distinguere tra quello e un’immagine reale.

Il mese scorso per la prima volta, l’IWF ha iniziato a registrare attivamente rapporti di immagini AI. Gli analisti hanno scoperto gallerie su più siti Web, alcuni contenenti materiale di categoria A, il più grafico possibile.

Il team afferma che i predatori stanno condividendo suggerimenti su come indurre le IA a disegnare il contenuto e ci sono prove che i generatori di immagini open source si stanno dimostrando popolari tra i predatori.

La preoccupazione per le fonti aperte è molto difficile da controllare perché per definizione le persone possono adattarsi, cambiare e creare le proprie versioni di ciò. Quindi puoi avere una versione che ha protezioni che lo impediscono, ma come progetto comunitario non c’è nulla che impedisca a una persona adeguatamente qualificata di rimuovere la protezione e creare un’altra versione basata sullo stesso tipo di software e sullo stesso codice che non ha protezioni facciali .

Stable Diffusion è il generatore di immagini AI open source più popolare. È stato riproposto e riconfezionato da innumerevoli siti Web e aziende. Sta dando ai generatori di immagini di grandi aziende tecnologiche come OpenAI, Microsoft e altri, una corsa per i loro soldi in popolarità e potere. Ma Stable Diffusion non ha una storia sulle origini di una startup della Silicon Valley. È iniziato qui, in un angolo verdeggiante del centro di Monaco. E il modo in cui è stato lanciato e creato era completamente unico per qualsiasi altro generatore di immagini AI.

Il professor Bjorn Ommer è stato lo scienziato capo del progetto Stable Diffusion. Lui e il suo team hanno fatto del loro meglio per rimuovere i contenuti pornografici dai due miliardi di immagini su cui era stata addestrata l’intelligenza artificiale, ma ammette che non era perfetto. Hanno anche codificato un elenco di centinaia di parole e frasi vietate, ma ovviamente le persone hanno trovato rapidamente un modo per eliminarle. Difende però la loro decisione di diffondere il suo modello su Internet come open source. I pericoli che rappresentato con l’open source, sì, in generale vedo questo potenziale nell’IA generativa, questa è una tecnologia potente e le tecnologie potenti possono essere utilizzate in modo improprio.

Ma la fonte chiusa non ha dimostrato di essere il modo in cui effettivamente farebbe questa mitigazione per noi, perché è trapelato o, cosa ancora più importante, è stato appena reimplementato.

E’ stato rilasciato alla comunità di ricerca. “Per me era importante che i modelli fossero appena stati rilasciati alla comunità di ricerca. Dobbiamo davvero affrontare il fatto che si tratta di uno sviluppo mondiale, globale. Quindi fermarlo qui non fermerebbe lo sviluppo di questa tecnologia a livello globale, come in tutto il mondo. Quindi in altri paesi, probabilmente nelle società non democratiche, questo continuerebbe e abbiamo davvero bisogno di trovare delle mitigazioni che considerino questo sviluppo globale che stiamo avendo”.

Il professor Ommers afferma che il fatto che ora ci siano centinaia di entusiasmanti progetti accademici spin-off che utilizzano il suo modello dimostra che renderlo open source è stata la mossa giusta. Ma resta il fatto che ci sono anche cattivi attori che lo usano.

Abbiamo trovato un account Twitter appartenente a un creatore di immagini AI specializzato nella realizzazione di ritratti sessualizzati di ragazze preadolescenti. L’account ora è stato sospeso. Aveva 8.000 follower. Ho parlato con la persona che possiede l’account e gli ho chiesto perché lo fa. Dice di essere consapevole del fatto che le sue immagini sessualizzano i bambini, ma celebra che questa è la prima volta nella storia che l’intelligenza artificiale può permettergli di creare quelle che chiama immagini carine di ragazze senza sfruttare i bambini veri.

Il dottor Michael Burke è l’ex capo psicologo del servizio maresciallo degli Stati Uniti. Ha trascorso la sua carriera intervistando e valutando autori di reati sessuali e pedofili. Alcune persone dicono che usare l’intelligenza artificiale per creare immagini di bambini in modo sessualizzato è meglio perché non ci sono bambini danneggiati. Cosa diresti a questo? Ha chiesto il giornalista

Guardare questo materiale, che sia generato artificialmente, i cosiddetti bambini sintetici, o che siano bambini veri, dal punto di vista di un delinquente, sta ancora rafforzando quegli impulsi pericolosi, sta ancora aumentando i loro schemi di eccitazione pedofili. Non ho dubbi che le immagini generate dall’intelligenza artificiale aumenteranno queste predilezioni, rafforzeranno questa devianza e porteranno a danni maggiori e maggiori rischi di danni ai bambini di tutto il mondo”.

Quindi cosa si può fare? “Beh, molto poco, in verità. Nessuno è completamente responsabile della diffusione stabile o di qualsiasi altro generatore di intelligenza artificiale open source”.

E mentre le autorità di regolamentazione iniziano a pianificare una potenziale legislazione per le aziende e i prodotti di intelligenza artificiale, sembra che in alcuni casi il gatto potrebbe già essere fuori dal sacco. in alcuni casi, il gatto potrebbe essere già fuori dal sacco, conclude la Bbc.

Qui trovate il servizio integrale.

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Geoffrey Hinton, pioniere dell’Ai, mette in guardia dai pericoli degli algoritmi: disinformazione, ma non solo

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it