Immagini con abusi sessuali su minori usati per allenare l’intelligenza artificiale. Lo studio della  Stanford University Cyber Policy Center

Uno studio realizzato dalla  Stanford University Cyber Policy Center ha scoperto che un set di dati utilizzato per addestrare i generatori di immagini dell’intelligenza artificiale contiene immagini di abusi sessuali su minori.

I risultati aumentano i timori che gli strumenti di intelligenza artificiale potrebbero scatenare un’ondata di contenuti di abusi sessuali su minori generati dall’intelligenza artificiale.

Le immagini con abusi sessuali su minori sono stati trovati nel database LAION-5B, un enorme archivio pubblico di circa cinque miliardi di immagini prelevate dal web aperto. Questo data base è stato utilizzato per addestrare diversi generatori di immagini AI tra cui Stable Diffusion 1.5, una versione precedente di un modello AI di Stability AI, conteneva oltre 3.200 immagini di bambini sospetti abuso.

“Troviamo che il possesso di un set di dati LAION-5B popolato anche alla fine del 2023 implica il possesso di migliaia di immagini illegali, escluse tutte le immagini intime pubblicate e raccolte non consensualmente, la cui legalità è più variabile a seconda della giurisdizione. Sebbene la quantità di materiale pedopornografico presente non indichi necessariamente che la presenza di materiale pedopornografico influenzi drasticamente l’output del modello al di là della capacità del modello di combinare i concetti di attività sessuale e bambini, è probabile che eserciti comunque un’influenza“, si legge nel rapporto.

“Anche la presenza di casi identici e ripetuti di materiale pedopornografico è problematica, in particolare a causa del rafforzamento delle immagini di vittime specifiche.

Con la consapevolezza che il materiale CSAM è presente in diversi importanti set di dati di addestramento al machine learning, ci sono alcune misure attuabili che gli utenti possono intraprendere per mitigare i problemi posti dalla distribuzione del contenuto e dalla sua inclusione nei dati di addestramento del modello, nonché modi per prevenire tali incidenti in il futuro.

5.1 Rimozione materiale
La rimozione del materiale individuato da questo progetto presenta diversi aspetti, in ordine di difficoltà crescente:
1. Rimozione dagli URL di hosting originali,
2. Eliminazione delle registrazioni di metadati nei dataset pubblici della LAION,
3. Rimozione delle immagini reali dai dataset interni di riferimento LAION,
4. Rimozione di immagini e riferimenti nelle copie scaricate dell’immagine in possesso di vari ricercatori, e
5. Rimozione dai modelli stessi.
La rimozione del materiale originale è già in corso a seguito dell’identificazione degli URL durante questo progetto e della segnalazione a NCMEC e C3P. Rimozione delle iscrizioni dal pubblico dei set di dati distribuiti ospitati su Hugging Face et al richiederanno il coordinamento con LAION e altre parti che ospitano il materiale; lo stesso vale per la rimozione dai set di riferimento interni. La rimozione dai set in possesso di altri ricercatori più piccoli è più difficile: non si sa quanti ricercatori abbiano scaricato i dataset LAION e, anche se identificati, ciò richiederebbe la pubblicazione di identificatori che consentano alle persone di trovare materiale illegale. Oltre a rimuovere le voci dei metadati, sarebbe necessario rimuovere anche gli incorporamenti di immagini incriminate; la conoscenza di questi incorporamenti potrebbe essere utilizzata anche da soggetti malintenzionati per rafforzare modelli destinati a produrre materiale pedopornografico.
Rimuovere materiale dai modelli stessi è il compito più difficile; per le immagini che corrispondono a materiale pedopornografico noto, l’incorporamento di immagini e testo potrebbe essere rimosso dal modello, ma non è noto se ciò influirebbe in modo significativo sulla capacità del modello di produrre materiale pedopornografico o di replicarne l’aspetto di vittime specifiche. Un approccio più generalizzabile potrebbe essere quello che è stato definito ablazione di concetti38 o cancellazione di concetti39 in cui il modello è addestrato a scartare parzialmente concetti specifici. Tuttavia, a meno che il concetto da rimuovere non sia quello dei bambini o della nudità nel suo complesso, l’ablazione del concetto di materiale pedopornografico in particolare potrebbe richiedere l’accesso al materiale illegale stesso.

5.2 Implicazioni per la compilazione del training set
L’uso del filtro CLIP da parte del progetto LAION per il rilevamento di “NSFW” è potenzialmente utile, anche se non è chiaro se questo approccio superi i tradizionali classificatori NSFW.40 Indipendentemente da ciò, alla fine è stato deciso che solo le immagini che erano sia NSFW che corrispondenti ai filtri CLIP “minorenni” sarebbero state utilizzate. essere scartato durante il processo di scansione, lasciando il set di dati con molti materiali espliciti con cui i modelli addestrati potrebbero combinare i concetti di bambini e attività sessuale. Anche le parole chiave utilizzate nell’interrogatorio CLIP iniziale erano piuttosto limitate: termini che difficilmente avrebbero prodotto risultati come “minorenne” sono stati inclusi nell’elenco insieme a errori di battitura come “boops” e “breats”, mentre molti termini ovvi sono stati omessi.41 Consultazione con gli esperti di sicurezza infantile avrebbero contribuito a focalizzare ed espandere questo elenco. I modelli di stima dell’età42 potrebbero anche potenzialmente contribuire all’individuazione di materiali potenzialmente illegali.
Una lacuna evidente durante la compilazione dei set di dati LAION è stata che le immagini non sono state confrontate con elenchi noti di materiale pedopornografico. Per le organizzazioni che cercano di compilare tali set di dati, è consigliabile collaborare con NCMEC, Microsoft, C3P, Thorn o fonti simili con accesso agli hash percettivi o crittografici di CSAM noti. Le organizzazioni che hanno già compilato set di dati potrebbero anche utilizzare gli stessi metodi e intermediari per pulire i loro set di dati attuali. Le immagini rilevate come materiale pedopornografico devono quindi essere inviate all’ente appropriato per il triage (NCMEC negli Stati Uniti)”.

Qui trovate lo studio di https://stacks.stanford.edu/file/druid:kh752sm9123/ml_training_data_csam_report-2023-12-23.pdf

 

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime notizie su www.presskit.it

Può interessarti anche: Immagini di abusi sessuali su minori provenienti dall’intelligenza artificiale: 50 stati chiedono maggiori armi per combatterle

Per non dimenticare: Usano l’intelligenza artificiale per fare raccontare ai bambini uccisi le violenze subite

Seguici su Facebook https://www.facebook.com/presskit.it

Seguici su Sfero: https://sfero.me/users/presskit-quotidiano-on-line

Seguici su Telegram https://t.me/presskit

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.