Meta etichetterà le immagini generate con l’intelligenza artificiale in vista delle elezioni: “le persone vogliono sapere dove si trova il confine”

“Nei prossimi mesi, etichetteremo le immagini che gli utenti pubblicheranno su Facebook, Instagram e Threads quando saremo in grado di rilevare indicatori standard del settore che indicano che sono generate dall’intelligenza artificiale”, annuncia Meta in un comunicato stampa.
“Abbiamo etichettato le immagini fotorealistiche create utilizzando Meta AI sin dal suo lancio in modo che le persone sappiano che sono “Immaginate con l’intelligenza artificiale”.
Essendo un’azienda all’avanguardia nello sviluppo dell’intelligenza artificiale da oltre un decennio, è stato estremamente incoraggiante assistere all’esplosione della creatività delle persone che utilizzano i nostri nuovi strumenti di intelligenza artificiale generativa, come il nostro generatore di immagini Meta AI che aiuta le persone a creare immagini con semplici istruzioni di testo.

Man mano che la differenza tra contenuto umano e sintetico diventa sempre più sfumata, le persone vogliono sapere dove si trova il confine. Le persone spesso si imbattono per la prima volta in contenuti generati dall’intelligenza artificiale e i nostri utenti ci hanno detto che apprezzano la trasparenza su questa nuova tecnologia. Quindi è importante aiutare le persone a sapere quando i contenuti fotorealistici che stanno vedendo sono stati creati utilizzando l’intelligenza artificiale. Lo facciamo applicando le etichette “Imagined with AI” alle immagini fotorealistiche create utilizzando la nostra funzionalità Meta AI, ma vogliamo poterlo fare anche con contenuti creati con strumenti di altre aziende.

Ecco perché collaboriamo con i partner del settore per allinearci a standard tecnici comuni che segnalano quando un contenuto è stato creato utilizzando l’intelligenza artificiale. Essere in grado di rilevare questi segnali ci consentirà di etichettare le immagini generate dall’intelligenza artificiale che gli utenti pubblicano su Facebook, Instagram e Threads.

Stiamo sviluppando questa funzionalità adesso e nei prossimi mesi inizieremo ad applicare le etichette in tutte le lingue supportate da ciascuna app. Adotteremo questo approccio nel corso del prossimo anno, durante il quale si svolgeranno una serie di importanti elezioni in tutto il mondo. Durante questo periodo, ci aspettiamo di imparare molto di più su come le persone creano e condividono contenuti AI, quale tipo di trasparenza le persone ritengono più preziosa e come si evolvono queste tecnologie. Ciò che impareremo informerà le migliori pratiche del settore e il nostro approccio futuro.

Un nuovo approccio per identificare ed etichettare i contenuti generati dall’intelligenza artificiale

Quando creiamo immagini fotorealistiche utilizzando la nostra funzionalità Meta AI, facciamo diverse cose per assicurarci che le persone sappiano che è coinvolta l’intelligenza artificiale, incluso l’inserimento di marcatori visibili sulle immagini e filigrane invisibili e metadati incorporati nei file di immagine. L’utilizzo sia della filigrana invisibile che dei metadati in questo modo migliora sia la robustezza di questi marcatori invisibili sia aiuta altre piattaforme a identificarli. Questa è una parte importante dell’approccio responsabile che stiamo adottando per creare funzionalità di intelligenza artificiale generativa.

Dato che i contenuti generati dall’intelligenza artificiale compaiono su Internet, abbiamo collaborato con altre aziende del nostro settore per sviluppare standard comuni per identificarli attraverso forum come Partnership on AI (PAI). I marcatori invisibili che utilizziamo per le immagini Meta AI – metadati IPTC e filigrane invisibili – sono in linea con le migliori pratiche di PAI.

Stiamo costruendo strumenti leader del settore in grado di identificare marcatori invisibili su larga scala, in particolare le informazioni “generate dall’intelligenza artificiale” negli standard tecnici C2PA e IPTC, in modo da poter etichettare le immagini di Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock mentre implementano i loro piani per aggiungere metadati alle immagini create dai loro strumenti.

Nota: i contenuti e il design potrebbero cambiare man mano che perfezioniamo i prodotti prima del lancio. Un telefono che mostra un’immagine contrassegnata su Facebook. Nota: i contenuti e il design potrebbero cambiare man mano che perfezioniamo i prodotti prima del lancio.
Sebbene le aziende stiano iniziando a includere segnali nei loro generatori di immagini, non hanno ancora iniziato a includerli negli strumenti di intelligenza artificiale che generano audio e video sulla stessa scala, quindi non possiamo ancora rilevare tali segnali ed etichettare questi contenuti da altre società. Mentre il settore lavora verso questa funzionalità, stiamo aggiungendo una funzionalità che le persone possono rivelare quando condividono video o audio generati dall’intelligenza artificiale in modo da potervi aggiungere un’etichetta. Richiederemo alle persone di utilizzare questo strumento di divulgazione ed etichettatura quando pubblicano contenuti organici con un video fotorealistico o un audio dal suono realistico creato o alterato digitalmente e potremmo applicare sanzioni se non lo fanno. Se stabiliamo che immagini, contenuti video o audio creati o alterati digitalmente creano un rischio particolarmente elevato di ingannare materialmente il pubblico su una questione importante, potremmo aggiungere un’etichetta più evidente, se appropriato, in modo che le persone abbiano più informazioni e contesto.

Questo approccio rappresenta l’avanguardia di ciò che è tecnicamente possibile in questo momento. Ma non è ancora possibile identificare tutti i contenuti generati dall’intelligenza artificiale e ci sono modi in cui le persone possono eliminare i marcatori invisibili. Quindi stiamo perseguendo con una serie di opzioni. Stiamo lavorando duramente per sviluppare classificatori che possano aiutarci a rilevare automaticamente i contenuti generati dall’intelligenza artificiale, anche se il contenuto è privo di marcatori invisibili. Allo stesso tempo, stiamo cercando modi per rendere più difficile la rimozione o la modifica delle filigrane invisibili. Ad esempio, il laboratorio di ricerca sull’intelligenza artificiale FAIR di Meta ha recentemente condiviso una ricerca su una tecnologia di filigrana invisibile che stiamo sviluppando chiamata Stable Signature. Ciò integra il meccanismo di filigrana direttamente nel processo di generazione delle immagini per alcuni tipi di generatori di immagini, il che potrebbe essere utile per i modelli open source in modo che la filigrana non possa essere disabilitata.

Questo lavoro è particolarmente importante in quanto è probabile che questo diventi uno spazio sempre più conflittuale negli anni a venire. Le persone e le organizzazioni che desiderano ingannare attivamente le persone con contenuti generati dall’intelligenza artificiale cercheranno modi per aggirare le misure di sicurezza messe in atto per rilevarli. Nel nostro settore e nella società più in generale, dovremo continuare a cercare modi per rimanere un passo avanti.

Nel frattempo, è importante che le persone considerino diverse cose quando determinano se il contenuto è stato creato dall’intelligenza artificiale, come verificare se l’account che condivide il contenuto è affidabile o cercare dettagli che potrebbero sembrare innaturali.

Questi sono i primi giorni per la diffusione dei contenuti generati dall’intelligenza artificiale. Man mano che diventerà più comune negli anni a venire, ci saranno dibattiti in tutta la società su cosa dovrebbe e non dovrebbe essere fatto per identificare sia i contenuti sintetici che quelli non sintetici. L’industria e le autorità di regolamentazione potrebbero orientarsi verso modalità di autenticazione dei contenuti che non sono stati creati utilizzando l’intelligenza artificiale, nonché dei contenuti che lo sono. Ciò che esponiamo oggi sono i passaggi che riteniamo appropriati per i contenuti condivisi sulle nostre piattaforme in questo momento. Ma continueremo a osservare e imparare e, come facciamo, terremo sotto controllo il nostro approccio. Continueremo a collaborare con i nostri colleghi del settore. E resteremo in dialogo con i governi e la società civile.

L’intelligenza artificiale è sia una spada che uno scudo

I nostri Standard della community si applicano a tutti i contenuti pubblicati sulle nostre piattaforme, indipendentemente da come vengono creati. Quando si tratta di contenuti dannosi, la cosa più importante è che siamo in grado di individuarli e agire indipendentemente dal fatto che siano stati generati o meno utilizzando l’intelligenza artificiale. E l’uso dell’intelligenza artificiale nei nostri sistemi di integrità è una parte importante di ciò che ci consente di catturarlo.

Utilizziamo sistemi di intelligenza artificiale per proteggere i nostri utenti da diversi anni. Ad esempio, utilizziamo l’intelligenza artificiale per individuare e affrontare l’incitamento all’odio e altri contenuti che violano le nostre norme. Questo è in gran parte il motivo per cui siamo stati in grado di ridurre la prevalenza dell’incitamento all’odio su Facebook ad appena lo 0,01-0,02% (al terzo trimestre del 2023). In altre parole, per ogni 10.000 visualizzazioni di contenuti, stimiamo che solo uno o due conterranno incitamento all’odio.

Sebbene utilizziamo la tecnologia dell’intelligenza artificiale per aiutare a far rispettare le nostre politiche, il nostro utilizzo di strumenti di intelligenza artificiale generativa per questo scopo è stato limitato. Ma siamo ottimisti sul fatto che l’intelligenza artificiale generativa potrebbe aiutarci a eliminare i contenuti dannosi in modo più rapido e accurato. Potrebbe anche essere utile per far rispettare le nostre politiche durante i momenti di maggior rischio, come le elezioni. Abbiamo iniziato a testare i modelli linguistici di grandi dimensioni (LLM) addestrandoli sui nostri standard della community per aiutare a determinare se un contenuto viola le nostre norme. Questi test iniziali suggeriscono che gli LLM possono funzionare meglio rispetto ai modelli di machine learning esistenti. Utilizziamo anche LLM per rimuovere contenuti dalle code di revisione in determinate circostanze quando siamo altamente sicuri che non violino le nostre politiche. Ciò libera la capacità dei nostri revisori di concentrarsi sui contenuti che hanno maggiori probabilità di infrangere le nostre regole.

I contenuti generati dall’intelligenza artificiale possono anche essere sottoposti a verifica da parte dei nostri partner indipendenti di verifica dei fatti e noi etichettiamo i contenuti sfatati in modo che le persone abbiano informazioni accurate quando incontrano contenuti simili su Internet.

Meta è pioniere nello sviluppo dell’intelligenza artificiale da oltre un decennio. Sappiamo che progresso e responsabilità possono e devono andare di pari passo. Gli strumenti di intelligenza artificiale generativa offrono enormi opportunità e riteniamo che sia possibile e necessario che queste tecnologie siano sviluppate in modo trasparente e responsabile. Ecco perché vogliamo aiutare le persone a sapere quando sono state create immagini fotorealistiche utilizzando l’intelligenza artificiale e perché siamo aperti anche sui limiti di ciò che è possibile. Continueremo a imparare dal modo in cui le persone utilizzano i nostri strumenti per migliorarli. E continueremo a lavorare in collaborazione con altri attraverso forum come PAI per sviluppare standard e guardrail comuni.

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Intelligenza artificiale ed elezioni Usa: cinque tecniche per influenzarle

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts