Codici luminosi invisibili da utilizzare come filigrane per i video per capire immediatamente se un lavoro è generato dall’intelligenza artificiale o è reale. Questa l’idea alla base di un nuovo studio che promette di smascherare i deepfake.
Creare video falsi o manipolati è diventato un gioco da ragazzi. Con l’avvento dell’intelligenza artificiale generativa e la velocità dei social media, la diffusione di contenuti falsi viaggia più rapida della capacità dei fact-checker di intervenire. Ma un gruppo di ricercatori della Cornell University ha ideato una tecnica innovativa che potrebbe cambiare le regole del gioco: utilizzare la luce stessa come filigrana invisibile per smascherare i deepfake e autenticare i video reali.
L’idea è tanto semplice quanto rivoluzionaria. Invece di inserire una filigrana digitale direttamente nel file video — come avviene oggi, con piccoli segni nei pixel o nei metadati — i ricercatori hanno deciso di nascondere un codice segreto nella luce che illumina la scena. Lampade, schermi o fari fotografici possono essere programmati per emettere minime fluttuazioni di luminosità, impercettibili all’occhio umano ma registrate da qualsiasi telecamera. In questo modo, ogni video ripreso in quell’ambiente viene automaticamente marchiato da una firma digitale invisibile, indipendente dalla fotocamera utilizzata o dal formato del file.
Il principio è quello dell’“illuminazione codificata dal rumore”. All’occhio umano le variazioni appaiono come un normale sfarfallio o un rumore di fondo, ma chi conosce il codice segreto può estrarre una sorta di “seconda traccia” dal materiale registrato: una versione a bassa fedeltà della scena, completa di marca temporale e illuminata solo dalla sorgente luminosa codificata. È qui che la tecnica rivela tutta la sua forza. Se un video è stato manipolato, tagliato o rielaborato, questa copia nascosta mostra incoerenze evidenti. Un oggetto aggiunto dall’intelligenza artificiale appare come un buco nero, un’intervista tagliata lascia lacune visibili, un ordine di sequenze alterato viene subito smascherato.
Il sistema funziona anche con più fonti luminose contemporaneamente. Ogni lampada può emettere un proprio codice segreto: un falsario, per replicare un video manipolato, dovrebbe quindi ricreare artificialmente non una sola traccia, ma più segnali nascosti che devono combaciare tra loro. Un’impresa che diventa rapidamente quasi impossibile. Inoltre, la tecnologia si dimostra versatile: le luci programmabili moderne possono essere controllate via software, mentre quelle più tradizionali possono essere adattate con un microchip delle dimensioni di un francobollo.
Il team, guidato dallo studente di informatica Peter Michael e dal professore associato Abe Davis, ha già testato con successo la tecnica non solo in laboratorio ma anche all’aperto e su soggetti con diverse tonalità di pelle. I primi risultati dimostrano che il metodo mantiene la sua efficacia anche in condizioni di illuminazione variabile, aprendo la strada a un utilizzo in contesti cruciali come conferenze stampa, interviste politiche, eventi pubblici e persino nelle sedi delle grandi istituzioni internazionali.
L’obiettivo non è quello di garantire una sicurezza assoluta — che rimane irraggiungibile in una vera e propria corsa agli armamenti tra creatori di deepfake e sistemi di difesa — ma di fornire un vantaggio concreto a chi deve verificare l’autenticità delle immagini. Come sottolinea Davis, “un tempo i video erano considerati una prova di verità, ma oggi non possiamo più dare per scontata questa ipotesi. La luce, invece, può diventare un nuovo garante dell’autenticità”.
La ricerca, che sarà presentata al SIGGRAPH 2025 a Vancouver, è stata sviluppata con la collaborazione di Zekun Hao e Serge Belongie dell’Università di Copenaghen, e sostenuta in parte da una borsa di studio per Scienze e Ingegneria della Difesa Nazionale e dal Pioneer Centre for AI. Se i test continueranno a dare risultati positivi, i fact-checker avranno presto uno strumento potente in più per distinguere ciò che è reale da ciò che è falso. E forse, in un’epoca in cui le immagini sembrano aver perso la loro innocenza, sarà proprio la luce a restituirci un po’ di verità.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Candidati Deepfake, falsi, si presentano ai colloqui informatizzati delle università inglesi, ma sono stati scoperti perché “i dati non mentono ma i truffatori sì”
Può interessarti anche: Uso sul campo di battaglia dei deepfake con l’intelligenza artificiale, un pericolo per entrambe le parti in conflitto
Può interessarti anche: Deepfake: con la voce del nipotino o di persone care, realizzate con l’intelligenza artificiale, si baypassa la nostra parte razionale, Sebastiano Battiato
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Seguici su X: https://x.com/Presskit_
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.