Candidati Deepfake, falsi, si presentano ai colloqui informatizzati delle università inglesi, ma sono stati scoperti perché “i dati non mentono ma i truffatori sì”

“Abbiamo scoperto nei colloqui con gli studenti sembrano uscite da un film di fantascienza: doppiaggio delle risposte, impersonificazione e persino tecnologia deepfake. Sì, deepfake. Benvenuti nel futuro della frode, gente”, spiega Phoebe O’Donnell di Enroly, una piattaforma software utilizzata da numerose università per automatizzare i loro processi di candidatura.

“Ma prima di entrare nei dettagli, voglio rassicurarvi: ci sono buone notizie. Grazie alla tecnologia e a tanto lavoro di squadra, stiamo aiutando le università come la vostra a rimanere un passo avanti. Ecco un’anteprima di ciò che abbiamo imparato analizzando circa 20.000 colloqui in questa sessione di ammissione e di come stiamo affrontando la frode a viso aperto.

I dati non mentono (ma i truffatori sì)

Osservando i numeri di questa sessione di ammissioni, emergono alcuni trend chiari. La maggior parte dei fallimenti nei colloqui sono stati semplici da identificare:

  • Il 23% dei candidati non ha raggiunto la soglia minima per superare il colloquio.

Ma poi c’è il vero dramma:

  • L’1,3% dei casi ha coinvolto una frode vera e propria.
  • Supporto da terzi (0,1%), doppiaggio delle risposte (0,6%), impersonificazione (0,5%) e tentativi di deepfake (0,15%).
  • I deepfake sono stati la sorpresa più grande.

I truffatori stanno diventando più intelligenti, ma fortunatamente noi lo siamo ancora di più… almeno per ora.

Applicazioni fraudolente: una sfida in evoluzione

Le domande di ammissione fraudolente non sono una novità, ma con l’avanzare della tecnologia, lo diventano anche le tattiche utilizzate per aggirare i processi di verifica tradizionali. Le università hanno sempre dovuto affrontare falsificazioni di documenti, impersonificazioni e dichiarazioni mendaci, ma oggi i truffatori utilizzano manipolazioni digitali e strategie sempre più coordinate per eludere i controlli.

Molte istituzioni si affidano ancora a controlli manuali che, sebbene accurati, faticano a individuare le frodi su larga scala. La realtà è che la rilevazione delle frodi richiede sia efficienza che precisione, e i soli processi gestiti dall’uomo non riescono a tenere il passo con il volume e la sofisticazione dei tentativi moderni.

La tecnologia non è una soluzione miracolosa, ma svolge un ruolo cruciale nell’aiutare i team a lavorare in modo più intelligente. Combinando l’automazione con un’attenta supervisione umana, le università possono identificare meglio i fattori di rischio, segnalare incongruenze e dare priorità ai casi che necessitano di indagini più approfondite. Questo approccio rafforza la rilevazione delle frodi senza introdurre ritardi inutili, garantendo sia equità che efficienza nel processo di ammissione.

Come stiamo contrastando la frode: la tecnologia e il lavoro di squadra che fanno la differenza

Ora, mi piacerebbe dirvi che abbiamo una stretta di mano segreta o che in ufficio indossiamo mantelli da supereroi, ma la verità è che tutto si riduce agli strumenti giusti e alle persone fantastiche che li usano.

Ecco le nostre armi:

  • Riconoscimento facciale e verifica del passaporto
    Se provi a superare un colloquio con il volto di qualcun altro, ti becchiamo.

  • Il tocco umano a supporto della tecnologia
    Qui entriamo in gioco noi. Il mio team non è solo esperto di tecnologia: siamo dei veri e propri detective della frode. Rivediamo e analizziamo tutto, oltre ai controlli automatizzati. Controlliamo due volte, segnaliamo le anomalie e aiutiamo le università ad agire.

  • La giusta tecnologia & il giusto team
    Grazie alla combinazione tra i nostri sistemi e il nostro team di esperti, riusciamo a individuare comportamenti sospetti e potenziali tentativi di frode.

Deepfake: un problema reale

Dedichiamo un momento ai deepfake. Sono il peggior incubo per chi valuta i colloqui: volti finti sovrapposti a quelli reali, completi di espressioni ed emozioni. Sembra un film di spionaggio. E sì, sono incredibilmente difficili da rilevare.

Ma difficile non significa impossibile. Grazie alla tecnologia in tempo reale e a qualche trucco intelligente, abbiamo già bloccato diversi tentativi. È un fenomeno ancora limitato, ma in crescita, e siamo determinati a rimanere un passo avanti, collaborando con i nostri partner e con il settore universitario più ampio. Vi invitiamo a prestare attenzione, perché i deepfake possono essere utilizzati anche nei colloqui in diretta”.

Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Manomissione dell’immagine di personaggi famosi legate al deep fake porno, “con l’intelligenza artificiale questo fenomeno sta crescendo”, Elisabetta Fersini

Può interessarti anche:  Deepfake: con la voce del nipotino o di persone care, realizzate con l’intelligenza artificiale, si baypassa la nostra parte razionale, Sebastiano Battiato

Può interessarti anche: Uso sul campo di battaglia dei deepfake con l’intelligenza artificiale, un pericolo per entrambe le parti in conflitto

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Seguici su X: https://x.com/Presskit_

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts