Deepfake nei colloqui di lavoro online: quando il candidato non è chi dice di essere
Quando Maria, responsabile delle risorse umane di una nota software house milanese, ha ricevuto il curriculum di Alessandro, un presunto sviluppatore senior con dieci anni di esperienza, non immaginava che si sarebbe trovata di fronte a una delle truffe più sofisticate dell’era digitale. Durante il colloquio su Teams, Alessandro ha risposto perfettamente a tutte le domande tecniche, dimostrando una conoscenza impressionante di linguaggi di programmazione avanzati. Tre mesi dopo l’assunzione, però, l’azienda ha scoperto che Alessandro non esisteva: al suo posto lavorava un junior che a malapena sapeva scrivere codice HTML.
Questa storia, purtroppo, non è più un’eccezione. Con l’esplosione del lavoro remoto e dei colloqui online, una nuova minaccia si sta diffondendo silenziosamente nel mondo del recruitment: l’uso di deepfake durante i processi di selezione. La tecnologia che fino a poco tempo fa sembrava fantascienza, oggi è accessibile a chiunque abbia un computer decente e una connessione internet.
I deepfake sono contenuti multimediali sintetici creati utilizzando l’intelligenza artificiale, capaci di sostituire il volto e la voce di una persona con quelli di un’altra in tempo reale. Immaginate di poter indossare una “maschera digitale” perfetta durante una videochiamata: questo è esattamente quello che sta accadendo nelle sale virtuali dei colloqui di lavoro di tutto il mondo.
La meccanica è tanto semplice quanto inquietante. Un software analizza in tempo reale il volto della persona davanti alla webcam e lo sostituisce con quello di qualcun altro, mentre algoritmi avanzati modificano la voce e sincronizzano i movimenti delle labbra per creare un’illusione perfetta. Il risultato è così convincente che anche recruiter esperti cadono nell’inganno.
Ma perché qualcuno dovrebbe ricorrere a questa pratica? Le motivazioni sono diverse e spesso interconnesse. La più comune riguarda le competenze tecniche: un programmatore alle prime armi che si candida per una posizione senior potrebbe far sostenere il colloquio tecnico a un esperto, che risponderà alle domande complesse utilizzando il volto del candidato originale. L’azienda assume credendo di aver trovato un talento eccezionale, ma si ritrova con una persona che non sa nemmeno cosa sia un algoritmo di sorting.
Altri utilizzano questa tecnologia per superare barriere linguistiche. Non è raro che candidati con scarse competenze in inglese facciano sostenere colloqui internazionali a persone madrelingua, creando aspettative che poi non potranno mantenere una volta assunti. C’è poi chi vuole semplicemente rimanere anonimo: lavoratori che prestano servizi per più aziende contemporaneamente, o che vogliono aggirare restrizioni geografiche o legali.
Il lato più oscuro di questa pratica riguarda le vere e proprie truffe organizzate. Reti criminali utilizzano identità false per raccogliere stipendi senza svolgere alcun lavoro, accedere a sistemi aziendali sensibili per rubare dati, o vendere informazioni riservate al miglior offerente. Nel 2023, l’FBI ha documentato un aumento allarmante di questi tentativi di frode, concentrati principalmente su posizioni IT remote ad alta specializzazione.
Riconoscere un deepfake durante un colloquio non è impossibile, ma richiede attenzione e conoscenza dei segnali da cercare. Spesso i contorni del viso appaiono innaturali, con bordi sfocati o discontinui che tradiscono la manipolazione digitale. La qualità dell’immagine può essere inconsistente: il volto appare più nitido o sfocato rispetto al resto dell’inquadratura, come se fosse stato “incollato” sopra.
I movimenti oculari sono particolarmente rivelatori. Un deepfake tende a produrre uno sguardo fisso, con battiti di palpebre irregolari e occhi che non seguono naturalmente il flusso della conversazione. C’è spesso un leggero ritardo tra il movimento delle labbra e l’audio, e l’illuminazione sul volto potrebbe non corrispondere a quella dell’ambiente circostante.
Dal punto di vista comportamentale, chi utilizza un deepfake tende a mantenere una postura rigida per evitare che movimenti ampi della testa compromettano l’effetto. Le mani rimangono spesso fuori dall’inquadratura per evitare inconsistenze, e le risposte possono risultare troppo perfette, rivelando una competenza tecnica che non corrisponde all’esperienza realmente dichiarata.
La voce è un altro elemento cruciale: spesso suona processata o robotica, con tempi di latenza eccessivi nelle conversazioni e possibili cambiamenti nella tonalità o nell’accento durante il colloquio. Chi usa questa tecnologia tende anche a evitare richieste improvvise, mostrando resistenza a cambiare posizione o a mostrare documenti.
Le conseguenze per le aziende possono essere devastanti. Non si tratta solo di assumere la persona sbagliata: spesso questi “candidati fantasma” ottengono accesso a sistemi sensibili, rubano proprietà intellettuale o causano violazioni di dati aziendali. Senza contare le perdite finanziarie legate alla formazione di persone che in realtà non esistono o non hanno le competenze dichiarate.
I settori più colpiti sono quelli tecnologici, dove le posizioni remote ad alta specializzazione attirano maggiormente i truffatori. Anche la finanza, con ruoli che richiedono certificazioni specifiche, e la consulenza, specialmente per progetti a breve termine con pagamenti anticipati, sono nel mirino. Il settore ricerca e sviluppo è particolarmente vulnerabile per l’accesso che offre a informazioni proprietarie di valore.
Per proteggersi, i datori di lavoro stanno sviluppando nuove strategie di verifica. Alcuni recruiter ora richiedono test a sorpresa durante i colloqui: “Può girare la testa a destra?”, “Tocchi la punta del naso”, “Si sposti verso la finestra”. Queste richieste apparentemente innocue possono rivelare inconsistenze nell’immagine o reazioni di panico da parte di chi sta utilizzando un deepfake.
Chiedere di mostrare documenti di identità davanti alla camera in tempo reale è diventata una pratica sempre più comune, così come richiedere ai candidati di scrivere qualcosa su carta e mostrarlo. Alcuni recruiter stanno investendo in software di analisi automatica che possono identificare inconsistenze nell’immagine o analizzare pattern biometrici difficili da falsificare.
L’approccio più sicuro prevede colloqui multipli programmati in giorni diversi per verificare la coerenza, controlli incrociati con foto e video presenti sui profili social professionali, e contatti diretti con precedenti datori di lavoro per verificare le referenze. Per posizioni particolarmente sensibili, molte aziende stanno tornando a richiedere almeno un incontro in presenza, nonostante la comodità del remote working.
Le implicazioni legali di queste pratiche sono serie: si configurano come frode documentale, violazione di contratto per misrepresentazione delle competenze, accesso abusivo a sistemi aziendali e violazione della privacy per l’uso improprio di dati biometrici. Tuttavia, perseguire legalmente questi crimini è complesso, specialmente quando i truffatori operano da paesi diversi o utilizzano identità completamente false.
Dal punto di vista etico, la situazione è altrettanto complessa. C’è il rischio di penalizzare candidati legittimi che potrebbero avere problemi tecnici durante i colloqui, o di violare la privacy con controlli eccessivamente invasivi. Le aziende devono bilanciare la necessità di verificare l’autenticità con il rispetto dei diritti dei candidati, mantenendo sempre un approccio trasparente sui controlli che verranno effettuati.
La tecnologia sta evolvendo rapidamente anche dal lato della detection. Nuove reti neurali specializzate vengono addestrate specificamente per riconoscere deepfake, combinando analisi video, audio e comportamentale in tempo reale. Alcune aziende stanno sperimentando con la blockchain per creare certificati digitali immutabili delle competenze, mentre altre sviluppano sistemi di reputazione distribuita per la validazione dell’identità professionale.
Il futuro dei colloqui di lavoro sarà probabilmente caratterizzato da un mix di verifiche tecnologiche e umane sempre più sofisticate. La biometria avanzata, l’analisi comportamentale tramite AI e gli ambienti di realtà aumentata controllati potrebbero diventare standard nel settore. Parallelamente, si stanno sviluppando protocolli di verifica standardizzati e programmi di formazione per recruiter.
Per i datori di lavoro, il consiglio è di formare il team HR sui segnali da cercare, implementare controlli graduali che aumentano in complessità dal primo contatto all’assunzione, e investire in tecnologie di detection. È fondamentale documentare tutto il processo, registrando (con consenso) e archiviando i colloqui per eventuali verifiche successive.
I candidati onesti, dal canto loro, devono prepararsi ad affrontare verifiche aggiuntive come parte normale del processo di selezione. Essere collaborativi con le richieste di verifica, mantenere coerenza tra profili social e CV, e documentare adeguatamente le proprie competenze con portfolio e referenze verificabili diventerà sempre più importante.
Questa nuova realtà rappresenta una sfida significativa per il mondo del recruitment, ma anche un’opportunità per sviluppare processi di selezione più accurati e sicuri. L’autenticità sta diventando un valore aggiunto tanto quanto le competenze professionali, e chi si adatterà per primo a questa evoluzione avrà un vantaggio competitivo nel mercato del talento.
La battaglia tra chi cerca di ingannare e chi cerca di proteggersi è appena iniziata, e come spesso accade nel mondo digitale, sarà una corsa continua tra offesa e difesa. Una cosa è certa: nell’era dei deepfake, fidarsi è bene, ma verificare è decisamente meglio.
Mi raccomando, come sempre state attentionline.it