21.06.2025
Mirjan Hipolito
Trader di criptovalute e di azioni
21.06.2025

Quando la videochiamata non è più una prova: Come i deepfake minacciano il settore delle criptovalute

Quando la videochiamata non è più una prova: Come i deepfake minacciano il settore delle criptovalute Come gli attacchi guidati dall'intelligenza artificiale stanno ridisegnando la sicurezza delle criptovalute

Un tempo le videochiamate costituivano un'ulteriore garanzia contro i truffatori. Se si vedeva una persona dal vivo sullo schermo, si pensava di parlare con una persona reale. Ma la tecnologia si è evoluta e ciò che di recente era considerato sicuro non lo è più.

L'ex CEO di Binance Changpeng Zhao ha attirato l'attenzione su una nuova ondata di frodi che sta prendendo piede: l'uso di video deepfake in tempo reale per colpire e compromettere i membri della comunità crittografica. Secondo Zhao, anche la verifica video potrebbe presto diventare priva di significato. Se un volto e una voce possono essere falsificati in modo convincente, come si può essere sicuri di chi si sta parlando davvero?

Gli attacchi reali non sono più rari

Questa non è solo una minaccia ipotetica. Mai Fujimoto, influencer giapponese di criptovalute, ha perso l'accesso al suo portafoglio Telegram e Metamask dopo essersi unita a una chiamata Zoom con una versione deepfake di una persona di cui si fidava. È stata indotta a cliccare su un link di "aggiornamento" dopo aver faticato a sentire l'audio. Prima di partecipare alla chiamata, Fujimoto non si era resa conto che l'account Telegram della sua conoscente era già stato violato.

"Mi ha inviato il link e mi ha chiesto di seguire alcuni passaggi per regolare le impostazioni audio, e credo che l'attacco abbia compromesso il mio computer".

Gli attacchi deepfake stanno prendendo sempre più di mira i dipendenti di società, fondi e borse di criptovalute. In un caso recente, attori malintenzionati si sono spacciati per dirigenti di un fondo di criptovalute nel corso di diverse chiamate Zoom, convincendo un membro del personale a installare il software di cui avevano bisogno. Il risultato: un keylogger, un registratore di schermo e il furto di chiavi private.

Quasi tutto può essere falsificato

Il problema è che il modello tradizionale di fiducia digitale non funziona più. Un volto, un nome utente, una voce: tutti questi elementi possono essere falsificati in modo convincente. I moderni algoritmi di deepfake possono non solo replicare il tono e le espressioni facciali di una persona, ma anche adattarsi in tempo reale alle sue reazioni. Ciò significa che il contatto visivo e audio non è più un indicatore affidabile di autenticità.

Mentre gli ambienti aziendali possono ancora implementare una verifica a più livelli - utilizzando piattaforme interne, token di accesso o canali di conferma di riserva - le conversazioni informali e la comunicazione personale spesso si affidano esclusivamente alla fiducia. È proprio questo che rende gli utenti vulnerabili: la familiarità con la "voce" o il "volto" di qualcuno una volta forniva un senso di sicurezza, ma ora può diventare un punto debole.

La tecnologia si sta spingendo ancora più in là. Alcuni plugin sono in grado di generare volti iperrealistici durante le videochiamate, simulando il movimento degli occhi, il battito delle palpebre e persino i ritardi audio, il tutto per creare l'illusione di una conversazione dal vivo. E questa illusione può essere sufficiente per convincere qualcuno a concedere l'accesso o a eseguire un'azione pericolosa senza sospettare nulla.

L'igiene informatica non è più un optional

L'invito di Zhao a non installare mai software da fonti non ufficiali non è più solo un promemoria generale: è un requisito di base per l'igiene informatica. In un mondo in cui anche le videochiamate possono essere compromesse, l'unica protezione efficace è il pensiero critico e protocolli chiari di comportamento digitale.

Ciò significa evitare completamente

- installare qualsiasi software da link ricevuti in messaggi privati;

- inserire password o codici durante una videochiamata;

- saltare un canale di conferma secondario (come un messaggio separato o una chiamata tramite un'altra piattaforma).

Nel frattempo, le aziende devono introdurre politiche interne di verifica dell'identità, anche quando la voce sembra familiare, adottare strumenti di monitoraggio del comportamento e formare i team a riconoscere i segni di impersonificazione.

Non esiste ancora una legge che imponga tutto questo. Ma la realtà lo fa, e il costo di un errore si misura non solo in fondi persi, ma anche in reputazione e continuità aziendale.

Questo materiale può contenere opinioni di terzi, non costituisce consulenza finanziaria e può includere contenuti sponsorizzati.