Cuando una videollamada ya no es una prueba: Cómo los deepfakes amenazan el sector de las criptomonedas

Hubo un tiempo en que las videollamadas servían de protección adicional contra los estafadores. Si veías a alguien en directo en la pantalla, dabas por hecho que estabas hablando con la persona real. Pero la tecnología ha evolucionado y lo que hace poco se consideraba seguro ya no lo es tanto.
El ex CEO de Binance, Changpeng Zhao, ha llamado la atención sobre una nueva ola de fraude que está ganando impulso: el uso de vídeos deepfake en tiempo real para atacar y comprometer a miembros de la comunidad criptográfica. Según Zhao, incluso la verificación por vídeo puede perder pronto su sentido. Si una cara y una voz pueden falsificarse de forma convincente, ¿cómo puede alguien estar seguro de con quién está hablando realmente?
Loading...
Los ataques reales ya no son raros
No se trata sólo de una amenaza hipotética. La criptoinfluencer japonesa Mai Fujimoto perdió el acceso a su cartera de Telegram y Metamask después de unirse a una llamada de Zoom con una versión falsa de alguien en quien confiaba. La engañaron para que hiciera clic en un enlace de "actualización" después de tener problemas para escuchar el audio. Antes de unirse a la llamada, Fujimoto no se había dado cuenta de que la cuenta de Telegram de su conocida ya había sido hackeada.
"Me envió el enlace y me indicó que siguiera unos pasos para ajustar la configuración de audio, y creo que fue entonces cuando el ataque comprometió mi ordenador".
Los ataques deepfake se dirigen cada vez más a empleados de empresas, fondos e intercambios de criptomonedas. En un caso reciente, actores maliciosos se hicieron pasar por ejecutivos de un fondo de criptomonedas a través de varias llamadas de Zoom, convenciendo a un miembro del personal para que instalara el software que necesitaban. El resultado: un keylogger, un grabador de pantalla y el robo de claves privadas.
Casi todo se puede falsificar
El problema es que el modelo tradicional de confianza digital ya no funciona. Una cara, un nombre de usuario, una voz... todo se puede falsificar de forma convincente. Los algoritmos modernos de deepfake no sólo pueden replicar el tono y las expresiones faciales de alguien, sino que también se adaptan en tiempo real a las reacciones de una persona. Esto significa que el contacto visual y auditivo ya no es un indicador fiable de autenticidad.
Aunque los entornos corporativos todavía pueden implementar la verificación multinivel -utilizando plataformas internas, tokens de acceso o canales de confirmación de respaldo-, las conversaciones informales y la comunicación personal a menudo dependen únicamente de la confianza. Eso es precisamente lo que hace vulnerables a los usuarios: la familiaridad con la "voz" o la "cara" de alguien antes proporcionaba una sensación de seguridad, pero ahora puede convertirse en un punto débil.
La tecnología avanza aún más. Algunos plugins pueden generar rostros hiperrealistas durante las videollamadas, simulando el movimiento de los ojos, el parpadeo e incluso retrasos de audio, todo ello para crear la ilusión de una conversación en directo. Y esa ilusión puede ser suficiente para convencer a alguien de que conceda acceso o realice una acción peligrosa sin sospechar nada.
La ciberhigiene ya no es opcional
El llamamiento de Zhao a no instalar nunca software de fuentes no oficiales ya no es sólo un recordatorio general: es un requisito básico de ciberhigiene. En un mundo en el que incluso las videollamadas pueden verse comprometidas, la única protección eficaz es el pensamiento crítico y unos protocolos de comportamiento digital claros.
Eso significa evitar por completo
- instalar cualquier software desde enlaces recibidos en mensajes privados;
- introducir contraseñas o códigos durante una videollamada;
- saltarse un canal de confirmación secundario (como un mensaje separado o una llamada a través de otra plataforma).
Mientras tanto, las empresas deben introducir políticas internas de verificación de identidad, incluso cuando la voz suene familiar, adoptar herramientas de supervisión del comportamiento y formar a los equipos para que reconozcan los signos de suplantación.
Todavía no hay ninguna ley que exija esto. Pero la realidad sí lo exige, y el coste de un error se mide no sólo en fondos perdidos, sino en reputación y continuidad del negocio.