Cuando un estafador se hace pasar por ti: la nueva era del robo de identidad
En los últimos años, el robo de identidad ha evolucionado de maneras que ni siquiera imaginábamos. Lo que antes requería hurgar en tu correo físico o robar tu cartera, ahora puede hacerse con unos cuantos clics, modelos de IA avanzados y técnicas cada vez más sofisticadas. Y aunque parezca ciencia ficción, ahora mismo hay inversores inyectando millones en empresas que prometen protegernos de una amenaza muy real: deepfakes que pueden suplantar no solo tu cara, sino tu voz y hasta tu forma de escribir.
La IA ha cambiado las reglas del juego
Hace poco me enteré de algo que me dejó bastante preocupado: un grupo de inversores prominentes, incluyendo Andreessen Horowitz (a16z) y el fondo de startups de OpenAI, acaban de meter nada menos que 43 millones de dólares en Adaptive Security. Esta startup promete contrarrestar el creciente problema de la ingeniería social potenciada con deepfakes y otras amenazas impulsadas por IA.
Lo interesante aquí no es solo la cantidad de dinero (que es considerable para una empresa en fase inicial), sino quiénes están apostando por ella. Cuando OpenAI, la creadora de ChatGPT, invierte por primera vez en una empresa de ciberseguridad, algo importante está ocurriendo.
La nueva cara del robo de identidad
Ya no hablamos solo de alguien haciéndose pasar por tu banco en un correo electrónico mal redactado. La nueva generación de ataques de robo de identidad incluye:
- Llamadas telefónicas donde la voz del «director financiero» es indistinguible de la real
- Videollamadas donde un deepfake puede suplantar perfectamente a un compañero de trabajo
- Mensajes de texto que imitan a la perfección el estilo de escritura de tu jefe
Adaptive Security, fundada por Brian Long y Andrew Jones (emprendedores con experiencia previa en TapCommerce y Attentive), está apostando por algo que suena bastante revolucionario: crear simulaciones hiperrealistas de estos ataques para entrenar a empleados y sistemas antes de que ocurran en la vida real.
Cómo funciona este nuevo enfoque defensivo
La propuesta de Adaptive es sorprendentemente directa: si quieres defenderte de los deepfakes, primero tienes que entender cómo funcionan. Por eso están construyendo una plataforma que simula ataques realistas utilizando personas generadas por IA a través de diferentes canales:
- Llamadas de voz que imitan a la perfección a ejecutivos de la empresa
- SMS con solicitudes aparentemente legítimas
- Correos electrónicos sofisticados que pasan todos los filtros habituales
«Con los modelos y datos correctos, podemos simular ataques de IA realistas, entrenar a los empleados para reconocer amenazas, clasificar comportamientos sospechosos en tiempo real y detectar riesgos antes de que se conviertan en pérdidas», explicaron desde la compañía.
Entrenamiento en tiempo real
Lo que me parece especialmente interesante es cómo funciona su sistema: cuando un empleado cae en una de estas trampas simuladas, el sistema señala el riesgo inmediatamente y ofrece capacitación personalizada en el acto. No es el típico curso obligatorio anual de seguridad que todos ignoramos; es aprendizaje práctico en el momento exacto en que es relevante.
El mercado de la defensa contra deepfakes está explotando
No es casualidad que esté surgiendo todo un ecosistema de empresas dedicadas a combatir esta amenaza. Además de Adaptive Security, empresas como Bureau acaban de recaudar 30 millones de dólares para combatir deepfakes y fraudes en pagos, mientras que Reality Defender ha conseguido 33 millones para desarrollar tecnologías que detecten contenido generado por IA.
Lo curioso es que estamos viviendo una carrera armamentista tecnológica: por un lado, las herramientas de IA generativa son cada vez más accesibles y potentes; por otro, necesitamos desarrollar defensas igualmente sofisticadas.
¿Qué podemos hacer mientras tanto?
Mientras estas soluciones empresariales se desarrollan, hay algunas cosas que todos podemos hacer para protegernos del robo de identidad moderno:
1. Verificación en múltiples canales
Si recibes una solicitud extraña por correo electrónico o mensaje, incluso si parece venir de alguien conocido, verifica por un canal diferente. Una simple llamada telefónica (a un número que ya conozcas, no al proporcionado en el mensaje sospechoso) puede ahorrarte muchos problemas.
2. Establecer códigos secretos con colegas cercanos
Para comunicaciones importantes o transferencias de dinero, algunas empresas están estableciendo palabras clave o procedimientos específicos que serían difíciles de replicar para un atacante, incluso con IA avanzada.
3. Desconfiar de la urgencia injustificada
Los ataques de phishing y los intentos de robo de identidad suelen crear una falsa sensación de urgencia. «Necesito esta transferencia en los próximos 15 minutos» debería encender todas tus alarmas.
El futuro del robo de identidad
Lo que me parece más preocupante es que apenas estamos viendo la punta del iceberg. A medida que los modelos de IA sigan mejorando, la línea entre lo real y lo fabricado seguirá difuminándose.
En 2025 ya no basta con desconfiar de correos mal escritos o llamadas con acento extraño. Los criminales tienen acceso a herramientas que pueden analizar horas de contenido público tuyo (en redes sociales, podcasts, videos corporativos) y crear réplicas convincentes de tu voz, tu imagen e incluso tus patrones de comunicación escrita.
La buena noticia es que también estamos viendo una respuesta seria del sector tecnológico. Inversiones como la que recibió Adaptive Security demuestran que hay un reconocimiento claro del problema y una voluntad de abordarlo con soluciones innovadoras.
Como siempre en temas de ciberseguridad, la mejor defensa es una combinación de tecnología avanzada y sentido común reforzado. Ninguna herramienta por sí sola puede protegernos si seguimos haciendo clic sin pensar.

