Estafas con inteligencia artificial: qué son los deepfakes y cómo prevenirlos

La inteligencia artificial (IA) ha transformado la manera en que nos comunicamos, trabajamos e incluso cómo consumimos información. Sin embargo, junto con sus beneficios, también han surgido nuevas formas de fraude digital, siendo una de las más peligrosas el deepfake.
¿Qué es un deepfake?
Los deepfakes son videos, audios o imágenes manipuladas con IA que imitan de forma muy realista a una persona, copiando su rostro, movimientos o incluso su voz. Esta tecnología, que puede parecer inofensiva o usada solo para entretenimiento, ha sido utilizada en estafas para suplantar identidades, generar confusión y convencer a las personas de entregar información personal o realizar transferencias de dinero. En AFP Modelo nos importa tu seguridad y la de tus datos personales, por eso te enseñamos a cómo proteger frente a estos fraudes digitales.
¿Cómo identificar un deepfake?
Aunque estas estafas son cada vez más realistas, existen señales que pueden ayudarte a detectarlas:
- Movimientos poco naturales: en el video, fíjate si la persona presenta parpadeos extraños, labios que no coinciden con el audio o expresiones faciales rígidas.
- Errores en la voz: tono robótico o cambios bruscos de volumen.
- Mensajes sospechosos: urgencias inusuales, promesas de dinero fácil o solicitudes de datos personales o bancarios.
¿Cómo protegerte de estafas con inteligencia artificial?
- Desconfía de mensajes con tono urgente o alarmante: Si alguien te contacta diciendo que tiene una emergencia y te pide dinero rápidamente, intenta verificar la información antes de actuar.
- Nunca entregues información personal o financiera por mensajes, llamadas o redes sociales: Ninguna institución confiable te pedirá contraseñas, números de cuenta o códigos por estos medios.
- Activa la verificación en dos pasos: Esta herramienta añade una capa extra de seguridad a tus cuentas, dificultando que terceros accedan sin autorización.
- Acuerda con tu familia una palabra clave o pregunta secreta: Por ejemplo, si te llama alguien diciendo ser tu hijo y pidiendo dinero, puedes decir: “Dime cuál es nuestra palabra secreta”. Solo tu familia real sabrá la respuesta. Es una forma simple pero efectiva de protegerse.
¿Qué hacer si crees que fuiste víctima de un deepfake?
Si entregaste datos personales o hiciste una transferencia tras una estafa con IA:
- Contacta a tu banco o institución financiera de inmediato.
- Cambia tus contraseñas y activas medidas de seguridad adicionales.
- Infórmate y mantente alerta para evitar nuevos intentos.
En AFP Modelo nos interesa ayudarte a mantener la seguridad de tus datos. Por eso, te invitamos a revisar más consejos de ciberseguridad en nuestra sección dedicada a este tema y mantenerte siempre informado para evitar caer en posibles estafas digitales.