La inteligencia artificial (IA) ya no es cosa de películas. Hoy permite crear textos, audios e incluso videos hiperrealistas en cuestión de minutos. El problema es que esa misma tecnología también está siendo usada para cometer fraudes cada vez más sofisticados en Colombia.
Los casos ya no se limitan a correos mal escritos o mensajes evidentes. Ahora incluyen clonación de voz, videos manipulados (deepfakes) y mensajes de WhatsApp perfectamente redactados y personalizados.
1️⃣ Clonación de voz: cuando “suena” como alguien cercano
Con apenas segundos de audio —tomados de redes sociales o notas de voz— los delincuentes pueden replicar casi a la perfección la voz de una persona.
Los guiones más comunes:
- “Mamá, tuve un accidente”.
- “Estoy detenido, necesito que transfieras ya”.
- “Me robaron el celular, este es mi nuevo número”.
La voz suena real, angustiada y convincente. Si además el estafador conoce datos personales obtenidos en redes sociales, el engaño se vuelve aún más creíble.
🔎 Qué hacer:
Cuelgue y llame directamente al número que ya tenía guardado. Nunca transfiera dinero bajo presión emocional.
2️⃣ Deepfakes: videos falsos que parecen auténticos
Los llamados deepfakes permiten reemplazar rostros o modificar voces en videos. Así pueden fabricar grabaciones donde supuestamente:
- Un jefe solicita un pago urgente.
- Un funcionario público da instrucciones.
- Una figura pública promociona una inversión milagrosa.
Aunque a veces hay detalles extraños (movimientos faciales poco naturales o labios desincronizados), no siempre son fáciles de detectar, especialmente en momentos de urgencia.
🔎 Qué hacer:
Confirme la información en canales oficiales. Ninguna empresa seria solicita pagos urgentes por video improvisado.
3️⃣ WhatsApp: el canal preferido
En Colombia, WhatsApp sigue siendo la vía principal de fraude. La diferencia es que ahora los mensajes están bien redactados, personalizados y coherentes gracias a la IA.
Ejemplo:
“Hola, Carlos. Detectamos una compra reciente. Necesitamos confirmar el pago antes del envío”.
Nombre correcto. Contexto creíble. Momento oportuno.
🔎 Qué hacer:
No haga clic en enlaces sospechosos. Verifique directamente con la empresa en su página oficial.
🚨 ¿Por qué estos fraudes son tan peligrosos?
Porque atacan la confianza.
Ya no se trata de errores ortográficos evidentes, sino de mensajes y voces que parecen auténticos.
Además, la IA permite automatizar ataques masivos: miles de mensajes personalizados en minutos. Si solo un pequeño porcentaje cae, el negocio es rentable para los delincuentes.
🛡 Medidas clave para protegerse
- Desconfíe de la urgencia emocional. Si le exigen actuar “ya”, deténgase.
- Cree una palabra clave familiar. Úsela en emergencias reales.
- Active la verificación en dos pasos en WhatsApp, correo y redes.
- No entregue códigos de verificación que lleguen por SMS.
- No publique audios innecesarios en redes sociales.
- Verifique inversiones en páginas oficiales antes de transferir dinero.
Si ya fue víctima
Actúe de inmediato:
- Contacte a su banco para bloquear movimientos.
- Reporte el número en WhatsApp.
- Denuncie ante el Centro Cibernético Policial de la Policía Nacional.
- Cambie todas sus contraseñas.
La inteligencia artificial no es el enemigo. Es una herramienta poderosa para educación, salud y productividad. El problema es su uso malintencionado.
En un mundo donde la voz puede falsificarse y el video manipularse, la mejor defensa sigue siendo la misma: verifique antes de transferir, piense antes de reaccionar y nunca actúe bajo presión.
