Expertos en ciberseguridad alertan que los delincuentes ya pueden copiar la voz de cualquier persona con apenas segundos de audio y utilizar deepfakes en tiempo real para engañar víctimas. Advierten que las estafas impulsadas por IA crecieron de manera explosiva y se volvieron cada vez más difíciles de detectar.
Las estafas impulsadas por inteligencia artificial están creciendo a una velocidad sin precedentes y ya permiten a los delincuentes clonar voces, generar rostros falsos y realizar videollamadas deepfake en tiempo real para engañar a víctimas y robar dinero.
Especialistas en ciberseguridad como ESET y Kaspersky advirtieron que herramientas que antes estaban reservadas para laboratorios tecnológicos hoy pueden utilizarse mediante aplicaciones gratuitas y apenas unos segundos de audio obtenidos de redes sociales, mensajes de WhatsApp o videos publicados en internet.
Uno de los mayores temores de las autoridades es la facilidad con la que actualmente puede suplantarse la identidad de cualquier persona. Un breve mensaje de voz o una grabación casual ya pueden ser suficientes para entrenar sistemas capaces de imitar con enorme precisión el tono, la velocidad, las pausas y hasta las muletillas de una persona.
Cómo funciona el clonaje de voz con IA
La clonación de voz se transformó en una de las modalidades más utilizadas por los ciberdelincuentes. Los sistemas actuales permiten recrear conversaciones prácticamente reales y, en muchos casos, responder en tiempo real durante una llamada.
Esto genera situaciones extremadamente peligrosas: una víctima puede recibir un llamado aparentemente realizado por un hijo, un familiar o un jefe de trabajo solicitando dinero urgente, claves bancarias o transferencias inmediatas.
Los expertos advierten que el verdadero riesgo aparece cuando la inteligencia artificial se combina con manipulación emocional, presión psicológica y urgencia, elementos clásicos de las estafas modernas.
Los deepfakes ya llegaron a las videollamadas
La amenaza no se limita únicamente al audio. Los videos deepfake también evolucionaron de forma acelerada y ya existen sistemas capaces de simular rostros, expresiones faciales y conversaciones en vivo.
Uno de los casos más impactantes ocurrió en Hong Kong, donde un empleado de una empresa de ingeniería participó en una videollamada creyendo hablar con directivos reales de la compañía. En realidad, todas las personas presentes en pantalla eran recreaciones generadas por inteligencia artificial.
Tras recibir instrucciones aparentemente legítimas, el trabajador autorizó transferencias millonarias antes de descubrir que había sido víctima de un sofisticado fraude.
El episodio encendió alarmas internacionales porque demostró que los deepfakes dejaron de ser simples videos editados para convertirse en herramientas capaces de sostener interacciones completas en tiempo real.
Las estafas románticas también evolucionaron
Otro de los delitos que más cambió con la inteligencia artificial es el fraude sentimental, conocido internacionalmente como “pig butchering”.
Ahora los delincuentes pueden utilizar rostros generados por IA durante videollamadas, construir vínculos emocionales creíbles y sostener conversaciones durante semanas o meses para convencer a las víctimas de invertir dinero en plataformas falsas o realizar transferencias.
Según distintos reportes internacionales, las pérdidas vinculadas a este tipo de engaños ya alcanzan cifras multimillonarias a nivel global y afectan especialmente a adultos mayores.
El phishing se volvió mucho más difícil de detectar
La inteligencia artificial también modificó los tradicionales correos electrónicos fraudulentos.
Durante años, muchos mensajes de phishing podían identificarse fácilmente por errores ortográficos o redacciones poco naturales. Sin embargo, los modelos actuales generan textos prácticamente indistinguibles de los comunicados reales enviados por bancos, empresas tecnológicas u organismos oficiales.
Esto provoca que incluso usuarios con experiencia en seguridad digital puedan caer en engaños cuidadosamente elaborados.
Por qué preocupa tanto a los especialistas
Lo que más alarma a los expertos es la facilidad de acceso a estas herramientas. Actualmente existen aplicaciones gratuitas y plataformas online capaces de clonar voces o generar deepfakes en cuestión de minutos.
Además, en foros clandestinos ya se comercializan kits completos para realizar fraudes automatizados con inteligencia artificial.
Frente a este escenario, organismos internacionales como Interpol advirtieron que las redes criminales comenzaron a utilizar IA para multiplicar ataques y volver mucho más compleja la detección de fraudes.
Los especialistas remarcan que la principal defensa seguirá siendo la verificación directa: desconfiar de pedidos urgentes de dinero, confirmar identidades mediante otros canales y evitar compartir audios o videos personales públicamente sin necesidad.
ESCRIBE AQUI