San Pedro Sula, Honduras
Una nueva modalidad de estafa virtual gana terreno y afecta principalmente a la población más vulnerable. La inteligencia artificial (IA) es el principal habilitador de este tipo de engaños, lo que vuelve cada vez más difícil identificar y evitar fraudes digitales.
El acceso fácil a herramientas tecnológicas –incluidas plataformas de inteligencia artificial de uso abierto– no siempre resulta beneficioso, y menos cuando cae en manos de personas maliciosas. La suplantación de identidad mediante la clonación de voces con IA, que para algunos puede parecer una herramienta de entretenimiento, se ha convertido para otros en un mecanismo eficaz para cometer estafas.
Durante la temporada navideña, el riesgo aumenta. En estas fechas es más probable caer en estafas de phishing a través de llamadas o mensajes, ya que los delincuentes aprovechan la carga emocional y la urgencia propia de la época.
Mediante IA, imitan la voz de familiares o personas cercanas para generar confianza y presionar a las víctimas con supuestas emergencias, solicitudes de ayuda o compras, lo que reduce la capacidad de verificación.
Con este cambio revolucionario para las estafas, la barrera entre la pantalla y el usuario se rompe. Ya no se trata solo de textos o enlaces sospechosos, sino de voces familiares que llegan directamente al teléfono, logrando que las personas caigan en redes de engaño en cuestión de segundos.
Ante este panorama, LA PRENSA Verifica te explica cómo funciona y cómo evitar caer en las redes de phishing.
Técnicas utilizadas
Expertos en ciberseguridad han advertido sobre el potencial de la inteligencia artificial para causar daños en este tipo de escenarios.
Por ejemplo, con la tecnología de clonación de voz, basta capturar unos pocos segundos de audio —obtenidos de videos publicados en TikTok, Instagram u otras plataformas— para lograr una suplantación convincente.
Además, se ha detectado una práctica recurrente: personas reciben mensajes de WhatsApp de supuestos amigos con quienes no han tenido contacto reciente y que solicitan un saludo mediante una nota de voz.
Esa muestra de audio puede ser utilizada para clonar la voz y luego realizar llamadas a familiares, dejar mensajes falsos en buzones de voz o enviar audios manipulados por canales de mensajería.
En Honduras, expertos han detectado un aumento de "llamadas silenciosas" provenientes de números desconocidos. Esta modalidad podría servir para que los delincuentes capten los primeros segundos de voz de la víctima cuando responde, para alimentar los modelos de clonación de audio.
Los mensajes falsos generados con IA suelen utilizarse para exigir dinero por supuestos secuestros, emergencias médicas u otros escenarios de alto riesgo. También se emplean para hacerse pasar por familiares que residen en el extranjero y solicitan efectivo para resolver presuntos problemas económicos o legales.
¿Cómo protegerse?
Si bien la metodología de la estafa no es nueva, el uso de inteligencia artificial hace que las llamadas, audios y mensajes parezcan cada vez más reales. El objetivo es confundir a la víctima y hacerle creer que interactúa con un ser querido para obtener dinero o datos sensibles.
Lo primero: evite contestar llamadas de números desconocidos. Si respondes y no obtienes respuesta inmediata, cuelga enseguida.
Si recibe un mensaje de WhatsApp desde un número desconocido con un código de área que no corresponde a Honduras, evalúe si realmente tiene un contacto en ese país. De no ser así, no responda y bloquee el número.
Mantener una actitud alerta y escéptica es clave. Según una encuesta realizada a 7,000 personas por McAfee –compañía especializada en seguridad informática–, una de cada cuatro afirmó haber sido víctima de estafas mediante clonación de voz con IA o conocer a alguien cercano que pasó por esa experiencia.
El riesgo de la accesibilidad
Las herramientas de inteligencia artificial están al alcance de cualquier persona. Su uso es sencillo y altamente efectivo para crear contenidos falsos, sin requerir conocimientos técnicos avanzados.
De acuerdo con la evaluación comparativa y valoración de investigadores de seguridad de McAfee, bastan apenas "tres segundos de audio para producir un clon con un 85% de coincidencia de voz con el original”, porcentaje que puede aumentar con un mayor entrenamiento de la herramienta.
En este contexto, distinguir entre lo real y lo falso se vuelve cada vez más complejo. El 70 % de las personas encuestadas por McAfee reconoció no sentirse segura al intentar diferenciar entre una voz clonada y una real, lo que evidencia el alto nivel de riesgo que implica este tipo de estafa.
Además, esta estrategia de estafa puede volverse multifacética, combinando la clonación de voces con enlaces a sitios web falsos, mensajes engañosos y deepfakes: videos generados con inteligencia artificial.
Frente a este escenario, LA PRENSA Verifica reitera la importancia de la verificación como herramienta clave para reducir el impacto de estas nuevas formas de estafa.