Clonan voces y rostros con IA para cometer estafas y fraudes sofisticados

Reconocidas figuras hondureñas, como el músico Polache y el doctor Emec Cherenfant, han sido víctimas de los “deepfakes”, técnicas para producir videos y audios falsos ultrarreales.

Resulta muy fácil falsificar en video o audio la identidad de una persona a través de herramientas de Inteligencia Artificial.

Exclusivo para Suscriptores

¿Ya tiene su suscripción? Únase a nuestra comunidad de lectores.

Suscríbase

Gracias por informarse con
La Prensa

Alcanzó su límite de artículos

Suscríbase y acceda a artículos, boletines, eventos y muchos más beneficios, sin límite.

Suscríbase

Gracias por informarse con
La Prensa

Artículo exclusivo bajo registro

Inicie sesión o regístrese para acceder al mejor contenido periodístico.

Iniciar Sesión

Gracias por informarse con
La Prensa

San Pedro Sula

En la era digital, donde la tecnología avanza a un ritmo vertiginoso, emergen herramientas que, aunque impresionantes, también representan riesgos significativos.

Una de ellas es el “deepfake” una técnica de inteligencia artificial que permite producir videos y audios falsos con una precisión alarmante. Aunque inicialmente fascinante, su potencial para el mal uso, especialmente en la suplantación de identidades y marcas, plantea serias preocupaciones.

En otras palabras, esta tecnología pone palabras en boca de alguien que nunca las dijo o hacer que alguien aparezca en un lugar donde nunca estuvo. Inicialmente, el deepfake se utilizó para el entretenimiento y en la industria cinematográfica, pero su acceso generalizado ha abierto la puerta a usos más oscuros.

En Honduras, los deepfake ya han afectado a diversas personalidades, incluyendo artistas como Polache, figuras públicas como el doctor Emec Cherenfant, así como a políticos como el presidente del Congreso Nacional, Luis Redondo; el asesor presidencial Manuel Zelaya Rosales; y a la presidenta Xiomara Castro.

Mientras los montajes políticos tienden a difundir desinformación para generar aversión hacia funcionarios o candidatos, otros promueven estafas de productos e inversiones fraudulentas, aprovechando la confianza y reconocimiento de las figuras públicas.

“Cuando yo miré (el video), yo no me había dado cuenta, me lo mandaron y al inicio no le paré bola, porque yo miraba que era bien obvio que era un montaje”, comentó Polache. El artista se refiere a un video en el que aparentemente promocionaba un producto para una enfermedad ósea degenerativa. Aunque el video utilizaba una imitación de su voz y una imagen manipulada, muchas personas creyeron que era auténtico.

El cantautor lo tomó con seriedad cuando “algunas personas nos preguntaban, uno, por el producto, y dos, por mi estado de salud; dije, ah no, pues si hay gente que cayó, definitivamente hay gente que se fue en la chalana”.

Una situación similar le pasó al doctor Emec Cherenfant, quien supuestamente en un video aparece promocionando un producto contra la diabetes. Al darse cuenta emprendió con sus medios la búsqueda del origen, pero sin resultados por su complejidad.

“Es lamentable que exista gente inescrupulosa como estos que están utilizando el nombre, la imagen de alguien para lucrarse”, señaló Cherenfant, quien asegura desconocer el producto. Esta táctica engañosa no solo afecta su reputación, sino que también pone en riesgo la salud de las personas que confían en su nombre.

“La inteligencia artificial definitivamente marca una pauta tremenda en el desarrollo del ser humano. Sin embargo, al mismo tiempo, yo reconozco que hay gente que está utilizando la inteligencia artificial para fines negativos”, lamentó Cherenfant.

El alcance de los deepfakes no se limita solo a los videos. La clonación de voces y la generación de imágenes a través de indicaciones específicas (prompts) también son técnicas comunes que complican aún más la detección de estos fraudes.

Uno de los mayores desafíos que enfrentan las autoridades es la dificultad para rastrear estos delitos. Según reportes oficiales del Ministerio Público, en lo que va de 2024 se han reportado 34 denuncias por delitos informáticos, en los cuales hay casos de suplantación de identidades, sin embargo, no hay capturas, ni identificación de sospechosos relacionados con estafas mediante IA, debido a la complejidad inherente de estos casos.

Los procesos electorales también están bajo esta amenaza. Para el experto académico en inteligencia artificial e innovación de Founderz y Microsoft, Celio Luis Acosta, “la manipulación de la opinión pública a través de desinformación y propaganda, violaciones de privacidad mediante vigilancia masiva y ciberataques que comprometen datos sensibles son algunos de los riesgos en el uso de la IA en la sociedad”.

El experto sentenció que en Honduras esta situación podría afectar gravemente las elecciones, con deepfake suplantando la identidad de candidatos y bots difundiendo información falsa o engañosa.

Este fenómeno ya ha sido observado en otros lugares. Por ejemplo, el 21 de enero de 2024, tres días antes de las primarias presidenciales demócratas de New Hampshire, los residentes recibieron una llamada telefónica supuestamente del presidente Joe Biden, instándolos a votar en las elecciones de noviembre. Sin embargo, esta llamada fue una falsificación, utilizando tecnología de IA para imitar su voz y engañar a los votantes.

La proliferación de deepfakes plantea serios desafíos para la sociedad, desde estafas financieras hasta la difamación y la manipulación electoral. A medida que la tecnología continúa avanzando, es crucial que tanto las autoridades como las empresas tecnológicas redoblen sus esfuerzos para detectar y combatir estas prácticas nocivas.

Tecnología
Rostros
Ciberestafas
Ciberdelincuentes
Inteligencia IA