Clonan voces y rostros con IA para cometer estafas y fraudes sofisticados

Reconocidas figuras hondureñas, como el músico Polache y el doctor Emec Cherenfant, han sido víctimas de los “deepfakes”, técnicas para producir videos y audios falsos ultrarreales.

Foto:

Resulta muy fácil falsificar en video o audio la identidad de una persona a través de herramientas de Inteligencia Artificial.

jue 11 de julio de 2024

San Pedro Sula

En la era digital, donde la tecnología avanza a un ritmo vertiginoso, emergen herramientas que, aunque impresionantes, también representan riesgos significativos.

Una de ellas es el “deepfake” una técnica de inteligencia artificial que permite producir videos y audios falsos con una precisión alarmante. Aunque inicialmente fascinante, su potencial para el mal uso, especialmente en la suplantación de identidades y marcas, plantea serias preocupaciones.

En otras palabras, esta tecnología pone palabras en boca de alguien que nunca las dijo o hacer que alguien aparezca en un lugar donde nunca estuvo. Inicialmente, el deepfake se utilizó para el entretenimiento y en la industria cinematográfica, pero su acceso generalizado ha abierto la puerta a usos más oscuros.

En Honduras, los deepfake ya han afectado a diversas personalidades, incluyendo artistas como Polache, figuras públicas como el doctor Emec Cherenfant, así como a políticos como el presidente del Congreso Nacional, Luis Redondo; el asesor presidencial Manuel Zelaya Rosales; y a la presidenta Xiomara Castro.

$!Captura del video de la suplantación de identidad a Polache.
Tipos de deepfakes
  • > 1. Deepfake video: se crean vídeos falsos recreando los gestos faciales de la personalidad deseada y colocándolos en el deepfake de la personalidad deseada.
  • > 2. Deepfake audio: se imitan y clonan las voces de personas específicas para crear oraciones convincentes que suenan como si estuvieran diciendo cosas que no dijeron en realidad.
  • > 3. Deepfake social: se crean perfiles de Internet falsos en Twitter (X), Linkedin, etc., presentan falsas innovaciones, lo que dificulta que un usuario normal los detecte.

Mientras los montajes políticos tienden a difundir desinformación para generar aversión hacia funcionarios o candidatos, otros promueven estafas de productos e inversiones fraudulentas, aprovechando la confianza y reconocimiento de las figuras públicas.

“Cuando yo miré (el video), yo no me había dado cuenta, me lo mandaron y al inicio no le paré bola, porque yo miraba que era bien obvio que era un montaje”, comentó Polache. El artista se refiere a un video en el que aparentemente promocionaba un producto para una enfermedad ósea degenerativa. Aunque el video utilizaba una imitación de su voz y una imagen manipulada, muchas personas creyeron que era auténtico.

El cantautor lo tomó con seriedad cuando “algunas personas nos preguntaban, uno, por el producto, y dos, por mi estado de salud; dije, ah no, pues si hay gente que cayó, definitivamente hay gente que se fue en la chalana”.

Una situación similar le pasó al doctor Emec Cherenfant, quien supuestamente en un video aparece promocionando un producto contra la diabetes. Al darse cuenta emprendió con sus medios la búsqueda del origen, pero sin resultados por su complejidad.

Para saber
  • > 464% Aumentaron los contenidos deepfake pornográficos en 2023, según estudio de Home Security Heroes. El 99% de los casos afecta a la mujer.
  • > 25% de las personas se les dificulta distinguir un audio deepfake del audio real, lo que les hace susceptibles, según estudio de LocalCircles 2023.

“Es lamentable que exista gente inescrupulosa como estos que están utilizando el nombre, la imagen de alguien para lucrarse”, señaló Cherenfant, quien asegura desconocer el producto. Esta táctica engañosa no solo afecta su reputación, sino que también pone en riesgo la salud de las personas que confían en su nombre.

$!Captura del video de la suplantación de identidad al doctor Emec Cherenfant.

“La inteligencia artificial definitivamente marca una pauta tremenda en el desarrollo del ser humano. Sin embargo, al mismo tiempo, yo reconozco que hay gente que está utilizando la inteligencia artificial para fines negativos”, lamentó Cherenfant.

El alcance de los deepfakes no se limita solo a los videos. La clonación de voces y la generación de imágenes a través de indicaciones específicas (prompts) también son técnicas comunes que complican aún más la detección de estos fraudes.

$!Clonan voces y rostros con IA para cometer estafas y fraudes sofisticados

Difíciles de rastrear

Uno de los mayores desafíos que enfrentan las autoridades es la dificultad para rastrear estos delitos. Según reportes oficiales del Ministerio Público, en lo que va de 2024 se han reportado 34 denuncias por delitos informáticos, en los cuales hay casos de suplantación de identidades, sin embargo, no hay capturas, ni identificación de sospechosos relacionados con estafas mediante IA, debido a la complejidad inherente de estos casos.

Los procesos electorales también están bajo esta amenaza. Para el experto académico en inteligencia artificial e innovación de Founderz y Microsoft, Celio Luis Acosta, “la manipulación de la opinión pública a través de desinformación y propaganda, violaciones de privacidad mediante vigilancia masiva y ciberataques que comprometen datos sensibles son algunos de los riesgos en el uso de la IA en la sociedad”.

El experto sentenció que en Honduras esta situación podría afectar gravemente las elecciones, con deepfake suplantando la identidad de candidatos y bots difundiendo información falsa o engañosa.

Este fenómeno ya ha sido observado en otros lugares. Por ejemplo, el 21 de enero de 2024, tres días antes de las primarias presidenciales demócratas de New Hampshire, los residentes recibieron una llamada telefónica supuestamente del presidente Joe Biden, instándolos a votar en las elecciones de noviembre. Sin embargo, esta llamada fue una falsificación, utilizando tecnología de IA para imitar su voz y engañar a los votantes.

La proliferación de deepfakes plantea serios desafíos para la sociedad, desde estafas financieras hasta la difamación y la manipulación electoral. A medida que la tecnología continúa avanzando, es crucial que tanto las autoridades como las empresas tecnológicas redoblen sus esfuerzos para detectar y combatir estas prácticas nocivas.

Cómo reconocer un deepfake
  • > 1.Mala sincronización de labios: Detectar discrepancias entre los movimientos de los labios y el habla
  • > 2. Iluminación inconsistente: Compruebe si hay patrones irregulares de luces y sombras.
  • > 3. Expresiones faciales antinaturales: Busque rasgos rígidos o exagerados.
  • > 4. Herramientas técnicas: Considere la posibilidad de utilizar un software de detección de Deepfakes
  • > 5. Artefactos y distorsión: Esté atento a las anomalías digitales
  • > 6. Pistas contextuales: Tenga cuidado con el comportamiento fuera de lo normal
  • > 7. Textura de piel inusual: Detectar piel demasiado tersa o carente de poros.
  • > 8. Parpadeo antinatural: Observe movimientos oculares extraños, especialmente en Deepfakes de baja calidad.
  • > 9. Calidad de audio inconsistente: Escuche cambios de voz o ruidos de fondo no coincidentes.