Más noticias

Qué son los “deepfakes”, los algoritmos que le harán creer cualquier cosa

Los mejores “softwares” utilizan una gran cantidad de recursos audiovisuales y cada vez que crean un “deepfake”.

Bogotá, Colombia.

Los “deepfakes” pueden hacer bailar “TikToks” a la reina de Inglaterra, Isabel II, o revivir a la princesa Leia en Star Wars. Son videos creados con inteligencia artificial en los que un programa reemplaza la cara de una persona por la de otra, y son tan verosímiles que es difícil darse cuenta de que son mentira.

Las imágenes manipuladas se generan con algoritmos que “leen” los rostros faciales de decenas de fotografías y videos tomadas desde distintos ángulos. Con esa información, el programa consigue recrear la voz y la imagen de una persona simulando sus gesticulaciones sobre la cara de otra.

Puede leer: WhatsApp anuncia cambios: todos los chats pueden desaparecer automáticamente

RESUCITAR A FAMOSOS FALLECIDOS

Los mejores “softwares” utilizan una gran cantidad de recursos audiovisuales y cada vez que crean un “deepfake” están mejorando sus algoritmos para hacerlo mejor a la próxima, gracias al “machine learning”, métodos computacionales y estadísticos que permiten a los ordenadores aprender tareas basadas en datos existentes.

El uso de los “deepfakes” no tiene que ser intrínsecamente malo, señala a EFE Idoia Salazar, presidenta y cofundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA).

Además: Instagram endurece normas para proteger a los adolescentes

Pueden resucitar a famosos ya fallecidos, como hizo la cervecera Cruzcampo en un anuncio que revivió a la cantante española Lola Flores durante unos minutos, o “ahorrar costes en películas que puedan prescindir de actores reales para las secuencias más peligrosas”, añade la experta.

ARMA PELIGROSA EN LAS MANOS EQUIVOCADAS

Pero en las manos equivocadas, pueden convertirse en una herramienta para desinformar de una forma mucho más sofisticada que las mentiras falsas al uso. Pueden poner palabras en la boca de un presidente que inviten al desorden público, o desprestigiar a activistas haciéndoles aparecer en falsos videos pornográficos.

De hecho, el término “deepfake” nació en 2017 por un usuario de la plataforma Reddit con ese nombre que subió videos con los rostros de famosas como Taylor Swift o Gal Gadot en el cuerpo de actrices porno.

También: Desarrollan robot con patas inspiradas en un halcón para posarse como un pájaro

Para Salazar, “el nivel de alarma ahora mismo debe de ser elevado”, porque en cuanto a la desinformación, “los deepfakes pueden ser tremendamente peligrosos”.

Cuando una persona ve algo por escrito, añade Salazar, puede intuir por la tipografía que es un contenido modificado, pero cuando una persona ve una imagen que se mueve y se expresa con naturalidad “se lo va a creer casi seguro”.