Por: Steven Lee Myers y Stuart A. Thompson/The New York Times
A medida que la inteligencia artificial generativa ha visto un auge en los últimos dos años, la tecnología ha sido utilizada para denigrar o difamar a oponentes políticos y, por primera vez, aseguran funcionarios y expertos, ha tenido un impacto en los resultados electorales.
Gratuitas y fáciles de usar, las herramientas de IA han generado una avalancha de fotos y videos falsos de candidatos o simpatizantes que dicen cosas que no dijeron o aparecen en lugares donde no estuvieron —todo ello difundido con la relativa impunidad que ofrece el anonimato en línea.
Esta tecnología ha amplificado las divisiones sociales y partidistas y reforzado el sentimiento antigubernamental, particularmente en la extrema derecha, que ha resurgido en elecciones recientes en Alemania, Polonia y Portugal.
Los funcionarios y expertos advierten que a medida que mejora la tecnología, está socavando la confianza en la integridad electoral y erosionando el consenso político necesario para el funcionamiento de las sociedades democráticas.
En el 2024, la IA se utilizó en más del 80 por ciento de las elecciones, de acuerdo con el Panel Internacional sobre el Entorno de la Información, una organización independiente de científicos con sede en Suiza. Documentó 215 casos de IA en elecciones ese año. Este año, la IA ha desempeñado un papel en al menos nueve elecciones importantes más, desde Canadá hasta Australia.

No todos los usos fueron nefastos. En el 25 por ciento de los casos estudiados por el panel, los candidatos utilizaron IA para traducir discursos y plataformas a dialectos locales e identificar grupos de electores a los cuales llegar.
Pero al mismo tiempo, docenas de deepfakes —fotografías o videos que recrean a personas reales— utilizaron IA para clonar las voces de candidatos o noticieros. El estudio del panel arrojó que la IA tuvo un papel perjudicial en el 69 por ciento de los casos.
Contenido manipulado
Las elecciones presidenciales del año pasado en Rumanía fueron las primeras elecciones importantes en las que la IA tuvo un papel decisivo en el resultado. En la primera vuelta de las elecciones de noviembre pasado, un candidato de extrema derecha poco conocido, Calin Georgescu, se impuso con la ayuda de una operación encubierta rusa que, entre otras cosas, coordinó una campaña falsa en TikTok.
Un tribunal rumano ordenó la celebración de nuevas elecciones en mayo. A Georgescu, que enfrentaba una investigación penal, se le prohibió contender de nuevo, allanando el camino a otro candidato nacionalista, George Simion. Apareció un torrente similar de contenido manipulado, dijeron investigadores del Observatorio Búlgaro-Rumano de Medios Digitales.
Nicusor Dan, el Alcalde centrista de Bucarest, se impuso en la segunda vuelta.
La Unión Europea ha abierto una investigación para determinar si TikTok hizo lo suficiente para restringir el torrente de actividades manipuladoras y desinformación en la plataforma. En declaraciones, TikTok afirmó haber actuado con rapidez para eliminar publicaciones que infringían sus políticas. En las dos semanas previas a la segunda vuelta, afirmó haber eliminado más de 7 mil 300 publicaciones, incluyendo algunas generadas por IA.
Los usos engañosos más intensivos de la IA han provenido de países autocráticos, como Rusia, China e Irán, que buscan interferir en elecciones afuera de sus fronteras. La tecnología les ha permitido amplificar el apoyo a candidatos más acordes a su visión del mundo —o desacreditar la idea misma de la gobernanza democrática.
Una campaña rusa intentó avivar el sentimiento antiucraniano antes de las elecciones presidenciales de este año en Polonia, donde se han reubicado muchos refugiados ucranianos. Creó videos falsos que sugerían que los ucranianos planeaban ataques para trastocar la votación.
En elecciones anteriores, los esfuerzos extranjeros eran complicados y costosos. Con la IA, esos esfuerzos se pueden realizar a una velocidad y escala antes inconcebible.
Los avances en herramientas comercialmente disponibles, como el creador de imágenes de Midjourney y Veo, el generador de audio y video con IA de Google, han dificultado aún más distinguir las falsedades de la realidad —particularmente a primera vista. Grok, el chatbot y generador de imágenes de IA desarrollado por Elon Musk, reproduce fácilmente imágenes de figuras populares, incluyendo políticos. Estas herramientas han dificultado a gobiernos, empresas e investigadores identificar y rastrear campañas cada vez más sofisticadas.
Las principales plataformas de redes sociales, como Facebook, X, YouTube y TikTok, tienen políticas que regulan el uso indebido de la IA y han tomado medidas en varios casos relacionados con elecciones. Sin embargo, investigadores de la Universidad de Notre Dame, en Indiana, hallaron el año pasado que cuentas falsas generadas por herramientas de IA podían fácilmente evadir la detección en LinkedIn, Mastodon, Reddit, TikTok, X y las tres plataformas de Meta: Facebook, Instagram y Threads.
Las empresas que lideran la ola de productos de IA generativa también cuentan con políticas contra los usos manipuladores. En el 2024, OpenAI desbarató cinco operaciones de influencia dirigidas a electores en Ruanda, Estados Unidos, India, Ghana y la UE durante sus elecciones parlamentarias, informó la empresa.
El mes pasado, la compañía reveló haber detectado una operación de influencia rusa que utilizó ChatGPT durante las elecciones alemanas en febrero. En un caso, la operación creó una cuenta bot en X que acumuló 27 mil seguidores y publicó contenido en apoyo al partido de extrema derecha Alternativa para Alemania (AfD). El partido, antes considerado marginal, se disparó al segundo lugar.
Lucas Hansen, fundador de CivAI, una organización sin fines de lucro que estudia las capacidades y los peligros de la inteligencia artificial, afirmó que la IA está enturbiando tanto el debate público que la gente se está desilusionando.
“La contaminación del ecosistema de la información será uno de los problemas más difíciles de superar”, declaró. “Y no estoy seguro de que haya mucho camino para dar marcha atrás”.
©The New York Times Company 2025