San Pedro Sula, Honduras
Circula en redes sociales un audio atribuido a Salvador Nasralla, candidato presidencial del Partido Liberal, en el que supuestamente afirma que las encuestas favorecen a Rixi Moncada, vinculándolo además con la postura sobre el sistema de Transmisión de Resultados Electorales Preliminares (TREP).
El audio, de 16 segundos, ha sido replicado ampliamente en plataformas como Facebook, X y TikTok, y se le han atribuido distintas narrativas.
Algunas publicaciones afirman que se trata de una conversación privada entre Nasralla y el expresidente del Consejo Central Ejecutivo del Partido Liberal, Yani Rosenthal; otras dicen que el interlocutor es su esposa, Iroshka Elvir.
También se ha mencionado erróneamente al medio Q’hubo TV como la fuente original, algo que este ya desmintió en sus redes sociales.
En el clip, Nasralla dice supuestamente: "Mirá, hace dos horas me mandaron las últimas encuestas: siguen arriba estos c... de Libre. Ya llamé a Tito y no me contesta. Llamé a Ana y no me contesta. Si ese TREP no lo aprueban así como dijo Cossette, nos lleva p...".
Hay señales, pero no certezas
Una revisión técnica del audio fue realizada utilizando Hiya Deepfake Voice Detector, una herramienta especializada en identificar voces generadas digitalmente.
El resultado arrojó un puntaje de 39 sobre 100, lo que, según su escala, indica una probabilidad moderada de que se trate de una voz sintética.
La propia herramienta aclara que mientras más bajo el puntaje, menor es la probabilidad de que el contenido provenga de una voz humana auténtica.
Sin embargo, este tipo de análisis no permite afirmar con certeza que se haya usado inteligencia artificial, ya que las herramientas disponibles actualmente no garantizan un diagnóstico concluyente, sino que estiman niveles de probabilidad.
Además, se consultó a ChatGPT 4.0 sobre si el audio presentaba indicios de ser una voz sintética. En su análisis, la IA concluyó que la secuencia contiene características propias de una voz generada con inteligencia artificial o clonada: entonación uniforme, ritmo forzado y falta de matices naturales del habla humana.
Con base en estos indicios, LA PRENSA Verifica considera que el audio presenta señales compatibles con una voz sintética, aunque no existen pruebas determinantes que permitan asegurar que se trate de un contenido generado artificialmente.
El 11 de julio de 2025, la Comisión Nacional de Campaña del Partido Liberal desmintió públicamente la veracidad del audio a través de la cuenta oficial de X (anteriormente Twitter) de Salvador Nasralla, afirmando que la voz no corresponde al candidato ni refleja su timbre característico.
Expertos advierten
Consultado por LA PRENSA Verifica, Javier Franco, autor del libro “No Solo Fake News”, explicó que los contenidos fabricados con inteligencia artificial representan una amenaza creciente para el debate democrático, especialmente en contextos electorales.
“El principal riesgo es que esta tecnología se use para fabricar declaraciones falsas que aparentan ser auténticas. Esto puede alterar la percepción pública y afectar decisiones políticas”, sostuvo.
Los expertos coinciden en que los audios generados o manipulados mediante IA se han convertido en una herramienta poderosa para la desinformación política.
Su capacidad para imitar voces humanas y difundir mensajes falsos plantea un desafío importante para la integridad informativa en Honduras, donde la confianza en las instituciones y procesos electorales ya se encuentra en tensión.
Aunque existen indicios técnicos que apuntan a que el audio viral atribuido a Salvador Nasralla podría haber sido generado con inteligencia artificial, no se ha encontrado evidencia concluyente que permita afirmarlo categóricamente.