Sora, la IA que escaló la desinformación, anuncia su cierre

Con el uso de Sora, LA PRENSA Verifica identificó deepfakes que atribuían declaraciones o acciones inventadas, lo que evidenció los riesgos de este tipo de herramientas en la amplificación de la desinformación

  • Actualizado: 01 de abril de 2026 a las 11:07 -
Sora, la IA que escaló la desinformación, anuncia su cierre

San Pedro Sula, Honduras
El pasado 24 de marzo de 2026, OpenAI anunció el cierre definitivo de Sora, una decisión que, según la compañía, responde a razones estratégicas y comerciales.

Sin embargo, expertos y verificadores de información consideran que la plataforma también representaba un riesgo significativo para la veracidad de la información en redes sociales, principalmente en Facebook, Instagram y TikTok.

Desde su lanzamiento, Sora permitió a cualquier usuario crear videos que parecían mostrar hechos que nunca ocurrieron. Esto abrió un terreno fértil para la desinformación, ya que los videos generados podían ser compartidos rápidamente en redes sociales, confundiendo a la ciudadanía.

LA PRENSA Verifica cómo la plataforma de inteligencia artificial Sora potenció la desinformación en redes sociales y cuáles fueron sus implicaciones.

Sora amplificaba la desinformación

La plataforma de inteligencia artificial Sora, desarrollada por OpenAI, se lanzó en 2024 con la promesa de generar videos realistas a partir de descripciones de texto o imágenes.

Su rapidez y facilidad para producir contenido audiovisual llamaron la atención de usuarios y medios, al permitir crear escenas con apariencia de hechos reales sin necesidad de equipos profesionales de producción.

Sin embargo, esta capacidad también abrió riesgos significativos relacionados con la desinformación. La plataforma podía ser utilizada para generar escenas inventadas, atribuir declaraciones falsas a figuras públicas o mostrar eventos que nunca ocurrieron, con un nivel de realismo suficiente para confundir a la ciudadanía.

La facilidad para difundir estos contenidos en redes sociales aceleraba la circulación de información engañosa.

La velocidad de creación y distribución potenciaba el impacto de estos contenidos en redes sociales antes de que pudieran ser verificados por medios o autoridades competentes.

Organizaciones de verificación de hechos utilizaron la plataforma para analizar contenidos y determinar su autenticidad. En varios casos, se identificaron inconsistencias en movimientos, luces y elementos del video que delataban su creación artificial.

La existencia de estos casos evidencia que herramientas como Sora, aunque innovadoras, pueden facilitar la creación y propagación de contenido falso. La combinación de realismo, rapidez y accesibilidad aumenta la posibilidad de que información engañosa llegue a gran parte de la población antes de ser identificada como falsa.

Uno de los casos verificados por LA PRENSA Verifica con el uso de Sora fue la circulación de un video en el que se observaba a una mujer mayor afirmando que “Honduras retrocedió 16 años” por la pérdida del partido Libertad y Refundación (Libre).

El análisis de este contenido determinó que se trataba de un deepfake generado mediante inteligencia artificial, con irregularidades visuales en expresiones faciales y movimientos que no correspondían a un registro natural de video, además de la presencia de signos típicos de creación digital.

Otro caso fue una secuencia que mostraba a dos supuestos policías hondureños conversando en tono jocoso y afirmando que “debían esforzarse más para seguir siendo la policía más corrupta del mundo”.

Además el análisis técnico y visual reveló inconsistencias en uniformes, detalles de iluminación y marcas que son típicas de videos artificiales.

Asimismo, se detectó un video en el que un supuesto ciudadano se negaba a abordar un autobús porque, según el contenido, en él viajaban diputados que “iban a robar”.

Estos ejemplos ilustran cómo, bajo un formato audiovisual que aparenta ser verídico, pueden difundirse situaciones inventadas que, sin contexto ni verificación, son susceptibles de interpretarse como hechos reales.

Debate sobre regulación y verificación

El cierre de Sora subraya la importancia de discutir los límites y regulaciones de herramientas de inteligencia artificial generativa. La posibilidad de producir videos convincentes de manera rápida.

En ese sentido ha evidenciado la necesidad de establecer protocolos de autenticidad y etiquetado para los contenidos generados artificialmente, así como fortalecer los procesos de verificación.

Entre las recomendaciones planteadas por expertos se encuentran la implementación de etiquetado obligatorio para videos generados con IA, la promoción de alfabetización digital que enseñe a los usuarios a identificar contenido falso.

Además del desarrollo de herramientas automatizadas de verificación para detectar deepfakes antes de que se viralicen, y la creación de marcos regulatorios claros que definan responsabilidades para empresas tecnológicas y usuarios.

Estas medidas buscan equilibrar la innovación tecnológica con la protección de la confianza pública en la información, asegurando que herramientas con potencial creativo no se utilicen para propagar desinformación.

Nuestras clasificaciones
VERDADERO

Cuando las pruebas son fehacientes y confirman la información.

FALSO

Todas las fuentes arrojan que la información no es cierta.

ENGAÑOSO

Contiene datos mezclados entre verdadero, falso, o sacado de contexto.

VERDAD A MEDIAS

La información es correcta pero omite elementos clave del contexto.

INEXACTO

La información que se aproxima a la exactitud.

SIN EVIDENCIA

No hay datos públicos ni alternativos para probar la información.

José Quezada
José Quezada
jose.quezada@elheraldo.hn

Coeditor en LA PRENSA Verifica y El Heraldo Verifica. Principalmente hace fact-checking político, pero también desmiente bulos, trata y visualiza datos. Licenciado en Periodismo por la UNAH.

Te gustó este artículo, compártelo
Ultimas Noticias