Alerta de hackers: usan la IA para estafar a través de páginas de eventos

La manipulación de precios y filtraciones de contenidos ha aumentado con el uso de la inteligencia artificial y los ciberdelincuentes se aprovechan de ello.

  • Actualizado: 28 de enero de 2026 a las 11:53 -
Alerta de hackers: usan la IA para estafar a través de páginas de eventos

La industria del entretenimiento se prepara para un escenario en el que los fraudes, las filtraciones y los ciberataques aumentarán de la mano de la inteligencia artificial.

Procesos esenciales como la venta de entradas, la creación y la distribución de contenidos ya están siendo transformados por estas tecnologías, lo que incrementa la exposición a nuevas amenazas.

Así lo ha señalado el último informe de ciberseguridad de Kaspersky, que logró identificar a la IA como un factor clave en la evolución de los riesgos para estudios, plataformas y usuarios.

De acuerdo con el informe, la creciente dependencia de sistemas basados en inteligencia artificial convierte a estas tecnologías en infraestructuras críticas para el sector.

Un fallo, abuso o ataque ya no solo tiene consecuencias técnicas, también económicas, legales y reputacionales, especialmente en un contexto de estrenos globales, transmisiones en directo y audiencias masivas.

Fueron identificadas cinco áreas principales de vulnerabilidad asociadas a la expansión de la inteligencia artificial en la industria del entretenimiento. El documento subrayó que estos desafíos afectan a toda la cadena de valor y requieren atención urgente.

- Venta de entradas y bots: manipulación automatizada

El uso de inteligencia artificial permite ajustar precios de entradas con mayor rapidez y precisión. Sin embargo, también ofrece nuevas herramientas a los revendedores, que pueden emplear bots para detectar eventos de alta demanda y modificar precios de reventa casi al instante.

Incluso cuando los artistas mantienen precios fijos, los mercados secundarios pueden experimentar aumentos automáticos, reduciendo el acceso legítimo del público.

- Efectos visuales en la nube: proveedores externos bajo amenaza

El crecimiento del uso de plataformas de IA en la nube para generar efectos visuales incrementa la dependencia de proveedores externos y profesionales independientes. Esto amplía los puntos de vulnerabilidad.

Tres colores y un radical rediseño, así será el iPhone 18 Pro en 2026

Los atacantes pueden acceder a sistemas de renderizado o herramientas de terceros para obtener escenas o episodios antes del lanzamiento, sin comprometer directamente los servidores de los grandes estudios.

Los atacantes pueden acceder a sistemas de renderizado o herramientas de terceros para obtener escenas o episodios antes del lanzamiento, sin comprometer directamente los servidores de los grandes estudios.

- Redes de distribución: objetivo de ciberataques

Las redes de distribución de contenidos almacenan materiales valiosos como episodios inéditos, películas terminadas o transmisiones en vivo. Los atacantes emplean inteligencia artificial para analizar estas redes, localizar archivos sensibles y detectar accesos insuficientemente protegidos.

Un solo incidente puede afectar múltiples títulos o permitir la inserción de código malicioso en emisiones oficiales.

- Videojuegos: generación de contenidos y riesgos para la privacidad

De acuerdo con el equipo de Kaspersky, los usuarios exploran formas de sortear las restricciones de las herramientas de IA para crear personajes, modificar juegos o incorporar materiales inapropiados.

Si los datos empleados para entrenar los modelos no cuentan con controles adecuados, la IA podría producir contenidos con información personal sensible, exponiendo a empresas y jugadores a nuevos riesgos.

- Regulación y transparencia: nuevas exigencias para el sector

Las regulaciones que se están implementando obligarán a las empresas a ser más transparentes sobre los contenidos generados con IA y sobre el consentimiento y las licencias para entrenar modelos con obras protegidas por derechos de autor. Esto forzará la creación de nuevos roles y procesos internos para supervisar el uso de IA tanto en la actividad creativa como comercial.

Recomendaciones para minimizar los riesgos en ciberseguridad​​​​​​​

Expertos en seguridad informática han sugerido que las compañías del sector realicen un inventario y mapeo detallado del uso de inteligencia artificial a lo largo de toda la cadena de valor. Esta información debe integrarse en los modelos de amenaza y evaluaciones periódicas de riesgo.

Capacitar continuamente a los empleados en ciberseguridad, reforzando los conocimientos sobre riesgos relacionados con la IA y estableciendo controles claros sobre los accesos a recursos digitales según el rol y las necesidades operativas.

También plantea la necesidad de revisar la arquitectura de las redes de distribución y desplegar sistemas para detectar anomalías en tráfico y accesos, incluso cuando se trate de proveedores tradicionales.

De acuerdo con el análisis de la compañía, estudios, plataformas y titulares de derechos deben considerar tanto los sistemas de IA como los datos que los alimentan como parte de su superficie crítica de ataque, y no solo como herramientas creativas o de optimización.

Únete a nuestro canal de WhatsApp

Infórmate sobre las noticias más destacadas de Honduras y el mundo.
Te gustó este artículo, compártelo
Últimas Noticias