The New York Times
Por: Nico Grant y Tripp Mickle/The New York Times
SAN FRANCISCO — Durante años, YouTube ha eliminado videos que contienen insultos, desinformación sobre vacunas anti-Covid y falsedades electorales, al decir que el contenido violaba reglas de la plataforma.
Pero desde la inauguración del Presidente Donald J. Trump, YouTube ha alentado a sus moderadores de contenido a dejar videos con contenido que podría romper esas reglas, siempre y cuando se considere que los videos son de interés público. Estos incluyen debates de temas políticos, sociales y culturales.
El cambio de política convirtió a YouTube en la plataforma de redes sociales más reciente en dar marcha atrás a esfuerzos para vigilar el discurso en línea tras la presión de republicanos para dejar de moderar contenido. En enero, Meta, dueño de Facebook e Instagram, puso fin a un programa de verificación de datos en publicaciones. Y X, de Elon Musk, ha cedido la responsabilidad de vigilar contenido a los usuarios.
Sin embargo, a diferencia de Meta y X, YouTube no ha hecho declaraciones públicas sobre relajar la moderación de contenido. YouTube introdujo su nueva política en diciembre en material de capacitación visto por The New York Times.
Desinformación
Para videos considerados de interés público —como reuniones comunitarias, mítines de campaña y conversaciones políticas— YouTube elevó el umbral para la cantidad de contenido transgresor permitido, de una cuarta parte a la mitad del video. Las políticas distancian a la plataforma de algunas prácticas durante la pandemia, como cuando eliminó videos de reuniones comunitarias y un debate entre el Gobernador de Florida Ron DeSantis y un panel de científicos, al citar desinformación médica.
YouTube actualiza continuamente sus directrices para moderadores de contenido en temas que salen a la luz en el discurso público, dijo Nicole Bell, vocera para la compañía. Retira políticas que ya no tienen sentido, como hizo en el 2023 para cierta desinformación sobre Covid, y fortalece políticas cuando esté justificado, añadió ella.
“Nuestra meta permanece igual: proteger la libre expresión en YouTube al tiempo que mitigamos daño flagrante”, comentó Bell, en una declaración.
Sin embargo, críticos señalan que los cambios en las plataformas de redes sociales han contribuido a la rápida propagación de afirmaciones falsas y tienen el potencial de aumentar el discurso de odio digital. Imran Ahmed, director ejecutivo del Centro para Contrarrestar Odio Digital, que estudia la desinformación y el discurso del odio, dijo que los cambios benefician a las compañías al reducir los costos de moderación de contenido, al tiempo que mantienen más contenido en línea para interacción del usuario.
“Esto no se trata de libertad de expresión”, apuntó. “Se trata de publicidad, amplificación y, a final de cuentas, ganancias”.
YouTube determinó que los videos son del interés público si los creadores hablan o debaten sobre elecciones, ideologías, movimientos, raza, género, sexualidad, aborto, inmigración, censura y otros temas.
Durante capacitaciones sobre la nueva política, el equipo de confianza y seguridad de la compañía señaló que los moderadores deberían inclinarse por no restringir contenido cuando “el valor de la libertad de expresión podría pesar más que el riesgo de un daño”.
Se les presentaron a empleados de YouTube ejemplos reales de cómo se habían aplicado las nuevas políticas. Un video de Corea del Sur presentaba a dos comentaristas hablando sobre Yoon Suk Yeol, ex Presidente del País. Más o menos a la mitad del video, que duraba más de tres horas, uno de ellos dijo que imaginaba ver a Yoon boca arriba en una guillotina para que el político “pudiera ver cuando baja la cuchilla”.
El video fue aprobado porque en su mayoría debatía el juicio político y arresto de Yoon. En su material de capacitación, YouTube indicó que también había considerado que el riesgo de daño era bajo porque “el deseo de ejecución con guillotina no es factible”.
©The New York Times Company 2025