YouTube ha anunciado este viernes que promoverá menos videos que contengan desinformación y teorías de conspiración. En una prueba limitada a Estados Unidos, el servicio de videos de Google indicó que dejará de recomendar lo que ha calificado como "contenido límite": videos que se acercan a violar las normas de su comunidad.
Si bien YouTube dijo que la medida afectará a menos del 1 por ciento de los videos que están disponibles en la plataforma de videos, el gran volumen de contenido disponible en el servicio sugiere que el efecto podría ser significativo.
"Comenzaremos a reducir las recomendaciones de contenido límite y el contenido que podría desinformar a los usuarios de manera dañina, como videos que promocionan una curación milagrosa falsa para una enfermedad grave, afirmar que la Tierra es plana o hacer afirmaciones descaradamente falsas sobre eventos históricos como el 11 de septiembre", señaló YouTube en un comunicado.
La medida se produce en medio de las reiteradas críticas de que YouTube, sin saberlo, ha promovido durante años videos que difunden información errónea. En un artículo de opinión publicado el año pasado, el investigador Zeynep Tufekci llamó a YouTube "el gran radicalizador".
"Parece que nunca eres lo suficientemente 'duro' para el algoritmo de recomendación de YouTube", escribió Tufekci. "Promueve, recomienda y difunde videos de una manera que parece aumentar constantemente las apuestas. Dado sus mil millones de usuarios, YouTube puede ser uno de los instrumentos de radicalización más poderosos del siglo XXI".
De manera predeterminada, YouTube habilita una función de reproducción automática que sirve a los usuarios de videos nuevos tan pronto como finaliza el que están viendo. Esto a menudo lleva los espectadores a videos que han recibido mucho engagement, incluidas las vistas, los comentarios y las acciones. Los videos más extravagantes tienden a funcionar bien con estas medidas, por lo que el algoritmo de YouTube los ha promocionado durante años.
La medida de YouTube deja muchas preguntas pendientes sobre qué tipos de videos se considerarán en el límite. En una entrevista, la compañía sugirió que los usuarios deberían leer las nromas de la comunidad que se hallan publicadas para obtener orientación sobre qué tipo de videos pueden estar cerca de recibir un golpe definitivo.
La aplicación de la nueva política recaerá en una mezcla de moderadores humanos y sistemas de aprendizaje automático, dijo la compañía. Los moderadores capacitarán al sistema para que reconozca videos límite, y luego el sistema se implementará para revisar los videos automáticamente y decidir si son elegibles para la promoción.
Los videos que están etiquetados como límite no se eliminarán del sitio, dijo la compañía. Si un usuario se suscribe a un canal que presenta contenido límite, esos videos seguirán siendo elegibles para ser mostrados en las recomendaciones del suscriptor.
"Creemos que este cambio logra un equilibrio entre mantener una plataforma para la libertad de expresión y cumplir con nuestra responsabilidad para con los usuarios", dijo la compañía en su blog.
Si la prueba es exitosa, YouTube planea implementar los cambios de manera más amplia.