Anuncio

YouTube modifica sus algoritmos para dejar de recomendar teorías conspirativas

YouTube informó que no eliminará todavía los videos con teorías de conspiración o falsedades: quienes los busquen o se suscriban a canales que los publican, podrán encontrarlos (Patrick T. Fallon / Bloomberg).

YouTube informó que no eliminará todavía los videos con teorías de conspiración o falsedades: quienes los busquen o se suscriban a canales que los publican, podrán encontrarlos (Patrick T. Fallon / Bloomberg).

(Bloomberg)
Share

YouTube informó el 25 de enero que actualizará su algoritmo de recomendaciones que sugiere nuevos videos a los usuarios, para evitar la promoción de teorías conspirativas e información falsa.

La acción refleja una creciente disposición de la compañía para mitigar la información errónea en la plataforma de videos más grande del mundo, después de varios errores públicos.

En una publicación de blog, YouTube —una división de Google, de Alphabet Inc.—, aseguró estar “observando de cerca” cómo reducir la propagación de contenido que “se acerca, pero no cruza la línea” de violación a sus reglas. YouTube fue criticado por sugerir a los usuarios contenidos de conspiraciones y falsedades cuando comienzan a ver noticias legítimas.

Anuncio

El cambio de los algoritmos de recomendación de la compañía es resultado de una iniciativa técnica de seis meses. Al principio, será pequeño (YouTube detalló que se aplicará a menos del 1% del contenido del sitio) y solo afectará a los videos en inglés, lo cual significa que gran parte del contenido no deseado aún se colará por las grietas.

La compañía enfatizó que ninguno de los videos sería eliminado de YouTube. Quienes los busquen o se suscriban a canales que los publiquen podrán encontrarlos todavía.

“Creemos que este cambio logra un equilibrio entre mantener una plataforma para la libertad de expresión y cumplir con nuestra responsabilidad para con los usuarios”, remarcó la empresa en el blog.

YouTube, que históricamente ha sido laxa con cuestiones de la libertad de expresión, no prohíbe las teorías conspirativas u otras formas de información falsa. Sí veta, en cambio, el discurso de odio, pero lo define de manera un tanto restringida, como un discurso que promueve la violencia o el odio de grupos vulnerables.

Los activistas señalan que esas políticas no son suficientes como para evitar la exposición de los usuarios a información engañosa, y que el propio software de YouTube a menudo lleva a las personas a los límites políticos al proporcionarles contenido extremista que no buscan.

La función de recomendación de YouTube sugiere contenidos a los usuarios según los videos que vieron anteriormente. El algoritmo toma en cuenta el “tiempo de observación” —o la cantidad de tiempo que las personas pasan viendo un video— y el número de reproducciones, como factores importantes en la decisión de sugerir un contenido. Si un video es visto muchas veces hasta el final, el software de la compañía puede reconocerlo como un clip de alta calidad y comenzar a promocionarlo automáticamente a otros.

Desde 2016, la firma también incorporó satisfacción, gustos, disgustos y otras métricas a sus sistemas de recomendación. Pero a partir de un video popular, el algoritmo a menudo toma un giro brusco para sugerir ideas extremistas.

El Washington Post informó en diciembre pasado que YouTube seguía recomendando videos de odio y conspiración, que alimentaban el sentir racista y antisemita.

Más recientemente, YouTube desarrolló un software para evitar que se viralicen teorías de conspiración durante eventos noticiosos. Tras el tiroteo en la escuela de Parkland, en Florida, en febrero pasado, una teoría conspirativa que afirmaba que un adolescente sobreviviente del tiroteo era un “actor de crisis” fue la principal tendencia en YouTube. En los días posteriores a la masacre en Las Vegas, en octubre de 2017, los videos que afirmaban que el tiroteo era un engaño obtuvieron millones de visitas.

La función de búsqueda separada de YouTube también fue denunciada por promover conspiraciones y contenidos falsos. Este enero, por ejemplo, la búsqueda de RBG —las iniciales de la jueza de la Corte Suprema Ruth Bader Ginsburg— arrojaba una gran cantidad de videos de extrema derecha con conspiraciones, y poco contenido auténtico relacionado con la noticia de su ausencia de la corte mientras se recuperaba de una cirugía.

Hace seis meses, YouTube comenzó a reclutar evaluadores humanos para revisar el contenido según un conjunto de directrices. La empresa consideró luego los comentarios de estos evaluadores y los utilizó para desarrollar algoritmos que generan recomendaciones.

Dwoskin escribe para el Washington Post.

Para leer esta nota en inglés, haga clic aquí.

Anuncio