Un nuevo estudio presentado la semana pasada en Barcelona encuentra «fuertes evidencias» de que los usuarios de YouTube «migran constantemente a contenidos más extremistas» por las recomendaciones de la plataforma. Un estudio presentado esta semana en la Conferencia tecnológica FAT, que reúne esta semana en Barcelona a expertos mundiales en la equidad y transparencia de […]
Un nuevo estudio presentado la semana pasada en Barcelona encuentra «fuertes evidencias» de que los usuarios de YouTube «migran constantemente a contenidos más extremistas» por las recomendaciones de la plataforma.
Un estudio presentado esta semana en la Conferencia tecnológica FAT, que reúne esta semana en Barcelona a expertos mundiales en la equidad y transparencia de los algoritmos, ha podido probar que «los usuarios migran constantemente de contenido más moderado a más extremo» y que buena parte de los miembros que integran las comunidades de extrema derecha en la plataforma comenzó viendo vídeos sobre temáticas similares, pero de contenido mucho menos radical.
Tras visualizar y analizar un total de 72 millones de comentarios de 330.925 vídeos procedentes de 349 canales diferentes, los investigadores de la Universidad de Lausana, Harvard y Minas Gerais afirman que hay «fuertes evidencias» de que YouTube esté fomentando una espiral de radicalización a través de las recomendaciones.
Para comprobarlo, estudiaron el contenido generado por tres comunidades: intelectual dark web (promotores de lo políticamente incorrecto), alt-lite (
Tal y como recoge eldiario.es, YouTube rechaza la metodología, las conclusiones y las evidencias aportadas por los investigadores universitarios. Para la plataforma el informe no es válido porque, entre otras cosas, no tiene en cuenta las modificaciones que han realizado en materia de discurso del odio y desinformación:
«Hemos cambiado nuestros algoritmos de búsqueda para garantizar que el contenido más fidedigno apareciese y se etiquetase de forma destacada en los resultados y recomendaciones de las búsquedas, y comenzamos a reducir las recomendaciones de contenido y vídeos de carácter dudoso que podrían desinformar a los usuarios de forma perjudicial».
A pesar de que Google se desmarca por completo de tales conclusiones, este estudio coincide con algunos de los puntos denunciados el año pasado por ex trabajadores de la plataforma de vídeos.