Atrás ¿Cómo evitar la radicalización en sitios como YouTube? Modificando las recomendaciones

¿Cómo evitar la radicalización en sitios como YouTube? Modificando las recomendaciones

Un estudio de investigadores de la UPF y de Eurecat para evitar recomendaciones de contenidos extremos recibe el premio a la mejor publicación en The Web Conference, la principal conferencia internacional sobre WWW y una de las principales del área de análisis de datos.

23.05.2022

Imatge inicial

Los algoritmos de los sistemas de recomendación de las plataformas como YouTube tienden a recomendar contenido cada vez más radical. Investigadores de la UPF y de Eurecat crean un sistema que evita que la ruta de recomendación lleve a los contenidos más extremos. El estudio fue publicado en las actas de la World Wide Web Conference 2022.

“Ya se conocía la tendencia de los algoritmos a recomendar contenido más radical y extremo, lo que proponemos aquí es una manera justa de impedir que ese tipo de contenido sea “descubierto” tan rápidamente”, explica Francesco Fabbri, investigador doctoral en el Centro Tecnológico de Catalunya EURECAT, cuyo trabajo es supervisado por el grupo de Web Science and Social Computing del Departamento de Tecnologías de la Información y la Comunicación (DTIC) de la UPF, dirigido por el investigador Carlos Castillo, y también por Francesco Bonchi del grupo de Big Data y Data Science en EURECAT. En la publicación también participaron investigadores de la Universidad de Helsinki (Finlandia), la East China University.

El trabajo está motivado por un resultado de investigación publicado en el año 2020 en que investigadores de Escuela Politécnica de Lausana (Suiza), de la Universidad de Minas Gerais (Brasil) y de la Universidad de Harvard (EEUU), estudiaron una base de datos con más de 330,000 videos de YouTube y encontraron que las recomendaciones hechas por el algoritmo de la plataforma tienden a guiar a los visitantes hacia contenido cada vez más radical.

“Los sistemas de búsqueda exageran las diferencias que existen con anterioridad, es decir, no se inventan nuevos sesgos, pero si no se controlan se corre el riesgo de quedar atrapado en un bucle de contenido radical. Se trata de contenido que, si un usuario pudiera escoger de un menú de opciones diferentes, no lo escogería”

“Los sistemas de búsqueda exageran las diferencias que existen con anterioridad, es decir, no se inventan nuevos sesgos, pero si no se controlan se corre el riesgo de quedar atrapado en un bucle de contenido radical”, explica Castillo. “Se trata de contenido que, si un usuario pudiera escoger de un menú de opciones diferentes, no lo escogería”.

“En este trabajo mostramos cómo representar secuencias de recomendaciones como una red probabilística de contenido puede ayudar a caracterizar y mitigar el sesgo perpetuado por el algoritmo”, aclara Fabbri, “lo que mostramos es cómo impedir esta radicalización sin ejercer una censura del contenido”.

Para esto los investigadores siguieron la ruta de contenidos recomendados por el algoritmo y realizaron intervenciones muy puntuales de tal manera que la ruta se desviaba un nodo.

Con estos pequeños cambios los investigadores lograron que “el final del camino” no fuera el contenido más radical. “Lo que planteamos es que la plataforma no tiene porqué llevarte a ese contenido más que lo haría con otro”.

¿Y por qué sucede esto? ¿por qué el algoritmo se comporta de esta manera? “Es muy difícil para un algoritmo saber si un contenido va a gustar o no”, explica Fabbri. “Ningún sistema de recomendación es perfecto y las recomendaciones se basan en unas series de señales anteriores y muy débiles de los usuarios, como, por ejemplo, el tiempo que tarda el usuario en seguir una recomendación. El efecto acumulativo de las recomendaciones hace el resto”.  Por ejemplo, el uso en masa por parte de los usuarios extremistas hace que el algoritmo se comporte así. La concentración de las acciones de ese tipo de usuarios hacia ese contenido también contribuye a que el algoritmo vea que la gente se mueve en esos círculos, se quedan más tiempo y el algoritmo “cree” que ese contenido es más afín y lo recomienda.

 “Por esta razón nuestra propuesta de “recablear” las recomendaciones puede ser muy útil para evitar la radicalización de los usuarios, de no conducir a la gente de ese contenido extremista”, termina Fabbri. La idea no es censurar estos contenidos, sino evitar que los algoritmos les den una visibilidad inmerecida y exagerada, que es lo que tiende a suceder.

Esta publicación recibió el premio al mejor artículo del congreso, lo que es muy meritorio puesto que se trata de un trabajo liderado por un estudiante. “Además, se trata de una conferencia extremadamente selectiva, explica Castillo, porque más de 1800 ponencias fueron enviadas este año, de las cuales se aceptaron solamente poco más de 300”.

Multimedia

Categorías:

ODS - Objetivos de desarrollo sostenible:

09. Industria, innovación e infraestructura
12. Producción y consumo responsables
Els ODS a la UPF

Contact

Para más información

Noticia publicada por:

Oficina de Comunicación