Algoritmo de YouTube dirige a usuarios de derecha política a contenido radical

Una nueva investigación ha descubierto que las recomendaciones de YouTube pueden llevar a los usuarios a nichos de contenido político extremista. Conoce cómo influyen los videos de propaganda política en los usuarios.

Algoritmo de YouTube dirige a usuarios de derecha política a contenido radical

Autor: Gerardo Sifuentes


Los tiempos electorales traen consigo una inundación de videos de YouTube dirigidos a los simpatizantes de todo el espectro político. Estudiar estas tendencias es una tarea urgente no solo para conocer cómo se distribuyen, sino también para exigir a la plataforma que mejore su desempeño y evite contenido perjudicial.

También puedes leer: ¿Dónde tienen la cabeza las estrellas de mar?

Un estudio llevado a cabo por un equipo de investigación de la Universidad de California, Davis, revela que las recomendaciones de videos de YouTube pueden llevar a los usuarios a un peligroso abismo de contenido político extremista. La investigación arroja luz sobre cómo el algoritmo de la plataforma influye en las preferencias de visualización de los usuarios, especialmente en lo que respecta a sus inclinaciones políticas

¿Cómo realizaron el estudio?

Un equipo multidisciplinario observó de cerca las recomendaciones de videos en YouTube durante los años 2021 y 2022 para usuarios de Estados Unidos. El equipo, compuesto por expertos en comunicación y ciencias de la computación, evaluó cómo la inclinación ideológica de los usuarios afecta las sugerencias automáticas de la plataforma.

El equipo de investigación creó 100 mil cuentas automatizadas, conocidas como «marionetas«, para probar las recomendaciones de YouTube. Cada «marioneta» simulaba el comportamiento de un usuario real, viendo videos y recopilando recomendaciones. En total, estas cuentas vieron casi 10 millones de videos de YouTube de 120 mil 073 canales que abarcaban desde la extrema izquierda hasta la extrema derecha.

¿Qué descubrieron?

El estudio reveló que más del 36% de las «marionetas» recibieron recomendaciones de videos de canales problemáticos, que promovían ideas extremistas como el nacionalismo blanco, la alt-right, QAnon y muchas otras de las más desquiciadas teorías de conspiración. Para los usuarios de ideología centrista e izquierda, este porcentaje fue del 32%, mientras que para aquellos con inclinaciones políticas más a la derecha, alcanzó el 40%.

En opinión de sus autores, el algoritmo de recomendación de video no brinda protección alguna para los usuarios de contenido que va más allá de su espectro político. Más bien, recomienda videos que en su mayoría coinciden con la ideología del usuario, y para aquellos estadounidenses con inclinaciones hacia la derecha política, estos videos a menudo provienen de canales que promueven extremismo, teorías de conspiración y otro contenido problemático.

Las recomendaciones de YouTube, por sí solas y sin la intervención adicional de los usuarios, pueden activar un ciclo de exposición ha contenido cada vez más problemático. Ante esta revelación, se hace necesaria una mayor transparencia en los sistemas de recomendación social, especialmente dados los riesgos de crear burbujas de filtro y fomentar la radicalización en el actual clima político de los Estados Unidos.

¿Cómo influyen los videos de propaganda política en los usuarios?

La influencia de un video de propaganda política en YouTube (u otras plataformas) en la mente de las personas puede ser compleja y multifacética. Aquí hay algunas maneras en las que estos videos podrían influir:

  • Persuasión y manipulación emocional: Los videos de propaganda a menudo se centran en mensajes emocionales para conectarse con la audiencia. Pueden apelar a emociones como el miedo, la ira o la esperanza para influir en las opiniones y actitudes de las personas.
  • Filtración de información y selección de datos: La propaganda a menudo presenta información de manera selectiva para respaldar su narrativa, omitiendo datos que no respalden sus puntos de vista. Esto puede distorsionar la percepción de la realidad.
  • Refuerzo de creencias preexistentes: Los algoritmos de recomendación de plataformas como YouTube a veces pueden crear burbujas informativas, donde las personas son expuestas principalmente ha contenido que refuerza sus creencias preexistentes. Esto puede fortalecer puntos de vista polarizados.
  • Efecto de validación social: Ver videos que respaldan las propias creencias puede reforzar el sentido de pertenencia a un grupo y la conformidad social. Las personas pueden ser más propensas a adoptar o mantener opiniones que son socialmente aceptadas en su entorno.
  • Desinformación y teorías de conspiración: Los videos de propaganda pueden incluir desinformación o teorías de conspiración que, aunque carezcan de evidencia sólida, pueden ser persuasivas para algunos espectadores.
  • Impacto a largo plazo: La exposición repetida a ciertos mensajes puede llevar a un cambio gradual en las actitudes y creencias de las personas a lo largo del tiempo, especialmente si no están expuestas a perspectivas alternativas.
  • Interactividad y participación: Los comentarios en videos de YouTube pueden formar comunidades en línea. La participación en estas comunidades puede influir en la percepción y aceptación de ciertas ideas políticas.

La investigación, titulada «Auditoría del sistema de recomendaciones de YouTube para recomendaciones ideológicamente afines, extremas y problemáticas«, encabezada por Magdalena Wojcieszak, profesora de comunicación en la Facultad de Letras y Ciencias de la Universidad de California-Davis, fue publicada el 5 de diciembre de 2023 en la revista de revisión por pares Proceedings of the National Academy of Sciences.

También puedes leer: ¿Chatbot bueno o chatbot malo? Nuestras creencias influyen al usar inteligencia artificial

Por: Gerardo Sifuentes

Foto: YouTube

Recuerda suscribirte a nuestro boletín

📲 https://bit.ly/3tgVlS0
💬 https://t.me/ciudadanomx
📰 elciudadano.com


Reels

Ver Más »
Busca en El Ciudadano