Las redes sociales se han vuelto una de las principales plataformas informativas usadas por los chilenos y chilenas. Así lo indican estudios como el Digital News Report 2022, que plantea que un 70% de la población solo se informa por redes sociales, dentro del cual un 19% lo hace a través de Twitter.
Sin embargo, así como esta última plataforma ha experimentado un crecimiento a nivel de usuarios, también registra crecientes desafíos. Eduardo Graells-Garrido, académico del Departamento de Ciencias de la Computación de la Universidad de Chile e investigador asociado del Centro Nacional de Inteligencia Artificial (CENIA), destaca el impacto que las redes sociales han tenido en la agenda noticiosa nacional: “Hoy día tú ves el noticiero y lo primero que se dice es que algo fue Trendic Topic en Twitter. De hecho, hace 10 años se discutía si los usuarios de Twitter representaban o no a la población y hoy se ha medido incluso», señala el docente.
Es dentro de este crecimiento que en el último tiempo se han generado distintos mecanismos que han contribuido a la desinformación masiva. El mejor ejemplo de esto son los bots.
De acuerdo al académico de la Facultad de Comunicación e Imagen (FCEI) y director del Núcleo Inteligencia Artificial y Sociedad, Lionel Brossi, los bots son entidades automatizadas que usan sistemas de programación de lenguaje natural para poder simular muchas veces las formas que tienen de comunicarse los humanos a nivel de lenguaje. Si bien desde los años 60 ya se empezaron a desarrollar bots de lenguaje natural o que se aproximaban a este, no ha sido hasta el último tiempo que se han asociado a la desinformación.
En esta línea, Graells-Garrido aclara que no todos los bots tienen un uso negativo. Inicialmente, estos sistemas trataban de responder a preguntas que hacían las personas y reaccionaban a las acciones que hacían estas. “Usualmente, hay unos bots a los cuales tú les puedes preguntar cosas, puedes pedirles que te recuerden tweets tras un tiempo, puedes descargar videos anexos a tweets. Hay distintos bots con los que tú puedes interactuar en Twitter”, precisa.
Pero, al mismo tiempo, también hay bots que no interactúan, sino que publican cosas. Es así como llegamos a la concepción actual generalizada sobre ellos, la del bot como cuenta posiblemente falsa que se quiere hacer pasar por una persona real. “A veces puede estar programada o a veces puede ser una especie de Cyborg, es decir, ser automatizada, pero que hay una persona que por detrás está controlando las cosas que publica el robot” advierte Graells-Garrido.
Si bien desde plataformas como Twitter han surgido distintas medidas para tratar de identificar y eliminar cuentas de esta índole, para el académico Lionel Brossi es imposible poner detener esto de manera absoluta. Según explica, aunque los bots se pueden identificar y reducir, la tecnología -por lo general- va mucho más rápida que la capacidad para poder contenerlos. “Siempre van a haber mecanismos que van a hacer que los bots sean cada vez más sutiles y cada vez más difíciles también de identificar. Al igual que la desinformación, es muy difícil pensar en eliminarla totalmente”, afirma Brossi.
Graells-Garrido coincide con esta visión del problema y destaca la capacidad de los bots de alterar sus comportamientos constantemente, al punto que una vez que aprendes a identificarlos hacen otras cosas para que los detectores de bots no sean efectivos. Pese a ello, siguen surgiendo iniciativas que buscan disminuir su incidencia. Este es el caso de la cuenta @BotCheckerCL, que mediante algoritmos y el trabajo de distintas personas identifica patrones que se asemejen con los usados por bots.
“Lo que hacen los bot checkers es mezclar lo que tú puedes programar para buscar un bot y eso hacerlo un bot. La gente suele ponerle nombres como Schwarzenegger por Terminator, porque al final es un robot que viene a detener a otros robots” resume Graells-Garrido.
El fenómeno, por otra parte, en muchos casos deja la pregunta sobre qué impacto tiene sobre las comunicaciones y diversos procesos sociales. Para Lionel Brossi, desde una perspectiva humana, seguimos teniendo capacidades críticas y de reflexión que nos permiten distinguir estos mecanismos de desinformación.
“Sin embargo, creo que como este tipo de tecnologías juegan con la psicología cognitiva de los usuarios y de las audiencias, sí tienen más poder de incidir”, lamenta Brossi. Por esta razón, el académico sostiene que más allá de los aspectos técnicos, es muy importante estar atentos y atentas a la información que circula, sobre todo en redes sociales.