¿Chatbot bueno o chatbot malo? Nuestras creencias influyen al usar inteligencia artificial

Un estudio revela cómo nuestras expectativas alrededor de la IA afectan la manera en la que las utilizamos y percibimos su trabajo.

¿Chatbot bueno o chatbot malo? Nuestras creencias influyen al usar inteligencia artificial

Autor: Gerardo Sifuentes


Los científicos tienen un amplio interés en encontrar la intersección entre la humanidad y la tecnología para reunir lo mejor de ambos en un futuro integrado: cómo ambos pueden beneficiarse y mejorarse mutuamente. Según un nuevo estudio, las creencias preconcebidas que tenemos sobre una inteligencia artificial (IA), como un chatbot, tienen un efecto significativo en nuestras interacciones con esta y en la percepción de su confiabilidad, empatía y eficacia.

Es un hecho que la IA empieza a ocupar un lugar en nuestras vidas y en lugares de trabajo. Sin embargo, su proceso de adopción todavía se encuentra en sus primeras etapas: mientras que existen preparatorias y universidades que prohíben estrictamente su uso, en el plano laboral se ha descubierto que, por ejemplo, alrededor del 23% de los expertos en mercadotecnia emplean la inteligencia artificial en sus labores, en comparación con el 21% de los especialistas en ventas que también la utilizan en sus actividades laborales. También, la IA se emplea en más del 75% de los medios de comunicación para diversas etapas del proceso periodístico, abarcando tareas como la recopilación, creación y difusión de información.

En este contexto, un estudio reciente realizado por investigadores del MIT y la Universidad Estatal de Arizona, EE. UU., ha revelado cómo nuestras percepciones previas de los agentes de IA pueden influir significativamente en nuestras interacciones con ellos. Los resultados del estudio ofrecen una visión fascinante de cómo las expectativas moldean nuestras experiencias con la tecnología y plantean preguntas cruciales sobre la interacción humano-IA en la sociedad moderna.

¿En qué consistió el estudio?

La investigación se centró en explorar cómo los comentarios que recibimos de un sistema de IA influyen en la interacción de los usuarios con el mismo. Se descubrió que las declaraciones iniciales de empatía, neutralidad o manipulación sobre un agente de IA de soporte de salud mental influenciaron la percepción del chatbot y dieron forma a cómo las personas se comunicaban con él, aunque estuvieran interactuando con el mismo chatbot. Los hallazgos son reveladores y sugieren la existencia de un efecto de retroalimentación entre los modelos mentales del usuario y las respuestas de la IA, una suerte de efecto placebo a nivel tecnológico.

¿Cómo lo realizaron?

En el estudio, los participantes interactuaron con un agente de IA conversacional durante aproximadamente 30 minutos, evaluando su desempeño y se les preguntó si lo recomendarían a un amigo. Fueron asignados aleatoriamente a tres grupos, cada uno de los cuales recibió una declaración inicial sobre la IA: un chatbot sin motivos o neutral; una declaración positiva, describiendo a la IA como un chatbot “bueno” y preocupado por el bienestar del usuario; describiéndolo como un chatbot con intenciones maliciosas y engañosas.

¿Qué descubrieron?

Los participantes que creían que la IA mostraba empatía también la percibían como más confiable y efectiva, lo que ilustra la influencia significativa de las percepciones iniciales en la forma en que los usuarios experimentan la IA. Además, el estudio resalta la importancia de considerar cómo se presenta la IA en la sociedad, ya que esto puede tener un impacto profundo en la forma en que las personas la reciben y utilizan. Los investigadores también advierten sobre el uso potencial de declaraciones de inicio para engañar a las personas sobre los motivos o capacidades de la IA. En este sentido, la información noticiosa o de otras personas en redes sociales influirá directamente, sesgando su percepción de alguna manera.

El estudio plantea importantes preguntas éticas y sociales sobre la forma en que nos relacionamos con la tecnología y subraya la necesidad de considerar la presentación y el diálogo en torno a la IA, en particular en los medios de comunicación. A medida que la IA continúa transformando diversos aspectos de nuestras vidas, comprender cómo nuestras percepciones afectan nuestras interacciones con la tecnología es fundamental para garantizar su uso responsable y beneficioso para la sociedad.

El estudio Influir en la interacción entre humanos e IA mediante la preparación de creencias sobre la IA puede aumentar la confiabilidad, la empatía y la efectividad percibidas, está firmado por las doctoras Pat Pataranutaporn, Ruby Liu y Pattie Maes del MIT Media Lab y Ed Finn, del Centro para la Ciencia y la Imaginación de la Universidad Estatal de Arizona. Fue publicado en la revista Nature Machine Intelligence el 2 de octubre de 2023.

Con información de: news.mit.edu, www.media.mit.edu, www.nature.com

También puedes leer: Así duermen los mamíferos y aves marinas

Por: Gerardo Sifuentes

Foto: Conexiónesan

Recuerda suscribirte a nuestro boletín

📲 https://t.me/ciudadanomx
📰 elciudadano.com


Reels

Ver Más »
Busca en El Ciudadano