Estudiantes extranjeros en EEUU son acusados falsamente de plagio por una IA

Se ha documentado que el uso de herramientas basadas en inteligencia artificial tiende a replicar sesgos y duscriminación.

Estudiantes extranjeros en EEUU son acusados falsamente de plagio por una IA

Autor: Gerardo Sifuentes

Después del lanzamiento del famoso ChatGPT a fines de 2022, esta herramienta se volvió increíblemente popular y las instituciones educativas empezaron a preocuparse por la posibilidad de que los estudiantes lo utilicen para hacer trampa en sus trabajos. Como respuesta, comenzaron a emplear con mayor frecuencia programas de inteligencia artificial diseñados para detectar esta actividad.

También puedes leer: Experto asegura que la carrera por la IA no tendrá ganadores

Ahora, el portal de noticias sin fines de lucro The Markup, centrado en el impacto de la tecnología en la sociedad, reveló que un reciente estudio llevado a cabo por la Universidad de Stanford (EE. UU.) ha sacado a la luz un asunto inquietante relacionado con la inteligencia artificial (IA). Parece que las herramientas que se utilizan para identificar textos generados por sistemas de IA, como el famoso ChatGPT, están mostrando un sesgo bastante notorio en contra de personas que no tienen el inglés como su idioma principal.


¿Qué ocurrió?


Un profesor en la Universidad Johns Hopkins (EE. UU.) recibió una alerta de Turnitin, un software que se encarga de detectar si hay plagio en los trabajos entregados por sus estudiantes. En esa ocasión, el programa marcó más del 90% de un trabajo como si hubiese sido generado por una IA. El profesor, perplejo, se puso en contacto con el estudiante responsable, quien mostró todas las pruebas de su investigación, notas y fuentes utilizadas en el trabajo, demostrando que el software había cometido un error.

Pero eso no es todo. En otro caso similar, el mismo profesor colaboró directamente con un estudiante en la planificación y los borradores de un trabajo, y luego Turnitin marcó la mayor parte del trabajo como si hubiera sido generado por una IA. Esto comenzó a repetirse a lo largo del semestre, hasta que finalmente el profesor detectó un patrón intrigante: la herramienta de Turnitin estaba más inclinada a señalar los escritos de estudiantes internacionales como si fueran creados por IA.

Un equipo de informáticos de Stanford decidió investigar este asunto en mayor profundidad. Descubrieron que otros siete sistemas de inteligencia artificial también tendían a marcar los escritos de personas no nativas en inglés como generados por IA en un asombroso 61% de las ocasiones, un error que casi nunca ocurría al evaluar textos escritos por hablantes nativos de inglés.

¿Qué averiguaron?

Parece que el problema se origina en el hecho de que estas herramientas de IA están programadas para considerar un texto como generado por IA cuando el uso de palabras es predecible y las frases son más simples. Esto, a menudo, es lo que sucede en los textos de personas no nativas en inglés debido a un vocabulario más limitado y una comprensión gramatical menos compleja en comparación con su lengua materna.

Sistemas como ChatGPT y otros sistemas de IA generativa funcionan analizando grandes cantidades de datos y luego crean frases utilizando las palabras y estructuras más comunes. Aunque estas herramientas no están específicamente diseñadas para identificar escritos simples, tienden a aprender a hacerlo al observar una y otra vez que los textos generados por IA siguen este patrón.

Este problema no es nuevo, ya que se ha documentado que el uso de herramientas basadas en inteligencia artificial tiende a replicar sesgos, como software de recursos humanos para contratación que discrimina a personas con discapacidades o programas de vigilancia que tienden a señalar únicamente a personas no blancas como peligrosas. Imaginen a un estudiante internacional en EE UU que ha invertido tiempo y esfuerzo en investigar, redactar y fundamentar su trabajo, solo para que una herramienta automatizada lo señale como un potencial caso de trampa. Esto no solo puede causar una gran frustración y desconfianza en el sistema, sino que también puede afectar negativamente las calificaciones y la reputación del estudiante.

El tema es particularmente relevante en un mundo donde la inteligencia artificial está siendo cada vez más utilizada en la educación y en la toma de decisiones. Desde la popularidad de ChatGPT hasta la implementación de programas de detección de plagio, es fundamental que estos sistemas sean revisados y ajustados para evitar sesgos injustos y resultados inexactos. Los investigadores de Stanford han arrojado luz sobre este asunto y han planteado la necesidad de un diseño más equitativo en las herramientas de detección de IA. No se trata solo de señalar el problema, sino de abordarlo de manera proactiva para garantizar que la tecnología sea una aliada justa y precisa en la educación y otros temas relevantes.

La investigación “Los detectores GPT están sesgados contra los escritores no nativos en inglés”, encabezada por el doctor Weixin Liang de la Universidad de Stanford, fue publicada en la revista de revisión por pares Patterns el 10 de julio de 2023.


Con información de: themarkup.org y www.cell.com

Por: Gerardo Sifuentes

Foto: Internet

Recuerda suscribirte a nuestro boletín

📲 https://t.me/ciudadanomx
📰 elciudadano.com


Reels

Ver Más »
Busca en El Ciudadano