Un robot advierte a la humanidad sobre los daños de la Inteligencia Artificial

Entre los riesgos figuran problema de los prejuicios humanos y la incapacidad de la Inteligencia Artificial para tomar decisiones morales

Un robot advierte a la humanidad sobre los daños de la Inteligencia Artificial

Autor: Pedro Pérez

La Inteligencia Artificial y las máquinas pueden causar más daño a la humanidad de lo que se piensa, es lo que ha dicho un robot luego de un intenso debate sobre este tipo de tecnología.

La discusión se realizó en el Cambridge Union, en el Reino Unido, donde se desarrolló una actividad para debatir los pros y los contras de la IA con los humanos.

En un momento, la máquina en cuestión le dijo a la audiencia que «la IA puede causar mucho daño» a la humanidad.

Durante el evento, los argumentos a favor de los beneficios de la Inteligencia Artificial señalaron que esta podría generar nuevos empleos y brindar una mayor eficiencia al lugar de trabajo, mientras que los que estaban en contra incluyeron el problema de los prejuicios humanos y la incapacidad de la IA para tomar decisiones morales.

«La IA no podrá tomar una decisión que sea moralmente correcta, porque la moral es exclusiva de los humanos», afirmó Noam Slonim, un ingeniero experto en la materia.

Si bien esta inteligencia es llevada a cabo por máquinas, «esta tecnología puede ayudar a establecer un canal de comunicación interesante y efectivo entre el tomar de decisiones y las personas que se verán afectadas por la decisión», dijo el científico de IBM.

El problema de los prejuicios humanos y la incapacidad de la IA para tomar decisiones morales sigue siendo el talón de Aquiles de esta tecnología.

El origen del fin

Según Fortune, los argumentos de la IA expuestos en este encuentro se extrajeron de más de 1.100 presentaciones enviadas a la famosa empresa IBM la semana anterior al debate, que se clasificaron como favorables u opuestas a la IA, o se descartaron por completo como irrelevantes para el debate.

A partir de estos, el Proyecto Debater de IBM buscó y condensó los argumentos más fuertes y diversos para repetir cuando se le da una breve oración de apertura como aviso.

Sin embargo, el rendimiento del algoritmo no funcionó del todo sin problemas, tenía una tendencia a repetirse a veces, incluso cuando se hablaba de la capacidad de AI para completar tareas repetitivas.

Incluso, la IA utilizó un argumento sobre el sesgo como un beneficio en lugar de una crítica de la tecnología. Sin embargo, logró lanzar un par de risas, extraídas de su «banco de bromas», informa CNN.

En un debate realizado en Reino Unido, la IA utilizó un argumento sobre el sesgo como un beneficio en lugar de una crítica de la tecnología.

Encuentros redundantes      

 En febrero de este año se realizó un encuentro similar, en el que la IA perdió  una batalla cara a cara contra Harish Natarajan, quien es el poseedor del récord mundial de la mayoría de las victorias en la competencia de debate. Natarajan también actuó en Cambridge Union, para el lado pro-AI.

Dan Lahav, un científico informático de IBM que trabaja en el Proyecto Debater, dijo a los periodistas en Fortune que algunas personas enviaron obscenidades y lenguaje racista aparentemente para que la IA los repitiera durante el debate. Sin embargo, a diferencia de algoritmos como el Tay de Microsoft, fue capaz de eliminar el lenguaje discriminatorio e inflamatorio.

Ahora bien, cuando se trata de cómo el público de Estados Unidos percibe a la IA, la mayoría parece estar en gran parte a favor, así lo demuestra una encuesta de Gallup de 2018, que señala que el 79 por ciento de los encuestados estuvo de acuerdo en que la IA ha tenido un impacto «mayormente positivo» o «muy positivo» en sus vidas.

Los expertos en IA también están en conflicto cuando se trata de los daños y beneficios de la IA, y muchos dicen que su futuro estará determinado por cómo los humanos programemos los algoritmos para operar.

«Creo que es más probable que usemos este poder para hacer del mundo un lugar mejor. Por ejemplo, podemos eliminar virtualmente la pobreza global, reducir enormemente las enfermedades y proporcionar una mejor educación a casi todos en el planeta», dijo Erik Brynjolfsson, director de la Iniciativa MIT sobre la economía digital y autor de «Machine, Platform, Crowd».

«Dicho esto, AI y ML (aprendizaje automático) también se pueden usar para concentrar cada vez más la riqueza y el poder, dejando atrás a muchas personas y para crear armas aún más horripilantes. Ninguno de los resultados es inevitable, por lo que la pregunta correcta no es ‘¿Qué pasará? ? pero «¿Qué elegiremos hacer?», puntualizó el experto.

Sigue leyendo:


Reels

Ver Más »
Busca en El Ciudadano