Logo oe

Los robots que distinguen el bien del mal

Larger robotheart
Arrow red
Las universidades de Tufts y Yale en Estados Unidos ya están investigando cómo se le puede enseñar a los robot a tomar decisiones morales.
01 de junio de 2015
Red star
Por qué es importante
Es indispensable asegurar un uso responsable y ético de la inteligencia artificial.

Existe ya un amplio consenso respecto a la importancia de la inteligencia artificial. Sin embargo, todavía no existe suficiente claridad respecto de su impacto. Aun cuando es natural pensar que los beneficios serán enormes, es difícil de predecir los efectos adversos que podría tener. A inicios de año, en una carta abierta, el Future of Life Institute recomendó analizar con mayor detalle las ramificaciones sociales que podría tener un uso más extendido de la inteligencia artificial, tomando en consideración aspectos económicos, legales y de seguridad de la información. 

La inteligencia artificial, por ejemplo, ya se viene aplicando en el campo del reconocimiento de voz e imágenes, en la producción de automóviles que se conducen solos e incluso en la producción de aviones de guerra no tripulados. Se estima además que en Silicon Valley ya existen más de 150 start-ups que planean introducir productos utilizando inteligencia artificial en el futuro cercano.

Los temores que existen respecto del potencial impacto adverso de la inteligencia artificial van mucho más allá de la potencial reducción del empleo que podría generar la automatización de ciertas actividades. La dimensión ética es probablemente el tema de mayor complejidad por analizar.

Imagine, por ejemplo, que para evitar chocar a un bus con pasajeros un vehículo que circula sin conductor (como los que ya viene probando Google en Estados Unidos) debe subirse a una vereda sobre la cual circula una persona adulta con un niño. ¿Debe el automóvil tener instalado un software “ético” que le permita optar por salvar la vida del niño si es que se ve forzado a elegir y solo estima poder salvar a una persona?

Todavía no está claro si será posible enseñarle a un robot la diferencia entre el bien y el mal. Actualmente, las universidades de Tufts y Yale en Estados Unidos están investigando sobre el tema. 

La necesidad de introducir alguna regulación sobre cualquier intento por introducir la moralidad en la inteligencia artificial está clara para muchos expertos: si los robots serán programados para tomar decisiones morales, ¿quién determina el tipo de moral que se les introducirá? ¿cómo proteger a la humanidad de potenciales sabotajes o actos terroristas? Hay quienes incluso consideran que es inmoral no abordar este tema antes de seguir avanzando en el desarrollo de la inteligencia artificial. Para los optimistas, en contraste, la posibilidad de introducir la dimensión moral dentro de la inteligencia artificial es totalmente esperanzadora para la humanidad pues permitiría automatizar la humanidad y todas las virtudes que con tanta frecuencia se pierden en las relaciones entre personas. ¿Usted qué opina?