¿Debemos crear máquinas morales?

https://blogs.bcm.edu/2021/09/13/should-we-create-moral-machines/

El desarrollo de la inteligencia artificial (IA) que puede actuar de forma autónoma ha planteado importantes cuestiones sobre la naturaleza de la toma de decisiones de las máquinas y sus capacidades potenciales. ¿Es posible aplicar una dimensión ética a las máquinas autónomas, es decir, es la ética "computable"? ¿Son las máquinas autónomas capaces de incluir consideraciones morales en sus decisiones? ¿Puede programarse la IA para que conozca la diferencia entre "lo correcto" y "lo incorrecto"?


Estas preguntas, que en su día fueron tema de novelas de ciencia ficción, están dando lugar a debates sobre la creación real de máquinas morales, también conocidas como agentes morales artificiales, y han contribuido en gran medida a la expansión del campo de la ética de las máquinas. Algunos estudiosos han intentado frenar esta evolución, preguntando no si podemos crear máquinas morales, sino si debemos hacerlo.




Según un artículo reciente, la respuesta es un "no" rotundo. En una serie de nueve estudios, los investigadores examinaron si las personas se sentían cómodas con las máquinas que tomaban decisiones moralmente relevantes en diversas situaciones, como las médicas, las jurídicas y las militares, así como las posibles formas de aumentar la aceptabilidad de las máquinas morales.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social