Liable Machines

 El auge de la inteligencia artificial (IA) ha traído consigo una avalancha de propuestas sobre cómo regularla. Empresas de tecnología, como Google, y organizaciones internacionales, como la Comisión Europea y la Organización para la Cooperación y el Desarrollo Económicos (OCDE), han publicado planes o convocado comités para orientar la regulación de la IA. Pero la prisa global por regular la IA no es un indicio de que la moralidad pueda reducirse a un conjunto de reglas. Hace casi un siglo, cuando la computación estaba en su infancia, el matemático y filósofo analítico Kurt Friedrich Gödel descubrió uno de los axiomas más bellos de las matemáticas: la idea de que las matemáticas son incompletas. Esa incompletitud no significa que hay un espacio en blanco de las matemáticas que eventualmente podría llenarse, sino más bien que hay verdades en un sistema lógico, como las matemáticas, que no se puede probar usando solo las reglas dentro del sistema. Para probarlos, debe expandir el sistema. Hacerlo responde a esas verdades, pero también abre otras nuevas que una vez más no pueden probarse desde adentro. Las matemáticas están incompletas no porque falte un conjunto finito de pruebas, sino porque cada vez que intentamos completarlas, abrimos la puerta a verdades nuevas e indemostrables.

https://static1.squarespace.com/static/5e6bac9e0eedae432b177355/t/5f72511e5b4e6117a5642c69/1601327394884/HHJM-Ch7-Liable_Machines.pdf

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social