Vehículos autónomos, robots sociales y mitigación del riesgo Riesgo: hacia un nuevo enfoque consecuencialista de la seguridad de la IA
En este artículo, argumentaré, sobre bases consecuencialistas, que la principal preocupación ética
que debería informar y guiar tanto el diseño de los sistemas de IA como la regulación de la sociedad
de la sociedad sobre el tratamiento de los robots sociales es la mitigación del riesgo. Demostraré que el consecuencialismo tradicional
que el consecuencialismo tradicional no puede servir de guía adecuada para la toma de decisiones en estos
de decisiones en estos dos proyectos porque está mal equipado para tratar con escenarios de decisión en los que hay un alto nivel de incertidumbre sobre los posibles resultados.
de incertidumbre sobre los posibles resultados de una o más de las acciones
de las acciones disponibles para el agente, pero en los que hay un alto nivel de certeza de que al menos uno de los
de los posibles resultados implicaría un daño grave.
A estos escenarios de decisión los llamo escenarios de riesgo grave inescrutables. Argumentaré que las situaciones de decisión
de decisión en el diseño de la IA ética y la regulación de los robots sociales son tales
escenarios. Por último, argumentaré que una versión convenientemente modificada del consecuencialismo tradicional, a la que llamo
una versión adecuadamente modificada del consecuencialismo tradicional, a la que llamo consecuencialismo del riesgo, está mejor equipada para tratar estos casos.
de estos casos. Los consecuencialistas del riesgo, cuando se enfrentan a escenarios de riesgo graves e inescrutables
deberían tratar de minimizar el riesgo de que se produzcan los resultados que saben que
causarían un daño grave
Comentarios
Publicar un comentario