Ética como servicio: una operacionalización pragmática de la ética de la IA

A medida que ha aumentado la gama de usos potenciales de la inteligencia artificial (IA), en particular el aprendizaje automático (ML), también ha aumentado la conciencia de los problemas éticos asociados. Esta mayor conciencia ha llevado a la comprensión de que la legislación y la regulación existentes brindan una protección insuficiente a las personas, los grupos, la sociedad y el medio ambiente de los daños de la IA. En respuesta a esta constatación, ha habido una proliferación de códigos, directrices y marcos de ética basados ​​en principios. Sin embargo, cada vez está más claro que existe una brecha significativa entre la teoría de los principios éticos de la IA y el diseño práctico de los sistemas de IA. En trabajos anteriores, analizamos si es posible cerrar esta brecha entre el "qué" y el "cómo" de la ética de la IA mediante el uso de herramientas y métodos diseñados para ayudar a los desarrolladores, ingenieros y diseñadores de IA a traducir los principios en la práctica. Concluimos que este método de cierre es actualmente ineficaz ya que casi todas las herramientas y métodos de traducción existentes son demasiado flexibles (y por lo tanto vulnerables al lavado ético) o demasiado estrictos (no responden al contexto). Esto planteó la pregunta: si, incluso con orientación técnica, la ética de la IA es difícil de integrar en el proceso de diseño algorítmico, ¿se vuelve inútil todo el esfuerzo de diseño pro-ético? Y, en caso negativo, ¿cómo puede la ética de la IA ser útil para los profesionales de la IA? Esta es la pregunta que buscamos abordar aquí al explorar por qué los principios y las herramientas técnicas de traducción siguen siendo necesarios, incluso si son limitados, y cómo estas limitaciones pueden superarse potencialmente proporcionando una base teórica de un concepto que se ha denominado 'Ética como servicio. .

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3784238 

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje