Ética como servicio: una operacionalización pragmática de la ética de la IA

https://link.springer.com/article/10.1007/s11023-021-09563-w

A medida que ha aumentado la gama de usos potenciales de la inteligencia artificial (IA), en particular el aprendizaje automático (ML), también ha aumentado la conciencia de los problemas éticos asociados. Esta mayor conciencia ha llevado a la comprensión de que la legislación y la regulación existentes brindan una protección insuficiente a las personas, los grupos, la sociedad y el medio ambiente de los daños de la IA. En respuesta a esta constatación, ha habido una proliferación de códigos, directrices y marcos de ética basados ​​en principios. Sin embargo, cada vez está más claro que existe una brecha significativa entre la teoría de los principios éticos de la IA y el diseño práctico de los sistemas de IA. En trabajos anteriores, analizamos si es posible cerrar esta brecha entre el "qué" y el "cómo" de la ética de la IA mediante el uso de herramientas y métodos diseñados para ayudar a los desarrolladores, ingenieros y diseñadores de IA a llevar los principios a la práctica. Concluimos que este método de cierre es actualmente ineficaz ya que casi todas las herramientas y métodos de traducción existentes son demasiado flexibles (y por lo tanto vulnerables al lavado ético) o demasiado estrictos (no responden al contexto). Esto planteó la pregunta: si, incluso con orientación técnica, la ética de la IA es un desafío para integrarla en el proceso de diseño algorítmico, ¿se vuelve inútil todo el esfuerzo de diseño pro-ético? Y, en caso negativo, ¿cómo se puede hacer que la ética de la IA sea útil para los profesionales de la IA? Esta es la pregunta que buscamos abordar aquí explorando por qué los principios y las herramientas técnicas de traducción siguen siendo necesarios, incluso si son limitados, y cómo estas limitaciones pueden superarse potencialmente proporcionando una base teórica de un concepto que se ha denominado 'Ética como servicio. .

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje