Señales para una IA ética: una ruta hacia la transparencia
La Inteligencia Artificial (IA) se ha elevado recientemente al punto en que tiene un impacto en la vida diaria de miles de millones de personas. Este es el resultado de su aplicación a sectores como finanzas, salud, entretenimiento digital, transporte, seguridad y publicidad. Hoy en día, la IA alimenta algunos de los factores económicos y instituciones de investigación en el mundo y el impacto de la IA en un futuro próximo parece difícil de predecir o incluso delimitado. En contraste con todo este poder, la sociedad permanece mayoritariamente ignorante de las capacidades, requisitos y prácticas estándar de la IA hoy. La sociedad se está dando cuenta de los peligros que conlleva ese ignorancia, y legítimamente está pidiendo soluciones. Para abordar esta necesidad, mejorando sobre las prácticas actuales de interacción entre personas y sistemas de IA, proponemos un esquema de transparencia que se implementará en cualquier sistema de IA abierto al público. El esquema se basa en dos pilares principales: Privacidad de datos y Transparencia de IA. El primero reconoce la relevancia de los datos para la IA y está respaldado por GDPR, la legislación más importante sobre el tema. El segundo considera aspectos de La transparencia de la IA aún no se ha regulado: capacidad, propósito y fuente de la IA. Carente legislación sobre la que construir, diseñamos este pilar basándonos en principios éticos fundamentales principios. Para cada uno de los dos pilares, definimos una pantalla de tres niveles. El primero El nivel se basa en señales visuales, inspiradas en señales de tráfico que gestionan la interacción. entre personas y automóviles, y diseñado para una interpretación rápida y universal. El segundo nivel utiliza un sistema de hoja informativa, que proporciona más detalles mientras abstraer el tema. El último nivel proporciona acceso a todos los detalles disponibles. Luego de detallar y ejemplificar el esquema de transparencia propuesto, definimos un conjunto de principios para crear software transparente mediante diseño, que se utilizará durante la integración de componentes de IA en servicios orientados al usuario.
https://arxiv.org/pdf/2009.13871.pdf
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).
Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Comentarios
Publicar un comentario