Pensando sobre 'Ética' en la Ética de la IA

Una importante consultora internacional ha identificado en 2019 "Eticista de IA" como un puesto esencial para las empresas que implementan con éxito la IA. En muchos ámbitos de la sociedad se considera que IA puede ser beneficiosa, pero también puede dañar a las personas y a la sociedad. A fin de evitar los fallos  y consecuencias dañinas, su papel se suele identificar en a) examinar las dimensiones políticas, sociales, legales y éticas de la IA y b) desarrollar guías éticas recomendaciones para desarrollar e implementar IA.

Los asuntos técnicos a veces impiden el examen serio de problemas éticos de la IA. Las definiciones de IA son muy variadas, hay diversas formas de comprensión y cada una aporta sus propias complicaciones. Por eso, para evitar confusiones y el riesgo de gente hablando cada uno de lo suyo, cualquier discusión significativa de Ética de la IA requiere la explicación de la definición de IA que se esté empleando así como el tipo de IA que se está debatiendo. Vamos a usar la definicion de European Commission High-Level Expert Group on Artificial Intelligence que define la IA como "sistemas de software (y posiblemente también hardware) diseñados por humanos que, dado un objetivo complejo, actúan en la dimensión física y psíquica percibiendo su entorno mediante la adquisición de datos, razonando sobre el conocimiento o procesando información derivada de estos datos y decidiendo las mejores acciones para alcanzar ese objetivo. Los sistemas IA pueden usar reglas simbólicas o aprender un modelo numérico y pueden también adaptar su comportamiento analizando como queda afectado el entorno por sus acciones previas".

Para dar una guía el análisis ético de IA necesita especificar la tecnología: vehículos autónomos, sistemas de recomendación, etc., y los métodos como deep learning, reinforcement learning,... Aquí vamos a tratar de agentes inteligentes autónomos, los que deciden y actúan sin intervención humana.

Veamos primero los vehículos autónomos. La posibilidad de accidentes que podía incluir daños inevitables a los pasajeros o a peatones, obliga a los investigadores y desarrolladores a considerar cuestiones sobre aceptabilidad ética de las decisiones de los AV, p.e., qué decisiones deberían tomar los AV en esos escenarios, cómo se justifican esas decisiones, qué valores reflejan los AV en sus decisiones.

También tenemos algoritmos de contratación que se han introducido para automatizar el proceso de recomendar, acortar listas y posiblemente recortar candidatos. Los algoritmos de selección típicamente funcionan usando los criterios aprendidos de un dataset. Desafortunadamente los datos de entrenamiento pueden estar sesgados lo que produciría modelos potencialmente discriminatorios.

A fin de asegurar la protección frente a la discriminación, lo que no es solo un derecho humano sino también parte de la legislación de muchos países, hemos de asegurarnos que tales algoritmos no solo  no discriminan sino que son idealmente equitativos. Hay, sin embargo, diferentes formas de enterder la equidad: las personas discrepan no solo en lo que significa equidad, la concepción adecuada de equidad puede depender del contexto. Más aún, se ha demostrado que deferentes métricas de equidad no se pueden mantener simultáneamente. Esto levanta la cuestión de cómo se debe concebir valores como la equidad en su contexto y cómo se deben implementar.

Una de las cuestiones fundamentales en la ética de la IA se puede denominar el problema del alineamiento ¿cómo podemos construir IA que esté alineada con los valores sociales aceptados. Virginia Dignum ha caracterizado tres dimensiones dela Ética de la IA: "Ética por Diseño", "Ética en el Diseño" y "Ética para el Diseño" y son útiles para identificar dos respuestas diferentes al problema del alineamiento de los valores.

Construyendo una IA Ética: Pespectivas y Limitaciones

Ética por Diseño es "la integración técnica/algorítmica de capacidades de razonamiento como parte del comportamiento de [IA autónoma]". Esta línea de investigación también se conoce como `ética de
las máquinas'. La aspiración dela ética de las máquinas es construir agentes morales que son agentes con capacidades éticas y por tanto pueden tomar decisiones éticas sin intervención humana. La ética de las máquinas así responde al problema del alineamiento de los valores mediante la construcción
de IA autónoma que ella misma se alinee con los valores humanos. Para ilustrar esta perspectiva con los AV y algoritmos de reclutamiento: los investigadores y desarrolladores se esforzarían en crear AVs que puedan razonar sobre la decisión correcta y actuar según ella en escenarios de daño inevitble. Igualmente, los algoritmos de reclutamiento se suponen que toman decisiones no discriminatorias sin intervención humana.

Wendell Wallach y Colin Allen han clasificado tres enfoques de la ética de las máquinas en su libro Moral machines. Los tres tipos son (i) enfoques top-down, (ii) enfoque bottom-up y (iii) enfoques híbridos que fusionan los anteriores. En la forma más simple, los enfoques top-down intentan formalizar e implementar una teoría ética específica en la IA autónoma, mientras que el enfoque bottom-up busca crear IA autónoma que pueda aprender del entorno a de un conjunto de ejemplos que son éticamente correctos y erróneos. El enfoque híbrido combina ambas estrategias.

Estos enfoques tienen diversas limitaciones teóricas y técnicas. Por ejemplo, los enfoques top-down necesital salvar el reto de encontrar y defender una teoría ética inontrovertible entre las tradiciones filosóficas en cflicto. De otro modo la IA ética se construiría sobre verdades o flasedades inadecuadas. Los enfoques bottom-up infieren lo bueno y lo malo de lo popular de los ejemplos, pero eso no significa unos principios éticos genuinos porque el uso social no es justificación ética. Además, está el reto técnico de construir una IA ética que pueda discernir entre información ética relevante e irrelevante. Esta capacidad se requeriría tanto para la aplicación de principios éticos en los enfoques top-down como para la adquisición con éxito e los principios en los enfoques bottom-up.

Además de los retos teóricos y técnicos, algunas críticas han nivelado la construcción de IA ética con las capacidades éticas. Primero, la IA autónoma en general y la IA ética en particular puede minar significativamente la autoni¡omía humana porqur las decisiones quetoman por nosotros o sobre nosotros pueder quedar fuera de control y así reducir nuestra independencia de influencias exteriores. Segundo, sige sin estar claro quiém o qué debería ser responsable d las decisiones erróneas de la IA autónoma,lo que preocupaciones sobre la responsabilidad moral de nuestros actos. Finalmente los investigadores han argumentado que convertir la IA autónoma en agentes morales o pacientes morales innecesariamente complica nuestro mundo moral al introducir en él cosas no familiares extrañas a nuestra comprensión moral, por tanto añadiendo yna carga innecesaria sobre los seres humanos al obligarnos a prestar una atención moral indebida a la IA autónoma.

Ética de las Máquinas, Ética Truncada

Nuestra revisión de los relos técnicos, teóricos y éticos de la ética de las máquinas no pretende ser exhaustivo oconclusivo y estos retas podróían ser superados en el futuro. No obstante, pensamos que estos retos aseguran una pausa y reconsideración de las perspectivas al construir la Ia ética. De hecho, queremos adelantar una crítica fundamental de la ética de las máquinas antes de explorar otro camino para resolver el problema del alineamiento de los valores.

Recordarán que el obetivo de la ética de las máquinas es construir una IA autónoma Que pueda tomar decisiones éticas y actuar eticamente sin intervención humana se amplifica al imbuir la inteligencia artificial autónoma las capacidades de tomar decisiones éticas y realizar acciones éticas lo que refleja una particular comprensión de ética que tenemos que problematizar más específicamente enfocarse solamente en las capacidades de toma de decisión ética y acción las máquinas son susceptibles de vistas visiones truncadas de la ética que vean las decisiones éticas y las acciones como separables de su contexto social y relacional. el filósofo y novelista Iris Murdoch por ejemplo hace tiempo argumento que la moralidad no es solo sobre una serie de reacciones que tienen lugar en una serie de situaciones específicas hables sino sobre la autorreflexión de actitudes un complejas de la vida que se muestran continuamente y se elabora hacia dentro del discurso pero no son temporales separables temporalmente en situaciones. Para Murdock lo que es ético está inherentemente ligado a valores de fondo. Por tanto es esencial pensar sobre ética mirar más allá de las capacidades para tomar decisiones y acciones y los momentos de elección ética y el fondo de los valores historias detrás de la elección de cada acción. Argumentos similares se han hecho para firmar el papel de lo contesto social y relacional en para limitar las elecciones éticas y conformar los resultados Morales y así la importancia de tenerlas en cuenta en nuestra reflexión ética punto y aparte siguiendo esta línea de crítica el énfasis en buir a la inteligencia artificial autónoma de capacidades éticas la ética de las máquinas se puede ver como en cuanto al énfasis en los hechos de los resultados éticos de la inteligencia butano ma-es está conformados de múltiples factores externos interconectados a su capacidades de razonamiento ético y que hay un proceso extendido de negociación social y política en los criterios de rectitud y equivocación subyacente a las decisiones éticas y en las acciones hechas por inteligencia artificial autónoma. 

la lección clave de estos dos ejemplos es que tener algunos principios éticos o reglas inscritas en la inteligencia artificial autónoma es insuficiente para resolver el problema del alineamiento de valores porque el fondo y el contesto contribuyen a nuestro juicio global de lo que es ético deberíamos recordarnos a nosotros mismos que la inteligencia artificial siempre se sitúa en un contexto social y relacional más amplio y así no podemos solamente enfocarnos en su capacidad de decisión toma de decisiones morales y acciones.de hemos considerar no solamente que decisiones y acciones debería reducir la inteligencia artificial, sino también porque nosotros hola sociedad piensan que esas decisiones y acciones son éticas cómo llegamos a esos puntos de vista y si estamos justificados en pensaras y. Según esto moral machines el experimento de máquinas Morales es gestionable injusticia injustificable mente asume que la mayor respuesta intuitiva o popular a los accidentes y escenarios es la respuesta ética. Desde luego encuadradas las cuestiones nos da dos ventajas primera podemos fácilmente incluir otros parties y factores pasear inteligencia de autónoma en nuestra reflexión ética también segundo hace explícito la posibilidad de renegociar qué principios éticos o reglas deberían estar inscritas en la inteligencia autónoma.
Una ética distribuida de inteligencia artificial
para ser claro no negamos la necesidad de examinar los valores embebidos en la tecnología y la importancia de diseñar y construir tecnología con valores que estén alineados con los intereses humanos como los ejemplos de este artículo muestra la inteligencia artificial autónoma puede jugar un papel en la toma de decisiones éticas y puede llevar a resultados eticamente relevantes, así es necesario tanto examinar los valores en bebidas en ella y usar en valores compartidos sociales para guiar su diseño y desarrollo. lo hacemos queremos cuestionar la expiración de delegar el razonamiento ético y el juicio a las máquinas y por tanto extraer el razonamiento y juicio de los contextos sociales y relacionales. una propia cuenta de la ética de la inteligencia artificial debería expandir su ámbito de reflexión e incluir otros elementos y factores que sean relevantes para la decisión de decisiones médicas y contribuir a los resultados de la inteligencia artificial autónoma punto para este extremo es esencial para la ética en la inteligencia artificial incluir los distintos e involucrados como los forjadores de políticas los líderes de las compañías diseñadores ingenieros usuarios no usuarios y el público en general en la reflexión ética de la inteligencia artificial autónoma. desde luego solamente haciéndolo así podemos pfi-120 resolver la cuestión es uno porque pensamos que las decisiones y los resultados del inteligencia artificial son éticas 2 cómo llegamos a tales decisiones y tres si estamos justificados en nuestros juicios.
deberíamos llamar a esta ética de la inteligencia artificial es bandida una ética distribuida que la inteligencia artificial punto el término distribuidor pretende capturar el hecho de que múltiples partes y factores son relevantes y han contribuido a los resultados de la inteligencia artificial autónoma y así la responsabilidad de ellos está distribuida entre los factores y las partes relevantes y contribuyentes. Para usar los ejemplos de vehículos autónomos y algoritmos de reclutamiento 2 puntos una pobre planificación urbana y facilidades instalaciones de carreteras debería ser preocupaciones legítimas en la ética de los vehículos autónoma de la misma forma los sexos existentes sociales y culturales son consideraciones válidas para los algoritmos de selección de personal ético punto por tanto el diseño implementación de la inteligencia artificial debería tomar las desigualdades sociales existentes y las injusticias en consideración tener en cuenta de ellos y mejor de los casos incluso el tender aliviarlos a través de sus decisiones de diseño.
la ética distribuida de la inteligencia artificial necesita lo que dignum ha etiquetado como ética en el diseño es decir los métodos de regulatorios y de ingeniería que apoyan el análisis y evaluación de las implicaciones éticas de los sistemas de inteligencia artificial en cuanto integra o reemplaza estructuras y sociales tradicionales así como ética para el diseño los códigos de conducta normas y procesos de certificación que aseguran la integridad desarrolladores y usuarios en cuanto investigan diseñan construyen emplean y gestiona sistemas artificiales inteligentes. Las cuestiones éticas de los vehículos autónomos no se pueden resolver con mejores capacidades éticas individualistas sino solo a través de efectos colectivos esfuerzos colectivos punto para guiarte al ser fuerzas colectivos Lucky asepticas ofrecen un medio útil para sacar valor y principios reflexión basada en valor y principios para la inteligencia artificial autónoma y para coordinar efectivamente los esfuerzos entre diferentes partes relevantes y contribuyentes.
Conclusiones sobre la inteligencia artificial fiable de la Unión
en abril de 2019 el club público ethics guidelines for trustworthy ai que concretan la visión europea de la inteligencia artificial. Según estas guías Europa debería invertir y desarrollar trustworthy ella que sea legal ética y robusta. hay dos puntos en las guías que merecen especial mención en está el tema de discusión actual. Primero es interesante notar que las preocupaciones sobre confianza en las guías son no solamente sobre las propiedades inherentes de la tecnología sino también las cualidades de los sistemas sociotecnicos envueltos en las aplicaciones de inteligencia artificial. dirigirse hacia atrás gordi ella y por tanto preocupa no solamente a la confianza en el propio sistema sino que requiere un enfoque sistémico holístico qué es un la confianza de todos los actores y procesos que sean parten del concepto sociotecnico a través de todo su ciclo de vida punto a este respecto la visión de trustworthy y hay claramente encaja con la ética distribuida la inteligencia artificial tal como se ha descrito previamente segundo también es interesante notar que los cuatro principios éticos identificados en la guía son principios de medio nivel es decir 1 el principio de respeto a la autonomía humana 2 el principio de prevención de daño 3 el principio de equidad 4 principio de aplicabilidad aparte la formulación de principios éticos basada en principios de medio al nivel y el medio es particularmente iluminadora porque los principios de nivel medio requieren interpretación humana y un orden en su aplicación y no se pretende que se implementen en la inteligencia artificial autónoma necesitan para ser interpretados y ordenador también datos de contexto social y relacional donde los recursos para dónde están donde descansan los principios de interpretación y ordenación punto y aparte mientras la visión europea detrás gordi ella and the island a tienen una fundamento sólido hay cierto número de problemas con ellos por ejemplo el uso de principios de nivel medio en las playas permite considerable espacio de interpretación en cambio puede ser usado para tractores malevolente para elegir las interpretaciones y escuchar su propia responsabilidad. Este problema está ahí más liado con el énfasis de las guías en la autorregulación de los políticos y la compañía pueden pagar lipservice a la visión europea con medidas baratas y superficiales como propaganda y establecer pues comités asesores simbólicos sí que no si enfoque sustancialmente en los impactos negativos de la inteligencia artificial punto por tanto haysignificantes problemas relacionados con el marco regulatorio institucional actual para la ética de la inteligencia artificial y para llevar a cabo está misión europea. Particularmente se necesita crear un marco claro para una distribución justa de los beneficios y riesgos de la inteligencia artificial y la necesidad de introducir leyes duras y regulaciones contra la violación de los valores éticos básicos y los derechos humanos. no obstante estos problemas las guías se enfocan en los seres humanos y más allá de la tecnología deberían ser tomados como un punto de arranque normativo en la ética de la inteligencia artificial y para la visión europea. Para acabar este artículo queremos recordar que las cuestiones éticas sobre la inteligencia artificial autónoma son distribuidas por naturaleza y nosotros hola sociedad deberían tener voz en su diseño y despliegue.
https://revistaidees.cat/en/thinking-about-ethics-in-the-ethics-of-ai/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje