AUTOMATIZAR LA ÉTICA

La filosofía y la ética de la tecnología tiene una larga tradición. Al rastrear esta historia, podríamos remontarnos hasta los filósofos griegos antiguos y el concepto technê. Alternativamente, podríamos explorar la explicación de Martin Heidegger de la relación entre tecnología y existencia humana (Dasein) como un punto de partida para los enfoques fenomenológicos modernos de las tecnologías de la información y la comunicación. O podríamos comenzar con discusiones y debates contemporáneos en estudios de ciencia y tecnología que cierren la brecha entre filosofía, ética, política, derecho, sociología y, por supuesto, ciencia.1

Independientemente de nuestro punto de partida, tener algún conocimiento de esta rica historia multidisciplinaria es útil para identificar dónde los debates actuales en la ética de la tecnología hacen eco (o “riman” 2) debates anteriores. Por ejemplo, la investigación actual sobre FairML está lidiando con debates de larga data en filosofía política3 y se basa en ellos, y la idea de Zuboff del capitalismo de vigilancia4, si bien es novedosa en su elucidación y crítica de las prácticas comerciales contemporáneas, se hace eco de discusiones trilladas sobre la importancia normativa de conceptos como como privacidad y autonomía. Sin embargo, a pesar de estas similitudes, el desarrollo de tecnologías novedosas basadas en datos, como ML o AI, crea invariablemente nuevos desafíos o dilemas éticos.

Esta serie explorará uno de esos desafíos éticos, que es el resultado de una tendencia emergente hacia la automatización de los procesos de gobernanza en la ciencia de datos y la investigación y el desarrollo de IA. Para ser claros, la automatización tecnológica en sí misma no es nueva. Ha habido una creciente preocupación por la automatización tecnológica durante siglos, incluido su impacto en los mercados laborales, la sostenibilidad ambiental o incluso la propia condición humana. Este tipo de automatización no es el foco de estas publicaciones. En cambio, estas publicaciones discutirán una tendencia hacia la automatización de la toma de decisiones éticas que surge durante el flujo de trabajo de un proyecto de ciencia de datos o IA, y cómo esta tendencia amenaza con alejar a los profesionales de formas desafiantes pero vitales de reflexión y deliberación éticas.

Existen innumerables impulsores de esta tendencia hacia la automatización de la ética. Sin embargo, un factor obvio y significativo son los incentivos económicos. Como era de esperar, una organización (ya sea en el sector público o privado) está motivada por objetivos económicos, como el aumento de las ganancias a través de la escalabilidad, ser la primera en el mercado, reducir los costos generales, etc. Si una organización se basa en un modelo de aprendizaje automático para inteligencia empresarial, análisis de clientes o como componente clave de un producto (por ejemplo, un sistema automatizado de toma de decisiones), es probable que deseen que este modelo entre en producción de la manera más eficiente posible. . Para abordar esta necesidad, en los últimos años se ha observado un creciente interés en el área de MLOps.

MLOps son las siglas de "operaciones ML". Se define como,

"El proceso de poner en funcionamiento la ciencia de datos al poner en producción los modelos de ML, poder monitorear su desempeño y garantizar que sean justos y cumplan con las regulaciones aplicables". 5

Como práctica, se deriva de la aplicación de prácticas de DevOps a la ciencia de datos y los flujos de trabajo de ML (es decir, la combinación del desarrollo (Dev) de los sistemas de ML con su operación (Ops)). Esto, en sí mismo, puede no ser un cambio tan interesante desde una perspectiva ética. Sin embargo, considere la siguiente cita de uno de los artículos de Google sobre MLOps:

“Practicar MLOps significa que aboga por la automatización y el monitoreo en todos los pasos de la construcción del sistema de AA, incluida la integración, las pruebas, la liberación, la implementación y la administración de la infraestructura”. (énfasis añadido)

Aquí, podemos profundizar en una posible fuente de preocupación. Si bien la automatización de "todos los pasos" en el flujo de trabajo de ML puede traer consigo muchos beneficios (principalmente económicos y operativos), también crea una variedad de desafíos éticos. Primero, existe la posibilidad de una pérdida de supervisión en coyunturas críticas que exigen un diálogo reflexivo y un juicio humano, lo que podría llevar a que se pasen por alto daños no deseados o que surja una descalificación moral en los equipos, especialmente cuando la supervisión en sí también está automatizada. En segundo lugar, para automatizar el monitoreo, es necesario que haya una decisión previa sobre qué métricas deben monitorearse. Esto crea invariablemente una situación en la que las propiedades de un sistema que son resistentes a la cuantificación simple se pasan por alto en favor de métricas más simples (por ejemplo, KPI). En tercer lugar, existe el problema de que si un modelo de AA se ve afectado por el sesgo de datos faltantes debido a barreras estructurales para la inclusión que impactan de manera desproporcionada en ciertos subgrupos, entonces la preocupación anterior sobre la automatización es discutible debido al problema anterior. Finalmente, está el problema de decidir qué métricas son adecuadas como objetivos a optimizar, encapsulado en la Ley de Goodhart:

"Cuando una medida se convierte en un objetivo, deja de ser una buena medida".

Estos desafíos son solo una selección y también requieren una mayor elaboración. El propósito de esta serie de publicaciones de blog será interactuar críticamente con ellos. Sin embargo, identificar y evaluar estos desafíos primero requiere una forma de mapear y delinear las etapas clave asociadas con el flujo de trabajo de AA. Hay una variedad de perspectivas que podríamos adoptar aquí. Por ejemplo, la perspectiva MLOps adoptada por Sweenor et al. (2020) da lugar a los siguientes cuatro pasos, a los que se refieren como el proceso de compilación, administración, implementación e integración y monitoreo.5

https://chrisdburr.github.io/blog/automating-ethics/automating-ethics/


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje