Desafiando la credibilidad de la "IA ética"

 La innovación es una palabra sorprendente, pero precisa, para usar al describir la IA responsable. Cuando conceptualicé la paridad por primera vez, algunos amigos de las startups recomendaron el libro canónico (y aún más vendido de Amazon), The Lean Startup. Lo leí a regañadientes, no parecía mi tipo de libro, pero, para mi sorpresa, vi analogías de las luchas que enfrentamos al implementar sistemas éticos de IA.


La conclusión más importante fue que la verdadera innovación no se alinea con las métricas de desempeño del status quo. Esto es cierto tanto para nuestros modelos como para nuestra gente. Intuitivamente, eso tiene sentido: si algo es realmente innovador, no hemos tomado las medidas adecuadas para capturar su valor, ya que es algo inesperado. Desafortunadamente para la gente, el cambio a menudo se ve como una amenaza, y aquellos que cuestionan el status quo como peligrosos.


Con la decisión de Google de señalar en contra de la innovación del Dr. Gebru en el campo de la IA (me viene a la mente el término 'pionero'), aquellos de nosotros que trabajamos en el campo de la IA responsable sentimos las posibles repercusiones que pueden dividir la ética tecnológica y la IA aplicada / Trabajo de ML.


Este tema es más reflexivo y contemplativo, así que abroche el cinturón. Es un momento de reflexión y reconocimiento para nuestra industria, así que consideremos algunos vectores importantes: impacto en las políticas y regulaciones, e impacto en la credibilidad de la industria. No se preocupe, también hay algunas charlas vinculadas, por lo que puede mantenerse al día con lo que sucede en Parity.

https://parity.substack.com/p/challenging-the-credibility-of-ethical

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje