¿Se podrá eliminar alguna vez los sesgos en la IA?

El momento actual nos pide evaluar casi todos los problemas sistémicos de nuestra sociedad. Si bien puede ser incómodo, la única forma de hacerlo es observar los sistemas que controlan quién gana y quién pierde y pregunta: "¿están sesgados?"

Es conveniente pensar que nuestro trabajo en tecnología está por encima de estos problemas. Mucha gente en tecnología hace este trabajo para cambiar el mundo o ayudar a las comunidades necesitadas. Pero al igual que el resto de la sociedad, debemos tomar en serio este momento de autorreflexión, para que la próxima generación no juzgue nuestros fracasos tan duramente como juzgamos a nuestros mayores ahora.

Hay cuestiones más importantes, como la discriminación en la contratación de tecnología, y las quejas de actos racistas y misóginos sin respuesta de los niveles superiores de las empresas de tecnología que deberán abordarse a nivel de empresa. Lo que queríamos hablar hoy es que los desarrolladores de discriminación están inyectando inadvertidamente en los algoritmos que manejan nuestras vidas.

Queríamos reavivar esta discusión porque en Exyn constantemente construimos y evaluamos algoritmos de inteligencia artificial y aprendizaje automático. Un área en la que hemos tenido que estar hipervigilantes es nuestra detección y evitación de objetos. Estamos enseñando a nuestros robots cómo identificar a las personas para que puedan navegar de forma segura a su alrededor. Pero si el modelo para "persona" solo representa hombres anglosajones altos y delgados, estaríamos programando involuntariamente nuestros robots para que sean menos seguros en grandes sectores de la población mundial. Si no tomamos estas consideraciones al crear el algoritmo, es posible que ni siquiera supiéramos que existía un problema hasta que el robot comenzó a exhibir comportamientos no deseados en el campo.

Pone ejemplos de resultados sin sentido, de un negro que pasó más de 30 horas detenido como sospechoso de robo tras ser identificado por un sistema de reconocimiento facial, sistemas que fallan el 96% de las veces.

Propone un juramento hipodrático de los desarrolladores, herramientas de auditoría y una carta de derechos del consumidor.

El autor asegura que estos problemas se deben a que se han ignorado a gran parte de la sociedad para evitar la información que hace a los sistemas más vulnerables.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social