Sesgos en Inteligencia Artificial

Si su asistente de voz no lo comprende, puede abrir la aplicación Uber y pedir un automóvil usted mismo. Si Amazon le recomienda un libro que quizás no le guste, un poco de investigación puede hacer que lo descarte. Si una aplicación te lleva a una cita a ciegas con alguien que no es una buena pareja para ti, incluso podrías terminar pasándolo bien conociendo a alguien cuya personalidad puede ser desconcertante.
Sin embargo, las cosas se ponen difíciles cuando la IA se usa para tareas más serias, como filtrar candidatos para el trabajo, otorgar préstamos, aceptar o rechazar solicitudes de seguro, o incluso para el diagnóstico médico. Todas las decisiones anteriores, parcialmente asistidas o completamente atendidas por los sistemas de IA, pueden tener un tremendo impacto en la vida de alguien.
Para este tipo de tareas, los datos que se introducen en los sistemas de Machine Learning que se encuentran en el núcleo de estas aplicaciones de IA deben estudiarse de manera contenciosa, tratando de evitar el uso de proxies de información: datos que se utilizan para sustituir a otros. eso sería más legítimo y preciso para una determinada tarea, pero eso no está disponible.

Incluye casos famosos de fallos debidos a sesgos.

Sugiere mecanismos para intentar evitarlos. 


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social