Se necesita un nuevo enfoque para abordar el sesgo en el aprendizaje automático y los sistemas de inteligencia artificial

https://www.oii.ox.ac.uk/news/releases/new-approach-needed-to-address-bias-in-machine-learning-and-ai-systems-say-oxford-legal-and-ai-ethics-experts/

Se necesita un nuevo enfoque para abordar el sesgo en el aprendizaje automático y los sistemas de inteligencia artificial, dicen los expertos legales y en ética de inteligencia artificial de Oxford, la profesora Sandra Wachter y el Dr. Brent Mittelstadt, destacados expertos en ética y derecho del Instituto de Internet de Oxford (OII) de la Universidad de Oxford y el Dr. Chris Russell. (Amazon), los coordinadores del Programa de Investigación de Gobernanza de Tecnologías Emergentes, creen que las formas en que los sistemas de IA se diseñan comúnmente para medir el sesgo y la equidad chocan con los objetivos fundamentales de la ley de no discriminación de la UE. : The Legality of Fairness Metrics Under EU Non-Discrimination Law ', que se publicará próximamente en West Virginia Law Review, los investigadores explican cómo la idea normativa y el objetivo detrás de la ley de no discriminación de la UE es desmantelar activamente la desigualdad en la sociedad. La mayoría de las métricas de equidad chocan con esta idea porque dan por sentadas las desigualdades existentes. Esto es un problema porque el status quo está lejos de ser neutral. Los investigadores analizaron 20 métricas de equidad de acuerdo con su compatibilidad con la ley de no discriminación de la UE y encontraron un sistema de clasificación basado en cómo tratan las desigualdades existentes en la sociedad ('preservación del sesgo' y métricas de equidad que 'transforman el sesgo'). Concluyen que 13 de ellos preservan el sesgo, lo que significa que 'congelan' el status quo. Argumentan que el uso de métricas de equidad que 'preservan el sesgo' requiere una justificación legal si se usa para tomar decisiones sobre las personas en Europa. La profesora asociada e investigadora principal, Dra.Sandra Wachter, Oxford Internet Institute, y autora principal del artículo, dijo: “Western Las sociedades están marcadas por sesgos y desigualdades diversos y extensos que están inevitablemente integrados en los datos utilizados para entrenar el aprendizaje automático. Los algoritmos entrenados con datos sesgados producirán, sin intervención, resultados sesgados y aumentarán la desigualdad experimentada por los grupos históricamente desfavorecidos. Necesitamos reconocer el hecho de que el statu quo no es neutral y, en cambio, utilizar la inteligencia artificial y el análisis estadístico para arrojar luz sobre las desigualdades existentes ”. En cambio, los autores abogan por el uso de métricas que 'transforman el sesgo' y que se alinean mejor con los objetivos de la no discriminación. ley. A diferencia de otras métricas de equidad utilizadas en el aprendizaje automático y la inteligencia artificial, las métricas de "transformación de sesgos" no aceptan ciegamente el sesgo social como un punto de partida dado o neutral que debe conservarse. En su lugar, requieren que los desarrolladores y los responsables de la toma de decisiones tomen una decisión explícita sobre qué sesgos debe exhibir el sistema y, por lo tanto, qué sesgos pueden justificarse en el contexto de la ley de no discriminación de la UE.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje