Entradas

Mostrando las entradas etiquetadas como Equidad Fairness

Preservación del sesgo en el aprendizaje automático: La legalidad de las métricas de equidad según la ley de no discriminación de la UE

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3792772 Las sociedades occidentales están marcadas por diversos y amplios sesgos y desigualdades que están inevitablemente integrados en los datos utilizados para entrenar el aprendizaje automático. Los algoritmos entrenados con datos sesgados producirán, sin intervención, resultados sesgados y aumentarán la desigualdad experimentada por grupos históricamente desfavorecidos. Conscientes de este problema, en los últimos años se han realizado muchos trabajos para comprobar la existencia de sesgos en los sistemas de aprendizaje automático y de IA mediante el uso de diversas métricas de equidad y sesgo. A menudo, estas métricas abordan el sesgo técnico pero ignoran las causas subyacentes de la desigualdad. En este artículo hacemos tres aportaciones. En primer lugar, evaluamos la compatibilidad de las métricas de equidad utilizadas en el aprendizaje automático con los objetivos y la finalidad de la legislación de la UE en materia de no dis...

Inteligencia artificial simbólica exacta para una evaluación más rápida y mejor de la equidad de la IA

https://news.mit.edu/2021/exact-symbolic-artificial-intelligence-faster-better-assessment-ai-fairness-0809 https://dl.acm.org/doi/10.1145/3453483.3454078 El sistema judicial, los bancos y las empresas privadas utilizan algoritmos para tomar decisiones que tienen un profundo impacto en la vida de las personas. Desgraciadamente, esos algoritmos a veces son parciales y afectan de forma desproporcionada a las personas de color y a las de menor nivel de ingresos cuando solicitan préstamos o trabajos, o incluso cuando los tribunales deciden qué fianza debe fijarse mientras una persona espera el juicio. Los investigadores del MIT han desarrollado un nuevo lenguaje de programación de inteligencia artificial que puede evaluar la equidad de los algoritmos con mayor exactitud y rapidez que las alternativas disponibles. Su lenguaje probabilístico de suma-producto (SPPL) es un sistema de programación probabilística. La programación probabilística es un campo emergente en la intersección de los leng...

Cómo mejorar la percepción de equidad de la IA en la contratación: El papel crucial del posicionamiento y la sensibilización

https://www.aiethicsjournal.org/10-47289-aiej20210716-3 Las empresas despliegan cada vez más tecnologías de inteligencia artificial (IA) en sus procesos de reclutamiento y selección de personal para agilizarlos, haciéndolos así más eficientes, consistentes y con menos sesgo humano (Chamorro-Premuzic, Polli, & Dattner, 2019). Sin embargo, investigaciones anteriores encontraron que los solicitantes prefieren las entrevistas cara a cara en comparación con las entrevistas con IA, percibiéndolas como menos justas (por ejemplo, Acikgoz, Davison, Compagnone, & Laske, 2020). Además, existe evidencia emergente de que las influencias contextuales, como el tipo de tarea para la que se utiliza la IA (Lee, 2018), o las diferencias individuales de los solicitantes (Langer, König, Sánchez, & Samadi, 2019), pueden influir en las reacciones de los solicitantes a la selección impulsada por la IA. El propósito de nuestro estudio fue investigar si el ajuste de los factores de diseño del proces...

EL MITO DE LA JUSTICIA COMPLETA DE LA IA

https://allai.nl/the-myth-of-complete-ai-fairness-by-virginia-dignum/ La idea de equidad y justicia tiene raíces largas y profundas en la civilización occidental y está fuertemente ligada a la ética. Por lo tanto, no es extraño que sea fundamental para el debate actual sobre la ética del desarrollo y el uso de sistemas de inteligencia artificial. Dado que a menudo asociamos la equidad con la coherencia y la precisión, la idea de que nuestras decisiones y decisiones que nos afectan pueden volverse más justas al reemplazar el juicio humano por sistemas automatizados y numéricos, por lo tanto, es atractiva. Sin embargo, como dijo recientemente Laurie Anderson: "Si cree que la tecnología resolverá sus problemas, no comprende la tecnología y no comprende sus problemas". [1] La IA no es mágica, y sus resultados están fundamentalmente limitados por las convicciones y expectativas de quienes la construyen, gestionan, despliegan y utilizan. Lo que hace que sea crucial que comprendamos...

Equidad en el aprendizaje automático: lecciones de filosofía política

 ¿Qué significa que un modelo de aprendizaje automático sea "justo", en términos que se puedan racionalizar? ¿Debería la justicia consistir en asegurar que todos tengan la misma probabilidad de obtener algún beneficio, o deberíamos apuntar en cambio a minimizar los daños a los menos favorecidos? ¿Puede el ideal relevante ser determinado por referencia a algún estado de cosas alternativo en el que no exista un patrón social particular de discriminación? Varias definiciones propuestas en la literatura reciente hacen diferentes suposiciones sobre lo que significan términos como discriminación y equidad y cómo pueden definirse en términos matemáticos. Las cuestiones de discriminación, igualitarismo y justicia son de gran interés para los filósofos morales y políticos, que han realizado importantes esfuerzos para formalizar y defender estos conceptos centrales. Por lo tanto, no es sorprendente que los intentos de formalizar la "justicia" en el aprendizaje automático cont...

La auditoría de algoritmos: puntuación de algoritmos que nos puntúan

 En los últimos años, el impacto ético de la IA se ha analizado cada vez más, y han surgido escándalos públicos por resultados sesgados, falta de transparencia y uso indebido de datos. Esto ha llevado a una creciente desconfianza en la IA y a un aumento de las llamadas a auditorías éticas de algoritmos. Las propuestas actuales para la evaluación ética de los algoritmos son de un nivel demasiado alto para ponerlas en práctica sin más orientación, o se centran en nociones muy específicas y técnicas de equidad o transparencia que no consideran a las múltiples partes interesadas ni al contexto social más amplio. En este artículo, presentamos un marco de auditoría para guiar la evaluación ética de un algoritmo. El instrumento de auditoría en sí se compone de tres elementos: una lista de posibles intereses de las partes interesadas afectadas por el algoritmo, una evaluación de métricas que describen características clave éticamente sobresalientes del algoritmo y una matriz de relevancia ...

La equidad de la IA es un imperativo económico y social. He aquí cómo abordarlo

 Los seres humanos tenemos muchos tipos de prejuicios; confirmación, anclaje y género entre ellos. Tales sesgos pueden llevar a las personas a comportarse de manera injusta y, como tal, como sociedad tratamos de mitigarlos. Esto es especialmente importante cuando los humanos están en la posición de tomar decisiones de alto riesgo que impactan a otros. Lo hacemos a través de una combinación de educación, pautas de conducta y regulaciones. Ahora que la inteligencia artificial (IA) está proporcionando un número creciente de recomendaciones a los tomadores de decisiones humanos, es importante asegurarse de que, como tecnología, no esté sesgada y, por lo tanto, respete el valor de la justicia. De hecho, aquellas iniciativas que tienen como objetivo hacer que la IA sea lo más beneficiosa posible (relacionadas con la ética de la IA) incluyen la equidad de la IA como uno de los principales temas de discusión y trabajo concreto. Es hora de identificar y sugerir una visión más completa de la...

Actores públicos sin valores públicos: legitimidad, dominación y regulación del sector tecnológico

 La escala y la asimetría del poder de las empresas de tecnología comercial sobre las personas a través de los datos, combinada con la creciente participación del sector privado en la gobernanza pública, significa que cada vez más, las personas no tienen la capacidad de optar por no participar en las empresas de tecnología. Al mismo tiempo, esas empresas están interviniendo cada vez más a nivel de la población de formas que tienen implicaciones para la vida social y política. Esto crea el potencial para las relaciones de poder de dominación y exige que decidamos qué constituye la legitimidad para actuar sobre el público. La ética empresarial y el derecho privado no están diseñados para responder a estas preguntas, que son principalmente políticas. Si las personas han perdido el derecho a desvincularse de las tecnologías comerciales, es posible que debamos hacer que las empresas que las ofrecen cumplan con los mismos estándares que exigimos al sector público. Este artículo primero d...

¿Se puede automatizar la equidad con IA? Una mirada más profunda a un debate esencial

 Quiero comenzar con un ejemplo en el que la medición de la equidad descrita en la Parte 1 podría haber evitado resultados casi catastróficos. A menudo hablamos de A.I. Ética en términos de cómo afecta a subgrupos específicos, e incluso entonces, a una persona a la vez. A menudo descuidamos cuán errante y descuidado A.I. afecta a poblaciones enteras, comunidades o incluso la economía, el clima y el ecosistema. O incluso el colapso de la sociedad civil. (artículo siguiente) Ofqual: al igual que el College Board, en el Reino Unido, los exámenes de ingreso a la universidad A-level Level son administrados por Ofqual. Su A.I. la aventura los metió en problemas. Debido a COVID-19, los exámenes no se pudieron realizar en el lugar. En cambio, Ofqual descuidadamente, casi sin sentido, elaboró ​​un algoritmo que mezcló las puntuaciones basándose en parte en las puntuaciones anteriores de cada escuela. Sobre la base de que "el promedio está tan cerca de la parte inferior como de la parte sup...

LA OSCURA CUESTIÓN DE LA SALUD DIGITAL

 Por ejemplo, los proponentes afirman con frecuencia que el objetivo de la salud digital es superar las desigualdades raciales y de género en los resultados de salud, así como proporcionar un acceso más amplio a la atención. Estas tecnologías —desde programas informáticos que hacen recomendaciones de tratamiento hasta auto-rastreadores que se llevan en la muñeca y aplicaciones para teléfonos inteligentes que registran los ciclos menstruales— prometen que podemos ir más allá de pasados ​​injustos y desiguales y distribuir mejor los recursos de atención médica en el futuro. Los impulsores de la industria nos harían creer que podemos lograr esto en un grado significativo con solo activar un algoritmo. De hecho, está sucediendo lo contrario: la salud digital está solidificando la brecha entre aquellos cuya salud se valora y aquellos cuya salud se ignora. Estas tecnologías revelan la importancia actual de lo que la socióloga Simone Browne podría llamar la "materia oscura" de la ec...

Por qué la tecnología no puede resolver la equidad algorítmica (1/3): brechas entre cómo los científicos informáticos y los filósofos éticos definen la equidad

 A medida que los algoritmos de aprendizaje automático se utilizan cada vez más para informar decisiones críticas en dominios de alto impacto, ha aumentado la preocupación de que sus predicciones puedan discriminar injustamente en función de atributos legalmente protegidos, como la raza y el género. Los académicos han respondido introduciendo numerosas definiciones matemáticas de equidad para probar el algoritmo. Se han introducido varias herramientas para probar automáticamente las predicciones del algoritmo contra varias definiciones de equidad y proporcionar informes de "pasa / falla". Sin embargo, estos esfuerzos no han logrado ningún consenso sobre cómo abordar el desafío de los resultados injustos en las decisiones algorítmicas. Dado que es matemáticamente imposible cumplir algunas de las condiciones de equidad simultáneamente, los informes a menudo proporcionan información contradictoria sobre la equidad del algoritmo. Las técnicas de “eliminación de sesgos” (pre, in y...

Nueva antología analiza la IA ética y fiable en la UE

 La antología analiza en qué medida las nociones de IA ética y confiable, presentadas por el Grupo de expertos de alto nivel en inteligencia artificial y la Comisión Europea, han influido en las estrategias de IA en Portugal, Países Bajos, Italia, República Checa, Polonia, Noruega como así como los países nórdicos en general. El punto de partida de la antología es el enfoque de la Comisión Europea sobre "IA confiable", expresado en las directrices de la Comisión Europea para una IA ética y confiable, en las 33 recomendaciones de política e inversión de la Comisión para una IA confiable, así como en el Libro Blanco de la Comisión sobre Inteligencia Artificial. . Una pregunta central y orientadora es en qué medida los elementos de las Directrices éticas, como los principios éticos y los requisitos clave, se muestran en la estrategia nacional. Además, los autores examinan cómo los países hablan y promueven la IA en términos de aplicabilidad, conciencia del consumidor, espíritu e...

Algoritmos: se insta al sector público a ser abierto sobre el papel en la toma de decisiones

 Los organismos del sector público deben ser más abiertos sobre el uso de algoritmos en la toma de decisiones, se les ha dicho a los ministros. Un organismo asesor del gobierno dijo que se necesitaba una mayor transparencia y responsabilidad en todos los ámbitos de la vida sobre el uso de modelos informáticos en las políticas. Los funcionarios deben comprender los límites y los riesgos de sesgo de los algoritmos, dijo el Centro de Ética e Innovación de Datos. Boris Johnson culpó a un algoritmo "mutante" del caos sobre las calificaciones escolares en Inglaterra este verano. Ofqual y otros reguladores de exámenes en todo el Reino Unido se vieron obligados a dar marcha atrás tras una protesta pública por el uso de un programa informático para determinar las calificaciones de nivel A y GCSE después de la cancelación de los exámenes. https://www.bbc.com/news/uk-politics-55105741

Usar la inteligencia artificial para tomar decisiones: abordar el problema del sesgo algorítmico

La IA es cada vez más utilizada por el gobierno y empresas para tomar decisiones que afectar los derechos de las personas, incluso en el provisión de bienes y servicios, así como otra importante toma de decisiones como contratación, seguridad social y vigilancia. Donde surge el sesgo algorítmico en estos procesos de toma de decisiones, puede dar lugar a errores. Especialmente en la toma de decisiones de alto riesgo, los errores pueden causar un daño real. El daño puede ser  particularmente grave si una persona es injustamente desfavorecidos sobre la base de su raza, edad, sexo u otro caracteristicas. En algunas circunstancias, esto puede equivaler a ilegal discriminación y otras formas de violación de los derechos humanos. https://humanrights.gov.au/sites/default/files/document/publication/ahrc_technical_paper_algorithmic_bias_2020.pdf

Un enfoque legal de los "algoritmos discriminación positiva"

Una rama separada de la jurisprudencia de acción afirmativa, vinculada a la contratación del gobierno, ha permitido durante mucho tiempo preferencias explícitas de raza y género. Las agencias federales, estatales y locales crean reservas reservadas y preferencias de licitación para los contratistas de propiedad de minorías, y esas preferencias han sido aprobadas legalmente porque las agencias podrían documentar sus propias historias de discriminación. Ho dice que los defensores de la equidad bien podrían justificar las correcciones basadas en la raza o el género sobre la base de la discriminación pasada. Al igual que el sistema de Amazon, la mayoría de los modelos de inteligencia artificial se entrenan con datos históricos que pueden incorporar patrones pasados ​​de discriminación. Lo que enfatiza la ley, dice Ho, es que la magnitud del ajuste debe seguir la evidencia de discriminación histórica. El precedente de contratación gubernamental permite una cuantificación explícita, lo que h...

Mind the Gap: Informe final del Grupo de trabajo sobre igualdad

 Los gobiernos y las empresas utilizan cada vez más los algoritmos para tomar decisiones 'automatizadas' basadas en datos que pueden tener consecuencias de gran alcance con poca transparencia, escrutinio o responsabilidad. Aunque la apariencia superficial de objetividad de los algoritmos parece eliminar los sesgos en la toma de decisiones humana, los algoritmos siempre reflejan las suposiciones de quienes los diseñaron y los patrones en los datos en los que están entrenados. Sin intervención ni supervisión, el estado natural de las tecnologías basadas en datos es replicar patrones pasados ​​de desigualdad estructural que están codificados en datos y proyectarlos hacia el futuro. Es vital que los responsables de la formulación de políticas comprendan esto. Para evitar este resultado, quienes usan algoritmos para tomar decisiones que afectan la vida de las personas, desde el nivel educativo hasta la contratación para pagar y los ascensos, deben tomar medidas activas y deliberadas...

La equidad de la IA no es solo una cuestión ética

 Para aprovechar plenamente las oportunidades rentables de la IA, primero debemos comprender de dónde provienen los sesgos. A menudo se asume que la tecnología es neutral, pero la realidad está lejos de serlo. Los algoritmos de aprendizaje automático son creados por personas, todas con sesgos. Nunca son completamente "objetivos"; más bien reflejan la visión del mundo de quienes los construyen y los datos con los que se alimentan. Los juicios humanos sesgados pueden afectar los sistemas de IA de dos formas diferentes. El primero es el sesgo en los datos de los que aprenden los sistemas. Puede ver este juego por sí mismo: realice una búsqueda de imágenes en Google para "corte de pelo profesional" y otra para "corte de pelo no profesional". El "corte de pelo profesional" arroja resultados que son exclusivamente de hombres blancos, mientras que el "corte de pelo no profesional" tiene mucha más diversidad racial y de género. (Este problema f...

Una instantánea de las fronteras de la equidad en el aprendizaje automático

 La motivación detrás del artículo es destacar las direcciones de investigación clave en Fair ML que proporcionan una base científica para comprender el sesgo algorítmico. Estos incluyen, en general, el sesgo de identificación codificado en los datos sin acceso a los resultados (por ejemplo, tenemos acceso a los datos sobre quién fue arrestado y no quién cometió el crimen), el enfoque utilitario para la optimización y cómo se dirige exclusivamente a la mayoría sin tener en cuenta grupos minoritarios y la ética de la exploración. El papel de la exploración es clave, ya que para validar nuestras predicciones debemos tener datos que enumeren cómo se desarrolló el resultado. Esto plantea varias preguntas importantes como: ¿El impacto de la exploración se siente abrumadoramente por un subgrupo? Si consideramos que los riesgos de la exploración son demasiado altos, ¿cuánto retrasa el aprendizaje la falta de exploración? ¿Es ético sacrificar el bienestar de las poblaciones actuales por el...

Sobre la privacidad y la equidad algorítmica del aprendizaje automático y la inteligencia artificial

 Cuando grandes cantidades de datos de usuario recopilados a escala industrial continúan generando preocupaciones constantes sobre la privacidad, la necesidad de abordar seriamente los problemas de privacidad y protección de datos con respecto al procesamiento de datos es más importante que nunca. Los datos se introducen cada vez más en modelos de aprendizaje automático (es decir, "inteligencia artificial" que facilita la toma de decisiones automática), lo que puede generar muchas preocupaciones, incluso si las decisiones tomadas por dichos modelos son justas para los usuarios. De hecho, la investigación no solo indica que los modelos de aprendizaje automático pueden filtrar los datos de usuario aprendidos, incluidos los datos personales. Las preocupaciones sobre los resultados sesgados y la equidad (cómo veo la "equidad" se discute a continuación) también son cada vez más evidentes y, sin duda, contribuyen a las crecientes preocupaciones sobre los posibles riesgos ...

Cómo hacer que los algoritmos sean justos cuando no sabes lo que hacen

Las decisiones que cambian la vida están sucediendo en la oscuridad. Los algoritmos de aprendizaje automático ahora determinan las decisiones desde las solicitudes de préstamos hasta los diagnósticos de cáncer. En Francia, colocan a los niños en las escuelas. En Estados Unidos, determinan las penas de prisión. Pueden establecer puntajes de crédito y tasas de seguro, y decidir el destino de los candidatos a puestos de trabajo y los solicitantes universitarios. Pero estos programas a menudo no rinden cuentas. Para llegar a sus decisiones, los algoritmos de aprendizaje automático construyen automáticamente modelos complejos basados en grandes conjuntos de datos, por lo que incluso las personas que los utilizan pueden no ser capaces de explicar por qué o cómo se llega a una conclusión en particular. Son una caja negra.  Los contrafactuales son declaraciones de cómo el mundo tendría que ser diferente para que ocurra un resultado diferente: si ganara 10.000 libras esterlinas más al año, ...