Entradas

Mostrando las entradas etiquetadas como Bias Sesgos Discriminación

La Agencia Tributaria holandesa fue abatida por la IA: ¿qué viene ahora?

https://spectrum.ieee.org/artificial-intelligence-in-government Cuando una familia de los Países Bajos quería reclamar la ayuda gubernamental para el cuidado de los niños, tenía que presentar una solicitud a la autoridad fiscal holandesa. Esas solicitudes pasaban por un algoritmo de autoaprendizaje, implantado inicialmente en 2013. En el flujo de trabajo de la Agencia Tributaria, el algoritmo examinaba primero las solicitudes en busca de indicios de fraude, y los humanos analizaban las solicitudes que marcaban como de alto riesgo. En realidad, el algoritmo desarrolló una pauta para etiquetar falsamente las reclamaciones como fraudulentas, y los atareados funcionarios sellaron las etiquetas de fraude. Así, durante años, la administración tributaria ordenó infundadamente a miles de familias que devolvieran sus reclamaciones, empujando a muchos a una deuda onerosa y destruyendo vidas en el proceso. "Cuando hay un impacto dispar, tiene que haber un debate social en torno a esto, si es...

Una herramienta destinada a ayudar a los presos federales de bajo riesgo a obtener la libertad anticipada adolece de algunos fallos

https://www.npr.org/2022/01/26/1075509175/justice-department-algorithm-first-step-act Miles de personas saldrán de la prisión federal este mes gracias a una ley llamada First Step Act, que les permitía obtener la libertad anticipada participando en programas destinados a facilitar su regreso a la sociedad. Pero otros miles pueden seguir entre rejas debido a defectos fundamentales en el método del Departamento de Justicia para decidir quién puede acogerse a la libertad anticipada. El mayor defecto: las persistentes disparidades raciales que ponen en desventaja a los negros y morenos. En un informe publicado días antes de las Navidades de 2021, el departamento dijo que su herramienta algorítmica para evaluar el riesgo de que una persona en prisión vuelva a delinquir produjo resultados desiguales. El algoritmo, conocido como Pattern, sobreestimó el riesgo de que muchas personas negras, hispanas y asiáticas cometieran nuevos delitos o violaran las normas tras salir de prisión. Al mismo tie...

El sesgo no es el único problema de las puntuaciones de crédito, y no, la IA no puede ayudar

https://www.technologyreview.com/2021/06/17/1026519/racial-bias-noisy-data-credit-scores-mortgage-loans-fairness-machine-learning/ Ya sabíamos que los datos y los algoritmos sesgados sesgan la toma de decisiones automatizada de una manera que perjudica a los grupos minoritarios y de bajos ingresos. Por ejemplo, el software utilizado por los bancos para predecir si alguien va a pagar o no la deuda de la tarjeta de crédito suele favorecer a los solicitantes blancos más ricos. Muchos investigadores y una serie de empresas emergentes están tratando de solucionar el problema haciendo que estos algoritmos sean más justos.   Historia relacionada La próxima guerra contra los algoritmos ocultos que atrapan a la gente en la pobreza Un grupo cada vez mayor de abogados está descubriendo, navegando y luchando contra los sistemas automatizados que niegan a los pobres vivienda, trabajo y servicios básicos. Pero en el mayor estudio jamás realizado sobre datos hipotecarios del mundo real, los ...

El Departamento de Trabajo urge a revelar el algoritmo que "apunta" a los discapacitados para el fraude en las prestaciones

https://www.theguardian.com/society/2021/nov/21/dwp-urged-to-reveal-algorithm-that-targets-disabled-for-benefit Los discapacitados están siendo sometidos a estresantes controles y a meses de frustrante burocracia tras ser identificados como potenciales defraudadores de prestaciones por un algoritmo que el gobierno se niega a revelar, según un nuevo recurso legal. Un grupo de Manchester ha puesto en marcha la acción después de que los discapacitados de la zona hayan manifestado que están siendo objeto de investigaciones sobre el fraude en las prestaciones de forma desproporcionada. Algunos dijeron que vivían con "miedo al sobre marrón" que mostraba que su caso estaba siendo investigado. Otros dijeron que habían recibido una llamada telefónica, sin explicación de por qué habían sido señalados. El Departamento de Trabajo y Pensiones (DWP) ha admitido anteriormente que utiliza "inteligencia artificial de vanguardia" para rastrear posibles fraudes, pero hasta ahora ha re...

La falacia de la entrada

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3571266 La fijación algorítmica de los precios del crédito amenaza con discriminar a los grupos protegidos. Tradicionalmente, la ley de préstamos justos ha abordado estas amenazas mediante el escrutinio de los insumos. Pero el escrutinio de los insumos se ha convertido en una falacia en el mundo de los algoritmos. Utilizando un rico conjunto de datos de hipotecas, simulo la fijación de precios de créditos algorítmicos y demuestro que el escrutinio de los insumos no aborda los problemas de discriminación y amenaza con crear un mito algorítmico de daltonismo. La ubicuidad de las correlaciones en los grandes datos, combinada con la flexibilidad y la complejidad del aprendizaje automático, significa que no se puede descartar la consideración de características protegidas, como la raza, incluso cuando se excluyen formalmente. Además, el uso de datos que incluyan características protegidas puede, de hecho, reducir los resultados dispares. S...

Si la IA es el problema, ¿la solución es eliminar sesgos?

https://edri.org/our-work/if-ai-is-the-problem-is-debiasing-the-solution/ El desarrollo y el despliegue de la inteligencia artificial (IA) en todos los ámbitos de la vida pública han suscitado muchas preocupaciones sobre las consecuencias perjudiciales para la sociedad, en particular el impacto en las comunidades marginadas. El último informe de EDRi "Beyond Debiasing: Regulación de la IA y sus desigualdades", redactado por Agathe Balayn y la Dra. Seda Gürses,* sostiene que los responsables políticos deben abordar las causas profundas de los desequilibrios de poder provocados por el uso generalizado de los sistemas de IA. Al promover la "desregulación" técnica como la principal solución a la desigualdad estructural provocada por la IA, corremos el riesgo de subestimar enormemente la magnitud de los problemas sociales, económicos y políticos que los sistemas de IA pueden infligir.

Google dice a la UE que los usuarios son responsables de la discriminación

https://netzpolitik.org/2021/ai-ethics-google-tells-eu-that-users-bear-responsibility-for-discrimination/ Mientras la Unión Europea prepara nuevas leyes para regular la Inteligencia Artificial (IA), Google ha dicho a la Comisión de la UE que los usuarios deben "asumir la obligación de no discriminar" al utilizar aplicaciones de IA. En una reunión celebrada en marzo, los funcionarios de la Comisión preguntaron al gigante tecnológico qué responsabilidades distintas deberían tener los proveedores y los usuarios de la tecnología de IA. Los responsables del grupo de presión respondieron que son los usuarios los que deben estar "obligados a asegurarse de que entienden el sistema que utilizan y de que su uso es conforme". Los defensores de los derechos humanos advierten que las aplicaciones de IA podrían perpetuar la discriminación social por razón de género o etnia. Recientemente, Google ha dicho públicamente que se ha abstenido de utilizar su tecnología para calificar el...

¿El potencial democratizador de los algoritmos?

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3835370 Las jurisdicciones están adoptando cada vez más el uso de algoritmos de evaluación del riesgo antes del juicio como solución al problema del encarcelamiento masivo antes del juicio. Los debates sobre el uso de algoritmos de evaluación de riesgos en la fase previa al juicio han tendido a centrarse en su opacidad, determinación, fiabilidad, validez o su (in)capacidad para reducir las altas tasas de encarcelamiento, así como las disparidades raciales y socioeconómicas dentro del sistema de prisión preventiva. Este artículo rompe con esta tendencia, examinando estos algoritmos desde la perspectiva de la democratización del derecho penal. Utilizando este marco, señala que los algoritmos empleados actualmente excluyen los puntos de vista y los valores de las comunidades racialmente marginadas más afectadas por su uso, ya que estos algoritmos a menudo se obtienen, se adoptan, se construyen y se supervisan sin la aportación de estas c...

Silicon Valley pretende que el sesgo algorítmico es accidental. No lo es.

https://slate.com/technology/2021/07/silicon-valley-algorithmic-bias-structural-racism.html A finales de junio, la revista MIT Technology Review informó sobre las formas en que algunos de los mayores sitios de búsqueda de empleo del mundo -incluidos LinkedIn, Monster y ZipRecruiter- han intentado eliminar los prejuicios en su software de entrevistas de trabajo con inteligencia artificial. Estos remedios se produjeron después de incidentes en los que se descubrió que el software de videoentrevista de inteligencia artificial discriminaba a las personas con discapacidades que afectan a la expresión facial y mostraba prejuicios contra los candidatos identificados como mujeres. Cuando el software de inteligencia artificial produce resultados diferenciales y desiguales para los grupos marginados en función de la raza, el género y el estatus socioeconómico, Silicon Valley se apresura a reconocer los errores, aplicar correcciones técnicas y disculparse por los resultados diferenciales. Lo vimo...

El sesgo no es el único problema de las puntuaciones de crédito, y no, la IA no puede ayudar

https://www.technologyreview.com/2021/06/17/1026519/racial-bias-noisy-data-credit-scores-mortgage-loans-fairness-machine-learning/ Ya sabíamos que los datos y los algoritmos sesgados sesgan la toma de decisiones automatizada de una manera que perjudica a los grupos minoritarios y de bajos ingresos. Por ejemplo, el software utilizado por los bancos para predecir si alguien va a pagar o no la deuda de la tarjeta de crédito suele favorecer a los solicitantes blancos más ricos. Muchos investigadores y una serie de empresas emergentes están tratando de solucionar el problema haciendo que estos algoritmos sean más justos.   Historia relacionada La próxima guerra contra los algoritmos ocultos que atrapan a la gente en la pobreza Un grupo cada vez mayor de abogados está descubriendo, navegando y luchando contra los sistemas automatizados que niegan a los pobres vivienda, trabajo y servicios básicos. Pero en el mayor estudio jamás realizado sobre datos hipotecarios del mundo real, los ...

Cómo discriminan los anuncios online

https://edri.org/wp-content/uploads/2021/06/EDRi_Discrimination_Online.pdf Apareció el primer banner publicitario en línea en 1994, y funcionó de manera similar a vallas publicitarias que aparecen junto a carreteras o páginas publicitarias en revistas impresas: AT&T pagó HotWired $ 30,000 para colocar un banner publicitario en su sitio durante tres meses para que cada el visitante de ese sitio lo vería directamente en cima. Mucho ha cambiado desde entonces. Hoy, los anuncios en línea hiperorientados volverse omnipresente. Aparecen en historias de redes sociales, en redes sociales feeds, en contenido de video, en aplicaciones, siguiente a las noticias y en un importante cuota de sitios web y blogs del mundo y sitios de editores. Los riesgos y daños que son asociado con hiperactividad en línea los anuncios han sido ampliamente documentados.1 De la explotación generalizada de datos que es prácticamente imposible de evitar, a la falta de rendición de cuentas en el cadena de suministro ...

Medir los sesgos del modelo en ausencia de una verdad fundamental

https://arxiv.org/abs/2103.03417 La medición del sesgo en el aprendizaje automático a menudo se centra en el rendimiento del modelo en los subgrupos de identidad (como el hombre y la mujer) con respecto a las etiquetas de verdad fundamental. Sin embargo, estos métodos no miden directamente las asociaciones que un modelo puede haber aprendido, por ejemplo, entre etiquetas y subgrupos de identidad. Además, medir el sesgo de un modelo requiere un conjunto de datos de evaluación completamente anotado que puede no estar fácilmente disponible en la práctica. Presentamos una elegante solución matemática que aborda ambos problemas simultáneamente, utilizando la clasificación de imágenes como ejemplo de trabajo. Al tratar las predicciones de un modelo de clasificación para una imagen dada como un conjunto de etiquetas análogas a una bolsa de palabras, clasificamos los sesgos que un modelo ha aprendido con respecto a diferentes etiquetas de identidad. Usamos (hombre, mujer) como un ejemplo concr...

Sesgo de contextualización: el primer paso hacia la mitigación y más allá

https://www.ethicalintelligence.co/blog/contextualizing-bias Durante todo el mes de marzo para la ECUACIÓN, nos hemos centrado en el sesgo; cómo se refleja en el proceso algorítmico y formas de mitigarlo en la sociedad. Hasta ahora, hemos podido determinar que el sesgo es mucho más que un problema técnico; Los prejuicios algorítmicos son representaciones asombrosamente precisas de los prejuicios y estereotipos sociales existentes. Por lo tanto, puede ser bastante difícil corregir el sesgo en la IA sin corregir la causa raíz, que es la desigualdad social y la injusticia. Como dice Yonatan Zunger, “los modelos de aprendizaje automático tienen un hábito muy desagradable: aprenderán lo que les muestran los datos y luego te dirán lo que han aprendido. Se niegan obstinadamente a aprender "el mundo como nos gustaría que fuera" o "el mundo como nos gusta decir que es", a menos que les expliquemos explícitamente qué es eso, incluso si nos gusta fingir que estamos haciendo no...

La traducción automática es desesperadamente sexista, pero no culpes al algoritmo ni a los datos de entrenamiento.

https://algorithmwatch.org/en/automated-translation-sexist/ Desde que se lanzó Google Translate a fines de la década de 2000, los usuarios notaron que se equivocaba en el género. A principios de la década de 2010, algunos usuarios de Twitter expresaron su indignación porque la frase "los hombres deberían limpiar la cocina" se tradujo a "Frauen sollten die Küche sauber" en alemán, que significa "las mujeres deberían limpiar (sic) la cocina". Diez años después, la traducción automática mejoró drásticamente. "Los hombres deben limpiar la cocina" ahora está traducido correctamente a los 107 idiomas que ofrece Google Translate. Pero quedan muchos problemas. Google traduce constantemente la frase francesa "une historienne écrit un livre" (una historiadora escribe un libro) a la forma masculina en idiomas con inflexión de género. El error surge de la dependencia de Google del inglés como eje, como AlgorithmWatch mostró anteriormente. Al traduc...

Orgullo, prejuicio y predicciones sobre las personas

https://www.scu.edu/ethics/internet-ethics-blog/pride-prejudice-and-predictions-about-people/ Es una verdad universalmente reconocida, o al menos una creencia compartida por muchos investigadores de inteligencia artificial y aprendizaje automático, que, dada una amplia base de datos y un modelado sofisticado, un algoritmo podrá predecir el comportamiento de los seres humanos individuales. Jane Austen puede parecer la autoridad equivocada a la que acudir para disputar esto. Pero ella tiene algunas ideas relevantes sobre el tema. Quizás recuerdes que en su novela Orgullo y prejuicio, Austen presenta a una heroína llamada Elizabeth que tiene muchas interacciones con un personaje llamado Sr. Darcy, con quien eventualmente se casa. Inicialmente, sin embargo, en el transcurso de varias reuniones y de varias historias que otros personajes le cuentan, Elizabeth recopila información sobre Darcy que la lleva a no gustarle y a creer que a él no le gusta ella a cambio. Como resultado, ella se sorp...

TUC insta a nuevas leyes para frenar la inteligencia artificial

https://www.personneltoday.com/hr/tuc-urges-new-laws-to-rein-in-artificial-intelligence/ El TUC ha hecho sonar la alarma sobre lo que describe como "enormes lagunas" en la legislación laboral del Reino Unido sobre el uso de la inteligencia artificial en el trabajo. Se necesitan nuevas protecciones legales, ya que los trabajadores pueden ser "contratados y despedidos por algoritmo", dijo el organismo sindical en un informe publicado hoy (25 de marzo). El estudio fue realizado por los abogados de derechos laborales Robin Allen QC y Dee Masters de AI Law Consultancy. La secretaria general del TUC, Frances O’Grady, dijo que la inteligencia artificial, cuyo uso se había acelerado rápidamente desde el inicio de la pandemia, “podría utilizarse para mejorar la productividad y la vida laboral. Pero ya se está utilizando para tomar decisiones que cambian la vida de las personas en el trabajo, como quién es contratado y despedido ”. Automatización No hay vuelta atrás: cómo la ...

IA en el trabajo: personal 'contratado y despedido por algoritmo'

https://www.bbc.com/news/technology-56515827 El Congreso de Sindicatos (TUC) ha advertido sobre lo que llama "enormes lagunas" en la legislación laboral del Reino Unido sobre el uso de la inteligencia artificial en el trabajo. El TUC dijo que los trabajadores podrían ser “contratados y despedidos por algoritmo” y que se necesitaban nuevas protecciones legales. Entre los cambios que pide se encuentra el derecho legal a que cualquier decisión de “alto riesgo” sea revisada por un humano. La secretaria general del TUC, Frances O’Grady, dijo que el uso de la inteligencia artificial en el trabajo se encontraba en "una bifurcación en el camino". “La IA en el trabajo podría utilizarse para mejorar la productividad y la vida laboral. Pero ya se está utilizando para tomar decisiones que cambian la vida de las personas en el trabajo, como quién es contratado y despedido. “Sin reglas justas, el uso de la inteligencia artificial en el trabajo podría conducir a una discriminación...

Entender los datos como fuente de sesgo algorítmico

https://www.ethicalintelligence.co/blog/understanding-data-as-a-source-for-algorithmic-bias Hoy en día, los sesgos en los algoritmos de inteligencia artificial parecen ser un punto focal de controversia en el despliegue de la IA. Se han visto innumerables ejemplos de los daños ocasionados por algoritmos sesgados en los titulares de las noticias, como la infame herramienta de reclutamiento de inteligencia artificial de Amazon que clasificó injustamente los currículums de mujeres por debajo de sus contrapartes masculinas, o el algoritmo de reincidencia de la gestión de delincuentes correccionales para sanciones alternativas (COMPAS) que clasificó a los acusados ​​negros como mucho más propensos que los acusados ​​blancos a tener un mayor riesgo de reincidencia. Todos estos ejemplos apuntan al hecho de que el sesgo algorítmico de la IA no es meramente un problema técnico, sino también social con ramificaciones sorprendentes para la justicia social y la igualdad. ¿CÓMO SE DISEÑAN LOS ALGOR...

¿Puede la auditoría eliminar el sesgo de los algoritmos?

https://themarkup.org/ask-the-markup/2021/02/23/can-auditing-eliminate-bias-from-algorithms Durante más de una década, los periodistas e investigadores han escrito sobre los peligros de depender de algoritmos para tomar decisiones importantes: quién es encerrado, quién consigue un trabajo, quién obtiene un préstamo, incluso quién tiene prioridad para las vacunas COVID-19. En lugar de eliminar el sesgo, un algoritmo tras otro lo ha codificado y perpetuado, ya que las empresas han continuado al mismo tiempo protegiendo más o menos sus algoritmos del escrutinio público. La gran pregunta desde entonces: ¿Cómo resolvemos este problema? Los legisladores e investigadores han abogado por auditorías algorítmicas, que diseccionarían y probarían los algoritmos para ver cómo funcionan y si están cumpliendo sus objetivos declarados o produciendo resultados sesgados. Y hay un campo creciente de firmas de auditoría privadas que pretenden hacer precisamente eso. Cada vez más, las empresas recurren a e...

Cómo las imperfecciones sociales impulsan el sesgo en la inteligencia artificial

https://tribune.com.pk/story/2289098/how-societal-imperfections-drive-bias-in-artificial-intelligence A medida que la inteligencia artificial (IA) gana más sofisticación, se vuelve cada vez más difícil detectar y abordar sus sesgos inherentes. Esto se debe principalmente a la naturaleza autónoma de los sistemas emergentes de aprendizaje automático. La próxima generación de programas inteligentes está diseñada para desarrollar sus conocimientos sin depender de la experiencia humana o de un conjunto de conjuntos de datos seleccionados. De hecho, la próxima ola de software impulsado por IA es capaz de adaptarse a medida que interactúa con sus entornos y se apresura a anular lo que se aprendió inicialmente. De esa manera, la principal desviación del pasado es que su conocimiento se mejora constantemente para adaptarse a su entorno. En términos específicos, los algoritmos inteligentes, como el aprendizaje por refuerzo, permiten que una computadora modifique continuamente su comportamiento e...