Entradas

Mostrando las entradas etiquetadas como Derechos Humanos

Nuestros derechos digitales (mal representados)

https://www.cigionline.org/articles/our-misrepresented-digital-rights/ La semana pasada, Google recibió, con razón, cobertura y críticas por lanzar una aplicación de dermatología que no funcionaba para las personas de piel más oscura. Aunque, por desgracia, no es nada nuevo que las grandes empresas tecnológicas lancen productos de aprendizaje automático obviamente racistas, su creciente presencia en las tecnologías médicas supone un cambio de escala, no en su tecnología, sino en su impacto. Los profesionales médicos y las vías de atención que la aplicación de Google pretende "aumentar" están fuertemente regulados, supervisados continuamente por instituciones profesionales y organismos de certificación, y sujetos a obligaciones fiduciarias con sus pacientes. En cambio, esta aplicación se basa en un artículo de Nature. Las tecnologías médicas son un ejemplo de las formas en que las tecnologías asesoran cada vez más a las personas -a menudo un asesoramiento que de otro modo esta...

La incómoda relación entre los derechos humanos y la salud pública: Lecciones de Covid-19 y AI

https://ieai.mcts.tum.de/the-uneasy-relationship-between-human-rights-and-public-health-lessons-from-covid-19-and-ai/ El profesor John Tasioulas, director del Instituto de Ética en la IA de la Universidad de Oxford, fue el invitado distinguido de la última serie de oradores virtuales del IEAI, que tuvo lugar el 15 de julio de 2021.  Su presentación se centró en la incómoda relación entre los derechos humanos y la salud pública, así como en las lecciones aprendidas de Covid-19 y la IA. El profesor Tasioulas habló de cómo la crisis de Covid-19 ha demostrado, no sólo lo mal preparadas que estaban algunas democracias avanzadas para afrontar este tipo de crisis. De hecho, el Reino Unido y los Estados Unidos, que se situaron a la cabeza del Índice de Seguridad Sanitaria Global en octubre de 2019, pero acabaron experimentando importantes dificultades para controlar la propagación del COVID-19 antes de la disponibilidad de las vacunas. La preparación para una crisis sanitaria tiene muchas ...

La regulación de la IA propuesta por Europa se queda corta en protección de los derechos

https://www.computerweekly.com/feature/Europes-proposed-AI-regulation-falls-short-on-protecting-rights La propuesta de la Comisión Europea para la regulación de la inteligencia artificial se centra en la creación de un enfoque basado en el riesgo y liderado por el mercado, repleto de autoevaluaciones, procedimientos de transparencia y estándares técnicos, pero los críticos advierten que no es capaz de proteger los derechos fundamentales de las personas y mitigar los problemas de la tecnología. peores abusos

El error humano de la inteligencia artificial

https://www.agendadigitale.eu/cultura-digitale/the-human-error-of-artificial-intelligence/ En enero de 2020, Robert Julian-Borchak, un hombre negro, fue arrestado en Detroit por un crimen que no cometió solo por un error en un sistema de inteligencia artificial de reconocimiento facial. Este, según el New York Times, fue el primer caso conocido de un ciudadano estadounidense arrestado por un error algorítmico. El caso de Robert Julian-Borchak cuenta la historia de nuestro tiempo. Hoy en día, las fuerzas del orden y los tribunales utilizan cada vez más los sistemas de inteligencia artificial para monitorear, rastrear y perfilarnos y determinar nuestra posible inocencia o culpabilidad. Estas transformaciones no solo afectan a Estados Unidos. También en Europa, las lógicas algorítmicas se están incorporando rápidamente en los entornos de justicia penal [1] y la vigilancia policial predictiva. [2]. Como demuestra el ejemplo de Robert Julian-Borchak, el uso de estas tecnologías por los trib...

Derechos Humanos y Tecnología

https://tech.humanrights.gov.au/downloads El Informe Final del Proyecto de Tecnología y Derechos Humanos es la culminación de una investigación nacional de tres años sobre los riesgos para los derechos humanos que plantean las tecnologías nuevas y emergentes. Las recomendaciones del informe se basan en la experiencia de la Comisión, nuestra investigación y una amplia consulta pública con la comunidad, el gobierno, la industria y el mundo académico.

'Pienso, luego existo'? - La inteligencia artificial y el sistema de crédito social chino: un análisis crítico de los derechos humanos

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3847481 El Sistema de Crédito Social Chino ("SCS") es la última incorporación del Partido Comunista Chino ("PCCh") en herramientas de aplicación extralegales para controlar el comportamiento de los ciudadanos chinos. Al expresar tanto un interés constante en la inteligencia artificial ('AI') como un rechazo constante de las normas de derechos humanos, la insistencia del PCCh en un SCS completamente nacionalizado solo exacerbará aún más la relación conflictiva entre AI y las normas de derechos humanos en China.

Evaluaciones del impacto de la IA en los derechos humanos: aprender del fracaso de Facebook en Myanmar

https://carrcenter.hks.harvard.edu/publications/human-rights-impact-assessments-ai-learning-facebook%E2%80%99s-failure-myanmar

La UE debería regular la IA sobre la base de los derechos, no de los riesgos

https://www.accessnow.org/eu-regulation-ai-risk-based-approach/ En solo unos meses, la Comisión Europea está preparada para presentar un reglamento sobre inteligencia artificial (IA). A pesar de las numerosas declaraciones de la sociedad civil y otros actores sobre los peligros de aplicar un enfoque basado en el riesgo para regular la IA, la Comisión Europea parece decidida a ir en esta dirección. La Comisión ya dijo en su Libro Blanco de 2020 sobre Inteligencia Artificial que quería aplicar un enfoque basado en el riesgo. Un enfoque basado en el riesgo implica determinar la escala o el alcance de los riesgos relacionados con una situación concreta y una amenaza reconocida. Este enfoque es útil en entornos técnicos donde las empresas tienen que evaluar sus propios riesgos operativos. Sin embargo, el enfoque de la UE haría que las empresas evaluaran sus riesgos operativos frente a los derechos fundamentales de las personas. Este es un concepto erróneo fundamental de lo que son los derec...

Singapur revela datos de privacidad de Covid disponibles para la policía

Los funcionarios habían descartado previamente explícitamente que los datos se usarían para cualquier otra cosa que no fuera el seguimiento de virus. Pero el lunes se le dijo al parlamento que también podría usarse "con el propósito de una investigación criminal". Cerca del 80% de los residentes están inscritos en el programa TraceTogether, que se utiliza para registrarse en las ubicaciones. La aceptación voluntaria aumentó después de que se anunció que pronto sería necesaria para acceder a cualquier cosa, desde el supermercado hasta su lugar de trabajo. El programa TraceTogether, que usa una aplicación de teléfono inteligente o un token de bluetooth, también monitorea con quién ha estado en contacto. Si alguien da positivo en la prueba del virus, los datos permiten que los rastreadores se comuniquen rápidamente con cualquier persona que pueda haber sido infectada. Esto generó preocupaciones sobre la privacidad, temores que se han hecho eco en todo el mundo a medida que otros...

INTELIGENCIA ARTIFICIAL Y DERECHOS FUNDAMENTALES

 Las nuevas tecnologías han cambiado profundamente la forma en que organizamos y vivimos nuestras vidas. En particular, las nuevas tecnologías basadas en datos han estimulado el desarrollo de la inteligencia artificial (IA), incluida una mayor automatización de las tareas que suelen realizar los humanos. La crisis de salud de COVID-19 ha impulsado la adopción de IA y el intercambio de datos, creando nuevas oportunidades, pero también desafíos y amenazas a los derechos humanos y fundamentales. https://fra.europa.eu/sites/default/files/fra_uploads/fra-2020-artificial-intelligence_en.pdf

Usar la inteligencia artificial para tomar decisiones: abordar el problema del sesgo algorítmico

La IA es cada vez más utilizada por el gobierno y empresas para tomar decisiones que afectar los derechos de las personas, incluso en el provisión de bienes y servicios, así como otra importante toma de decisiones como contratación, seguridad social y vigilancia. Donde surge el sesgo algorítmico en estos procesos de toma de decisiones, puede dar lugar a errores. Especialmente en la toma de decisiones de alto riesgo, los errores pueden causar un daño real. El daño puede ser  particularmente grave si una persona es injustamente desfavorecidos sobre la base de su raza, edad, sexo u otro caracteristicas. En algunas circunstancias, esto puede equivaler a ilegal discriminación y otras formas de violación de los derechos humanos. https://humanrights.gov.au/sites/default/files/document/publication/ahrc_technical_paper_algorithmic_bias_2020.pdf

¿Programando los derechos humanos y las responsabilidades? “El experimento de la máquina moral” y la necesidad de un futuro de los Vehículos Autónomos más “humano”

 Se espera que las situaciones de dilema que involucran la elección de qué vida humana salvar en el caso de accidentes inevitables surjan solo en raras ocasiones en el contexto de los vehículos autónomos (AV). No obstante, la comunidad científica ha dedicado una atención significativa a encontrar decisiones automatizadas apropiadas y (socialmente) aceptables en el caso de que los AV o los conductores de AV tuvieran que enfrentarse a tales situaciones. Awadand y sus colegas, en su ahora famoso artículo "The MoralMachine Experiment", utilizaron un "juego serio en línea multilingüe" para recopilar datos a gran escala sobre cómo los ciudadanos querrían que los vehículos autónomos resolvieran dilemas morales en el contexto de accidentes inevitables ". conjunto de datos filosóficamente útiles de intuiciones de sillón. Sin embargo, sostenemos que la aplicación de sus hallazgos al desarrollo de “principios globales y socialmente aceptables para el aprendizaje automátic...

Facebook no es un país: cómo interpretar la ley de derechos humanos para las empresas de redes sociales

 Facebook, Inc. está administrando silenciosamente el sistema de censura más grande que el mundo haya conocido, gobernando más comunicación humana que cualquier gobierno, o lo haya hecho jamás [1]: miles de millones de publicaciones al día. [2] Otras empresas de redes sociales [3] también regulan el habla a una escala asombrosa, en plataformas [4] como YouTube. [5] No es solo la escala lo que hace que esta forma de regulación sea nueva. En los primeros días de las plataformas, casi todas las publicaciones eran privadas: los usuarios compartían noticias y pensamientos personales, a menudo con personas que conocían sin conexión. Ahora tiene lugar un importante discurso público en las redes sociales, entre extraños. En muchos países, las plataformas en línea son indispensables para realizar campañas electorales, anunciar decisiones presidenciales, brindar servicios gubernamentales [6] o convencer a los ciudadanos de que aprueben los asesinatos en masa y la limpieza étnica [7]. https:/...

Derechos Humanos e Inteligencia Artificial

La inteligencia artificial puede tener un impacto positivo en el ejercicio de determinados derechos, pero otros pueden verse menoscabados por su uso como: la libertad de expresión (incluyendo el derecho a comunicar o recibir información libremente), la privacidad, la prohibición de la discriminación, y el derecho a la tutela judicial efectiva. Las organizaciones internacionales dedicadas a la protección de los derechos humanos están actualmente reflexionando sobre estos riesgos y las posibles soluciones para ayudar a sus Estados miembros a responder a estos retos, así se presentan las acciones llevadas a cabo en el marco universal por las Naciones Unidas y en el ámbito europeo por el Consejo de Europa y la Unión Europea. https://www.academia.edu/42136124/Derechos_Humanos_e_Inteligencia_Artificial?email_work_card=view-paper  Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos pub...

El reconocimiento facial viola los derechos humanos, según un juzgado inglés

 En 2019, el residente de Cardiff, Ed Bridges, presentó una demanda contra la policía, alegando que escanear su rostro en 2017 y 2018 fue una violación de sus derechos legales. Aunque estaba respaldado por la organización de derechos civiles del Reino Unido Liberty, Bridges perdió su demanda en 2019, pero el Tribunal de Apelación anuló hoy esa decisión y encontró que el programa de reconocimiento facial de la Policía de Gales del Sur era ilegal. "Actualmente se deja demasiada discreción a los agentes de policía individuales", dictaminó el tribunal. "No está claro quién puede colocarse en la lista de vigilancia, ni tampoco está claro si hay criterios para determinar dónde se puede desplegar AFR". La policía no investigó suficientemente si el software en uso exhibía prejuicios de raza o género, agregó el tribunal. En 2018, la Policía de Gales del Sur publicó datos que admitían que aproximadamente 2,300 de casi 2,500 coincidencias, aproximadamente el 92 por ciento, el ...

¿Se podrá eliminar alguna vez los sesgos en la IA?

El momento actual nos pide evaluar casi todos los problemas sistémicos de nuestra sociedad. Si bien puede ser incómodo, la única forma de hacerlo es observar los sistemas que controlan quién gana y quién pierde y pregunta: "¿están sesgados?" Es conveniente pensar que nuestro trabajo en tecnología está por encima de estos problemas. Mucha gente en tecnología hace este trabajo para cambiar el mundo o ayudar a las comunidades necesitadas. Pero al igual que el resto de la sociedad, debemos tomar en serio este momento de autorreflexión, para que la próxima generación no juzgue nuestros fracasos tan duramente como juzgamos a nuestros mayores ahora. Hay cuestiones más importantes, como la discriminación en la contratación de tecnología, y las quejas de actos racistas y misóginos sin respuesta de los niveles superiores de las empresas de tecnología que deberán abordarse a nivel de empresa. Lo que queríamos hablar hoy es que los desarrolladores de discriminación están inyectando inadv...

Entrevista a Shannon Vallor

Interesante resumen. Pone en valor los datos personales, su valor y la dignidad que merece su tratamiento pues son información de nuestras vidas, no simples puntos que se ajustan o no a una tendencia. Describe cómo debe ser un buen Data Scientist desde el punto de vista ético. Para evitar atropellos de la privacidad recomienda la regulación, participar en debates, grupos de presión. Presionar a las compañías y a los investigadores y data scientists. La educación es otro modo de concienciar y formar en el uso ético de la información. Cada vez más de nosotros estamos participando en la economía de datos sin que se nos pregunte, por lo que cada vez más estamos viviendo en un estado de vigilancia digital donde se recopila información sobre nosotros de maneras que no consentimos explícitamente. Entonces, ahí es donde el proceso político debe funcionar para limitar esas formas de extralimitación. https://www.scu.edu/ethics/internet-ethics-blog/on-data-ethics-an-interview-with-shannon-vallor/...

La pandemia podría destruir una última frontera en nuestra privacidad: nuestros seres biológicos

Si estas dinámicas ya estaban en movimiento, han estado en la vía rápida desde el inicio de la pandemia de coronavirus. En marzo, el primer ministro del Reino Unido, Boris Johnson, sostuvo una reunión con nuevas empresas de salud, grandes empresas tecnológicas y los principales actores de la salud para discutir cómo podrían ayudar a enfrentar la pandemia de coronavirus. Luego, el gobierno otorgó silenciosamente acceso a millones de registros de datos de salud del Reino Unido a Amazon, Microsoft y Google, además de la controvertida firma de minería de datos Palantir, para construir un almacén de datos COVID-19, agregando datos de múltiples fuentes, incluidas las pruebas de datos. En el otro extremo del espectro, nuevas empresas como EverlyWell, Let's Get Checked y CircleDNA que venden kits de pruebas en el hogar para cosas como la genética y el diagnóstico de sangre se han apresurado a comercializar nuevos kits de pruebas COVID-19. Pero aunque las compañías tecnológicas son famosas ...

Vigilancia estatal algorítmica: desafiando la noción de agencia en derechos humanos

La vigilancia algorítmica va más allá de los métodos de vigilancia clásicos donde los objetivos para la vigilancia generalmente se identifican de manera bastante específica. Los algoritmos de aprendizaje automático y profundo tienen el potencial de clasificar a las personas en categorías según parámetros específicos y conducir a la creación de grupos que comparten algunas características comunes. Basado en parámetros alimentados por agencias de la ley o agencias de inteligencia o como resultado de cálculos algorítmicos autónomos, la vigilancia algorítmica crea grupos de personas, a menudo incluso aparentemente completamente ajenos entre sí, cuyos derechos deben protegerse. Estos grupos tienen intereses comunes contra la vigilancia estatal, pero no pueden disfrutar de protección colectiva como "grupos" en el marco actual de derechos humanos (Kosta 2017, p. 50). Además, y como es común en los casos de vigilancia estatal, es posible que las personas no sepan que en realidad se l...

El impacto de la inteligencia artificial en Derechos humanos, democracia y estado de derecho

1. La IA, como tecnología de propósito general, tiene un impacto en todo el tejido de la sociedad. 2017, el Comité Económico y Social Europeo, en lo que se considera ampliamente el Report informe inicial ’sobre el impacto social más amplio de la IA, identificó los más importantes dominios de impacto social que incluyen: seguridad; ética; leyes y regulaciones; democracia; transparencia; intimidad; trabajo; educación e (in) igualdad.1 Esto significa que AI tiene un impacto en nuestros derechos humanos, la democracia y el estado de derecho, los elementos centrales sobrecque se construyen nuestras sociedades europeas. 2. En 2019, el Grupo de expertos de IA de alto nivel sobre IA presentó pautas de ética para AI.2 confiable Estas pautas definen la IA confiable como legal, ética y socio-técnicamente robusto. Para el elemento ético de la IA confiable, las pautas tomar explícitamente los derechos fundamentales como base para la ética de la IA.3 Si bien estas pautas sí contienen elementos que s...