Entradas

Mostrando las entradas etiquetadas como Transparencia

La nueva norma de transparencia de la IA del Reino Unido es un paso más hacia una IA responsable

https://venturebeat.com/2021/12/08/the-u-k-s-new-ai-transparency-standard-is-a-step-closer-to-accountable-ai/ El gobierno británico anunció la semana pasada una nueva norma de transparencia algorítmica. La medida llega tras un año en el que el programa Test and Trace del Reino Unido podía hacer un ping a tu teléfono en cualquier momento y cancelar tus planes de fin de semana, y cuando los estudiantes salieron a la calle coreando "¡Fuera el algoritmo!" después de que se cancelaran los exámenes y sus admisiones en la universidad fueran decididas por un algoritmo. La nueva norma pretende empujar a los organismos públicos a crear transparencia sobre cómo, cuándo y dónde se toman las decisiones algorítmicas. Unmute Duración  0:55 / Hora actual  0:28 Ajustes avanzados Pantalla completa Pausa Siguiente El uso de algoritmos para tomar decisiones en los servicios públicos está siendo objeto de un creciente escrutinio en todo el mundo. Recientemente, en el Reino Unido se ha presentado ...

Un profesora de Duke gana un premio de inteligencia artificial de un millón de dólares, un "nuevo Nobel

https://pratt.duke.edu/about/news/rudin-squirrel-award Mientras que muchos estudiosos del campo en desarrollo del aprendizaje automático se centraban en mejorar los algoritmos, Rudin quería utilizar el poder de la IA para ayudar a la sociedad. Decidió buscar oportunidades para aplicar las técnicas de aprendizaje automático a problemas sociales importantes y, en el proceso, se dio cuenta de que el potencial de la IA se libera mejor cuando los humanos pueden mirar dentro y entender lo que está haciendo. Ahora, tras 15 años de defensa y desarrollo de algoritmos de aprendizaje automático "interpretables" que permiten a los humanos ver el interior de la IA, las contribuciones de Rudin a este campo le han valido el premio Squirrel AI Award for Artificial Intelligence for the Benefit of Humanity, dotado con un millón de dólares, otorgado por la Asociación para el Avance de la Inteligencia Artificial (AAAI). Fundada en 1979, la AAAI es la principal sociedad científica internacional a...

¿POR QUÉ LAS EMPRESAS TIENEN PROBLEMAS CON LA INTELIGENCIA ARTIFICIAL ÉTICA?

https://news.northeastern.edu/2021/09/23/ethical-artificial-intelligence/ Algunas de las organizaciones más importantes del mundo, desde las Naciones Unidas hasta Google y el Departamento de Defensa de Estados Unidos, proclaman con orgullo su buena fe en lo que respecta al uso ético de la inteligencia artificial. Pero para muchas otras organizaciones, hablar por hablar es la parte fácil. Un nuevo informe elaborado por un par de investigadores del Northeastern analiza cómo la articulación de los valores, los conceptos éticos y los principios es sólo el primer paso para abordar los desafíos de la IA y la ética de los datos. El trabajo más difícil es pasar de las promesas vagas y abstractas a los compromisos sustantivos que guían la acción y son medibles. "Se ve un caso tras otro en el que una empresa tiene estas declaraciones de misión que no cumplen", dice John Basl, profesor asociado de filosofía y coautor del informe. "Su intento de hacer ética se desmorona". ronal...

El problema de la IA de Transparencia

https://knightcolumbia.org/content/transparencys-ai-problem La inteligencia artificial tiene un grave problema de transparencia. La IA está transformando la gobernanza, pero sus resultados son difíciles de explicar y sus procesos son imposibles de entender para los usuarios no profesionales. 1. La IA es un término notoriamente resbaladizo. En este ensayo, estoy hablando de sistemas de software que pueden interpretar grandes cantidades de datos y determinar cómo actuar para lograr un objetivo articulado. Ver Eur. Comm'n High Level Expert Grp. en A.I., Pautas de ética para una inteligencia artificial confiable, en 36 (8 de abril de 2019). Véase también David Freeman Engstrom et al., Government by Algorithm: Artificial Intelligence in Federal Administrative Agencies, ssrn elec. j. (2020) Es más, las herramientas de inteligencia artificial en las que los gobiernos confían cada vez más para automatizar la toma de decisiones a menudo se obtienen de proveedores del sector privado, lo que ...

¿Quién teme a los algoritmos de caja negra? Sobre la base epistemológica y ética de la confianza en la IA médica

https://jme.bmj.com/content/early/2021/03/18/medethics-2020-106820 El uso de algoritmos de caja negra en medicina ha suscitado preocupaciones entre los académicos debido a su opacidad y falta de confiabilidad. Las preocupaciones sobre el sesgo potencial, la rendición de cuentas y la responsabilidad, la autonomía del paciente y la confianza comprometida se transmiten con los algoritmos de caja negra. Estas preocupaciones conectan preocupaciones epistémicas con cuestiones normativas. En este artículo, describimos que los algoritmos de caja negra son menos problemáticos por razones epistémicas de lo que muchos estudiosos parecen creer. Al señalar que no siempre es necesaria una mayor transparencia en los algoritmos, y al explicar que los procesos computacionales son de hecho metodológicamente opacos para los humanos, argumentamos que la confiabilidad de los algoritmos proporciona razones para confiar en los resultados de la inteligencia artificial médica (IA). Con este fin, explicamos cóm...

Inteligencia artificial confiable en la educación: trampas y caminos

 En todo el mundo, las aplicaciones de inteligencia artificial (IA) están ingresando a todos los dominios de nuestras vidas, incluido el entorno educativo. Este desarrollo fue impulsado aún más por la pandemia de COVID-19, que hizo que muchas instituciones educativas dependieran de las herramientas de aprendizaje digital (habilitadas por IA) para continuar sus actividades. Si bien el uso de sistemas de inteligencia artificial puede generar numerosos beneficios, también puede implicar riesgos éticos, que aparecen cada vez más en las agendas de los legisladores. Muchos de estos riesgos son específicos del contexto y adquieren mayor importancia cuando están involucradas personas vulnerables, existen asimetrías de poder o los derechos humanos y los valores democráticos están en juego en general. Sin embargo, sorprendentemente, los reguladores hasta ahora han prestado poca atención a los riesgos específicos que surgen en el contexto de la Inteligencia Artificial en la educación (AIED). ...

Confianza pública y transparencia

 La innovación sostenible en la tecnología basada en datos depende de la creación y el mantenimiento de la confianza del público. Es evidente que hay un camino por recorrer para generar la confianza del público en los algoritmos, y el punto de partida obvio para esto es garantizar que los algoritmos sean confiables; en la revisión del CDEI sobre el sesgo en la toma de decisiones algorítmicas, analizamos una parte clave de esto. En la revisión, consideramos el papel que puede desempeñar la transparencia en la construcción de un entorno confiable y garantizar la equidad. Si bien esto es cierto en todos los sectores, el sector público tiene la responsabilidad particular de dar ejemplo de cómo debería ser una buena transparencia en el uso de algoritmos. El sector público toma muchas de las decisiones de mayor impacto que afectan a las personas, y esperamos que el sector público pueda justificar y evidenciar sus decisiones. Si bien una persona tiene la opción de optar por no utilizar un...

Revisión del sesgo en la toma de decisiones algorítmicas

 Los prejuicios injustos, ya sean conscientes o inconscientes, pueden ser un problema en muchos procesos de toma de decisiones. Esta revisión considera el impacto que un uso creciente de herramientas algorítmicas está teniendo sobre el sesgo en toma de decisiones, los pasos necesarios para gestionar los riesgos y las oportunidades que ofrece un mejor uso de los datos para mejorar la equidad. Nos hemos centrado en el uso de algoritmos en decisiones importantes sobre individuos, analizando cuatro sectores (contratación, servicios financieros, vigilancia y gobierno local) y haciendo recomendaciones transversales que tienen como objetivo ayudar a construir los sistemas adecuados para que los algoritmos mejoren, en lugar de que empeorar, la toma de decisiones. https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/939109/CDEI_review_into_bias_in_algorithmic_decision-making.pdf
Incertidumbre, desconfianza. La incertidumbre es parte de la vida, virus desconfianza  Vacuna triple E Explicabilidad, ser transparente y comprensible, mostrar las posibilidades y los riesgos Ética, hacer las cosas bien, bien común  Ejemplaridad de los políticos  A partir del min 19 https://play.cadenaser.com/audio/1604833987_968925/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

¿Quién soy yo para decidir cuándo los algoritmos deben tomar decisiones importantes?

 Las personas que asumen los riesgos de los sistemas algorítmicos deberían poder determinar si se utilizan y cómo se utilizan. Workers for Shipt, la plataforma de entrega de comestibles propiedad de Target, están protestando por la reciente implementación de la empresa de un nuevo algoritmo que dicta los horarios y salarios de los trabajadores. No está claro cómo el algoritmo toma estas decisiones: Shipt ha proporcionado pocos detalles a sus más de 200.000 empleados y la empresa se niega a compartir nada con el público, alegando que el sistema es "propietario". Pero incluso sin acceso al funcionamiento interno del algoritmo, los trabajadores sienten sus impactos. Desde que el sistema entró en funcionamiento en septiembre, afirman que sus salarios han bajado y que la programación es más complicada e impredecible, lo que arroja sus vidas a la precariedad y la incertidumbre financiera. Como dijo el trabajador de Shipt, Willy Solis: "Este es mi negocio y necesito poder tomar...

La Coalición de la Sociedad Civil liderada por AlgorithmWatch pide reglas de transparencia vinculantes para las plataformas en línea

 Como organizaciones comprometidas con la defensa de los valores democráticos y los derechos fundamentales, vemos una necesidad urgente de comprometer las plataformas de Internet con un mayor nivel de transparencia. Proponemos que la UE debe mantener los principios clave del régimen de responsabilidad limitada descrito en la Directiva de comercio electrónico e introducir marcos de transparencia vinculantes que permitan el acceso a los datos para su escrutinio respetando la privacidad. Acogemos con beneplácito la Ley de Servicios Digitales (DSA) propuesta por la Comisión Europea e instamos a los responsables políticos de la UE a utilizar este "Reglamento moderno para servicios digitales" en Europa como una oportunidad para hacer que las plataformas rindan cuentas. https://algorithmwatch.org/en/governing-platforms-final-recommendations Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). L...

Transparencia significativa y algoritmos (in)visibles

Los esfuerzos en curso de los investigadores revelan casos individuales de preocupación, pero sigue habiendo un déficit sistémico persistente en la comprensión del público sobre dónde y cómo se utilizan estos sistemas. Esto apunta a una cuestión fundamental de transparencia. La transparencia tiene una larga tradición en el trabajo anticorrupción y es un elemento central en los debates de responsabilidad algorítmica, tanto en los campos de la regulación como en la ética de los datos. En los últimos años, ha habido reiterados llamamientos a la transparencia de los sistemas ADM, aunque con poco efecto, posiblemente porque tales llamamientos han tendido a adoptar la forma de posicionamiento retórico de alto nivel en lugar de propuestas sustantivas. Las organizaciones de la sociedad civil han ido un paso más allá, al sugerir que las organizaciones del sector público deberían utilizar mecanismos de transparencia como la obligación de informar y la institución de registros públicos. [2] A pes...

Señales para una IA ética: una ruta hacia la transparencia

La Inteligencia Artificial (IA) se ha elevado recientemente al punto en que tiene un impacto en la vida diaria de miles de millones de personas. Este es el resultado de su aplicación a sectores como finanzas, salud, entretenimiento digital, transporte, seguridad y publicidad. Hoy en día, la IA alimenta algunos de los factores económicos y instituciones de investigación en el mundo y el impacto de la IA en un futuro próximo parece difícil de predecir o incluso delimitado. En contraste con todo este poder, la sociedad permanece mayoritariamente ignorante de las capacidades, requisitos y prácticas estándar de la IA hoy. La sociedad se está dando cuenta de los peligros que conlleva ese ignorancia, y legítimamente está pidiendo soluciones. Para abordar esta necesidad, mejorando sobre las prácticas actuales de interacción entre personas y sistemas de IA, proponemos un esquema de transparencia que se implementará en cualquier sistema de IA abierto al público. El esquema se basa en dos pilares...

Cómo la IA puede proporcionar transparencia en la ciudad

 Amsterdam y Helsinki están lanzando registros de algoritmos en un intento por brindar transparencia a las implementaciones públicas de inteligencia artificial. https://techhq.com/2020/10/how-ai-can-provide-transparency-in-the-city/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Los algoritmos gubernamentales están socavando la democracia; abramos su diseño a la gente

Los algoritmos parecen estar en retroceso en el Reino Unido, por ahora. Los gobiernos nacionales no solo cambiaron recientemente su uso de algoritmos para asignar las calificaciones de los que abandonan la escuela, sino que numerosas autoridades locales también han eliminado tecnología similar utilizada para tomar decisiones sobre beneficios y otros servicios de bienestar. En muchos de estos casos, esto se debió a que se descubrió que los algoritmos conducían a resultados sesgados e injustos. Pero, ¿por qué nadie se dio cuenta de que estos algoritmos producirían resultados tan dañinos antes de que salieran al mundo real haciendo un daño real? La respuesta puede ser que el público no esté adecuadamente representado en los procesos de desarrollo e implementación de nuevos sistemas. Esto no solo aumenta las posibilidades de que las cosas salgan mal, sino que también socava la confianza pública en el gobierno y su uso de datos, lo que limita las oportunidades para que los algoritmos se uti...

Transparencia, integridad y rendimiento de cuentas en las instituciones europeas

 La transparencia, la integridad y la responsabilidad son los requisitos previos esenciales de una democracia basada en el ley. Promueven la buena gobernanza y generan confianza en el proceso de formulación de políticas, mejorando así la legitimidad y credibilidad de las instituciones públicas. También son herramientas políticas extremadamente importantes para prevenir corrupción y malas prácticas de gobierno. La transparencia requiere la divulgación de información sobre la formulación de políticas y el gasto, al tiempo que se garantiza la acceso a dicha información. Por lo tanto, es un elemento clave para generar responsabilidad y confianza en los tomadores de decisiones. En este sentido, el seguimiento y la fiscalización son herramientas necesarias para garantizar la rendición de cuentas de la ciudadanía. instituciones, mientras que los enfoques participativos involucran a la sociedad civil en este proceso. La noción de integridad de instituciones públicas implica el uso de sus p...

Manifiesto en favor de la transparencia en desarrollos de software públicos

  Este manifiesto expone la necesidad de seguir una serie de pautas en desarrollos de software destinados a servir al público, con Radar COVID como ejemplo. Radar COVID es uno de los primeros ejemplos de la nueva generación de infraestructura pública. Estas pautas describen elementos imprescindibles para implementar procesos abiertos que permitan a la sociedad participar en la integración de nuevas tecnologías en la administración desarrolladas con dinero público. Entre otros, la publicación de documentación y código que provean a la comunidad científica y la sociedad civil de la capacidad de escrutinio necesaria para identificar puntos a mejorar y contribuir a desarrollar y desplegar soluciones digitales democráticas, inclusivas y conformes a los más altos estándares. La infraestructura pública es parte del bien común de una sociedad. Mediante ella se ordena y estructura la sociedad, creando las reglas de acceso y disponibilidad a servicios sociales. Su legitimidad depende de su g...

La Ética de los algoritmos: problemas y soluciones

Es un paper que recoge los problemas éticos que trae la IA, desde Bias, Responsabilidad. privacidad y opacidad Es un documento amplio y completo, y no enduza la complejidad del problema. https://www.academia.edu/43793187/The_Ethics_of_Algorithms_Key_Problems_and_Solutions?email_work_card=view-paper Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La (in)credibilidadde modelos para no expertos

Concluyo que: Cuando muchos han pedido una mayor transparencia (Diakopoulos & Friedler, 2016; Pasquale, 2015), demuestro que lograr la transparencia es, en el mejor de los casos, problemático y, en el peor, inalcanzable para los no expertos. Los modelos que estudié aquí eran cuantificaciones complicadas. Sin embargo, lo último en técnicas de ciencia de datos como el aprendizaje profundo produce algoritmos que son más dinámicos e intrincados que los modelos estudiados aquí. Los expertos en modelos profesionales en mis estudios de caso hicieron todo lo posible para comprender la mecánica del modelo, pero solo unos pocos sintieron que tenían una comprensión exhaustiva del modelo en cuestión. Los modelos que estudié eran cajas negras para la mayoría de los profesionales de modelos que trabajaban con ellos. A pesar de esta falta de transparencia, los modelos se consideraron lo suficientemente creíbles como para informar la política. En algunos, los profesionales de modelos suspenden par...

La Historia Médica importa en la Era del Big Data

O también los científicos de datos no saben de donde vienen. Hace unos años, habló con un experto en aprendizaje automático que estaba escribiendo un algoritmo para el proveedor de electricidad de la ciudad de Nueva York para predecir dónde podrían producirse incendios en la red eléctrica subterránea y provocar una explosión de tapas de alcantarillas. Para probar y optimizar el algoritmo, el experto le proporcionó varios conjuntos de datos complejos y ampliamente disponibles, incluido el PIDD (un dataset médico). https://nihrecord.nih.gov/2020/07/24/medical-history-matters-era-big-data Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.