Entradas

Mostrando las entradas etiquetadas como Preocupaciones Éticas sobre la IA

Identificar los debates éticos clave para los robots autónomos en la agroalimentación: una agenda de investigación

https://link.springer.com/article/10.1007/s43681-021-00104-w Las empresas agrícolas están invirtiendo en diferentes formas de robots de IA, ya que hay muchas esperanzas de que estas máquinas ayuden a superar los retos de la industria agrícola, que consiste en producir de forma eficiente más alimentos para una población mundial creciente. Se espera que los robots de IA mejoren la producción, a la vez que compensen la falta de mano de obra, reduzcan los costes de producción, se hagan cargo de trabajos poco atractivos (arriesgados, pesados y sucios) y reduzcan la carga de la producción de alimentos en el medio ambiente. Sin embargo, a pesar de estas promesas, los robots de IA para la agroalimentación también dan lugar a cuestiones y preocupaciones éticas, que han sido poco investigadas y debatidas hasta ahora. Para colmar esta laguna, elaboramos una agenda de investigación para el futuro en este ámbito. Para ello, abrimos nuestro análisis para centrarnos en la ética de los robots de IA en...

Los empleados de Target serán retribuidos mediante un algoritmo

 La empresa asegura que se ha revisado bien, los empleados dicen que ahora cobran menos. https://www.vice.com/en_us/article/qj49jv/targets-delivery-app-workers-to-be-paid-by-a-blackbox-algorithm-nationwide Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Sistemas de Recomendación y Retos Éticos

Este artículo presenta el primer análisis sistemático de los desafíos éticos que plantea el recomendador sistemas. A través de una revisión de la literatura, el artículo identifica seis áreas de preocupación y las mapea sobre una taxonomía propuesta de diferentes tipos de impacto ético. El análisis descubre una brecha en el literatura: los enfoques actualmente centrados en el usuario no consideran los intereses de una variedad de otros partes interesadas, a diferencia de los receptores de una recomendación, en la evaluación de la ética impactos de un sistema de recomendación.  https://philpapers.org/rec/MILRSA-3 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

IA Ética

Interesante y corta presentación de MAIE  https://www.youtube.com/watch?v=jhaaUq9CRco&feature=youtu.be Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Los bancos enfrentan desafíos de equidad al comprometerse con la tecnología de IA

Un informe de la Unidad de Inteligencia de The Economist (EIU) dijo que el sesgo de datos que conduce a la discriminación contra individuos o grupos era uno de los riesgos más importantes para los bancos que utilizan la tecnología. La IA actualmente ocupa un lugar destacado en la agenda bancaria y la interrupción causada por Covid-19 ha "intensificado" su adopción en el sector, según la EIU. Los bancos están utilizando IA para crear servicios bancarios más personalizados para los clientes, para automatizar los procesos administrativos y para mantenerse al día con los desarrollos en los bancos retadores digitales, pioneros en inteligencia artificial en el sector. Pero los bancos deberán garantizar decisiones éticas, justas y bien documentadas basadas en la inteligencia artificial, dijo la IA supervisora ​​de EIU: gobernar la inteligencia artificial en el informe bancario. Dijo que las decisiones tomadas por las computadoras deben seguir siendo éticas, sin prejuicios, y estas d...

Dando luz verde al ML: confidencialidad, integridad y disponibilidad de los sistemas de aprendizaje automático en la implementación

La seguridad y la ética son fundamentales para garantizar que se pueda confiar en un sistema de aprendizaje automático. En el aprendizaje automático de producción, generalmente hay una transferencia de quienes crean un modelo a quienes implementan el modelo. En este traspaso, los ingenieros responsables del despliegue del modelo a menudo no conocen los detalles del modelo y, por lo tanto, las vulnerabilidades potenciales asociadas con su uso, exposición o compromiso. Las técnicas como el robo de modelos, la inversión de modelos o el mal uso de modelos pueden no considerarse en la implementación de modelos, por lo que corresponde a los científicos de datos y a los ingenieros de aprendizaje automático comprender estos riesgos potenciales para que puedan comunicarlos a los ingenieros que implementan y alojan sus modelos. . Este es un problema abierto en la comunidad de aprendizaje automático y para ayudar a aliviar este problema, se deben desarrollar sistemas automatizados para validar la...

Riesgos de la IA

Gráfico muy explicativo https://twitter.com/maria_axente/status/1270012404676640768?s=12 https://twitter.com/maria_axente/status/1270012404676640768/photo/1 Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

El déficit de ética de la IA: los líderes de IT en los EE. UU. Y el Reino Unido quieren que se preste más atención a la ética, la responsabilidad y la regulación de la IA.

Presenta los resultados con gráficos muy monos sobre el interés de los líderes y de los responsables en la ética de la IA. https://www.snaplogic.com/resources/infographics/the-ai-ethics-deficit Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Cómo las universidades más antiguas de Gran Bretaña están tratando de proteger a la humanidad del riesgo de la IA

Los algoritmos inteligentes ya pueden superar a los humanos en ciertas tareas. Por ejemplo, pueden vencer a los mejores jugadores humanos del mundo en juegos increíblemente complejos como el ajedrez y el Go, y pueden detectar tumores cancerosos en una mamografía mucho más rápido que un clínico humano. Las máquinas también pueden distinguir la diferencia entre un gato y un perro, o determinar la identidad de una persona aleatoria con solo mirar una foto de su cara. También pueden traducir idiomas, conducir automóviles y mantener su hogar a la temperatura adecuada. Pero, en términos generales, todavía no son tan inteligentes como el niño promedio de 7 años. https://www.cnbc.com/2020/05/25/oxford-cambridge-ai.html Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Silicon Valley necesita un nuevo enfoque de estudio de la ética más que nunca

El próximo mes, Apple y Google presentarán características para permitir el rastreo de contactos en iOS y Android para identificar a las personas que han tenido contacto con alguien que da positivo por el nuevo coronavirus. Los expertos en seguridad se han apresurado a señalar los posibles peligros, incluidos los riesgos de privacidad, como revelar identidades de usuarios positivos para COVID-19, ayudar a los anunciantes a rastrearlos o ser víctimas de falsos positivos de los trolls. https://techcrunch.com/2020/04/24/silicon-valley-needs-a-new-approach-to-studying-ethics-now-more-than-ever/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La falsa promesa de la "IA Ética"

El uso de algoritmos "en la naturaleza" para medir, cuantificar y optimizar cada aspecto de nuestras vidas ha generado crecientes preocupaciones públicas y una mayor atención por parte de los reguladores. Pero entre la lista de respuestas hay algunas ideas poco prácticas, entre ellas las que se promueven bajo la bandera de "IA ética". https://www.nepal24hours.com/the-false-promise-of-ethical-ai/#.XqdFFkQ4LCY.twitter Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Tres retos éticos de la IA en Ciberseguridad

Los tres retos donde se debe considerar la ética son robustez del sistema, resliencia del sistema y respuesta del sistema. https://www.academia.edu/39407123/Three_Ethical_Challenges_of_Applications_of_Artificial_Intelligence_in_Cybersecurity?email_work_card=title Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Las Guías de Ética de la IA no resolverán los problemas

Recientemente la UE ha publicado un libro blanco sobre guías éticas de la IA incluyendo preocupaciones sobre privacidad y dignidad humana. También el Pentágono ha finalizado las suyas. Oxford también ha lanzado un programa para mantener la IA recta y estrecha y el WorldEconomic Forum ha resaltado las profundas implicaciones morales de la IA. En el fondo el miedo está detrás. Las anteriores tecnologías se podían controlar pero la IA reemplazará nuestras ideas. Los dispositivos de ahorro de trabajo se convierten en máquinas de toma de decisiones que operan en un vacío moral. Hasta ahora las peticiones han ido a los programadores que escriben los algoritmos. El problema es que la IA aprende por sí misma. El rumbo que toman se inicia por quienes inician el código. Lo que está en juego es mucho en cuanto el Pentágono quiere automatizar la toma de decisiones. La UE, el WEF y el Pentágono pueden estar alarmados por la ética de la IA, pero en realidad son los mismos problemas de siempre ...

Pensando sobre 'Ética' en la Ética de la IA

Una importante consultora internacional ha identificado en 2019 "Eticista de IA" como un puesto esencial para las empresas que implementan con éxito la IA. En muchos ámbitos de la sociedad se considera que IA puede ser beneficiosa, pero también puede dañar a las personas y a la sociedad. A fin de evitar los fallos  y consecuencias dañinas, su papel se suele identificar en a) examinar las dimensiones políticas, sociales, legales y éticas de la IA y b) desarrollar guías éticas recomendaciones para desarrollar e implementar IA. Los asuntos técnicos a veces impiden el examen serio de problemas éticos de la IA. Las definiciones de IA son muy variadas, hay diversas formas de comprensión y cada una aporta sus propias complicaciones. Por eso, para evitar confusiones y el riesgo de gente hablando cada uno de lo suyo, cualquier discusión significativa de Ética de la IA requiere la explicación de la definición de IA que se esté empleando así como el tipo de IA que se está debatiendo. ...

Mejor comprensión de la IA

Artículo de Nesta sobre IA, las preocupaciones éticas, los centros que investigan y proponen medidas para resolverlas. Un informe detallado y completo escrito por Julián García-Mateos. https://www.nesta.org.uk/blog/better-intelligence-about-artificial-intelligence/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Contribución de la OCDE al una IA centrada en el ser humano

La "gestión mediante algoritmo" ya es una realidad en el espacio laboral, lo que puede conducir a prácticas muy intrusivas. El software y hardware permiten crear herramientas de control del desempeño laboral mediante la monitorización de maneras impensables en el pasado, así como recoger enormes cantidades de datos de su actividad, (Elevtronic Performance Monitoring - EPM)permitiendo que un empleado de bajo rendimiento pueda ser despedido automáticamente sin verificación del supervisor. Formas incrementadas de control de trabajadores de fábricas y de oficina incluyen la monitorización de emails, escucha telefónica, seguimiento del contenido del ordenador y tiempo de uso, monitorización por vídeo y seguimiento GPS. Con esto se realiza "People Analytics". EPM y Personal Analytics pueden ser usados legítimamente para fomentar la productividad o elevar la seguridad. Los dispositivos wearables pueden usarse para mejorar la salud, pero pueden usarse para una grave int...

Engañando con IA: Cuando la IA aprende a mentir

En IA se utilizan los ejemplos adversarios para hacer más robustos los modelos. Es necesario comprender la amplitud de qué significa "Engaño de IA" y lo que ocurre cuando no está la intención humana tras una IA mentirosa. Bond y Robinson definenel engañocomo "la falsa comunicación en beneficio del comunicador". Whaley incluye la intención demanipularal otro. Tener intención significa tener conocimiento de uno mismo y poder razonar sobre entidades externas y sus intenciones, deseos, estados y posibles comportamientos. Si se define engaño de la IA con una intención definida así, requeriría una IA con cierta teoría de la mente,lo que no existe, así que vamos a tratar el engaño apoyado en la intención humana de usar la IA para engañar. Que la IA no tenga una teoría de la mente no significa que no pueda aprender a engañar, aunque en realidad no sepan lo que hacen. Es tan fácil como ocultar información o suministrar informaciónfalsa para lograr un objetiv...

Curso sobre robots en la sociedad

Este curso trata de la integración de los robots en la sociedad y los peligros éticos que suscita, https://www.edx.org/course/mind-of-the-universe-robots-in-society-blessing-or?utm_campaign=social-sharing-course-page&utm_medium=social&utm_source=twitter por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El peligro que supone la IA para la civilización

Se utiliza para cosas no esenciales La "inteligencia" de la IA supone un problema para la civilización. Se suele usar para cosas no esenciales, a veces egoístas. Incluso Google Maps, aunque útil, signigica que soy rastreado por mi teléfono al usarla. La IA realmente no trabaja para el usuario. Siempre que se usa IA es a cambio de la privacidad. Que el teléfono aprenda cómo me comporto y se adelante me hace sentirme niño. Facebook etiqueta las fotos que subo sin que se lo haya pedido. ¿Me beneficia? Es poner muy bajo el listón del beneficio. El problema es el coste: un incremento en dependencia externa que básicamente nos infantiliza. la IA no está empoderando a nadie,excepto a los gobiernos y otras organizaciones que se benefician de rastrear los movimiento, aplicar las normas y tratar a las personas como meros datos. Es interesante que cuando se automatizan cosas para objetivos no frívolos no solemos llamarlo IA. Por ejemplo los sistemas de pilotaje automático de las mod...

La inteligencia artificial ya puede crear vídeos inventados a partir de audios

La herramienta creada por SenseTime, el gigante tecnológico de Hong Kong, detecta emociones en el audio y las asocia a expresiones faciales que representa en un vídeo. https://retina.elpais.com/retina/2020/01/22/innovacion/1579693307_555687.html Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)