Entradas

Mostrando entradas de agosto, 2020

Noam Chomsky dice que el proyecto Neuralink de Elon Musk no funcionará

 Esta semana, Inverse habló con Noam Chomsky, profesor emérito de lingüística en el MIT, sobre Neuralink y el estado de la investigación sobre el pensamiento y el lenguaje. Si bien Chomsky cree que el uso de interfaces cerebrales para ayudar a los pacientes a recuperar las funciones motoras es un objetivo razonable, se muestra seriamente escéptico sobre los objetivos a largo plazo de Neuralink. Nuestro conocimiento sobre cómo pensamos es tan limitado, dice, que la comunicación solo con sus pensamientos está lejos de ser posible. "Lo que probablemente están haciendo son cosas como las que describí, encontrando formas de detectar, quizás mediante señales eléctricas del cerebro, si está planeando levantar el brazo. Eso está dentro del dominio de la viabilidad, y sé que se están realizando investigaciones al respecto ", dice Chomsky a Inverse. "Tratando de averiguar lo que estoy pensando, digamos, no hay forma de desarrollar tecnología porque no sabemos cómo proceder".

Tiempos inciertos

 Ensayo de Jessica Flack y Melanie Mitchell sobre el tiempo actual, complejo e incierto. En lugar de intentar predecir con precisión el futuro, hemos intentado defender el diseño de sistemas que favorezcan la robustez y la adaptabilidad, sistemas que pueden ser creativos y receptivos cuando se enfrentan a una variedad de escenarios posibles. La pandemia de COVID-19 brinda una oportunidad sin precedentes para comenzar a pensar en cómo podemos aprovechar el comportamiento colectivo y la incertidumbre para dar forma a un futuro mejor para todos nosotros. El término más importante en este ensayo no es "caótico", "complejo", "cisne negro", "desequilibrio" o "efecto de segundo orden". Es: "amanecer". https://aeon.co/essays/complex-systems-science-allows-us-to-see-new-paths-forward Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artícul

Inteligencia artificial, atribución de responsabilidad y justificación relacional de la explicabilidad

 Este artículo analiza el problema de la atribución de responsabilidades que plantea el uso de tecnologías de inteligencia artificial (IA). Se supone que solo los humanos pueden ser agentes responsables; sin embargo, esto por sí solo ya suscita muchas cuestiones, que se discuten a partir de dos condiciones aristotélicas de la responsabilidad. Junto al conocido problema de muchas manos, se identifica el tema de “muchas cosas” y se enfatiza la dimensión temporal cuando se trata de la condición de control. Se presta especial atención a la condición epistémica, que llama la atención sobre los temas de transparencia y explicabilidad. Sin embargo, a diferencia de las discusiones estándar, se argumenta entonces que este problema de conocimiento sobre los agentes de responsabilidad está vinculado al otro lado de la relación de responsabilidad: los destinatarios o “pacientes” de responsabilidad, quienes pueden exigir razones de las acciones y decisiones tomadas por usando IA. Inspirada por un e

Construyendo máquinas de pensamiento resolviendo tareas de cognición animal

 En "Computing Machinery and Intelligence", Turing, escéptico de la pregunta "¿Pueden pensar las máquinas?", Rápidamente la reemplaza con una prueba verificable experimentalmente: el juego de imitación. Sugiero que para que tal movimiento tenga éxito, la prueba debe ser relevante, expansiva, solucionable con ejemplos, impredecible y conducir a una investigación procesable. El juego de la imitación solo tiene un éxito parcial en este sentido y su dependencia del lenguaje, si bien es útil para resolver parcialmente el problema, ha puesto el progreso de la IA en el pie equivocado, prescribiendo un enfoque de arriba hacia abajo para construir máquinas pensantes. Sostengo que para solucionar las deficiencias de los sistemas modernos de IA se requiere una operacionalización no verbal. Esto lo proporciona el reciente Animal-AI Testbed, que traduce pruebas de cognición animal para IA y proporciona una vía de investigación de abajo hacia arriba para construir máquinas pensan

El lavado mediante participación podría ser la próxima moda peligrosa en el aprendizaje automático

 La comunidad de IA finalmente se está dando cuenta del hecho de que el aprendizaje automático puede causar un daño desproporcionado a los grupos ya oprimidos y desfavorecidos. Tenemos activistas y organizadores a quienes agradecer por eso. Ahora, los investigadores y académicos del aprendizaje automático están buscando formas de hacer que la IA sea más justa, responsable y transparente, pero también, recientemente, más participativa. Uno de los eventos más emocionantes y con mayor asistencia de la Conferencia Internacional sobre Aprendizaje Automático en julio se llamó "Enfoques participativos del aprendizaje automático". Este taller aprovechó la aspiración de la comunidad de construir sistemas algorítmicos más democráticos, cooperativos y equitativos mediante la incorporación de métodos participativos en su diseño. Dichos métodos incorporan al proceso de diseño a quienes interactúan con un sistema algorítmico y se ven afectados por él, por ejemplo, solicitando a las enferme

El impacto de la IA en el periodismo

Al principio, la mayoría de las herramientas de Natural Language Generation (NLG) que producen estos artículos fueron proporcionadas por empresas de software como Narrative Science. Hoy en día, muchas organizaciones de medios han desarrollado versiones internas. La BBC tiene Juicer, el Washington Post tiene Heliograf y casi un tercio del contenido publicado por Bloomberg es generado por un sistema llamado Cyborg. Estos sistemas comienzan con datos: gráficos, tablas y hojas de cálculo. Los analizan para extraer hechos particulares que podrían formar la base de una narrativa. Generan un plan para el artículo y, finalmente, elaboran oraciones utilizando software de generación de lenguaje natural. Estos sistemas solo pueden producir artículos en los que se disponga de datos altamente estructurados como entrada, como un video de un partido de fútbol o datos de hoja de cálculo del rendimiento anual de una empresa. No pueden escribir artículos con estilo, imaginación o análisis en profundidad

Google y Apple implementarán la segunda fase del sistema de rastreo de contactos

 Hasta ahora, Apple y Google han requerido que los usuarios descarguen una aplicación creada por una autoridad de salud pública reconocida para habilitar el sistema de notificación de exposición. Si bien eso ha sido posible para los residentes en Irlanda del Norte, eso ha impedido que los residentes en Inglaterra, Gales y Escocia usen el servicio, a menos que hayan instalado una aplicación de rastreo de contactos de otro país, como Irlanda o Alemania, cuyas aplicaciones estaban disponibles en la aplicación del Reino Unido. historias. Incluso entonces, solo podían usar la aplicación de forma pasiva, ya que ambas aplicaciones extranjeras requieren un diagnóstico de sus respectivos servicios de salud para marcarse como infeccioso. Cuando las nuevas versiones de iOS y Android estén disponibles, lo cual se espera en las próximas dos semanas, los usuarios podrán unirse a un sistema de notificación de exposición sin necesidad de descargar ninguna aplicación. Sin embargo, todavía necesitarán u

Equipo de algoritmos humanos en el reconocimiento facial: cómo los resultados de los algoritmos sesgan cognitivamente la toma de decisiones humanas

 En las aplicaciones de reconocimiento facial, los humanos a menudo se asocian con algoritmos, revisando los resultados del algoritmo para tomar una decisión de identidad. Sin embargo, pocos estudios han medido explícitamente cómo los algoritmos influyen en el rendimiento de la coincidencia de rostros humanos. Un estudio que examinó esta interacción encontró un deterioro preocupante de la precisión humana en presencia de errores de algoritmo. Realizamos un experimento para examinar cómo las decisiones previas sobre la identidad del rostro influyen en los juicios humanos posteriores sobre la similitud del rostro. Se pidió a 376 voluntarios que calificaran la similitud de los pares de caras a lo largo de una escala. A los voluntarios que realizaban la tarea se les dijo que estaban revisando decisiones de identidad tomadas por diferentes fuentes, ya sea una computadora o un ser humano, o se les dijo que tomaran su propio juicio sin información previa. Replicando resultados pasados, encont

Por qué algo de inteligencia artificial es inteligente hasta que se vuelve tonta

 "Los seres humanos tendemos a sobreestimar los avances de la inteligencia artificial y subestimar la complejidad de nuestra propia inteligencia", escribe Mitchell. Por lo tanto, sugiere que los temores de que las máquinas superinteligentes se apoderen del mundo estén fuera de lugar, sugiere, citando comentarios del economista y científico del comportamiento Sendhil Mullainathan: “Deberíamos tener miedo”, escribió. “No de máquinas inteligentes. Pero de máquinas que toman decisiones que no tienen la inteligencia para tomar. Le tengo mucho más miedo a la estupidez de la máquina que a la inteligencia de la máquina ". Incluso cuando las máquinas funcionan bien, no siempre son tan inteligentes como parecen. Los informes de habilidad en el reconocimiento de imágenes, por ejemplo, deben atenuarse por el hecho de que los informes de precisión de la máquina a menudo se refieren a sus cinco "suposiciones" principales: si alguna de las cinco es correcta, la máquina recibe

Informe pide "prohibir durante una generación" la vigilancia por reconocimiento facial

 La tecnología de reconocimiento facial "exacerbará los resultados racistas" en la policía y debería prohibirse "durante una generación", según el informe, Unmasking Facial Recognition. El informe también revela que la Policía Metropolitana no realizó una Evaluación de Impacto de Igualdad antes de sus juicios y advierte que la tecnología puede conducir a una "prohibición del velo facial" en el futuro. https://webrootsdemocracy.org/2020/08/28/report-calls-for-generational-ban-on-facial-recognition-surveillance/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

¿Cómo mantenemos la ética de los datos y la innovación digital?

 ¿Cómo queremos usar los datos? ¿Queremos utilizarlo para que los servicios financieros sean más abiertos y accesibles para todos? ¿Podemos aprovecharlo para examinar las fallas de nuestro sistema de cuidado de ancianos, descubierto por Covid-19, e intentar hacer mejoras fundamentales? ¿Y queremos asegurarnos de que la marcha de los datos y la inteligencia artificial en la configuración de todos los aspectos de nuestras vidas se gestione de forma ética? En el último año, el programa Data-Driven Innovation (DDI) de la Universidad de Edimburgo ha respondido a todas estas preguntas. con un sí rotundo, promoviendo la ambición de la región de la ciudad de Edimburgo de no ser solo la capital de datos de Europa, sino un centro líder en el mundo. https://www.scotsman.com/education/how-do-we-keep-data-and-digital-innovation-ethical-2952622 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos

Sesgos cognitivos, patrones oscuros y la "paradoja de la privacidad"

 Los académicos y comentaristas a menudo argumentan que a las personas no les importa su privacidad y que los usuarios intercambian habitualmente la privacidad por la comodidad. Esto ignora los sesgos cognitivos y las tácticas de diseño que utilizan las plataformas para manipular a los usuarios para que revelen información. Este ensayo destaca algunos de esos sesgos cognitivos, desde el descuento hiperbólico hasta el problema de la elección excesiva, y analiza las formas en que el diseño de la plataforma puede manipular la divulgación. A continuación, explica cómo la ley actual permite que continúe este comportamiento manipulador y anti-consumidor y propone un nuevo enfoque para reinar en el fenómeno. https://www.sciencedirect.com/science/article/pii/S2352250X19301484 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresa

Los algoritmos pueden impulsar la desigualdad. Solo mire el caos de exámenes escolares en Gran Bretaña

 El joven de 18 años, cuyo nombre completo CNN no revela porque temía las repercusiones de las universidades, estaba entre los más de 300.000 alumnos en Inglaterra, Gales e Irlanda del Norte que se despertaron el 13 de agosto con resultados de exámenes de nivel A de importancia crítica, que son en términos generales equivalente al diploma de escuela secundaria de EE. UU. Estos exámenes se cancelaron este verano debido a la pandemia. En cambio, las calificaciones de los estudiantes se determinaron mediante un algoritmo, el Modelo de desempeño del centro directo, que fue elegido por el regulador de exámenes del gobierno. El modelo se basó en una colección de datos para producir las calificaciones. Una protesta posterior por el supuesto sesgo algorítmico contra los alumnos de entornos más desfavorecidos ha hecho que tanto los adolescentes como los expertos pidan un mayor escrutinio de dicha tecnología. https://edition.cnn.com/2020/08/23/tech/algorithms-bias-inequality-intl-gbr/index.html

¿Es la IA una fuerza para el bien? Entrevista con Branka Panic, fundadora y directora ejecutiva de AI For Peace

 Cada vez más, las organizaciones de muchas industrias y geografías están construyendo e implementando modelos de aprendizaje automático e incorporando inteligencia artificial en una variedad de sus diferentes productos y ofertas. Sin embargo, a medida que colocan capacidades de inteligencia artificial en los sistemas con los que interactuamos a diario, es cada vez más importante asegurarse de que estos sistemas se comporten de manera beneficiosa para el público. Al crear sistemas de IA, las organizaciones también deben considerar las implicaciones éticas y morales para asegurarse de que la IA se crea con buenas intenciones. Los formuladores de políticas que quieran comprender y aprovechar el potencial y el impacto de la IA deben adoptar una visión holística de los problemas. Esto incluye cosas como las intenciones detrás de los sistemas de IA, así como las posibles consecuencias y acciones no deseadas de los sistemas de IA. Este puede ser especialmente el caso de las aplicaciones mili

Software inteligente en tiempos de pandemia: aplicaciones de rastreo de contactos. ¿Tienen Google y Apple la clave de la información personal de los ciudadanos?

 La banca Morgan fue uno de los detonantes de la ley de monopolios en Estados Unidos, que destacó que una entidad privada podía tener más poder que el propio Estado. Entonces otros como Microsoft sufrirían, con una dureza impresionante en su aplicación. Nada nuevo, si pensamos que en el siglo XIV ya pasó con la Orden del Temple. Y ahora, ¿volvemos a cometer el mismo error? Dos gigantes privados (Google y Apple) en abril comenzaron a correr como los únicos líderes tecnológicos para rastrear la pandemia (rastreadores autónomos). Y el resultado, entre otros, es el denominado Covid Radar en España. Más bien, es simplemente una API que aprovecha el poder de los servicios en la nube de los gigantes tecnológicos. Muy similares a los creados por otros países europeos (Alemania, Suiza, Italia, etc). ¿Estamos en buenas manos? ¿Saben los políticos a quién o qué se les confía? Las dudas son muy, muy razonables. https://futurium.ec.europa.eu/en/european-ai-alliance/open-discussion/intelligent-softw

Por supuesto que la tecnología perpetúa el racismo. Fue diseñada así

 A menudo recurrimos a la tecnología para ayudar a resolver problemas. Pero cuando la sociedad define, enmarca y representa a las personas de color como "el problema", esas soluciones suelen hacer más daño que bien. Hemos diseñado tecnologías de reconocimiento facial que se dirigen a los sospechosos de delitos en función del color de la piel. Hemos capacitado sistemas automatizados de elaboración de perfiles de riesgo que identifican de manera desproporcionada a los latinos como inmigrantes ilegales. Hemos diseñado algoritmos de calificación crediticia que identifican de manera desproporcionada a las personas negras como riesgos y les impiden comprar casas, obtener préstamos o encontrar trabajo. Entonces, la pregunta que tenemos que enfrentar es si continuaremos diseñando e implementando herramientas que sirvan a los intereses del racismo y la supremacía blanca. Por supuesto, no es una pregunta nueva en absoluto. https://www.technologyreview.com/2020/06/03/1002589/technology-

Ni tecnología ni cerebro: mitos y malentendidos sobre la inteligencia artificial

  El uso de términos difíciles de concretar y el exceso de entusiasmo han alimentado falsas concepciones sobre el funcionamiento y capacidad de estos sistemas https://retina.elpais.com/retina/2020/08/20/tendencias/1597921218_374623.html Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Puntos de decisión en la gobernanza de la IA: tres estudios de caso exploran los esfuerzos para poner en práctica los principios de la IA

 “Se ha vuelto difícil para las partes interesadas de la IA ignorar los muchos principios y estrategias de IA existentes”, escribió Cussins Newman. “Incluso se puede esperar o exigir que las empresas y organizaciones que no han definido sus propios principios se adhieran a los adoptados por los gobiernos. Esta creciente "universalidad" conducirá a una mayor presión para establecer métodos que garanticen que los principios y estrategias de la IA se cumplan. . . Es probable que los primeros esfuerzos, los que llenan los vacíos de gobernanza para establecer nuevos estándares y mejores prácticas, sean especialmente influyentes ". Entre los otros hallazgos notables detallados en el informe: Las grandes empresas multinacionales tienen un impacto enorme en las tendencias en el desarrollo y la implementación de la inteligencia artificial, pero no han adoptado universalmente nuevas prácticas o comités de supervisión para ayudar a garantizar que sus tecnologías sean beneficiosas.

Compitiendo en la era de la IA

 La era de la IA está marcando el comienzo de la aparición de este nuevo tipo de empresa. La cohorte de Ant Financial incluye gigantes como Google, Facebook, Alibaba y Tencent, y muchas empresas más pequeñas y de rápido crecimiento, desde Zebra Medical Vision y Wayfair hasta Indigo Ag y Ocado. Cada vez que usamos un servicio de una de esas empresas, sucede lo mismo notable: en lugar de depender de los procesos comerciales tradicionales operados por trabajadores, gerentes, ingenieros de procesos, supervisores o representantes de servicio al cliente, el valor que obtenemos proviene de algoritmos . El CEO de Microsoft, Satya Nadella, se refiere a la IA como el nuevo "tiempo de ejecución" de la empresa. Es cierto que los gerentes e ingenieros diseñan la IA y el software que hace que los algoritmos funcionen, pero después de eso, el sistema entrega valor por sí solo, a través de la automatización digital o aprovechando un ecosistema de proveedores fuera de la empresa. AI fija los

Algoritmos e igualdad: lecciones de la controversia de los niveles A

 Los jóvenes nos han enseñado que el uso de algoritmos y tecnología basada en datos debe funcionar para promover la igualdad, no socavarla. El gobierno debe responder a las lecciones del algoritmo de clasificación Ofqual y mejorar la responsabilidad por los daños colectivos para reconstruir la confianza pública en la tecnología. También es hora de pensar en una nueva protección para los desfavorecidos por su origen socioeconómico, escribe Anna Thomas, cofundadora y directora del Instituto para el Futuro del Trabajo. La tecnología es tan buena como los humanos la desarrollen, apliquen y gobiernen; y los valores humanos que sustentan estas actividades. El sistema de estandarización algorítmica de Ofqual no tenía poderes misteriosos: era un sistema socio-técnico. Los seres humanos decidieron implementar el algoritmo y determinar su cometido y propósito. Los humanos diseñaron el algoritmo (Ofqual o más probablemente un contratista especializado); los humanos seleccionaron los puntos de dat

Mantener la puerta cerrada en sus dispositivos de IoT: vulnerabilidades encontradas en Alexa de Amazon

 Un asistente virtual inteligente (IVA) o asistente personal inteligente (IPA) es un agente de software que puede realizar tareas o servicios para una persona en función de comandos o preguntas. Amazon Alexa, comúnmente conocida como "Alexa" es un asistente virtual basado en inteligencia artificial desarrollado por Amazon, capaz de interacción de voz, reproducción de música, configuración de alarmas y otras tareas, incluido el control de dispositivos inteligentes como parte de un sistema de automatización del hogar. Los usuarios pueden ampliar las capacidades de Alexa mediante la instalación de "habilidades", una funcionalidad adicional desarrollada por proveedores externos que pueden considerarse aplicaciones, como programas meteorológicos y funciones de audio. Dado que los asistentes virtuales hoy en día sirven como puntos de entrada a los electrodomésticos y controladores de dispositivos de las personas, asegurar estos puntos se ha vuelto fundamental, siendo la m

Introducción a la ética en robótica e inteligencia artificial

 Este libro ofrece una introducción a la ética de los robots y la inteligencia artificial. El libro fue escrito pensando en estudiantes universitarios, políticos y profesionales, pero debería ser accesible para la mayoría de los adultos. El libro está destinado a proporcionar puntos de vista equilibrados y, en ocasiones, contradictorios sobre los beneficios y los déficits de la IA a través de la lente de la ética. Como se analiza en los capítulos siguientes, las cuestiones éticas a menudo no se cortan y secan. Las naciones, las comunidades y las personas pueden tener perspectivas únicas e importantes sobre estos temas que deben ser escuchadas y consideradas. Si bien las voces que componen este libro son las nuestras, hemos intentado representar las opiniones de las comunidades más amplias de IA, robótica y ética. https://link.springer.com/content/pdf/10.1007%2F978-3-030-51110-4.pdf Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actua

El término "IA ética" finalmente comienza a significar algo

 Fantástico resumen de las tres olas de la ética de la IA. Entre 2016 y 2019, se publicaron 74 conjuntos de principios éticos o pautas para la IA. Esta fue la primera ola de IA ética, en la que recién habíamos comenzado a comprender los riesgos y amenazas potenciales del aprendizaje automático y las capacidades de IA que avanzaban rápidamente, y estábamos buscando formas de contenerlos. Esta primera ola del movimiento se centró en la ética sobre la ley, descuidó las cuestiones relacionadas con la injusticia sistémica y el control de las infraestructuras, y no estaba dispuesto a abordar lo que Michael Veale, profesor de Regulación y Derechos Digitales en el University College de Londres, llama “la cuestión del problema encuadre ”: los primeros debates éticos sobre la IA generalmente daban por sentado que la IA sería útil para resolver problemas. Estas deficiencias dejaron al movimiento abierto a la crítica de que había sido cooptado por las grandes empresas tecnológicas como un medio pa

La tecnología no puede arreglar la injusticia algorítmica

Gran parte del debate público reciente sobre la inteligencia artificial ha sido impulsado por visiones apocalípticas del futuro. La humanidad, se nos dice, está comprometida en una lucha existencial contra su propia creación. Estas preocupaciones son alimentadas en gran parte por los líderes de la industria tecnológica y los futuristas, que anticipan sistemas tan sofisticados que pueden realizar tareas generales y operar de forma autónoma, sin control humano. Stephen Hawking, Elon Musk y Bill Gates han expresado públicamente sus preocupaciones sobre el advenimiento de este tipo de IA “fuerte” (o “general”) y el riesgo existencial asociado que puede representar para la humanidad. En palabras de Hawking, el desarrollo de una IA fuerte "podría significar el fin de la raza humana". Estas son preocupaciones legítimas a largo plazo. Pero no son de lo único que tenemos que preocuparnos, y colocarlos en el centro del escenario distrae la atención de las cuestiones éticas que la IA pl

Un enfoque normativo de la agencia moral artificial

 Este artículo propone una redirección del debate filosófico sobre los "agentes morales artificiales" (AMA) (Allen et al. 2000), es decir, la noción de entidades artificiales, como computadoras y robots, siendo capaz de hacer el mal  y posiblemente ser considerado responsable  por tal fechoría.  Proponemos que este debate debería reorientarse para llevarse a cabo de forma más directa. normativo  términos, centrándose en la cuestión de en qué medida las entidades arti fi ciales debería  Estar involucrado en diversas prácticas que normalmente asumen una mayor agencia, como la atribución de responsabilidad. El argumento de esta propuesta se basa en una revisión de la literatura de la AMA, que se ha centrado principalmente en cuestiones de filosofía de la mente y la acción, metafísica y epistemología. Argumentamos que la forma de este debate no informa la toma de decisiones prácticas sobre la participación de entidades arti fi ciales en prácticas que asumen agencia moral. Proporcio

Fuentes de sesgo no intencionado en los datos de entrenamiento

Este artículo explica con ejemplos distintas formas de discriminación según se consideren unos grupos u otros, así pues, sugiere crear datasets sintéticos para entrenar modelos. https://towardsdatascience.com/sources-of-unintended-bias-in-training-data-be5b7f3347d0 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La policía británica probará un sistema de reconocimiento facial que detecta tu estado de ánimo

 Una fuerza policial británica está preparada para probar un sistema de reconocimiento facial que infiere los estados de ánimo de las personas mediante el análisis de imágenes de CCTV. La policía de Lincolnshire podrá usar el sistema para buscar en la película ciertos estados de ánimo y expresiones faciales, informa el London Times. También permitirá a la policía encontrar personas con sombreros y anteojos, o que lleven bolsas y paraguas. La fuerza obtuvo fondos del Ministerio del Interior para probar la herramienta en la ciudad comercial de Gainsborough, pero las preocupaciones éticas han retrasado el lanzamiento del piloto. Un portavoz de la policía le dijo al Times que todas las imágenes se eliminarán después de 31 días. La fuerza también llevará a cabo una evaluación de los derechos humanos y la privacidad antes de que el juicio reciba luz verde. https://thenextweb.com/neural/2020/08/17/british-police-to-trial-facial-recognition-system-that-detects-your-mood/ Editado por Aniceto Pé

¿Debería ser el objetivo una mayor confianza pública en los sistemas basados en datos?

 A menudo se asume que la confianza es una emoción positiva. El sociólogo de la confianza Piotr Sztompka sostiene [13] que la confianza es una orientación hacia el futuro, que nos permite actuar. Al escribir sobre la confianza como una estrategia para lidiar con las ansiedades por los datos, Sarah Pink y sus colegas coinciden, [14] argumentando que la confianza en los datos es un sentimiento que permite a las personas seguir adelante y tomar medidas. Sin embargo, asumir que la confianza es positiva y, por lo tanto, deseable puede deslegitimar la desconfianza "moralmente adecuada" de algunos grupos y afianzar aún más las desigualdades que muchos de nosotros desearíamos desafiar. Ver la confianza como un privilegio del que disfrutan los grupos mayoritarios puede ayudarnos a resistir la tentación de creer que nuestra meta debe ser más confianza. https://www.adalovelaceinstitute.org/should-more-public-trust-in-data-driven-systems-be-the-goal/ Editado por Aniceto Pérez y Madrid, E

Democratización de la IA

 Cuando los líderes de la empresa hablan de democratizar la inteligencia artificial (IA), no es difícil imaginar lo que tienen en mente. Cuantas más personas tengan acceso a las materias primas de conocimiento, herramientas y datos necesarios para construir un sistema de inteligencia artificial, más innovaciones seguramente surgirán. Mejora la eficiencia y aumenta el compromiso. ¿Frente a la escasez de talento técnico? Microsoft, Amazon y Google han lanzado herramientas de IA prefabricadas, de arrastrar y soltar o sin código que permiten a las personas integrar la IA en aplicaciones sin necesidad de saber cómo construir modelos de aprendizaje automático. Pero a medida que las empresas avanzan hacia la democratización, surge una advertencia. Incluso los sistemas de IA más sofisticados, diseñados por ingenieros altamente calificados, pueden ser víctimas de prejuicios, problemas de explicabilidad y otras fallas. Un sistema de inteligencia artificial construido por alguien sin la formación

Aristóteles y el chatbot: cómo las antiguas reglas de la lógica podrían hacer que la inteligencia artificial sea más humana

 Desde el siglo XX, el campo de la lógica se ha alejado del enfoque de Aristóteles hacia sistemas que utilizan la lógica de predicados y proposicionales. Este tipo de lógica ha sido desarrollado por matemáticos para aplicaciones matemáticas; de ahí que se denominen lógicas matemáticas. Se requiere que su razonamiento sea infalible. El razonamiento humano, por otro lado, no siempre es infalible. Razonamos principalmente a través de la deducción, la inducción y la abducción. Puede pensar en la deducción como el uso de reglas generalizadas para razonar sobre un ejemplo específico, mientras que la inducción y la abducción implican mirar una colección de ejemplos y tratar de elaborar las reglas que los explican. Si bien la deducción tiende a ser más precisa, la inducción y la abducción son menos confiables. Estos son procesos complejos que no se programan fácilmente en máquinas. Podría decirse que la inducción y la abducción son lo que separa la inteligencia humana, que es vasta y general,

De proteger a realizar privacidad

 La privacidad es cada vez más importante en una era de tecnologías de reconocimiento facial, recopilación masiva de datos y toma de decisiones algorítmicas. Sin embargo, persiste como un término controvertido, una paradoja del comportamiento y, a menudo, falla a los usuarios en la práctica. Este artículo critica los métodos actuales de pensar la privacidad en términos proteccionistas, basándose en la concepción de Deleuze de la sociedad de control, a través de su problemática relación con la libertad, la propiedad y el poder. En cambio, se proporciona un nuevo modo de entender la privacidad en términos de performatividad, basándose en Butler y Sedgwick, así como en Cohen y Nissenbaum. Esta nueva forma de privacidad se basa en la identidad, el consentimiento y la acción colectiva, un proceso a realizar de forma individual y conjunta para crear nuevas estructuras que inculquen el respeto en el corazón de nuestros sistemas sociotécnicos. https://digitalcommons.odu.edu/sociotechnicalcriti

Se acerca más vigilancia. ¿Por qué eso podría no ser algo malo?

 P: La vigilancia podría ser una de las cosas que nos salve, pero con el tiempo, los ciudadanos estadounidenses han visto la vigilancia gubernamental como algo malo. ¿Cómo está evolucionando nuestra relación con la vigilancia? R: Creo que es una pregunta muy importante y de la que tratamos en "Minority Report". Claramente era una sociedad de vigilancia. Lo que nos equivocamos fue que no era Washington, D.C., era Beijing hoy. ... Creo que es un gran problema, pero también creo que la verdad es que, por razones de seguridad, por razones de conveniencia y ahora por razones de salud, aceptaremos gradualmente una vigilancia mucho, mucho mayor. Y al final no nos molestará demasiado porque, de hecho, para la mayoría de las personas en la mayoría de las situaciones, será más beneficioso que perjudicial. Habrá ocasiones en las que se abuse de ella, cuando se roben datos, cuando la gente resulte perjudicada. Pero para el 99% de las personas, el 99% del tiempo, significará que no tuvo q

El Servicio Secreto compra datos de ubicación que de otro modo necesitarían una orden judicial

 El Servicio Secreto pagó alrededor de $ 2 millones en 2017-2018 a una firma llamada Babel Street para usar su servicio Locate X, según un documento (PDF) obtenido por Vice Motherboard. El contrato describe qué tipo de contenido, capacitación y atención al cliente debe proporcionar Babel Street al Servicio Secreto. Locate X proporciona datos de ubicación recopilados y recopilados de una amplia variedad de otras aplicaciones, informó el sitio de tecnología Protocol a principios de este año. Los usuarios pueden "dibujar una valla digital alrededor de una dirección o área, identificar los dispositivos móviles que estaban dentro de esa área y ver a dónde más han viajado esos dispositivos" en los últimos meses, explicó Protocol. Las agencias dependientes del Departamento de Seguridad Nacional, incluidas el Servicio de Inmigración y Control de Aduanas (ICE) y Aduanas y Protección Fronteriza (CBP), han comprado acceso a la actividad de ubicación de teléfonos celulares para investiga

El Escándalo de las escuelas

 Sin embargo, sin excepción, eso es precisamente lo que hicieron las cuatro naciones del Reino Unido, con una fe ciega en el poder de los datos y la tecnología. Todos los partidos que gobiernan en el Reino Unido (los conservadores, los laboristas, el SNP, el DUP, el Sinn Féin e incluso los demócratas liberales (que están al frente del Ministerio de Educación de Gales)) son culpables. A nadie, en ningún lugar, le pareció que se le ocurriera cuáles podrían ser las obvias debilidades deterministas de este sistema; que incluso si un conjunto de algoritmos pudiera predecir con certeza cómo podría funcionar un individuo, entonces, por razones políticas y, sí, moral, probablemente no debería hacerlo. Para los profesores, lejos de ser una aberración, fue la apoteosis de cómo el Departamento de Educación (DfE) y los políticos habían entendido la escolarización durante una década, una década de política educativa en inglés en la que Cummings había sido un actor central como asesor de Michael Gov

La Ética es más importante que la tecnología

 La reciente aparición de GPT-3 [1] y otras nuevas y potentes tecnologías de inteligencia artificial han vuelto a plantear la cuestión del papel de la ética en la tecnología. En este artículo sostengo que no hay duda de que, en lugar de que la tecnología tenga algún tipo de prioridad, la ética es siempre la medida de la tecnología. Toda tecnología debe evaluarse para ver si beneficia o perjudica a la sociedad, y los propios tecnólogos son los primeros que deben aplicar esta evaluación. Si los tecnólogos rechazan esta tarea, los reguladores externos deben hacer este trabajo por ellos. https://www.scu.edu/ethics/all-about-ethics/ethics-is-more-important-than-technology/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Demasiados investigadores creen que los problemas del mundo real no son relevantes

 Cualquier investigador que se centre en aplicar el aprendizaje automático a problemas del mundo real probablemente haya recibido una respuesta como esta: “Los autores presentan una solución para un problema original y muy motivador, pero es una aplicación y la importancia parece limitada para la máquina. comunidad de aprendizaje." Estas palabras provienen directamente de una revisión que recibí de un artículo que presenté a la conferencia NeurIPS (Sistemas de procesamiento de información neuronal), un lugar destacado para la investigación del aprendizaje automático. He visto el estribillo una y otra vez en reseñas de artículos en los que mis coautores y yo presentamos un método motivado por una aplicación, y he escuchado historias similares de muchos otros. Esto me hace preguntarme: si la comunidad siente que el objetivo de resolver problemas del mundo real de alto impacto con el aprendizaje automático tiene una importancia limitada, ¿qué estamos tratando de lograr? Marginar la i

La amenaza de la automatización es una profecía autocumplida

 A medida que las máquinas hicieron que ciertas tareas fueran más eficientes, aumentando la producción general, la demanda se desplazó hacia las tareas complementarias que no podían automatizarse. A medida que avanza la tecnología, se puede automatizar cada vez más el trabajo, hasta un punto nunca antes soñado, y el patrón de demanda laboral que se desplaza hacia tareas complementarias que requieren habilidad humana y más adaptabilidad se ha mantenido. Pero algunos argumentan que los avances en inteligencia artificial ahora pueden o pronto podrán automatizar tareas más allá de esta restricción. Esta promesa de la IA ha existido desde el inicio del campo en la década de 1950. El pionero de la IA, Marvin Minsky, declaró en 1961 que “[dentro] de nuestra vida, las máquinas pueden superarnos en inteligencia general”. Sus colegas hicieron declaraciones similares. Los primeros fracasos en la investigación de la IA pueden haber advertido a los investigadores sobre el método, pero nunca la ambi

¿Qué puede aprender América de Europa sobre regular las Big Techs?

Marietje Schaake y Eric Schmidt El discurso de Schaake fue un giro cerrado en el espacio retórico. Donde Eric Schmidt enfatizó el futuro, Schaake enfatizó el presente; donde Schmidt se centró en lo privado y lo tecnológico, Schaake puso en primer plano lo público y lo político. "Voy a hablar sobre gobernanza", comenzó, antes de comenzar una crítica contundente de la extrema aversión de las grandes tecnologías a la regulación, su recopilación descontrolada de datos personales y su constante erosión de la democracia. Mencionó las declaraciones éticas que suelen generar los comités y conferencias como la que se dirigía. "Es un tema muy popular", dijo, refiriéndose a A.I. ética. “También es difícil estar en contra de la ética. . . . ¿Cómo nos aseguramos de que sea significativo y ejecutable, y no solo una fachada? " Schaake procedió a responder su propia pregunta con una larga lista de deseos. "AI. el desarrollo debe promover la equidad y la justicia, proteger

Virtudes, no principios

 El fracaso del progreso en la IA responsable se debe a un enfoque equivocado que prioriza los buenos resultados sobre el buen comportamiento. Es indiscutible decir que el sesgo es malo y que la privacidad es buena, pero lo que esto significa en la práctica es más polémico. Al intentar simplificar el trabajo de lograr buenos resultados a “marcos” o “principios”, el trabajo que se realiza en el campo corre el riesgo de dar pocos frutos. Nuestra comprensión de cómo los sistemas de IA pueden conducir a resultados sociales problemáticos es inherentemente reactiva, ya que respondemos a problemas que pueden documentarse. El objetivo de la IA responsable, sin embargo, es ser proactivo al anticipar los daños potenciales y mitigar su impacto. Las listas de verificación sobre lo que se debe hacer nunca pueden alcanzar la gama completa de riesgos potenciales que la IA responsable busca abordar y, como resultado, son inherentemente limitadas. La preocupación proactiva por los resultados socialment

Productividad y privacidad: el caso contra las herramientas de seguimiento de empleados remotos

 En los Estados Unidos, la pandemia ha llevado a muchos de nosotros, los afortunados, a trabajar desde casa; es probable que esto continúe durante algún tiempo. En medio de esta nueva realidad, y en nombre de mantener la productividad, muchas empresas están implementando herramientas para rastrear los hábitos en línea de sus empleados remotos: el jefe de investigación de la práctica de recursos humanos de Gartner fue citado recientemente diciendo que anticipa que el 80% de las grandes empresas utilizarán dicho software antes de fin de año. Sin embargo, la implementación indiscriminada de herramientas de seguimiento crearía una cultura de trabajo de vigilancia que probablemente causaría un daño significativo y, al mismo tiempo, no generaría los resultados que esperan los líderes empresariales. Los CIO están en la mejor posición para presentar este argumento, señalando los riesgos que esas herramientas representan para los empleados individuales, las empresas y las comunidades en las que

'No culpe a un algoritmo, culpe a las personas detrás de él'

 Los resultados del algoritmo de calificación de exámenes son preocupantes y profundamente perjudiciales para aquellos cuyas calificaciones se han degradado, la mayoría de los cuales provienen de entornos desfavorecidos. Ninguna persona razonable y racional podría dejar de simpatizar completamente con la desesperación palpable y la injusticia que sienten los jóvenes, sus padres y maestros. Entonces, ¿qué salió mal? La palabra "algoritmo" se ha convertido en el villano misterioso y sin rostro que llena el debate y la discusión sobre los resultados de GCSE y A-level de este año. Pero, ¿qué es y cómo podemos entender su papel en este fiasco? Dejemos una cosa clara desde el principio. Los algoritmos no son peligrosos en sí mismos. Son las personas que tomaron las decisiones sobre qué algoritmos aplicar, qué datos usar y exactamente cómo combinar los datos y el algoritmo quienes son el problema, no el algoritmo en sí. El uso particular de este algoritmo de calificación de exámenes

Reconsiderando la madurez de la inteligencia artificial en entornos críticos para la seguridad

 Si bien la inteligencia artificial (IA) ha sido recientemente promocionada como muy exitosa en varios dominios, incluidos el transporte, las aplicaciones médicas y los asistentes personales digitales, la realidad Es posible que estos sistemas no sean tan capaces como se imaginaba. conciencia. Si bien la IA puede aparecer en muchas aplicaciones diarias, desde compras hasta administración de domótica, es la aplicación de IA en sistemas críticos para la seguridad como transporte y medicina eso es lo más preocupante ya que literalmente el uso incorrecto de la IA puede tener consecuencias mortales. Por ejemplo, en entornos de transporte, está bien establecido que la IA es incapaz de hacer frente con poses inesperadas de objetos conocidos, por ejemplo, una motocicleta tirada en el suelo después de una El accidente puede no verse como una motocicleta (Alcorn et al.2018). Problemas con la computadora automotriz La visión se han citado como factores contribuyentes en muchos accidentes fatales

El Departamento de Policía de Nueva York utilizó tecnología de reconocimiento facial en el asedio del apartamento del activista Black Lives Matter

La Sección de Identificación Facial del departamento utiliza software de reconocimiento facial para identificar posibles sospechosos en miles de casos cada año. El software se basa en una enorme base de datos interna de fotografías policiales para generar posibles coincidencias, que luego son analizadas por los investigadores para verificar su confiabilidad, según el departamento. Los defensores de las libertades civiles han criticado anteriormente el programa por utilizar imágenes de menores y su falta de supervisión externa. Después de que una investigación de BuzzFeed revelara que la policía de Nueva York era un usuario frecuente de Clearview, una controvertida firma de reconocimiento facial que recopila fotos de estadounidenses sin su consentimiento, el departamento de policía publicó su primer conjunto de pautas públicas sobre el uso de la tecnología. Las regulaciones internas no son vinculantes y actualmente no existe una ley municipal que rija el uso de la tecnología de vigilanc

La ética de los algoritmos: problemas clave y soluciones

 La investigación sobre la ética de los algoritmos ha crecido sustancialmente durante la última década. Junto al desarrollo exponencial y la aplicación de algoritmos de aprendizaje automático, se han propuesto nuevos problemas éticos y soluciones relacionadas con su uso ubicuo en la sociedad. Este artículo se basa en una revisión de la ética de los algoritmos publicada en 2016 (Mittelstadt et al. 2016). Los objetivos deben contribuir al debate sobre la identificación y el análisis de las implicaciones éticas de los algoritmos, proporcionar un análisis actualizado de las preocupaciones epistémicas y normativas, y ofrecer una guía práctica para la gobernanza del diseño, desarrollo y despliegue de algoritmos. https://www.academia.edu/43793187/The_Ethics_of_Algorithms_Key_Problems_and_Solutions?email_work_card=title Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incl

La investigación revela un sesgo de género inherente a la IA Cuantificar la precisión del reconocimiento visual / facial en la identificación de máscaras de EPP

 Estudio de la precisión en la identificación facial al usar máscaras con cinta adhesiva. Los resultados muestran sesgos de género https://www.wundermanthompson.com/insight/ai-and-gender-bias Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

¿Confianza en una crisis? Generar confianza pública en una aplicación de rastreo de contactos

Los cuatro fuertes consejos de este mini público sobre cómo construir tecnologías COVID-19 con legitimidad siguen siendo pertinentes para las preocupaciones actuales. Proporcionar al público una base de pruebas transparente. Falta de transparencia particularmente la información limitada sobre el primer juicio de la Isla de Wight, generó sospecha y desconfianza. Al público le gustaría verlo claro y accesible evidencia sobre si las tecnologías son efectivas y bajo qué condiciones. La gente quiere tener confianza en que se salvarán vidas y espera información fácilmente accesible sobre aspectos como el contexto de la salud en evolución o relaciones con proveedores comerciales Ofrezca evaluación y revisión independientes de la tecnología. los La cuestión de quién está emitiendo juicios es importante para el público, y la confianza en los tomadores de decisiones puede ser frágil. La confianza se puede fortalecer con la inclusión de revisores, evaluadores y evaluadores independientes para dar

¿Es la ley computable?

¿Qué significa el derecho computable para la autonomía, autoridad y legitimidad del sistema legal? ¿Estamos asistiendo a un cambio del Estado de derecho a un nuevo Estado tecnológico? ¿Deberíamos incluso construir estas cosas en primer lugar? Este volumen único recopila artículos originales de un grupo de destacados académicos internacionales para abordar algunas de las fascinantes cuestiones planteadas por la invasión de la inteligencia artificial (IA) en más aspectos del proceso legal, la administración y la cultura. Al sopesar los beneficios a corto plazo con las implicaciones a largo plazo, y potencialmente dependientes de la ruta, de reemplazar la autoridad legal humana con sistemas computacionales, este volumen hace retroceder los relatos menos críticos de la IA en la ley y el entusiasmo de los académicos, los gobiernos y LegalTech. desarrolladores, para pasar por alto las ramificaciones más fundamentales, y quizás "más amplias", de la ley computable. https://papers.ssr

Inteligencia artificial, atribución de responsabilidad y justificación relacional de la explicabilidad

 Este artículo analiza el problema de la atribución de responsabilidades que plantea el uso de tecnologías de inteligencia artificial (IA). Se supone que solo los humanos pueden ser agentes responsables; sin embargo, esto por sí solo ya suscita muchas cuestiones, que se discuten a partir de dos condiciones aristotélicas de la responsabilidad. Junto al conocido problema de muchas manos, se identifica el tema de “muchas cosas” y se enfatiza la dimensión temporal cuando se trata de la condición de control. Se presta especial atención a la condición epistémica, que llama la atención sobre los temas de transparencia y explicabilidad. Sin embargo, a diferencia de las discusiones estándar, se argumenta luego que este problema de conocimiento sobre los agentes de responsabilidad está vinculado al otro lado de la relación de responsabilidad: los destinatarios o “pacientes” de responsabilidad, quienes pueden exigir razones de las acciones y decisiones tomadas por usando IA. Inspirada por un enfo

Responsabilidad algorítmica

 Existe una enorme oportunidad para un impacto social positivo a partir del auge de los algoritmos y el aprendizaje automático. Pero esto requiere una licencia para operar del público, basada en la confiabilidad. Existe una serie de preocupaciones relacionadas con la forma en que los algoritmos podrían rendir cuentas en áreas que afectan a la esfera pública. Este documento describe una serie de enfoques que incluyen una mayor transparencia, el seguimiento de los resultados y una mejor gobernanza. Defiende que los organismos del sector público que poseen conjuntos de datos deberían tener más confianza al negociar los términos con el sector privado. También argumenta que todos los reguladores (no solo los reguladores de datos) deben tomar conciencia de los desafíos que plantea el cambio de tecnología. Otras mejoras incluyen la diversidad de la fuerza laboral, capacitación en ética, códigos de conducta para científicos de datos y nuevos cuerpos deliberativos. Incluso si se resuelven estos

La lucha por la soberanía digital: qué es y por qué es importante, especialmente para la UE

La soberanía digital parece ser algo muy importante, dada la popularidad del tema en estos días. Cierto. Pero también suena como un problema técnico, que solo concierne a los especialistas. Falso. La soberanía digital y la lucha por ella toca a todos, incluso a quienes no tienen un teléfono móvil o nunca han utilizado un servicio en línea. Para entender por qué, permítanme comenzar con cuatro episodios. Agregaré un quinto en breve. 18 de junio de 2020: el gobierno británico, después de no haber podido desarrollar una aplicación centralizada de coronavirus que no se basara en la API proporcionada por Google-Apple, abandonó todo el proyecto (Burgess2020) y aceptó comenzar. desarrollando una nueva aplicación en el futuro que sería totalmente compatible con la solución descentralizada apoyada por las dos empresas estadounidenses. Este cambio de sentido no fue el primero: Italia (Longo2020) y Alemania (Busvine y Rinke2020; Lomas2020) habían hecho lo mismo, solo que mucho antes. Tenga en cue