Entradas

Mostrando entradas de junio, 2020

Por qué la AGI nunca será posible

El proyecto moderno de crear inteligencia artificial (IA) similar a la humana comenzó después de la Segunda Guerra Mundial, cuando se descubrió que las computadoras electrónicas no son solo máquinas de cálculo de números, sino que también pueden manipular símbolos. Es posible perseguir este objetivo sin suponer que la inteligencia artificial es idéntica a la inteligencia humana. Esto se conoce como IA débil. Sin embargo, muchos investigadores de IA han perseguido el objetivo de desarrollar inteligencia artificial que en principio es idéntica a la inteligencia humana, llamada IA ​​fuerte. La IA débil es menos ambiciosa que la IA fuerte y, por lo tanto, menos controvertida. Sin embargo, también hay importantes controversias relacionadas con la IA débil. Este artículo se centra en la distinción entre inteligencia general artificial (AGI) e inteligencia estrecha artificial (ANI). Aunque AGI puede clasificarse como IA débil, está cerca de una IA fuerte porque una de las principales caracter

Tecnología Digital y Resurreción de la Confianza

Informe de una sesión de Cámara de los Lores que aborda los temas de  Ciudadanos informados Accountability Transparencia Debate inclusivo Elecciones libres y justas Ciudadanos digitales activos https://publications.parliament.uk/pa/ld5801/ldselect/lddemdigi/77/7702.htm Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Los retos del Reconocimiento Facial

Este artículo hace una breve lista de las implicaciones sociales, legales y políticas de esta tecnología. https://hai.stanford.edu/blog/challenges-facial-recognition-technologies Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

El traje nuevo de la inteligencia artificial

Interesante y aclaratorio artículo sobre cómo la "primavera" de la IA actual no es sino una mejora puntual. Cita la historia de Hans Christian Andersen del sastre y el rey desnudo. La IA actual no es más que un "traje nuevo", pero debajo está lo mismo de siempre. https://www.investigacionyciencia.es/revistas/investigacion-y-ciencia/una-nueva-era-para-el-alzhimer-803/el-traje-nuevo-de-la-inteligencia-artificial-18746 Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Estado de la Ética de la IA

Informe de Montreal AI Ethics, un conjunto de resúmenes de artículos ´recopilados sobre distintos aspectos. https://montrealethics.ai/wp-content/uploads/2020/06/State-of-AI-Ethics-June-2020-report.pdf Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Si la IA va a ayudarnos en las crisis, necesitamos otra ética

Con esta pandemia, nos encontramos de repente en una situación en la que la gente realmente habla sobre si la IA podría ser útil, si podría salvar vidas. Pero la crisis ha dejado en claro que no tenemos procedimientos éticos lo suficientemente sólidos como para que la IA se implemente de manera segura, y ciertamente no hay ninguno que pueda implementarse rápidamente. ¿Qué tiene de malo la ética que tenemos? Pasé los últimos años revisando las iniciativas de ética de IA, analizando sus limitaciones y preguntando qué más necesitamos. En comparación con algo como la ética biomédica, la ética que tenemos para la IA no es muy práctica. Se centra demasiado en los principios de alto nivel. Todos podemos estar de acuerdo en que la IA debe usarse para bien. Pero, ¿qué significa esto realmente? ¿Y qué sucede cuando los principios de alto nivel entran en conflicto? Por ejemplo, la IA tiene el potencial de salvar vidas, pero esto podría costar libertades civiles como la privacidad. ¿Cómo abordamos

Boston, segunda gran ciudad en prohibir el reconocimiento facial

"Tiene un sesgo racial obvio y eso es peligroso ", dijo Arroyo antes de la audiencia." Pero también tiene un efecto escalofriante en las libertades civiles. Y así, en un momento en el que estamos viendo tanta acción directa en forma de marchas y protestas por los derechos, cualquier tipo de tecnología de vigilancia que podría usarse para esencialmente enfriar la libertad de expresión o ... más o menos monitorear activismo o activistas es peligroso." https://www.wbur.org/news/2020/06/23/boston-facial-recognition-ban Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Buscando justicia algorítmica en la vigilancia de la IA

Los investigadores y defensores de la IA discuten la abolición de la tecnología de reconocimiento facial y por qué las reformas graduales no son suficientes. https://www.sciencefriday.com/articles/algorithmic-justice/ Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentario de Facebook al Libro Blanco de la UE para la IA

Sin comentarios https://ai.facebook.com/blog/collaborating-on-the-future-of-ai-governance-in-the-eu-and-around-the-world/ Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

El Feudalismo Digital

Conversación con el diplomático español Ramón Blecua: sobre el feudalismo digital https://medium.com/odiseia/conversamos-con-el-diplom%C3%A1tico-espa%C3%B1ol-ram%C3%B3n-blecua-feudalismo-digital-y-el-nuevo-inestable-orden-4fbba57317d5 Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Qué falló en la app de seguimiento de contactos del Reino Unido

Detallada descripción de lo que ha ocurrido con la app de seguimiento de contactos desde Marzo de 2020 hasta Junio de 2020 https://www.bbc.com/news/technology-53114251 Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Privacidad como Derecho Civil

Como el primer senador hispano nacido en Estados Unidos, el senador Dennis Chávez de Nuevo México dejó un rico legado de defensa de los derechos civiles y las libertades civiles. En esta conferencia, la cuarta conferencia del Senador estadounidense Dennis Chávez sobre Derecho y Derechos Civiles, exploro una idea en la intersección de esos dos cuerpos legales: el derecho a la privacidad. En 2020, el sello distintivo de la vigilancia es su ubicuidad; "Todos están vigilados". Desafortunadamente, este discurso borra el hecho de que, a lo largo de la historia de Estados Unidos, las cargas de la vigilancia del gobierno han recaído abrumadoramente sobre los hombros de inmigrantes, herejes, personas de color, pobres y cualquier otra persona considerada "otra". Inspirado por el legado de "El Senador", trazo esa historia desde los puritanos ingleses que ahora conocemos como peregrinos hasta los niños inmigrantes detenidos en la frontera sur de los Estados Unidos. Si

Responsabilidades en la Adopción de la IA

Conforme se adopta la IA surgen problemas como la responsabilidad cuandolas cosas van mal. Mientras se adopta la IA en la toma de decisiones automatizada, la toma de decisiones humana se desvanece. Desde la introducción de los vehículos autónomos el objetivo de los fabricantes ha sido que los vehículos autónomos sean más seguros que los conducidos por humanos. Existe mucha legislación para descargar en el asegurador, así como leyes civiles sobre la responsabilidad de los robots y la IA. El informe de Responsabilidad de la UE con la IA y otras tecnologías. Algunas de estas guías incluyen; Una persona que opera una tecnología permitida que, sin embargo, conlleva un mayor riesgo de daño a los demás, por ejemplo, robots impulsados ​​por IA en espacios públicos, debe estar sujeta a una responsabilidad estricta por los daños resultantes de su funcionamiento. En situaciones en las que un proveedor de servicios que garantiza el marco técnico necesario tiene un mayor grado de control que el pro

Derecho para informáticos y otras personas

Manual de Mireille Hildebrandt.  La primer parte trata sobre Derecho, Democracia, Ámbitos Privado, Público y Criminal, Derecho Internacional y Supranacional. La segunda parte va del dominio del ciberderecho: Privacidad y Protección de Datos, Cibercrímen, Copyright y cibercrimen Derecho Privado de Responsabilidad. La tercera se titula Fronteras delDerecho en un mundo online: personalidad legal de la IA, Legal por diseño o protección legal por diseño. Conclusión: acerca de la ética, código y derecho. https://lawforcomputerscientists.pubpub.org/ Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

El enfoque chino de la IA: un análisis de las poíticas.ética y regulación

En julio de 2017, el Consejo de Estado de China lanzó la estrategia del país para desarrollar inteligencia artificial (IA), titulada "Plan de desarrollo de inteligencia artificial de nueva generación" (新一代 人工智能 发展 规划). Esta estrategia describió los objetivos de China para convertirse en el líder mundial en IA para 2030, monetizar la IA en una industria de billones de yuanes (aproximadamente 150 mil millones de dólares) y emerger como la fuerza impulsora en la definición de normas y estándares éticos para la IA. Varios informes han analizado aspectos específicos de las políticas de inteligencia artificial de China o han evaluado las capacidades técnicas del país. En cambio, en este artículo, nos enfocamos en los antecedentes sociopolíticos y los debates de políticas que están dando forma a la estrategia de IA de China. En particular, analizamos las principales áreas estratégicas en las que China está invirtiendo en IA y los debates éticos concurrentes que delimitan su uso. Al

IA como Ley

Discurso presidencial a la decimoséptima conferencia internacional sobre inteligencia artificial y derecho. La tecnología de la información es tan omnipresente y el progreso de AI es tan inspirador que también los profesionales legales experimentan sus beneficios y tienen altas expectativas. Al mismo tiempo, los poderes de la IA han aumentado tanto que ya no es obvio que las aplicaciones de IA (ya sea en la ley o en otros lugares) ayuden a promover una buena sociedad; de hecho, a veces son perjudiciales. Por lo tanto, muchos argumentan que se necesitan salvaguardas para que la IA sea confiable, social, responsable, humana, ética. En resumen: la IA debería ser buena para nosotros. Pero, ¿cómo establecer salvaguardas adecuadas para la IA? Una respuesta sólida disponible es: considerar los problemas y las soluciones estudiadas en AI y Derecho. AI & Law ha trabajado en el diseño de IA social, explicable y responsable alineada con los valores humanos durante décadas, AI & Law aborda

Las fakes news pandémicas

¿Creería que el coronavirus fue desarrollado por un gobierno para debilitar a sus rivales extranjeros? ¿O que los "patriotas" lo crearon para fomentar una revolución contra el "gran gobierno" y el "estado profundo"? Lamentablemente, demasiadas personas que se han encontrado con esta desinformación en línea la han compartido con sus amigos y familiares. No obstante, estamos aprendiendo más sobre quién produce noticias falsas sobre pandemias y cómo detener su circulación. Además de los trabajadores de la salud que arriesgan sus propias vidas y los científicos que trabajan en tratamientos y una vacuna, otra rama de la respuesta COVID-19 también merece reconocimiento. En los últimos años, los verificadores de hechos del mundo han desarrollado una capacidad para detectar y etiquetar las mentiras que circulan en la esfera pública. Ahora, han centrado su atención en las noticias basura sobre la crisis de COVID-19, ayudando a las plataformas de redes sociales a mo

Rendición de Cuentas Algorítmica: una Introducción

La rendición de cuentas algorítmica es el proceso de asignar responsabilidad por daños cuando algorítmico la toma de decisiones da como resultado resultados discriminatorios e inequitativos. https://datasociety.net/wp-content/uploads/2019/09/DandS_Algorithmic_Accountability.pdf Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Tras el COVID-19 ¿Viviremos en un mundo Gran Hermano?

Interesante artículo obre la pendiente resbaladiza de la vigilancia. https://www.cigionline.org/articles/after-covid-19-will-we-live-big-brother-world Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Carly Kind: acerca de las apps de seguimiento de contactos

Conversación con Carly Kind de Ada Lovelace https://www.cigionline.org/big-tech/carly-kind-contact-tracing-apps Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

17 Conclusiones clave del informe sobre el Libro Blanco UE

La Inteligencia Artificial tiene el potencial de lograr avances importantes en varias áreas, pero sus aplicaciones crecientes plantean preguntas complejas y provocan amplias preocupaciones en toda la sociedad. En los últimos años, las organizaciones internacionales y los gobiernos de todo el mundo han enfatizado la necesidad de abordar tanto las oportunidades como los desafíos sociales que plantea la IA. ¿Cómo podemos garantizar que la IA se diseñe y use de manera responsable? ¿Cómo establecemos reglas éticas y legales para proteger a las personas, evitar sesgos y ayudar a establecer esquemas de responsabilidad justos y adecuados? La misión principal de la Cátedra de Regulación AI es investigar cómo la regulación puede apoyar la innovación sostenible y ética. En este contexto, preparamos una presentación detallada para la consulta iniciada por la Comisión Europea tras la publicación, en febrero de 2020, de su Libro Blanco sobre Inteligencia Artificial: un enfoque europeo hacia la excel

¿Quién es responsable cuando los sistemas autónomos fallan?

A medida que los sistemas de inteligencia artificial (IA) más autónomos operan en nuestro mundo, la necesidad de abordar los problemas de responsabilidad y rendición de cuentas se ha vuelto claros. Sin embargo, si el resultado del accidente de conducción autónoma de Uber es un presagio de lo que se avecina, hay motivo de preocupación. ¿Es una asignación de responsabilidad apropiada solo para Rafaela Vásquez -y no Uber, el actor que desarrolló y desplegó la tecnología, ni el estado de Arizona, que permitió que las pruebas se llevaran a cabo en primer lugar- sean responsables? "La ironía de la automatización": en la práctica, la automatización no elimina el error humano, sino que crea oportunidades para nuevos tipos de error. https://www.cigionline.org/articles/who-responsible-when-autonomous-systems-fail Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Los Gobiernos siguen sin ponerse serios sobre el riesgo para los derechos humanos con la IA

Sin embargo, un nuevo análisis revela que casi ninguna de estas declaraciones ofrece más que un gesto cortés a los derechos humanos, a pesar de que la inteligencia artificial tiene un gran impacto potencial en la privacidad, las libertades civiles, la discriminación racial y la igualdad de protección ante la ley. "Mi punto focal es sobre los derechos políticos civiles y, en ese sentido, el derecho fundamental que está en riesgo por la IA es la privacidad", dice Donahoe. “Los sistemas de IA están construidos y alimentados con datos. Si todo lo que dices y haces es rastreado y monitoreado, eso tendrá un efecto escalofriante en lo que te sientes libre de decir, a dónde te sientes libre de ir y con quién te sientes libre de reunirte. Si eres un disidente, afectará tu capacidad de criticar al gobierno. Y ese es el objetivo de la vigilancia masiva de un gobierno autoritario: que la gente se autorregule y se autocensure. La pérdida de privacidad conlleva directamente riesgos para la

Peligros de las soluciones tecnológicas para el COVID-19

El artículo identifica varios incidentes con distintas apps. 1. La deferencia a las soluciones del sector privado permite a las empresas tecnológicas identificar y definir los valores en juego. 2. La deferencia a las soluciones del sector privado puede ignorar o exacerbar los patrones preexistentes de inequidad. 3. La deferencia a las soluciones del sector privado ignora el papel de la tecnología en impulsar la polarización pública y amplificar la desinformación y desinformación que socavan los esfuerzos de salud pública. https://www.brookings.edu/techstream/the-dangers-of-tech-driven-solutions-to-covid-19/ Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Complejidad

¿Qué hacer si los sistemas complejos son 'problemas que son dinámicos, impredecibles y multidimensionales)?¿Qué si esos sistemas -como defienden algunos- no pueden ser modelos comprimidos/reducidos (a menos que el modelo sea tan comlejo)? ¿Podemos prededir lo impredecible? (Mireille Hildebrandt) https://twitter.com/mireillemoret/status/1273246807355686912 Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Cómo reconocer la IA falsa

Interesante conferencia sobre la falsa y los motivos que lo impulsan. https://www.cs.princeton.edu/~arvindn/talks/MIT-STS-AI-snakeoil.pdf Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Qué hacer cuando la IA falla

La IA se basa en el aprendizaje. El COVID-19 ha presentado situaciones de las que no había ejemplos. La IA debe tener planes de contingencia y ser responsable de las consecuencias, pero es difícil. ¿Qué hace a la IA diferente de los sistemas de software tradicionales? ¿Por qué incluso pensar en la respuesta a incidentes de manera diferente en el mundo de la IA? Las respuestas se reducen a tres razones principales, que también pueden existir en otros grandes sistemas de software, pero se exacerban en la IA. Lo primero y más importante es la tendencia de la IA a decaer con el tiempo. El segundo es la tremenda complejidad de la IA. Y por último, la naturaleza probabilística de las estadísticas y el aprendizaje automático (ML). Plantea la forma de afrontar los incidentes en la iA, que también pueden tener consecuencias legales. https://www.oreilly.com/radar/what-to-do-when-ai-fails/ Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actual

La IA debería ser regulada por con consejo, como en Atenas

No sabemos cómo regular los algoritmos, porque su aplicación a problemas sociales implica una incongruencia fundamental. Los algoritmos siguen reglas lógicas para optimizar para un resultado dado. La política pública es una cuestión de compensaciones: la optimización para algunos grupos de la sociedad necesariamente empeora a otros. El artículo hace referencia a un informe de OpenAI y sugiere que deben ser los ciudadanos, un grupo diverso, quienes fijen las reglas. https://www.wired.com/story/opinion-a-council-of-citizens-should-regulate-algorithms/ Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Cuando las predicciones se convienten en políticas?

La literatura está repleta de soluciones ingenuas para hacer que el aprendizaje automático sea compatible con la sociedad. Pero generalmente se pierden el problema clave. Todo el proceso de arrojar ingenuamente modelos predictivos a problemas sociales complejos es en sí mismo el problema. A menudo, cuando aplicamos el aprendizaje automático, no solo estamos abordando un problema de predicción. Estamos implementando una política cuyas decisiones forman un sistema de incentivos, potencialmente manipulando el comportamiento de quienes nos rodean. "A menudo, cuando aplicamos el aprendizaje automático, no solo estamos abordando un problema de predicción. Estamos implementando una política cuyas decisiones forman un sistema de incentivos", lo que reformula el problema. http://approximatelycorrect.com/2019/02/13/when-are-predictions-policies/ Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn

Noruega suspende su app de seguimiento de contactos

El organismo de salud pública de Noruega suspendió su aplicación de rastreo de contactos de coronavirus y eliminó todos los datos recopilados por la tecnología siguiendo una orden del organismo de protección de datos del país. El perro guardián noruego de protección de datos dio el viernes al organismo de salud pública (FHI) hasta el 23 de junio para detener toda recopilación de datos a través de la aplicación llamada Smittestopp. El regulador dijo que la aplicación presentaba un riesgo desproporcionado para la privacidad debido a las bajas tasas de descarga, que actualmente representan alrededor del 14 por ciento de los mayores de 16 años. https://www.politico.eu/article/norway-suspends-contact-tracing-app-over-privacy-concerns/ Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Las prohibiciones del reconocimiento facial están aguadas

El artículo relata la "retirada" de IBM, Amazon y Microsoft de esta tecnología, aunque por detrás siguen desarrollando y vendiendo e influyendo para conseguir regulaciones aguadas que no fastidien demasiado sus negocios. https://www.fastcompany.com/90516450/ibm-microsoft-and-amazons-face-recognition-bans-dont-go-far-enough Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Una aplicación mal dirigida de la ética de la IA

Un nuevo artículo de Abeba Birhane sobre los derechos de los robots. https://www.noemamag.com/a-misdirected-application-of-ai-ethics/ Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Por qué la robustez es clave para desplegar la IA

Construir y probar sistemas robustos de aprendizaje automático seguramente será un desafío en los próximos años. A medida que ML e IA se vuelven cada vez más integrales en las diferentes facetas de la sociedad, es crucial que tengamos en cuenta sus limitaciones y riesgos, y que diseñemos procesos para mejorarlos. https://www.brookings.edu/techstream/why-robustness-is-key-to-deploying-ai/ Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Propuesta de Guías de Transparencia y Principios Éticos de Ontario

Esta guía establece 8 puntos para ayudar a minimizar los riesgos y maximizar los beneficios del uso de tecnologías basadas en datos dentro de los procesos, programas y servicios gubernamentales a través de la transparencia. Los Principios alfa para el uso ético establecen seis puntos para alinear el uso de tecnologías basadas en datos dentro de los procesos, programas y servicios del gobierno con consideraciones y valores éticos. https://github.com/orgs/ongov/projects/2 Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Comprendiendo el Impacto de los Algoritmos

Los sistemas algorítmicos pueden ayudar a las organizaciones a apoyar mejor a las personas y las comunidades, ayudando a las decisiones sobre cómo dirigir los recursos, asegurando que la ayuda llegue a donde más se necesita. Pero, como con cualquier herramienta utilizada para ayudar a la toma de decisiones, estos sistemas también pueden hacer daño si no se evalúan y controlan adecuadamente. Tomar los pasos técnicos necesarios para implementar y evaluar un sistema algorítmico puede ser un desafío, ¡pero hay ayuda disponible! DataKind UK apoya a organizaciones de cambio social que deseen explorar, implementar y / o evaluar un sistema algorítmico (o cualquier forma de ciencia de datos). https://medium.com/datakinduk/understanding-the-impact-of-algorithms-89d4d927cee7 Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Diferencias entre la moratoria en Reconocimiento Facial de Amazon y las de iBM y Microsoft

La decisión de IBM ha sido recibida con cinismo. Los críticos enfatizan que la compañía no estaba liderando las ventas de tecnología de reconocimiento facial y que la pequeña brecha dejada por su salida será cubierta por compañías que no son de EE. UU. Que ya envían herramientas silenciosamente a los departamentos de policía. Además, han señalado, dejar de lado el reconocimiento facial para centrarse en la computación en la nube podría, en última instancia, ayudar a las acciones de IBM. Otros comentaristas argumentan que el daño ya está hecho, citando los contratos anteriores de IBM con la policía. El anuncio de Amazon de detener el uso policial de Rekognition durante un año se ha recibido con aún más escepticismo. Muchos activistas y organizaciones de libertades civiles que han estado desafiando las tecnologías de vigilancia de Amazon durante años argumentan que Amazon debería extender su moratoria hasta que el Congreso apruebe una ley que regule la tecnología de reconocimiento facial

La vigilancia de alta tecnología amplifica los sesgos y la extralimitaciones

El uso policial de estas técnicas de vigilancia de estilo de seguridad nacional, justificadas como técnicas rentables que evitan los prejuicios y errores humanos, ha ido de la mano con la creciente militarización de la aplicación de la ley. Una amplia investigación, incluida la mía, ha demostrado que estas capacidades de vigilancia expansivas y poderosas han exacerbado en lugar de reducir el sesgo, la extralimitación y el abuso en la policía, y representan una amenaza creciente para las libertades civiles. La promesa de tecnología objetiva e imparcial no se ha cumplido. El sesgo racial en la vigilancia no se solucionó al encender una cámara. En cambio, la tecnología creó nuevos problemas, como destacar la falta de responsabilidad en casos de violencia policial de alto perfil. https://theconversation.com/high-tech-surveillance-amplifies-police-bias-and-overreach-140225 Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep L

Libro Blanco UE: la UE vuelve a perder pie en IA y derechos humanos

La adopción de cualquier tecnología, particularmente en el sector público, no debe ser un objetivo independiente y no tiene valor en sí mismo. Los enfoques de los problemas basados ​​en la IA tienen ventajas en ciertos casos, pero también conllevan riesgos únicos. Como tal, la IA no es la solución correcta en todos los casos y no debe verse como una panacea. En los casos en los que no hay impactos negativos graves y hay evidencia de un beneficio real, los sistemas basados ​​en IA pueden considerarse como una opción junto con otros enfoques, pero debemos asegurarnos de que los formuladores de políticas no se desvíen por los eslóganes de marketing y la publicidad infundada de IA. La Comisión Europea, sin demostrar claramente por qué, evidentemente quiere una mayor captación de IA, por lo que está dispuesta a hacer un esfuerzo para garantizar que la tecnología sea confiable mitigando los riesgos. En cambio, la UE debería ganarse la confianza de las personas para sus iniciativas de IA al p

Las deudas ilegalmente reclamadas por Centrelink sobrepasan los 1.000 M $

The Guardian ha sabido que el verdadero valor de todas las deudas de asistencia social emitidas ilegalmente a través del esquema robodebt del gobierno federal y que pronto se eliminarán superará fácilmente los $ 1 mil millones. https://www.theguardian.com/australia-news/2020/jun/10/robodebt-total-value-of-debts-issued-under-unlawful-centrelink-scheme-to-exceed-1bn-refund Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentario de Carly Kind a la moratoria de IBM en Reconocimiento Facial

Es fácil ser cínico sobre la decisión de IBM de dejar de vender tecnología de reconocimiento facial (dada la limitada participación de mercado y la disminución del interés en la tecnología), pero esto es realmente sorprendente y alentador. Una moratoria sobre tecnología inexacta y arriesgada es el movimiento correcto https://twitter.com/carlykind_/status/1270944058819645440 Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Los sesgos de género no son un fallo de sistema

Los problemas de la industria tecnológica con la diversidad racial y de género empeorarán a menos que se tomen medidas a nivel académico e institucional, según los expertos.  La idea de "poner chicas a programar" no parece que resuelva nada. "Los estudios también analizan lo que se llama valores predeterminados masculinos", dijo Young. “Esto es particularmente frecuente en Silicon Valley en este momento, y la cultura del lugar de trabajo incluye todo, desde políticas de licencia parental hasta conversaciones casuales y la brecha salarial. También incluye la tendencia, particularmente en las nuevas empresas de tecnología, de trabajar horas ridículamente largas, lo que simplemente no es posible para muchas mujeres que hacen la mayor parte del trabajo doméstico no remunerado de cuidados en el hogar ". "En primer lugar, los gobiernos deben garantizar que las nuevas tecnologías se desarrollen dentro de un marco regulatorio que priorice y proteja los derechos de

Doblegando la curva de las fake news de la pandemia

¿Creería que el coronavirus fue desarrollado por un gobierno para debilitar a sus rivales extranjeros? ¿O que los "patriotas" lo crearon para fomentar una revolución contra el "gran gobierno" y el "estado profundo"? Lamentablemente, demasiadas personas que han encontrado esa desinformación en línea la han compartido con sus amigos y familiares. No obstante, estamos aprendiendo más sobre quién produce noticias falsas sobre pandemias y cómo detener su circulación. Además de los trabajadores de la salud que arriesgan sus propias vidas y los científicos que trabajan en tratamientos y una vacuna, otra rama de la respuesta COVID-19 también merece reconocimiento. En los últimos años, los verificadores de hechos del mundo han desarrollado una capacidad para detectar y etiquetar las mentiras que circulan en la esfera pública. Investigación del Oxford Internet Institute https://theaseanpost.com/article/bending-fake-pandemic-news-curve Adaptado por Aniceto Pérez y Ma

Vigilar a los empleados no está bien

"Hubstaff es un software que registra las pulsaciones del teclado de los usuarios, los movimientos del mouse y los sitios web que visitan. Time Doctor va más allá y toma videos de las pantallas de los usuarios. También puede tomar una foto por cámara web cada 10 minutos para verificar que los empleados estén en su computadora. E Isaak, una herramienta creada por la firma británica Status Today, monitorea las interacciones entre los empleados para identificar quién colabora más, combinando estos datos con la información de los archivos de personal para identificar a las personas que son "responsables del cambio". Ahora, una empresa quiere llevar las cosas aún más lejos. Está desarrollando un software de aprendizaje automático para medir la rapidez con que los empleados completan diferentes tareas y sugerir formas de acelerarlas. La herramienta también le da a cada persona un puntaje de productividad, que los gerentes pueden usar para identificar a aquellos empleados que m

La editora de robots de Microsoft confunde a las cantantes de Little Mix de raza mixta

La decisión de Microsoft de reemplazar a los periodistas humanos con robots ha fracasado, luego de que el software de inteligencia artificial de la compañía tecnológica ilustrara una noticia sobre el racismo con una foto del miembro de la banda mixta Little Mix equivocado. Una semana después de que The Guardian revelara planes para despedir a los editores humanos que ejecutan MSN.com y reemplazarlos con el código de inteligencia artificial de Microsoft, una implementación temprana del software resultó en una historia sobre las reflexiones personales del cantante Jade Thirlwall sobre el racismo que se ilustra con una imagen de su compañera de banda Leigh-Anne Pinnock. Thirlwall, que asistió a una reciente protesta de Black Lives Matter en Londres, criticó a MSN el viernes y dijo que estaba harta de que los medios "ignorantes" cometieran tales errores. Ella publicó en Instagram: "@MSN Si va a copiar y pegar artículos de otros medios de comunicación precisos, es posible que

Cuando las Herramientas de Emergencia Sanitaria se convierten en Herramientas de Opresión

Si bien la legislación debería proteger a los ciudadanos, el volumen de datos sin precedentes, junto con las mayores capacidades de la informática para procesar imágenes, voz, datos de redes sociales y otros datos, allana el camino para un posible uso indebido en caso de que las situaciones de seguridad se intensifiquen rápidamente, como lo ha hecho en los Estados Unidos Estados Es fácil ver cómo COVID-19 ha dado lugar a la próxima crisis económica, pero los expertos también han estado prediciendo que COVID-19 podría sembrar las semillas de las revoluciones políticas. Las leyes sobre el estado de emergencia otorgan a los gobiernos poderes extraordinarios. https://pursuit.unimelb.edu.au/articles/when-tools-for-a-health-emergency-become-tools-of-oppression Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Papel de la Ética

. @ShannonVallor La ética hace explícito lo que ya existe en las tecnologías, y luego pregunta ¿qué queremos ser allí? La tecnología no es neutral; la ética ya está en la tecnología @sfiscience En lugar de afirmaciones objetivas sobre la realidad, los modelos científicos codifican (y por lo tanto promulgan) nuestros puntos ciegos. La # desigualdad estructural creada por modelos insuficientes nos pone en peligro a todos. #La justicia depende del riguroso #empirismo. Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Amenazas de privacidad en relaciones íntimas

Este artículo proporciona una visión general de las amenazas íntimas: una clase de amenazas a la privacidad que pueden surgir dentro de nuestras familias, parejas románticas, amistades cercanas y relaciones de cuidado. Muchos supuestos comunes sobre la privacidad se vuelcan en el contexto de estas relaciones, y muchas medidas de protección efectivas de otro modo fallan cuando se aplican a amenazas íntimas. Las personas más cercanas a nosotros conocen las respuestas a nuestras preguntas secretas, tienen acceso a nuestros dispositivos y pueden ejercer un poder coercitivo sobre nosotros. Examinamos una variedad de relaciones íntimas y describimos sus características comunes. Con base en estas características, exploramos las implicaciones tanto para el diseño técnico de la política como para la política de privacidad, y ofrecemos recomendaciones de diseño para mejorar los riesgos de privacidad íntima. https://academic.oup.com/cybersecurity/article/6/1/tyaa006/5849222 Adaptado por Aniceto P

Riesgos de la IA

Gráfico muy explicativo https://twitter.com/maria_axente/status/1270012404676640768?s=12 https://twitter.com/maria_axente/status/1270012404676640768/photo/1 Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

El déficit de ética de la IA: los líderes de IT en los EE. UU. Y el Reino Unido quieren que se preste más atención a la ética, la responsabilidad y la regulación de la IA.

Presenta los resultados con gráficos muy monos sobre el interés de los líderes y de los responsables en la ética de la IA. https://www.snaplogic.com/resources/infographics/the-ai-ethics-deficit Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Cómo protegerte de la Desinformación

"La gente a menudo piensa que porque no son influyentes, no son políticos, no son periodistas, que lo que hacen no importa" en línea, dice Phillips. Pero los hashtags de tendencia son un buen ejemplo de cómo el volumen, tanto de cuentas grandes como pequeñas, puede atraer la atención hacia la desinformación. Tratar su presencia en línea como si fuera intrascendente, sin importar los pocos seguidores que tenga, puede ser peligroso. "No importa qué tan bien intencionado estés", dice Phillips. "Al retuitear algo que tiene #dcblackout, suficientes personas pueden hacer que sea tendencia y llevar a la gente al pánico". La buena noticia es que su impulso de compartir la injusticia en Internet para mejorar el mundo puede tener un impacto más allá de su conteo inmediato de seguidores. Pero también significa que si comparte algo que no es cierto, puede causar más daño del que podría pensar. Phillips dice que trata de pensar en esto en términos de información "

Diseño Éticamente Alineado

A medida que el uso y el impacto de los sistemas autónomos e inteligentes (A / IS) se generalizan, necesitamos establecer pautas sociales y políticas para que dichos sistemas permanezcan centrados en el ser humano y sirvan Los valores y principios éticos de la humanidad. Estos sistemas deben ser desarrollados y deben operar en una manera que es beneficiosa para las personas y el medio ambiente, más allá de simplemente alcanzar objetivos funcionales y abordando problemas técnicos. Este enfoque fomentará el mayor nivel de confianza entre las personas. y la tecnología que se necesita para su uso fructífero en nuestra vida diaria. https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/gieais-covid.pdf?utm_medium=undefined&utm_source=undefined&utm_campaign=undefined&utm_content=undefined&utm_term=undefined Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

NHS concede a Palantir acceso a datos personales fuera de la información médica

Los datos van desde información de contacto hasta detalles de género, raza y trabajo, y condiciones de salud física y mental, según una copia del contrato alcanzado en marzo y publicado el viernes por el sitio web de política OpenDemocracy y el bufete de abogados Foxglove. También incluyen detalles de afiliación política y religiosa y delitos penales pasados. https://www.bloomberg.com/news/articles/2020-06-05/u-k-shares-patient-data-with-tech-firm-that-worked-for-cia Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los dispositivos inteligentes puede que no valgan lo que cuestan

Si el software no se mantiene actualizado puede suponer un riesgo de funcionalidad y seguridad. Los dispositivos inteligentes pueden ser controlados y permiten conocer si hay un fallo, pero puede que no merezcan lo que pagas de más si el fabricante no lo actualiza. Las asociaciones afirman que los lavavajillas, hornos, refrigeradores y secadoras cuestan más que los convencionales, pero pueden quedar obsoletos en un par de años. Normalmente las lavadoras y secadoras duran entre 10 y 11 años. Los electrodomésticos inteligentes deberían durar al menos lo mismo, pero los fabricantes no se comprometen a mantener las actualizaciones por tanto tiempo. https://www.theguardian.com/technology/2020/jun/08/smart-appliances-may-not-be-worth-money-in-long-run-warns-which Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Hacer visible lo invisible: lo que el compromiso público descubre sobre los privilegios y el poder en los sistemas de datos

Los eventos recientes en los Estados Unidos tienen un paralelismo sorprendente con un momento de definición social en el Reino Unido: después de una extensa investigación, una campaña de los padres de Stephen Lawrence y una amplia cobertura pública y mediática, el informe de Macpherson concluyó que la Policía Metropolitana era institucionalmente racista. Este término se origina en el trabajo de Carmichael y Hamilton (1967), quienes sostienen que el racismo individual es a menudo visible debido a su naturaleza abierta, pero el racismo institucional es menos evidente porque se origina en prácticas históricas, se perpetúa a través de prácticas de larga data en la sociedad y está sujeto a menos desafío, escrutinio y condena pública como consecuencia. En nuestro trabajo para garantizar que los datos y la IA funcionen para las personas y la sociedad, es crucial abordar el racismo institucional, la desigualdad estructural y la injusticia. En nuestro prospecto Repensar datos, afirmamos que los

Dando Sentido Común a la IA

Sistema ATOMIC de grafos, desarrollado por Allen Institute for AI para poder simular sentido común y hacer la IA más fiable. https://cacm.acm.org/news/245391-giving-ai-common-sense/fulltext Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Contribución de EIT Health al Libro Blanco de la UA de IA

Este documento hace diversas recomendaciones para aplicaciones de salud https://ai-regulation.com/wp-content/uploads/2020/06/EIT-Health-Consultative-Group-on-EC-Data-Strategy-and-AI-White-Paper-31-May-2020.pdf Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Contribución de Montreal AI Ethics a Scotland AI Strategy

Sin comentarios https://montrealethics.ai/wp-content/uploads/2020/06/Scotlands-AI-Strategy-Submission-by-MAIEI.pdf

Los riesgos de usar IA en la defensa nacional

Extraordinaria charla de Mariarosaria Taddeo sobre la  naturaleza de la IA y los riesgos que comporta su uso en defensa. Habla sobre ciberseguridad. El resumen es que no se debe usar https://youtu.be/e6cvXffMYJs Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Examinando la Ética de los Certificados de Inmunidad

Entrevista a tres miembros del Carr Center sobre el impacto de los certificados de inmunidad en los derechos humanos. Mark Latonero  TECHNOLOGY AND HUMAN RIGHTS FELLOW, CARR CENTER  Elizabeth Renieris TECHNOLOGY AND HUMAN RIGHTS FELLOW, CARR CENTER  Mathias Risse FACULTY DIRECTOR, CARR CENTER https://carrcenter.hks.harvard.edu/files/cchr/files/005-covid_discussion_paper.pdf   Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Estrategia Europea de Datos: Tres Cuestiones Clave

Las lecciones inmediatas de la pandemia de gobernanza de datos y política digital no obvian la necesidad de una cuidadosa consideración de la estrategia propuesta por la Comisión, que prevé un "verdadero mercado único de datos", con "espacios de datos" interconectados, grupos comunes de sectores datos y el uso intersectorial de datos de salud, movilidad y agricultura, así como datos personales. De hecho, la crisis subraya nuestro conocimiento de que las personas no experimentan los beneficios de la transformación digital por igual, y nos recuerda la naturaleza sociotécnica de los sistemas basados ​​en datos. ¿Es necesario repensar la distinción entre datos personales y no personales? ¿Deberíamos enfocarnos más en la calidad que en la cantidad de datos? ¿Es suficiente la inversión en infraestructuras y tecnologías? https://www.adalovelaceinstitute.org/the-eu-data-strategy-three-key-questions/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor d

La IA no es magia, y no reabrirá tu negocio

¿Qué haces cuando una ruptura repentina de las tendencias reordena profundamente la forma en que funciona el mundo? Si tienes un negocio, una cosa que probablemente no puedaa hacer es recurrir a la inteligencia artificial existente. Para llevar a cabo una de sus aplicaciones principales, el análisis predictivo, la IA de hoy requiere grandes cantidades de datos relevantes. Cuando las cosas cambian tan rápido, no hay tiempo para reunir lo suficiente. Muchos modelos previos a la pandemia para muchas funciones comerciales ya no son útiles; algunos incluso podrían señalar a las empresas en la dirección equivocada. https://www.wsj.com/articles/ai-isnt-magical-and-wont-help-you-reopen-your-business-11590811201 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Regular la IA:Por qué necesitamos el consejo de los expertos para limitar los riesgos

Para los líderes empresariales, anunciar una calamidad global impulsada por la inteligencia artificial no es la preocupación principal, pero incluso evitar riesgos menores puede ser un gran desafío. Las empresas deben descubrir cómo implementar la inteligencia artificial de una manera que no perjudique a los consumidores, viole la privacidad de los consumidores o infrinja las leyes. Si no pueden, podría desencadenar demandas masivas. Describe el modelo Expert in the Loop EITL. https://www.forbes.com/sites/forbestechcouncil/2020/06/03/regulating-artificial-intelligence-why-we-need-expert-input-to-limit-risks/#18c33ab725c4 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Apps COVID-19 y sus consideraciones éticas

Luciano Floridi del Oxford Internet Institute expone de forma clara los problemas éticos que surgen con estas apps https://www.youtube.com/watch?v=vCGpvkjtRQI&feature=youtu.be Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Problemas emergentes de los certificados de inmunidad

Podemos probar anticuerpos, pero aún no podemos probar la inmunidad Comunicar la incertidumbre y el riesgo es un desafío; el marco político de inmunidad es engañoso y podría ser perjudicial Cualquier tipo de transmisión del estado de salud es discriminatoria, y la historia advierte del estigma Las desigualdades podrían desencadenar o profundizar incentivos perversos, incluida la socavación de la solidaridad y el apoyo a otras políticas de salud pública El "privilegio inmunológico" traspasa fronteras Estas cuestiones deben sopesarse de manera transparente contra el costo de no transmitir a la sociedad por riesgo para la salud  https://www.adalovelaceinstitute.org/something-to-declare-surfacing-issues-with-immunity-certificates/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los responsables de salud dicen "No gracias" a la oferta de apps de seguimiento

Es un trabajo que se lleva haciendo tiempo, que emplea profesionales de la medicina que establecen lazos con las personas. La miopía de Silicon Valley les ha llevado a creer que esto se arregla fácilmente con un software que tengo aquí. https://www.wired.com/story/health-officials-no-thanks-contact-tracing-tech/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Europa se arriesga a "entregar las llaves" de los datos a Apple-Google

El profesor Floridi afirma que apoyarse solamente en los gigantes technológicos podría entregarles poder. https://www.telegraph.co.uk/technology/2020/05/30/europe-risks-handing-keys-health-data-apple-google-says-nhsx/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los avances llamativos en IA no son reales

Los investigadores evaluaron 81 algoritmos de simlificación, programas que hacen que las redes neuronales sean más eficientes al recortar las conexiones innecesarias. Todos aseguraron superioridad de maneras ligeramente diferentes. Pero rara vez se compararon adecuadamente, y cuando los investigadores trataron de evaluarlos en paralelo, no hubo evidencia clara de mejoras en el rendimiento durante un período de 10 años. El resultado, presentado en marzo en la conferencia Machine Learning and Systems, sorprendió al Ph.D. de Blalock. asesor, el informático del MIT John Guttag, quien dice que las comparaciones desiguales en sí mismas pueden explicar el estancamiento. "Es la vieja sierra, ¿verdad?" Dijo Guttag. "Si no puede medir algo, es difícil mejorarlo". https://www.sciencemag.org/news/2020/05/eye-catching-advances-some-ai-fields-are-not-real Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Microsoft despide a 27 periodistas y los reemplaza con robots

Microsoft va a prescindir de 27 periodistas que mantenían las páginas de MSN y los va a reemplazar por robots. https://www.theguardian.com/technology/2020/may/30/microsoft-sacks-journalists-to-replace-them-with-robots?CMP=fb_a-technology_b-gdntech Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Formando equipo con la IA

Crear una buena experiencia de usuario de inteligencia artificial (IA) no es fácil. Todos los que usan autocorrección mientras escriben saben que, si bien el sistema generalmente hace un buen trabajo al actuar y corregir errores, a veces comete errores extraños. Lo mismo es cierto para el piloto automático en un Tesla, pero desafortunadamente las apuestas son mucho más altas en el camino que cuando se está sentado detrás de una computadora. Entrevista con Bernie Molls sobre los retos de construir equipos híbridos. https://cacm.acm.org/news/245255-teaming-up-with-artificial-intelligence/fulltext Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Guías éticas para apps de seguimiento

Las tecnologías para alertar rápidamente a las personas cuando han estado en contacto con alguien que porta el coronavirus SARS-CoV-2 son parte de una estrategia para controlar la pandemia. Actualmente, al menos 47 aplicaciones de seguimiento de contactos están disponibles en todo el mundo (consulte go.nature.com/2zc1qhk). Ya están en uso en Australia, Corea del Sur y Singapur, por ejemplo. Y muchos otros gobiernos los están probando o considerando. ¿Qué hacen las aplicaciones de seguimiento de contactos COVID-19? Ejecutando en un teléfono móvil, informan a las personas que han pasado tiempo cerca de alguien con el virus. Los contactos deben responder de acuerdo con las reglas locales, por ejemplo aislándose. Las alertas rápidas son clave porque el tiempo de incubación del virus es de hasta dos semanas1–4. Diez razones por las cuales los pasaportes de inmunidad son una mala idea Estas intervenciones digitales tienen un precio. La recopilación de datos personales confidenciales potencia