Entradas

Mostrando entradas de marzo, 2020

Equidad Algorítmica: Dificultades y Alguna Solución

Aniceto Pérez y Madrid La toma de decisiones en el mundo real es compleja. Habitualmente las decisiones humanas tienen diversos objetivos que alcanzar y el proceso consiste en ponderar en cada caso los condicionantes en función del contexto. Los modelos de aprendizaje automático aspiran a ser capaces de lograr automatizar la toma de decisiones de una forma próxima a la humana. Así, los procesos serían más rápidos y más uniformes. Para crear modelos que tomen decisiones similares a las humanas se utilizan ejemplos con datos de decisiones pasadas tomadas por decisores humanos. Al aplicar en la vida real los modelos obtenidos de ese modo se han detectado problemas: resultados inesperados y promedios estadísticos de los resultados muy sesgados. Al investigar causas se ha visto que los datos de decisiones anteriores estaban sesgados. Esto ha hecho surgir inquietudes sobre estos modelos y dudas sobre la forma en que se han estado tomando decisiones. Si el modo “humano” de decisión es

Yuval Noah Harari: el mundo tras el coronavirus

Las medidas que se tomen en estas próximas semanas con motivo del COVID-19 pueden cambiar el futuro. Medidas extremas aplicadas con motivo de la emergencia pueden durar más tiempo del debido, lo que supondría un ataque a la privacidad. https://www.ft.com/content/19d90308-6858-11ea-a3c9-1fe6fedcca75?fbclid=IwAR0pbWcI01wiJWCl1p9z9yjJIOZ6bgqiiYgUf30fMKiTc3h887C0XkL5rfk Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Debate entre Gary Marcus y Danny Lange

Este artículo recoge los puntos más importantes del debate ente Gary Marcus, defensor de la IA híbrida, más que simplemente deep learning + IA simbólica. Danny Lange defiende los sistemas múltiples de deep learning porque los problemas del mundo real son complejos. https://www-technologyreview-com.cdn.ampproject.org/c/s/www.technologyreview.com/s/615416/ai-debate-gary-marcus-danny-lange/amp/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Comprendiendo la ética y la seguridad de la IA

Esta es una guía del instituto Alan Turing paa el desarrollo ético y seguro de sistemas inteligentes. Trata de Equidad, Responsabilidad, Sostenibilidad, Seguridad, Transparencia, Interpretabilidad y despliegue responsable. https://www.turing.ac.uk/research/publications/understanding-artificial-intelligence-ethics-and-safety Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El próximo invierno de la IA: del mito a la realidad

Luciano Floridi hace un repaso a la historia de la IA y los varios inviernos y primaveras. En invierno se reducen las inversiones y se tranquilizan las exageradas expectativas. La complejidad creciente del mundo hace impulsa la esperanza en máquinas que nos ayuden a gestionar esa complejidad. Los marcos éticos y regulatorios pretenden prevenir un futuro donde las máquinas nos dominen o condicionen nuestra vida. La realidad es que no parece un problema a corto plazo. Durante la primavera parece haber una competición de quién cuenta la historia más grande. Durante los veranos de la IA las expectativas super infladas solamente distraen a las masas. El riesgo de retroceso es grande, la decepción negativa, y las soluciones potencialmente valiosas son desechadas. Con el invierno que viene es el momento de evitar ilusiones irrazonables y desilusiones exageradas. Un invierno de IA no es un invierno de oportunidades. Debemos preguntarnos si la IA va a reemplazar otras soluciones, a divers

Estrategia Europea de Datos

En los últimos años las tecnologías han transformado la  economía y la sociedad. Los datos son la gasolina para transformar la sociedad con IA, así que la UE ha elaborado esta estrategia para poner los datos como prioridad. https://ec.europa.eu/info/sites/info/files/communication-european-strategy-data-19feb2020_en.pdf Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los pioneros en gráficos por ordenador de Pixar, nuevos Premios Turing

Edwin Catmull y Patrick Hanrahan han recibido este premio por el software de renderización de gráficos 3D https://www.technologyreview.com/f/615376/pixars-computer-graphics-pioneers-have-won-the-1-million-turing-award/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Una empresa dice que está instalando cámaras para detectar el Coronavirus en EEUU

Athena aseguraba que era capaz de detectar armas en secuencias de vídeo. Ahora asegura que midiendo la temperatura de las personas con medio grado de precisión y puede detectar el COVID-19. Aunque la fiebre es uno de los síntomas de la pandemia, medir la fiebre es una tecnología que no se puede considerar muy "inteligente", es bastante intrusiva. Algunos piensan que es una excusa para instalar cámaras y violar los derechos civiles. https://www.vice.com/en_us/article/epg8xe/surveillance-company-deploying-coronavirus-detecting-cameras?utm_campaign=sharebutton Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El reconocimiento facial ya está en Londes ¿Cómo se debería regular?

El despliegue del sistema de reconocimiento facial (Live Facial Recognition LFR) ha sido decepcionante: llamativas furgonetas azules y grandes carteles. La policía de Londres quiere continuar su aplicación. El problema es que no está claro el soporte legal. De hecho se apoya parcialmente en una ley indirecta. Varios profesores universitarios han redactado un informe cuestionando la legalidad del LFR. El 71% de la población aprueba el uso de LFR por la policía. Se plantean tres cuestiones 1. ¿Quién debería regular? 2. ¿Qué se debería regular? 3. ¿Cómo sabemos si funciona? https://www.wired.co.uk/article/regulate-facial-recognition-laws Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los detectores de mentiras siempre han estado bajo sospecha

El artículo cuenta la historia de los polígrafos sus fallos más sonados. Los polígrafos son lentos, así que la posibilidad de tener algo rápido es un deseo largamente esperado. Desde 2000 se ha estado intentando crear un detector a partir de imágenes faciales, pero nunca han superado el 80% de precisión. Los desarrolladores pensaron que podría ser muy intrusivo y muy poco seguro, muy sensible a pequeños cambios. https://www.technologyreview.com/s/615336/ai-lie-detectors-polygraph-silent-talker-iborderctrl-converus-neuroid/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La equidad que persigue la UE no puede ser automatizada

La equidad algorítmica se basa en fórmulas de equilibrio entre grupos. Sin embargo, la legislación de la UE pretende una equidad dependiente del contexto y frecuentemente depende del juez, lo que es imposible de lograr con fórmulas. Así que es necesario simplificar y concretar las exigencias legislativas. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3547922 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Nueva York prohibirá el software de reclutamiento sesgado

La norma establece que todo software de selección de personal basado debe estar auditado de sesgos. https://www.artificiallawyer.com/2020/03/12/bias-in-recruitment-software-to-be-illegal-in-new-york-vendors-will-need-bias-audit/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Fawkes: Protección de la Privacidad ante Deep Learning

Método de alteración de imágenes para confundir a los algoritmos de deep learning. Útil para las imágenes subidas a redes virtuales. https://arxiv.org/pdf/2002.08327v1.pdf?utm_campaign=The%20Batch&utm_source=hs_email&utm_medium=email&utm_content=84601732&_hsenc=p2ANqtz--OZmXHMTP7vKLLehYGgTaQZ0FkUHd2cffWPMq3mYoE_crWbDY87RfPdR-e26v6g_EQ9Ka8_silIK50HA9h93-0P_CoAIlqTbqkIrZeUCKsZCt-H34&_hsmi=84601732 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

FixMatch: Simplificando el Aprendizaje Semi-supervisado con Consistencia y Confianza

Un mecanismo de aprendizaje semi-supervisado que mejora la precisión frente a los métodos actuales. https://arxiv.org/abs/2001.07685?utm_campaign=The%20Batch&utm_source=hs_email&utm_medium=email&utm_content=84601732&_hsenc=p2ANqtz--OZmXHMTP7vKLLehYGgTaQZ0FkUHd2cffWPMq3mYoE_crWbDY87RfPdR-e26v6g_EQ9Ka8_silIK50HA9h93-0P_CoAIlqTbqkIrZeUCKsZCt-H34&_hsmi=84601732 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Vestimenta para la era de la Vigilancia

Extenso artículo sobre visión artificial, sus logros y limitaciones. También expone diversas técnicas para confundir a los algoritmos, por ejemplo mediante dibujos en la ropa. https://www.newyorker.com/magazine/2020/03/16/dressing-for-the-surveillance-age Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La Marina de EEUU va a desplegar submarinos autónomos con capacidad de matar

Se trata del proyecto CLAWS para desplegar submarinos autónomos no tripulados. Sus torpedos serán controlados por IA sin intervención humana. Stuart Russell considera CLAWS un "proyecto peligroso" https://thenextweb.com/neural/2020/03/10/the-us-navy-is-developing-ai-powered-submarines-that-could-kill-autonomously/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Big Data: Data Science para empresas pequeñas y medianas

El empleo de la analítica de datos está creciendo mucho, pero necesita muchos datos. Big significa big en volumen, velocidad y variedad. Esos criterios han mutado a variabilidad y veracidad. Tener big data también implica una gran capacidad de cálculo. Las aplicaciones de big data son facturación, ventas, marketing, logística, medios de comunicación y entretenimiento, educación, salud https://medium.com/sciforce/big-data-is-not-so-big-data-science-for-small-and-medium-sized-enterprises-20a55058c60f Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Antes de ser herramienta policial Clearview era el arma secreta de los ricos

Cuando los ricos querían identificar a alguien, utilizaban la app gratuita Clearview en citas y fiestas y para espiar en público. Clearview era desconocida hasta enero de 2020 en que New York Times publicó que era la herramienta utilizada por cientos de agencias policiales. https://www.nytimes.com/2020/03/05/technology/clearview-investors.html Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Las Empresas Tecnológicas quieren ser Estados

Las Big Tech tienen una enorme influencia en todo y quieren pasar a tener influencia geopolítica. Este informe del Instituto Elcano aborda acertadamente la cuestión. Facebook, IBM, Google han hecho incursiones en grandes cumbres políticas, en el World Economic Forum y en la ONU. Quien debe regular y proteger los derechos de los ciudadanos son los Estados, lo que probablemente no está alineado con los intereses de estas grandes compañías. https://blog.realinstitutoelcano.org/empresas-tecnologicas-y-estados-policy-o-politica/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los hombres no son los únicos sesgadoscontra las mujeres según un informe de la ONU

El informe señala que el 90% de la población tiene sesgos hacia las mujeres, tanto hombre como mujeres. El estudio incluye el liderazgo por género, https://www.cnbc.com/2020/03/06/united-nations-almost-90percent-of-people-are-biased-against-women.html Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Cómo detener el espionaje de tu Smart Home

En una entrevista de la BBC un vicepresidente senior de Google ponderó si el dueño de una casa debería avisar a sus invitados de que la casa es inteligente. El motivo, la recolección de datos masiva por los dispositivos de lo que ocurre en el hogar. Una Smart TV podría escuchar y ver, recoger qué canal tenemos puesto, la iluminación, etc. Más preocupante es el caso de los asistentes virtuales. Los timbres inteligentes con micrófono, cámara y reconocimiento facial puede ser una fuente de datos no consentida. El caso se reveló un el dispositivo Ring de Amazon que enviaba alertas a la policía, que además podrían usarlos como cámaras no identificadas. El termostato Nest de Google también ha sido noticia por problemas de privacidad. Las lámparas controlables por internet son otra vía de recopilación de datos Un problema general es la debilidad de la seguridad y la alta probabilidad de hackeo y espionaje. https://www.theguardian.com/technology/2020/mar/08/how-to-stop-your-smart-home

IA Híbrida

Un nueva dataset, CLEVRER, sirve para mostrar calidad del razonamiento de la IA. Al probar un sistema híbrido de deep learning e IA simbólica parece tener un buen futuro. https://www.technologyreview.com/f/615326/ai-neuro-symbolic-system-reasons-like-child-deepmind-ibm-mit/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La ética y la seguridad de la IA en el Sector Público

Es la mejor guía de ética y seguridad de la IA, según afirma modestamente el propio documento, pero no voy a comprobar si es cierto o de un documento de 97 páginas. A pesar de ello, siendo un documento del Instituto Alan Turing seguro que es genial. https://www.turing.ac.uk/research/publications/understanding-artificial-intelligence-ethics-and-safety Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Vista ética de la IA en el lugar de trabajo

Los algoritmos están presentes en todos sitios y el lugar d trabajo no es excepción. Se suelen usar en el reclutamiento, asignación de tareas y evaluación del rendimiento. Hay dos riesgos e inconvenientes: el riesgo de mayor amenaza sin suficiente consentimiento y el peligro de erosión de la autonomía humana al reemplazar a las personas con sistemas deshumanizados. Hay dos áreas que pueden ser riesgos y oportunidades: el impacto de los algoritmos en aumentar o reducir los sesgos y la precisión. Al final hace algunas recomendaciones: - los algoritmos deben ayudar, no reemplazar a los empleados sino ayudar e el trabajo - los jefes deben considerar opciones alternativas antes de reducir personal - Los gerentes de línea deben entender cómo funcionan los algoritmos y la enorme cantidad creciente de datos - Los algoritmos nunca deben ser usados para enmascarar la discriminación intencionalmente por los directivos - Debe haber mayor transparencia para los empleados - Son neces

El Ayuntamiento de NY llama 'delincuente' al consorcio LinkNYC respaldado por Google

El consorcio iba a reemplazar las cabinas telefónicas, pero hay un problema muy poco técnico: dinero. Además de dar WiFi gratis y llamadas domésticas gratis, recarga gratis USB, tabletas gratis conetadas a internety sesupone que se iba a financiar con publicidad en esas tabletas. El resultado es que el uso es menor del esperado y los ingresos. El Ayuntamiento no puede permitir la desigualdad entre los vecinos. El problema es que los postes se utilizaban para pornografía al aire libre. Además está el vandalismo. Y se ha cuestionado la información recogida de los usuarios. https://www.politico.com/states/new-york/albany/story/2020/03/03/city-hall-calls-google-backed-linknyc-consortium-delinquent-1264966 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El borrador de auditoría de la IA del ICO a consulta

El ICO ha publicado un borrador de la guías de evaluación de la ley de protección de datos y la IA. Se ha abierto a consulta pública hasta el 1 de abril de 2020 https://ico.org.uk/about-the-ico/ico-and-stakeholder-consultations/ico-consultation-on-the-draft-ai-auditing-framework-guidance-for-organisations/?utm_source=twitter&utm_medium=iconews&utm_term=094a28cc-6c6d-45ac-91cd-0a06b3598721&utm_content=&utm_campaign= Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Inteligencia Artificial Híbrida

El camino de la IA hacia la AGI está resultando difícil. Yoshua Bengio defendió en NeurIPS la capsule networks, mientras Gary Marcus propone la IA híbrida. Los Conexionistas defienden las redes neuronales puras, mientras Marcus defiende una solución que combine ese enfoque con la IA simbólica. Para Marcus el problema de la IA es la incapacidad de generalización de transferir el contenido de un contexto a otro. Los modelos actuales crecen en velocidad, complejidad y tamaño, lo que supone un coste cresiente insostenible. https://bdtechtalks.com/2020/03/04/gary-marcus-hybrid-ai/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Amazon pone el ojo en el negocio de farmacia en UK

Amazon ha legado a un acuerdo para poder vender medicina. El acuerdo ha sido la cesión gratuita de los datos del NHS para comercializarlos. Esto ha levantado la oposición a la explotación comercial de los datos y la experiencia sanitaria británica. La entrada de Amazon supondría el cierre de muchas farmacias y pérdidas de empleos. La situación se agrava porque el negocio de Amazon en UK es de 14.500 M$ y paga menos impuestos que las compañías de tamaño medio. https://www.forbes.com/sites/douglasbell/2019/12/12/uk-backlash-as-amazon-eyes-up-24-billion-pharmacy-market-following-controversial-data-deal-with-british-government/#402523f044f7 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Las Guías de Ética de la IA no resolverán los problemas

Recientemente la UE ha publicado un libro blanco sobre guías éticas de la IA incluyendo preocupaciones sobre privacidad y dignidad humana. También el Pentágono ha finalizado las suyas. Oxford también ha lanzado un programa para mantener la IA recta y estrecha y el WorldEconomic Forum ha resaltado las profundas implicaciones morales de la IA. En el fondo el miedo está detrás. Las anteriores tecnologías se podían controlar pero la IA reemplazará nuestras ideas. Los dispositivos de ahorro de trabajo se convierten en máquinas de toma de decisiones que operan en un vacío moral. Hasta ahora las peticiones han ido a los programadores que escriben los algoritmos. El problema es que la IA aprende por sí misma. El rumbo que toman se inicia por quienes inician el código. Lo que está en juego es mucho en cuanto el Pentágono quiere automatizar la toma de decisiones. La UE, el WEF y el Pentágono pueden estar alarmados por la ética de la IA, pero en realidad son los mismos problemas de siempre

El timbre de Amazon graba cada pulsación y más

La BBC informa de la cantidad de datos que almacena este dispositivo aparentemente inocente. No está claro para qué usa esos datos, incluyendo la escenas de vídeo y audio. Son 11 bases de datos con 26.500 campos. Amazon asegura que los datos están anonimizados, aún así se pueden obtener patrones de la vecindad. https://www.bbc.com/news/technology-51709247 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Informe 2019 EIT

EIT es una iniciativa público-privada de innovación en IA. Este informe recoge los programas desarrollados que incluyen acciones en medicina, educación, salud, robots, energía, negocios y clima. https://eit.europa.eu/news-events/news/2019-eit-ai-report-here Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

IA para uso policial en Inglaterra y Gales

Describe posibles usos de la IA y la regulación necesaria para uso policial. https://rusi.org/sites/default/files/rusi_pub_165_2020_01_algorithmic_policing_babuta_final_web_copy.pdf http://www.police-foundation.org.uk/2017/wp-content/uploads/2010/10/insight_paper_1.pdf https://www.libertyhumanrights.org.uk/sites/default/files/LIB%2011%20Predictive%20Policing%20Report%20WEB.pdf https://www.theguardian.com/uk-news/2020/feb/23/rules-urgently-needed-oversee-police-use-data-ai-report Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La voz puede ser clonada

Existe el peligro de crear deepfakes de voz. https://www.komando.com/technology/voice-cloning-scams/708999/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El Reinforcement Learning es vulnerable

Se ha descubierto que el RL es vulnerable a ataques adversarios lo que podría hacer los modelos vulnerables a aprendizaje erróneo. https://www.technologyreview.com/s/615299/reinforcement-learning-adversarial-attack-gaming-ai-deepmind-alphazero-selfdriving-cars/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Gobiero de EEUU e IA

Describe proyectos y planes de automatización de tareas del ámbito público. https://thehill.com/opinion/technology/483878-what-to-do-about-artificially-intelligent-government?amp#click=https://t.co/NDmyhTB24F Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Alphabet cuestionado sobre su propuesta de smart city de Toronto

Hay bastante contestación a que el municipio y Alphabet planifiquen la smart city al margen de los ciudadanos. No hay justificación. https://www.reuters.com/article/us-alphabet-sidewalk-idUSKCN20L042 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La buena y mala medición de la equidad

El artículo recoge distintos criterios y métodos matemáticos para medir la equidad y justicia. https://blog.acolyer.org/2020/02/03/measure-mismeasure-fairness/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El destino es "automatzarnos"

Artículo sobre el libro  de  Shoshana Zuboff sobre el Capitalismo de la Vigilancia (Surveillance Capitalism). Incluye una entrevista a la autora. https://www.theguardian.com/technology/2019/jan/20/shoshana-zuboff-age-of-surveillance-capitalism-google-facebook Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Por qué las caras no siempre dicen la verdad?

Aunque las empresas están vendiendo software de reconocimiento facial los científicos tienen diversas opiniones al respecto. https://www.nature.com/articles/d41586-020-00507-5 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El Departamento de Defensa de EEUU adopta principios éticos de IA

Son principios para la seguridad nacional y para el campo de batalla https://sharylattkisson.com/2020/02/government-adopts-ethical-principles-for-artificial-intelligence-ai/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Estado de la IA

Un buen resumen de las partes interesadas en relación a la IA. https://towardsdatascience.com/the-state-of-artificial-intelligence-ethics-38e9bf5cdf2c Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El Impacto de la Privacidad en el Aprendizaje automático

Cada vez requiere más el uso de datos personales en el aprendizaje automático. Por eso es necesario nueva regulación especialmente acerca de la privacidad de los datos. https://medium.com/ydata-ai/the-impact-of-machine-learning-in-data-privacy-18a0c4193b47 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El uso de datos de salud debe estar sjeto a Responsabilidad, Trnasparencia y participación pública

Una publicación de un instituto de investigación sobre datos de salud del NHS. https://understandingpatientdata.org.uk/news/accountability-transparency-and-public-participation-must-be-established-third-party-use-nhs Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Framework para el Uso Responsable del Reconocimiento Facial

Este framework del WEF es tan gnérico como inútil https://www.weforum.org/whitepapers/a-framework-for-responsible-limits-on-facial-recognition-use-case-flow-management Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Opinion de la Comisión de Ética de Datos Alemana

Valora las medidas éticas de la estrategia IA alemana. https://www.bmjv.de/SharedDocs/Downloads/DE/Themen/Fokusthemen/Gutachten_DEK_EN_lang.pdf?__blob=publicationFile&v=3 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)