Entradas

Mostrando entradas de abril, 2020

No podemos permitirnos pensar utópicamente

Para el filósofo Luciano Floridi, es crucial comprender para qué queremos usar las nuevas tecnologías: los expertos aún no hacen suficientes preguntas éticas sobre la IA. https://www.vodafone-institut.de/aiandi/we-cannot-allow-ourselves-to-think-in-an-utopian-way/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Recurso algorítmico: de explicaciones contrafácticas a intervenciones

Como el aprendizaje automático se usa cada vez más para informar la toma de decisiones consecuentes (por ejemplo, la fianza previa al juicio y la aprobación del préstamo), es importante explicar cómo el sistema llegó a su decisión y también sugerir acciones para lograr una decisión favorable. Las explicaciones contrafácticas - "cómo el mundo tendría (tendría que ser diferente) para que ocurriera un resultado deseable" - apuntan a satisfacer estos criterios. Los trabajos existentes se han centrado principalmente en diseñar algoritmos para obtener explicaciones contrafácticas para una amplia gama de configuraciones. Sin embargo, uno de los principales objetivos de "explicaciones como un medio para ayudar a un sujeto de datos a actuar en lugar de simplemente entender" se ha pasado por alto. En términos simples, las explicaciones contrafácticas informan a un individuo a dónde deben llegar, pero no cómo llegar allí. En este trabajo, confiamos en el razonamiento causal pa

Cinco cosas para que funcione el seguimiento de contactos

Contratar 10.000 trazadores manuales Proteger la privacidad Asegurar que el seguimiento cubre al mayor número de personas posible Aceptar que solo con tecnología no se resuelven este problema Hacerlo todo ya https://www.technologyreview.com/2020/04/28/1000714/five-things-to-make-contact-tracing-work-covid-pandemic-apple-google/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

NHS rechaza la propuesta Apple-Google

Al NHS no le gusta la propuesta descentralizada de Apple-Google porque deja demasiado control en manos de los ciudadanos y quieren tener el control. https://www.bbc.com/news/technology-52441428 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La falsa promesa de la "IA Ética"

El uso de algoritmos "en la naturaleza" para medir, cuantificar y optimizar cada aspecto de nuestras vidas ha generado crecientes preocupaciones públicas y una mayor atención por parte de los reguladores. Pero entre la lista de respuestas hay algunas ideas poco prácticas, entre ellas las que se promueven bajo la bandera de "IA ética". https://www.nepal24hours.com/the-false-promise-of-ethical-ai/#.XqdFFkQ4LCY.twitter Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Las apps de contactos no acabarán con el confinamiento pero podrían acabar con la democracia

Una solución tecnológica a la crisis del tipo perseguido por el gobierno del Reino Unido será ineficaz y una pesadilla de los derechos civiles. https://www.theguardian.com/commentisfree/2020/apr/25/contact-apps-wont-end-lockdown-but-they-might-kill-off-democracy Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Francia; Carta de 600 criptógrafos contra las apps de seguimiento

Más de 600 de los criptógrafos y expertos en seguridad informática de Francia han firmado una carta recién publicada que pide al gobierno francés que no adopte ninguna aplicación de rastreo de contactos antes de que la comunidad de criptografía aplicada haya puesto el debido escrutinio. https://attention-stopcovid.fr/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Australia: Nuevas leyes para cubrir la aplicación de coronavirus después de temer que la policía pueda acceder a los datos

El gobierno federal introducirá legislación en el período de sesiones parlamentarias de mayo, aumentando la probabilidad de que los poderes de la Ley de Bioseguridad de emergencia puedan gobernar la aplicación durante varias semanas antes de que el control sea entregado a la legislatura. https://www.smh.com.au/politics/federal/new-laws-to-cover-coronavirus-app-after-fears-police-could-access-data-20200423-p54mmr.html Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El rastreo de contactos por Bluetooth necesita muchos más datos y mejores

El uso de señales Bluetooth para decirle si ha estado en riesgo de covid-19 es la piedra angular de las aplicaciones de rastreo de contactos. Pero hacerlo bien es una tarea compleja y desafiante, incluso para los expertos. https://www.technologyreview.com/2020/04/22/1000353/bluetooth-contact-tracing-needs-bigger-better-data/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Cómo la tecnología centrada en el ser humano puede vencer a COVID-19 a través del rastreo de contactos

Artículo que defiende las app para EEUU, con Apple y Google detrás. https://thehill.com/opinion/technology/493648-how-human-centered-technology-can-beat-covid-19-through-contact-tracing Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Sería un error ignorar las peligrosas desventajas de una aplicación de rastreo de contactos

Una crítica a la app del NHS y hace referencia al informe del Instituto Ada Lovelace https://www.telegraph.co.uk/news/2020/04/24/would-wrong-shrug-dangerous-downsides-contact-tracing-app/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

seguimiento digital de contactos: protegiendo NHS y salvando vidas

Una defensa de la app del NHS, UK. https://www.nhsx.nhs.uk/blogs/digital-contact-tracing-protecting-nhs-and-saving-lives/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La Ciencia de la Complejidad y el seguimiento de contactos

Suponga que me estoy reuniendo en secreto con un posible nuevo empleador, tengo una cita con mi proveedor de salud mental o tal vez tengo una aventura que no quiero que mi cónyuge conozca. En estas circunstancias, si uno de mis contactos se infecta, nos gustaría un cálculo que pueda identificar a cada persona cuyos datos de ubicación se crucen con los del contacto infectado, y no necesitamos saber quién es la persona infectada o qué lugares expuestos yo o mis otros contactos. Este problema se conoce como intersección de conjuntos, y Ni Trieu y muchos otros han desarrollado algoritmos de intersección de conjuntos privados que utilizan métodos criptográficamente seguros para calcular las intersecciones de conjuntos sin revelar los miembros de diferentes conjuntos entre sí. A pesar de la urgencia de la situación actual, esto es el momento de insistir en garantías sólidas (tanto en la recopilación y el uso de datos) como en métodos seguros para computar y alertar a los contactos. https:/

Israel interrumpe el seguimiento policial de los móviles por la privacidad

El gobierno ha ordenado bloquear el procedimiento ya que los daños a la privacidad sobrepasan los beneficios, https://www.bbc.com/news/technology-52395886 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Privacidad vs Salud es un dilema equivocado

A menudo se plantean dilemas tipo "privacidad vs. X" y frecuentemente se sacrifica la privacidad en aras de un bien supuestamente mejor. Este artículo analiza los problemas que presenta la cesión de la privacidad y cómo se debería enfocar el problema. https://jacobinmag.com/2020/04/privacy-health-surveillance-coronavirus-pandemic-technology Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Google presenta AI en Google Translate que aborda el sesgo de género

Google anunció hoy el lanzamiento de traducciones específicas de género del inglés al español y del finés, húngaro y persa al inglés en Google Translate que aprovechan un nuevo paradigma para abordar el sesgo de género al reescribir o editar las traducciones iniciales. El gigante de la tecnología afirma que el enfoque es más escalable que una técnica anterior que respalda las traducciones de turco al inglés específicas de género de Google Translate, principalmente porque no se basa en un detector de neutralidad de género con uso intensivo de datos. https://venturebeat.com/2020/04/22/google-debuts-ai-in-google-translate-that-addresses-gender-bias/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

LAPD cerrará el proyecto Pred-Pol de precrimen

El jefe de la policía de Los Ángeles, Michel Moore, anunció el martes que, a la luz de las restricciones financieras causadas por el brote de coronavirus, el departamento dejaría de usar un programa controvertido que predice dónde podrían ocurrir delitos contra la propiedad en toda la ciudad. Los críticos dicen que el programa de vigilancia predictiva, llamado Pred-Pol, ha llevado a una vigilancia más estricta de los barrios minoritarios. Moore ha dicho en el pasado que no está de acuerdo con la opinión de que el programa se dirige injustamente a los vecindarios latinos y negros. https://www.latimes.com/california/story/2020-04-21/lapd-ends-predictive-policing-program Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Ethical Guidelines for SARS-CoV-2 Digital Tracking and Tracing Systems

La Organización Mundial de la Salud declaró al COVID-19 una pandemia global el 11 de marzo de 2020, reconociendo que el SARS-CoV-2 subyacente ha causado la mayor crisis global desde la Segunda Guerra Mundial. En este artículo, presentamos un marco para evaluar si y en qué medida el uso de sistemas digitales que rastrean y / o rastrean individuos potencialmente infectados no solo es legal sino también ético. Los sistemas de rastreo y seguimiento digital (DTT) pueden limitar severamente los derechos y libertades fundamentales, pero no deben implementarse en un vacío de orientación, para garantizar que sean éticamente justificables, es decir, coherentes con las expectativas y valores de la sociedad. Las intervenciones deben ser necesarias  para lograr un objetivo específico de salud pública, proporcional  a la gravedad de la amenaza a la salud pública,  cientificamente sólidas para apoyar su efectividad, y limitadas en el tiempo. Sin embargo, esto es insuficiente. Es por eso que en este a

Cómo la tecnología centrada en el ser humano puede ayudar el seguimiento de contactos contra el COVID-19

Las mejores intervenciones tecnológicas para luchar contra COVID-19 serán las diseñadas en colaboración con rastreadores de contactos para permitirles hacer su mejor trabajo e integrarse en los procesos de planificación de estos programas. La tecnología centrada en el ser humano puede combinar el poder de los datos con la compasión irremplazable de los rastreadores de contacto de primera línea para ayudarnos a mantener a raya el COVID-19 hasta que tengamos una vacuna. De hecho, hacer cualquier cosa menos pierde la oportunidad de nuestras vidas de liberar el profundo potencial social de las tecnologías. https://thehill.com/opinion/technology/493648-how-human-centered-technology-can-beat-covid-19-through-contact-tracing Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los métodos de aprendizaje automático de IA ampliamente utilizados no funcionan como se afirma

Los modelos y algoritmos para analizar redes complejas se utilizan ampliamente en la investigación y afectan a la sociedad en general a través de sus aplicaciones en redes sociales en línea, motores de búsqueda y sistemas de recomendación. Sin embargo, según un nuevo estudio, un enfoque algorítmico ampliamente utilizado para modelar estas redes es fundamentalmente defectuoso, ya que no captura las propiedades importantes de las redes complejas del mundo real. https://scitechdaily.com/widely-used-ai-machine-learning-methods-dont-work-as-claimed/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Fairness and AI

Sandra Watcher responde a  cinco preguntas sobre la conferencia sobre su conferencia reciente. ¿Se ha tomado en cuenta las diferentes definiciones de 'discriminación' y 'fairness' por las investigadores en IA? ¿Debería importar a los lectores? ¿Qué motivos de discriminación son los más vulnerables en el contexto de los algoritmos? Dado que el desarrollo de soluciones basadas en inteligencia artificial es un objetivo muy importante tanto para las empresas como para algunos gobiernos, en caso de que el problema de la falta de equidad requiera una actualización de las regulaciones vigentes hoy (como GDPR y otros) o un nuevo tipo de enfoque legal ? ¿O es un problema que todavía puede resolverse caso por caso? ¿Es realista desarrollar una protección de "imparcialidad por diseño" en los desarrollos de IA? ¿Necesitamos leyes de transparencia para IA y algoritmos que superen las leyes de propiedad intelectual para que el usuario, jueces, abogados, etc. puedan

Francia afirma que la política de Bluetooth de apple está bloqueando su app de rastreo de contactos

Apple no parece estar dispuesta a cambiar su política https://www.bloomberg.com/news/articles/2020-04-20/france-says-apple-s-bluetooth-policy-is-blocking-virus-tracker Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Declaración Conjunta sobre seguimiento de contactos

Declaración firmada por más de 300 académicos de 25 universidades de todo el munfo sobre los requerimientos de las apps de seguimiento de datos para el COVID-19. https://drive.google.com/file/d/1OQg2dxPu-x-RZzETlpV3lFa259Nrpk1J/view Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Salida por la tienda de apps?

Estudio realizado por el Instituto Ada Lovelace con sugerencias para el tratamiento de la pandemia en sus diversas fases. Esta revisión rápida de evidencia establece propuestas para si, y cómo, el gobierno del Reino Unido debería usar la tecnología a la transición de la crisis de salud pública global de COVID-19. Examina el potencial desarrollo e implementación. de soluciones técnicas para apoyar el seguimiento de síntomas, contacto localización y certificación de inmunidad. Al hacerlo, su análisis toma en cuenta la sociedad, política, legal y ética perspectivas, y ofrece hallazgos y recomendaciones para las fases de transición y reconstrucción que siguen a la contención, Retraso y mitigación. https://www.adalovelaceinstitute.org/wp-content/uploads/2020/04/Ada-Lovelace-Institute-Rapid-Evidence-Review-Exit-through-the-App-Store-April-2020-2.pdf Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Un bromista podría utilizar la aplicación de seguimiento de contactos para hacer que cientos de personas se aíslen innecesariamente

Michael Gove ha dicho que "esmenor no tener app a tener una mala app" https://www.telegraph.co.uk/news/2020/04/19/contact-tracing-app-could-used-prankster-make-hundreds-people/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El seguimiento de contactos fallará si no se respeta la privacidad

Las encuestas sugieren que los usuarios no usarán apps que colecten datos superfluos. https://www.theguardian.com/world/2020/apr/20/coronavirus-digital-contact-tracing-will-fail-unless-privacy-is-respected-experts-warn Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Byung-Chul Han: vamos hacia un feudalismo digital y el modelo chino podría imponerse

Ensayo de Byung-Chen sobre la pandemia en el s XVII en Europa, los confinamientos y la vigigilancia. Cómo está evolucionando la sociedad con la tecnología, y el sutor se pregunta si será el fin del liberalismo occidental. https://www.clarin.com/cultura/byung-chul-vamos-feudalismo-digital-modelo-chino-podria-imponerse_0_QqOkCraxD.html Artículos de abusos relacionados con la pandemia https://actualidaddeeplearning.blogspot.com/2020/04/como-nos-estan-vigilando-con-la-excusa.html Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Cómo nos están vigilando con la excusa del coronavirus

Detalles de los sistemas de vigilancia en más de 25 países introducidos con motivo de la pandemia, incluyendo EEUU, China, Alemania, India, Rusia,... https://onezero.medium.com/the-pandemic-is-a-trojan-horse-for-surveillance-programs-around-the-world-887fa6f12ec9 Otros artículos de abusos realizados con motivo de la pandemia https://actualidaddeeplearning.blogspot.com/2020/04/posibles-abusos-de-la-privacidad-en-las.html Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Guía para escépticos de la IA y el coronavirus

Se habla mucho de IA aplicada a la pandemia, pero hay que tener en cuenta varia cosas La IA es útil solo con expertos en la materia La IA necesita muchísimos datos Desconfía de la precisión de la IA El despliegue de los modelos inteligentes degrada el rendimiento Un modelo requiere la intervención humana AI ES MUCHO MEJOR EN DETALLES MINUTOS QUE EVENTOS GRANDES Y RAROS Habrá consecuencias involuntarias No hay que olvidar: la IA está sesgada https://www.brookings.edu/research/a-guide-to-healthy-skepticism-of-artificial-intelligence-and-coronavirus/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La deliberación pública ayudaría en los problemas de legimitidad de la IA

La importancia de la legitimidad pública, que se refiere a la amplia base de apoyo público que permite a las empresas, diseñadores, servidores públicos y otros diseñar y desarrollar IA para ofrecer resultados beneficiosos, fue ilustrada por una serie de eventos públicos muy controvertidos que tuvieron lugar en 2018. https://www.adalovelaceinstitute.org/public-deliberation-could-help-address-ais-legitimacy-problem-in-2019/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Informe sobre las Estrategias Nacionales de IA y Derechos Humanos

A National Artificial Intelligence Strategy (NAS) is a document, ordinarily developed by a government, which sets out its broad, strategic approach to artificial intelligence (AI), including specific areas of focus and activities they will undertake which relate to AI. In doing so, an NAS attempts to coordinate government policies in order to maximize the potential benefits for the economy and society, while minimizing the potential costs. Since 2017, over 25 states and regional intergovernmental organizations have published them, with many more in the process of development. https://www.gp-digital.org/wp-content/uploads/2020/04/National-Artifical-Intelligence-Strategies-and-Human-Rights%E2%80%94A-Review_.pdf Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

IA Explicable

Define en qué consiste la IA explicable. Detalla cómo funcionan las redes neuronales y qué significan los resultados. ¿por qué la IA explicable es tan importante? para una adopción amplia para la confianza de los usuarios en los sistemas por las restricciones legales por el impacto de los resultados si se utiliza en áreas críticas como la medicina para tener más impacto en los negocios/investigación y en la toma de decisiones https://towardsdatascience.com/explainable-artificial-intelligence-14944563cc79 Conferencia del Instituto Turing sobre IA Explicable https://www.youtube.com/watch?v=EVl5iMpX1cg&feature=youtu.be Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Cantos de sirena en la era deep: inteligencia artificial versus clínicos.

En las noticias sobre avances técnicos en las aplicaciones de deep IA suele hablarse de precisión AUC, etc, pero en investigación médica se usan otras medidas y se hacen pruebas mucho más exhaustivas. Los experimentos de esas noticias suelen ser incompletos, inválidos para una investigación médica válida. https://healthdataminer.com/cantos-de-sirena-de-la-era-deep/cantos-de-sirena-en-la-era-deep-inteligencia-artificial-versus-clinicos/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

OpenAI Microscope

Esta  herramienta permite mostrar el contenido de cada capa de una red neuronal. Creo que es impresionante, pero dudo que pueda llegar a explicar algo humanamente inteligible. https://openai.com/blog/microscope/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Posibles abusos de la privacidad en las apps de seguimiento del coronavirus

Esta es una relación de artículos publicados sobre esta cuestión: Consideraciones éticas por Luciano Floridi https://thephilosophyofinformation.blogspot.com/2020/04/mind-app-ethical-risks-of-covid-19-apps.html Inteligente y conciso análisis de los problemas éticos relacionados con este tipo de medidas. Trata de la verificación y de la validación de estos sistemas. Una buena aplicación debe ser parte de una estrategia más amplia y debe estar diseñada para respaldar un futuro justo. Si esto no es posible, mejor hacer otra cosa, evitar sus costos positivos, negativos y de oportunidad, y no jugar el juego político de simplemente señalar que algo (de hecho, cualquier cosa) ha sido probado. La app australiana no tiene 'planes ocultos', según el primer ministro https://www.theguardian.com/technology/2020/apr/18/australian-coronavirus-contact-tracing-app-voluntary-and-with-no-hidden-agenda-minister-says Cómo el coronavirus está erosionando la privacidad https://www.wsj.com/

Cómo Eslovenia es líder mundial en IA centrada en el ser humano

Eslovenia es una potencia mundial en IA, a pesar de ser un país de os millones de habitantes. En los 1950 se fundó el Jozef Stefan Institute (JSI) para investigación científica. En los 1970 Eslovenia fue gran defensora de la IA e hizo grandes inversiones en tecnología precursoras como redes neuronales, modelado de datos y análisis estadístico. Eslovenia se ha convertido en un faro académico de la IA. A principios de 2020 Eslovenia extendió el JSI con el  International Research Center on Artificial Intelligence (IRCAI). El artículo describe los tres primeros casos de uso del IRCAI: Liberación del modelo "gemelo digital" de Social Awareness to Augment Decision Making. Es una de las herramientas más avanzadas en diversas aplicaciones, entre ellas la pandemia del coronavirus Impulso de Soluciones el Coronaviris mediante Nuevas Capacidades de Visualización analítica Defensa de la conciencia situacional para el monitoreo global y los sistemas predictivos https://www.for

Principios de una nueva ética de la IA

Esta breve pieza introduce unos pocos requisitos éticos de la IA para hacer la tecnología más humana. Entre los principios necesarios se encuentra la no discriminación, así como la previsión de las consecuencias. https://romecall.org/2020/04/14/the-principles-of-a-new-ethic-for-todays-technology-and-for-artificial-intelligence/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

IA Responsable, Microsoft

Esta entrada de blog de Microsoft es una colección de recursos sobre los temas críticos para una IA rsponsable: Fairness Transparencia Reliability Safety Colaboración entre humanos e IA Privacidad Para cada uno de los temas aporta una definición y enlaces a recursos relevantes sobre el tema https://www.microsoft.com/en-us/research/blog/research-collection-responsible-ai/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Democracia, Tecnología y el nuevo coronavirus

Este artículo lista una serie de conclusiones de esta pandemia Las herramientas digitales son una necesidad, no algo bonito de lo que presumir El auto aislamiento amplificará lo que ya creemos. Oímos siempre lo mismo y se refuerzan las creencias al no oír cosas distintas La tecnología "tener" y "no tener" nos mostrará realidades crudas sobre nuestro mundo. La cantidad de datos que tenemos ahora no tiene precedentes Quién tendrá la propiedad de nuestros datos derivará en para qué se usan. El artículo cree que en algunos casos servirá para reforzar la democracia. Yo creo que nadie tiene derecho a usar los datos de nadie sin un consentimiento informado y sin transparencia, sean las que sean las intenciones y los fines https://medium.com/dfrlab/op-ed-democracy-technology-and-the-new-coronavirus-641762123ca5 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Ética de los Algoritmos

El creciente interés en la ética de la IA hace necesario crear medidas. La Fundación Berstelmann y VDE han desarrollado un conjunto de herramientas para ello: un sello parecido al de la eficiencia energética de los electrodomésticos en el que califica de A a G seis criterios: transparencia, responsabilidad(accountability), privacidad, justicia, fiabilidad y sostenibilidad ambiental el modelo VCIO que concreta los valores generales. Estas siglas corresponden a Valores, Criterios, Indicadores y Observables finalmente proponen un gráfico 2D para clasificación del riesgo de las aplicaciones IA: dependencia de la decisión frente a vulnerabilidad https://ethicsofalgorithms.org/2020/04/02/from-principles-to-practice-how-can-we-make-ai-ethics-measurable/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El gobierno UK usa datos privados en respuesta al coronavirus

Tras la reunión entre el gobierno inglés y los gigantes tecnológicos, se ha decido firmar un acuerdo con Palantir, la empresa de Peter Thiel, para tratar los datos e intentar dar una respuesta a la pandemia. Se asegura que los datos han sido anonimizados. Es sabido que esa técnica es insuficiente protección de la privacidad. El uso de datos personales sin consentimiento y su cesión a una empresa privada supone un precedente poco halagüeño. https://amp-theguardian-com.cdn.ampproject.org/c/s/amp.theguardian.com/world/2020/apr/12/uk-government-using-confidential-patient-data-in-coronavirus-response Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Rethinking Data

El programa Rethinking Data se construirá sobre el valor de un ecosistema de conocimiento, basado en tres aspectos claves: cambiar los relatos cambia las prácticas cambiar las regulaciones https://www.adalovelaceinstitute.org/wp-content/uploads/2020/01/Rethinking-Data-Prospectus-Ada-Lovelace-Institute-January-2019.pdf Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Cuál será la primera pandemia de la edad media de los algoritmos para la gobernanza de datos?

Las grandes crisis traen grandes cambios. Lo han hecho a lo largo de la historia. Lo que también está revelando esta crisis del coronavirus es la ruptura del sistema de gobernanza de datos. Las compañías privadas tienen gran cantidad de datos en su poder con el objetivo de sacar beneficio de ellos. Llama la atención que el gobierno inglés ha convocado a las grandes tecnológicas para implorar la cesión de datos a las instituciones públicas. El Instituto Ada Lovelace aboga por una política de datos para el bien común, y propone la estrategia Rethinking Data  para cambiar el relato y la regulación de los datos. https://www.adalovelaceinstitute.org/what-will-the-first-pandemic-of-the-algorithmic-age-mean-for-data-governance/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Tres retos éticos de la IA en Ciberseguridad

Los tres retos donde se debe considerar la ética son robustez del sistema, resliencia del sistema y respuesta del sistema. https://www.academia.edu/39407123/Three_Ethical_Challenges_of_Applications_of_Artificial_Intelligence_in_Cybersecurity?email_work_card=title Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

The problem of innovation in technoscientific capitalism: data rentiership and the policy implications of turning personal digital data into a private asset

La rentabilidad de los datos personales como activo https://www.tandfonline.com/doi/full/10.1080/01442872.2020.1748264 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Monetización de los datos personales

En esta entrada se recogen varios artículos sobre la monetización de los datos personales, el interés de algunos en levantar restricciones con motivo del COVID-19 y el perjuicio futuro que podría traer. Venta de los datos personales https://slate.com/technology/2020/04/sell-your-own-data-bad-idea.html Cámaras térmicas https://www.eff.org/deeplinks/2020/04/thermal-imaging-cameras-are-still-dangerous-dragnet-surveillance-cameras Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

IA y el futuro del trabajo

Es un breve vídeo en el que la profesora Virginia Dignum explica muy sucintamente lo que es la IA, el origen de los sesgos y el impacto en el futuro del trabajo. https://youtu.be/lgAUzCTdF7M Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Informe de AI Now a la Comisión Australiana de Derechos Humanos sobre la propuesta de regulación de la IA

Esta Comisión ha realizado una propuesta sobre la regulación de la toma de decisiones por sistemas de IA. https://ainowinstitute.org/ai-now-comments-to-the-australian-human-rights-commission.pdf Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

The Ethical Algorithm

Conferencia de Aaron Roth sobre su libro The Ethical Algorithm. Trata sobre todo de Privacidad y Fairness. Sobre la privacidad trata del concepto, de la forma en que se intentó atacarse desacertadamente y sobre la privacidad diferencial como una forma sistemática y coherente de afrontar la privacidad. En cuanto a la equidad, explica la dificultad del concepto y el compromiso entre equidad y precisión. La conferencia dura 1h 30m y es muy amena. https://www.youtube.com/watch?v=z6DMhIw2X4U&feature=youtu.be Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Strengthening legal protection against discrimination by algorithms and artificial intelligence

Algorithmic decision-making and other types of artificial intelligence (AI) can be used to predict who will commit crime, who will be a good employee, who will default on a loan, etc. However, algorithmic decision-making can also threaten human rights, such as the right to non-discrimination. The paper evaluates current legal protection in Europe against discriminatory algorithmic decisions. The paper shows that non-discrimination law, in particular through the concept of indirect discrimination, prohibits many types of algorithmic discrimination. Data protection law could also help to defend people against discrimination. Proper enforcement of non-discrimination law and data protection law could help to protect people. However, the paper shows that both legal instruments have severe weaknesses when applied to artificial intelligence. The paper suggests how enforcement of current rules can be improved. The paper also explores whether additional rules are needed. The paper argues for se

Why Fairness Cannot Be Automated: Bridging the Gap Between EU Non-Discrimination Law and AI

Este interesante artículo analiza cómo la legislación y la jurisprudencia europea aborda la discriminación. La regulación consiste en cuatro directivas: Igualdad Racial, Igualdad de género, igualdad de Acceso de Género y la directiva de Empleo. Las directivas europeas no son directamente aplicables, han de ser trapuestas por los Estados Miembros, lo que supone una regulación no uniforme. La discriminación puede ser directa, de una persona concreta, o indirecta, de un grupo frente a otro grupo. En las demandas de discriminación de un grupo o de una persona, se busca un comparador y un grupo contra el que se demanda estar desfavorecido. Este artículo recoge diversos casos de la Corte Europea de Justicia. Normalmente, los tribunales se fijan en el grupo desfavorecido y en el comparador y no suelen atender al grupo favorecido. Las sentencias se basan en la aplicación del sentido común. En general se ignoran los indicadores estadísticos presentados, aduciendo que las resoluciones son

Europe’s approach to AI governance: time for a vision

La ausencia de un marco exhaustivo de gobernanza es evidente. Las reglas actuales contiene brechas jurídicas, sustantivas y procedimentales que no llegan a ofrecer una protección adecuada contra los riesgos de la IA y ponen obstáculos a la innovación debido a la incertidumbre legal. That a comprehensive governance framework for AI is lacking is evident. Current rules contain jurisdictional, substantive and procedural gaps, which fail to offer adequate protection against AI’s risks and hamper innovation due to legal uncertainty. Sin embargo, el aspecto que debería tener este marco de gobierno en última instancia es menos claro. El Libro Blanco resalta una serie de lagunas legales e indica rutas para abordarlas, pero solo rasca la superficie. La voluntad política de actuar puede estar presente, pero la visión no. Sin embargo, tal visión es indispensable si la UE desea reclamar y mantener el liderazgo regulatorio en IA. Furthermore, most risks that must be tackled are not AI-specifi

The explanation game: a formal framework for interpretable machine learning

Este artículo de Flordi presenta un marco formal de aprendizaje automático interpretable. Combinando elementos de aprendizaje estadístico, intervencionismo causal y teoría de la decisión presenta un juego ideal de explicación en el que los jugadores colaboradores encuentran la mejor explicación de una predicción algorítmica dada. https://link.springer.com/article/10.1007/s11229-020-02629-9 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La próxima Década de la IA: cuatro pasos para una IA robusta

Un nuevo artículo de Gary Marcus sobre el enfoque de la IA híbrida https://arxiv.org/abs/2002.06177 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

How to Design AI for Social Good: Seven Essential Factors

La idea de la IA para el bien común va tomado cuerpo. Este artículo de Floridi presenta siete factores esenciales para futuras iniciativas de la IA para el bien común. Los factores son (1) falsifiability and incremental deployment ; (2) safeguards against the manipulation of predictors ; (3) receiver-contextualised inter-vention ; (4) receiver-contextualised explanation and transparent purposes ; (5) pri-vacy protection and data subject consent ; (6) situational fairness ; https://www.academia.edu/42615622/How_to_Design_AI_for_Social_Good_Seven_Essential_Factors?email_work_card=title Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

ClearGrasp: 3D Shape Estimation of Transparent Objects for Manipulation

Un enfoque deep learning para manipular objetos transparentes 3D https://arxiv.org/abs/1910.02550 Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)