Entradas

Mostrando entradas de febrero, 2020

Mozilla quiere que os jóvenes consideren 'Cuestiones Éticas' antes de entrar en trabajos de tecnología

Mozilla ha publicado unas guías para ayudar a los estudiantes a navegar por cuestiones éticas en la industria tecnológica, en particulas durante el proceso de reclutamiento. La guía recomienda a los estudiantes que no trabajen en empresas que dañen a las comunidades vulnerables y que se formen en gobernanza dentro de las empresas antes de coger un trabajo. "Aforntar problemas éticos en la tecnología puede resultar abrumador para los estudiantes. Cambiar la industria no es imposible y es cada vez más necesario". Estudiantes de 16 universidades han protestado por los lazos de sus niversidades con la firma Palantir que trabaja dinInmigation and Customs Enforcement. Ha habido protestas en los campus de Amazon. También hay protestas contra el software de reconocimiento facial en los campuses. https://www.vice.com/en_us/article/wxenxx/mozilla-wants-young-people-to-consider-ethical-issues-before-taking-jobs-in-tech Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecno

La Ética, una forma de escapar de la Regulación

Se suele arguir que la ética mejorará las tecnologías. En realidad este debate parece crecientemente enfocado hacia empresas privadas que quieren evitar la regulación. Siendo incapaz de proporcionar adecuadas soluciones regulatorias, la ética se ve como una opción 'fácil' o 'suave' que puede ayudar a estructurar y dar significado a las iniciativas regulatorias existentes. La ética es la nuev industria de la auto-regulación. https://www.privacylab.at/wp-content/uploads/2018/07/Ben_Wagner_Ethics-as-an-Escape-from-Regulation_2018_BW9.pdf Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La productividad de los avances tecnológicos no alcanza la que debería

Presenta dos visiones: tecnooptimistas y tecnopesimistas. En general la productividad que aportan los avances tecnológicos, no es lo que era. El artículo revisa varios momentos históricos de la productividad desde el s. XIX y de EEUU frente a la UE. https://elpais-com.cdn.ampproject.org/c/s/elpais.com/economia/2020/02/21/actualidad/1582300713_739014.amp.html Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Acaso estamos equivocados respecto a la IA

Este artículo cuenta la visión del profesor del MIT Pérez-Breva de la IA. Primero, considera que hay un excesivo enfoque hacia los datos. Esto signifca que los modelos de IA son modelos probailísticos. Así, la importancia es de los datos, no del algoritmo. Los modelos deberían aprender con muchos menos datos. Asegura que el Machine Learning tiene una aplicación muy estrecha, por tanto intentar aplicarlo a problemas generales fallará. Desde siempre se ha intentado automatizar empleos y nunca ha funcionado. La gente frecuentemente confunde automatización e IA. Luis Pérez considera qe los sistemas de IA se parecen más a una nueva especie con un modo diferente de inteligencia que los humanos. En cualquier caso, la iA ha venido para quedarse, aunque los dispositivos tienen una inteligencia distinta de la humana. Tiene el poder de resolver muchos problemas junto con los seres humanos. https://www.forbes.com/sites/cognitiveworld/2020/02/23/this-ai-researcher-thinks-we-have-it-al

Qué no es la IA

La IA no es un algoritmo. La IA no es un modelo. La IA no es un robo. La IA no es neutra. La IA no es la sigularidad. Inteligencia Artificial no es posiblemente una distinción que importe. https://blog.lareviewofbooks.org/provocations/artificial-intelligence/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los CIO están decepcionados por las promesas vacías de la IA, las herramientas de datos y los chatbots

Una encuesta de casi 200 ejecutivos muestra que las tecnologías sobre exageradas no están a la altura de las expectativas de realización de resultados. El 56% de los que respondieron se quejaban de que las iniciativas en tecnología avanzada se no habían logrado sus expectativasy el 50% afirmó lo mismo de las herramientas de visualización de datos. A pesar de esto, los despliegues de estas tecnologías crecerán en 2020. La automatización con robots (RPA) también decepcionó al 47% de los adoptantes. https://tech.newstatesman.com/business/cios-disappointed-by-the-empty-promises-of-ai-data-tools-and-chatbots Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Qué es la ética de datos?

La ética de datos es una rama de la ética que estudia y evalúa los problemas morales relacionados con los datos, los algoritmos, y las prácticas correspondientes a fin de soportar y formular buenas soluciones moralmente. https://www.academia.edu/42101366/What_is_data_ethics?email_work_card=view-paper Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Pensando sobre 'Ética' en la Ética de la IA

Una importante consultora internacional ha identificado en 2019 "Eticista de IA" como un puesto esencial para las empresas que implementan con éxito la IA. En muchos ámbitos de la sociedad se considera que IA puede ser beneficiosa, pero también puede dañar a las personas y a la sociedad. A fin de evitar los fallos  y consecuencias dañinas, su papel se suele identificar en a) examinar las dimensiones políticas, sociales, legales y éticas de la IA y b) desarrollar guías éticas recomendaciones para desarrollar e implementar IA. Los asuntos técnicos a veces impiden el examen serio de problemas éticos de la IA. Las definiciones de IA son muy variadas, hay diversas formas de comprensión y cada una aporta sus propias complicaciones. Por eso, para evitar confusiones y el riesgo de gente hablando cada uno de lo suyo, cualquier discusión significativa de Ética de la IA requiere la explicación de la definición de IA que se esté empleando así como el tipo de IA que se está debatiendo.

Roman Call for AI Ethics

La Iglesia Católica ha decidido adentrarse en la regulación de la IA para proteger a los más desfavorecidos. Su planteamiento es defender los derechos humanos. Actualmente tanto EEUU como la UE y la OCDE están embarcados en este tema. La Iglesia Católica tiene presencia en muchas culturas de todo el mundo por lo que su voz es muy relevante en este debate. IBM y Microsoft han firmado hoy la propuesta junto con la Academia Pontificia de la Vida. vídeo de la sesión  https://www.youtube.com/watch?v=-bM4Hrj2Euw&list=PL6zdB-mFhzTWu2Codiy7idMyk6jf9-nbb https://www.politico.eu/pro/vatican-calls-for-ai-ethics-with-backing-of-ibm-microsoft/ https://mail.google.com/mail/u/0/#inbox/FMfcgxwGDWxSjtHhrWWDMsZhxwvmdwpj Un empujón para despertar la IA y los vehículos autónomos https://www.forbes.com/sites/lanceeliot/2020/03/10/pope-francis-offers-rome-call-for-ai-ethics-to-step-up-ai-wokefulness-which-is-a-wake-up-call-for-ai-self-driving-cars-too/#146aaa2c7bae #renAIssance Rome Call fo

IA, Valores y alineación de principios éticos

Este magnífico artículo presenta tres proposiciones sobre los principios éticos de la IA: los aspectos técnicos y normativos están muy relacionados, cual es la alineación de los objetivos buscados y finalmente, que frente a principios morales se debería buscar principios justos que agrupen un amplio respaldo. https://arxiv.org/pdf/2001.09768.pdf por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Mejor comprensión de la IA

Artículo de Nesta sobre IA, las preocupaciones éticas, los centros que investigan y proponen medidas para resolverlas. Un informe detallado y completo escrito por Julián García-Mateos. https://www.nesta.org.uk/blog/better-intelligence-about-artificial-intelligence/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Contribución de la OCDE al una IA centrada en el ser humano

La "gestión mediante algoritmo" ya es una realidad en el espacio laboral, lo que puede conducir a prácticas muy intrusivas. El software y hardware permiten crear herramientas de control del desempeño laboral mediante la monitorización de maneras impensables en el pasado, así como recoger enormes cantidades de datos de su actividad, (Elevtronic Performance Monitoring - EPM)permitiendo que un empleado de bajo rendimiento pueda ser despedido automáticamente sin verificación del supervisor. Formas incrementadas de control de trabajadores de fábricas y de oficina incluyen la monitorización de emails, escucha telefónica, seguimiento del contenido del ordenador y tiempo de uso, monitorización por vídeo y seguimiento GPS. Con esto se realiza "People Analytics". EPM y Personal Analytics pueden ser usados legítimamente para fomentar la productividad o elevar la seguridad. Los dispositivos wearables pueden usarse para mejorar la salud, pero pueden usarse para una grave int

Engañando con IA: Cuando la IA aprende a mentir

En IA se utilizan los ejemplos adversarios para hacer más robustos los modelos. Es necesario comprender la amplitud de qué significa "Engaño de IA" y lo que ocurre cuando no está la intención humana tras una IA mentirosa. Bond y Robinson definenel engañocomo "la falsa comunicación en beneficio del comunicador". Whaley incluye la intención demanipularal otro. Tener intención significa tener conocimiento de uno mismo y poder razonar sobre entidades externas y sus intenciones, deseos, estados y posibles comportamientos. Si se define engaño de la IA con una intención definida así, requeriría una IA con cierta teoría de la mente,lo que no existe, así que vamos a tratar el engaño apoyado en la intención humana de usar la IA para engañar. Que la IA no tenga una teoría de la mente no significa que no pueda aprender a engañar, aunque en realidad no sepan lo que hacen. Es tan fácil como ocultar información o suministrar informaciónfalsa para lograr un objetiv

Canadá está sacando ventaja en IA

Canadá está consiguiendo atraer grandes compañías de IA. Es un país líder en investigación y en empresas de IA. Pioneros como Geoffrey Hinton y Yoshua Bengio han cultivado talento de primera categoría. Se encuentra entre los 5 países de mayor impacto de investigadores y empreorelacionado con la IA. Según los informes gubernamentales, en 2017 se crearon 17.000 empleos en el área de Toronto.i https://mail.google.com/mail/u/0/#inbox/FMfcgxwGDWtzjnZmFpHphkRnCrZJSjfj por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Qué está bien y mal con los datos biométricos?

En una nota de un taller del Citizen's Biometric Council. Los datos biométricos levantan preocupaciones. El papel del Council es evaluar el impacto de étas en la sociedad. Los reguladores y creadores de políticas se hacen preguntas que aún no tienen respuesta: ¿Qué nivel de información de ser suministrado al desplegar sistemas de reconodimiento de voz? ¿Cuáles son los usos aceptables del reconocimiento facial en espacios públicos? ¿Cuáles son las normas apropiadas que hay que mantener con las tenologías biométricas emergentes? La cuestión clave es proponer un compromiso de expectativas del público, condiciones de para confianza y líneas rojas en el uso de datos biométricos. Se espera perfilar respuestas a las preguntas anteriores en futuros talleres. https://www.adalovelaceinstitute.org/what-is-or-isnt-ok-when-it-comes-to-biometrics/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El Small Data puede jugar un gran papel en la IA

Más de los 3/4 de las grandes compañías están hambrientas de datos. Sin embargo los datos valiosos de la mayor parte de las empresas son pequeños datasets. La experiencia demuestra que pequeños datasets combinados con expertos humanos da buenos resultados. Por cada gran dataset hay mil pequeños datasets sin uso. Se ha visto que las anotaciones en unos pocos datos de un gran dataset resulta muy valioso. La idea es convertir a los codificadores, responsables de la precisa evaluación, en entrenadores de IA capaces de enriquecer la IA con conocimiento médico. La universidad de Harvard, tras un trabajo de 12 semanas, ha llegado a estar conclusiones: - el equilibrio entre aprendizaje automático y la experiencia humana permite crear herramientas inteligentes con pequeños datasets. - enfocarse en la calidad del trabajo humano, no en la cantidad del poder de cálculo. - reconocer la dinámica social en los equipos que trabajan con small data. Los codificadores se ven no como profesores d

¿Está la IA sobrevalorada?

Comenta de la mano de Gary Marcus la exageración que se hace da la IA. https://www.cbc.ca/radio/thesundayedition/the-sunday-edition-for-february-23-2020-1.5468283/is-ai-overhyped-researchers-weigh-in-on-technology-s-promise-and-problems-1.5468289 por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Es la IA un mito?

La gente dice "Blockchain democratizará todo" y la "IA resolverá todos nuestros problemas". Todo lo analógico va convirtiéndose en AI-enabled. Si no usas IA te estás perdiendo? Lo primero es que si eres un ejecutivo y quieres lo mejor ¿qué más te da si en con IA o no? La cuestión es si pueden crear o no. ¿En qué entendemos mal la IA? Es fascinante crear una máquina que pueda pensar, pero el entrenamiento de un algoritmo frente al entrenamiento de un humano es abismal. Las máquinas calculan mejor y más rápido. En realidad deberíamos llamarlo Automatización Inteligente frente  a Inteligencia Artificial. El santo grial de la IA debería no ser enseñar a las máquinas a pensar como personas sino a pensar cómo máquinas. Es la misma trampa en que ya hemos caído en anteriores momentos como con los telares en 1800: pensar que las máquinas podrían pensar. Si seguimos persiguiendo que la IA simule el pensamiento humano fallaremos porque las máquinas y las persona

¿Creative commons apoya por un enfoque cauto de IP en la IA?

Los avances tecnológicos avanzan rápido. La IA debe ser bien entendida antes de poder afrontallas implicaciones de cualquier copyright. No hay consenso sobre lo que es la IA. Los algoritmos son distintos en complejidad y no está claro cómo juzgar la originalidad de un trabajo creado a partir de montones de datos aleatorios. Tampoco está claro si la IA puede crear contenido "autónomo" sin participación humana. La creatividad humana es la piedra angular de la creatividad. Los resultados obtenidos de IA no deberían considerarse trabajos originales. Se deberán crear nuevas salvaguardas si el copyright o nuevas reglas se van a aplicar a la IA. https://creativecommons.org/2020/02/20/cautious-approach-to-copyright-and-artificial-intelligence/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El nuevo negocio de la IA y lo diferente de la informática tradicional

La empresas de IA tienden a comportarse como las tradicionales de software (SaaS). Las empresas tradicionales funcionan por plazos  y con grandes márgenes, pero las de IA se caracterizan por: bajos márgenes brutos retos de escalado. Normalmente requieren "humanos en el proceso" menos barreras defensivas La empresas de IA crean un nuevo tipo de negocio. No se trata solo de desarrollar y desplegar software, sino también de prestar servicios para que el cliente los comprenda. Normalmente cada proyecto solo se vende una vez. https://a16z.com/2020/02/16/the-new-business-of-ai-and-how-its-different-from-traditional-software/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La IA explicable ayuda a evitar los sesgos de los algoritmos

La IA está sesgada, Los humanos estamos sesgados. Cualquiera que haga elecciones está sesgado. La IA es un método que suele mostrar y amplificar sesgos. La IA explicable ayuda a resucir los sesgos. Los desarrolladores pueden filtrar los datos, pero una vez entrenada una IA es una caja negra, no se sabe cómo opera y las empresas no se dan cuenta hasta que es demasiado tarde. Cada vez hay más empresas que ofrecen IA explicable. Enumera varias empresas que se dedican la IA explicable https://www.forbes.com/sites/simonchandler/2020/02/18/how-explainable-ai-is-helping-algorithms-avoid-bias/#380246ef5ed3 por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El problema de mas métricas y la IA

Con frecuencia los modelos de IA buscan optimizar algún tipo de métrica lo que conduce a planteamientos miopes cortoplacistas. Propone un framework para mitigar los daños de sobrevalorar las métricas. https://arxiv.org/abs/2002.08512 por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Curso sobre robots en la sociedad

Este curso trata de la integración de los robots en la sociedad y los peligros éticos que suscita, https://www.edx.org/course/mind-of-the-universe-robots-in-society-blessing-or?utm_campaign=social-sharing-course-page&utm_medium=social&utm_source=twitter por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Microsoft mejora la capacidad de comprensión del lenguaje natural

MT-DNN es un toolkit para facilitar a los desarrolladores entrenar modelos personalizados de aprendizaje automático de comprensión del lenguaje natural. https://arxiv.org/abs/2002.07972 por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Gary Marcus explica cómo llevar la IA al siguiente nivel

Gary Marcus explica en su libro Rebooting AI el problema que tiene la IA: carece de sentidi común. No aprenden como lo hacen los humanos, es más, ni siquiera sabemos qué aprenden. Es necesario desarrollar nuevos métodos que comprendan conocimiento abstracto. No es necesario pensar en superinteligencia. https://thenextweb.com/neural/2020/02/19/study-ai-expert-gary-marcus-explains-how-to-take-ai-to-the-next-level/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Puede la Analogía abrir la barrera del Conocimiento de la IA?

Sesión de Melanie Mitchell del Instituto Santa Fe. Comienza con una vistra general de la historia de la IA y de qué es el deep learning. Los modelos son capaces de clasificar, subtitular, jugar a juegos de ordenador de forma super humana. ¿Qué es lo que aprenden los modelos? Se entrenó un modelo para detectar si hay un animal en una foto. El modelo lo que aprendió es que si hay un animal el fondo es borroso, no que haya un animal. Correlaciones espúreas. Los modelos no ven lo que vemos los humanos. Funcionan muy bien salvo cuando cometen errores garrafales. Si en un juego se cambia algo, ya no sabe qué hacer. Las máquinas hacen cosas increíbles,pero no pueden comprender. La máquinas distinguen categorías perceptuales, no conceptos. Ante situaciones complicadas nosotros usamos analogías. Muchas veces esas analogías son recuerdos de otras situaciones similares. Muchas veces entendemos ideas abstractas con analogías con metéáforas físicas. También entendemos mediante analogías de ca

Justicia pregunta: ¿Son los Gigantes Tecnológicos demasiado poderosos?

El comité anti-trust de EEUU está considerandoel papel dominante de las grandes tecnológicas. La reunión incluyó la escuela jurídica de Stanford y muchas grandes compañísas, Google incluída. Los inversores no quieren invertir en tecnologías que desafíen a las grandes. https://www.wired.com/story/doj-startup-investors-tech-giants-too-powerful/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los algorirmos que iban a arreglar el problema de las fianza no funciona, y no deberían usarse en la justicia

El Instituto Pretrial Justice ha estado urgiendo a la adopción de este tipo de algoritmos. A principios de mes a cambiado su discurso a defender exactamente lo contrario ya que estos algoritmos perpetúan las desigualdades raciales. PJI se muestra contrario al uso de evaluación de riesgos en justicia criminal y otras áreas. "Esos problemas no se resuelven con ajustes técnicos. El artículo cita otros algoritmos que también producen esas discriminaciones. Sugiere un conjunto de reglas claras y conocidas por los acusados para que las apliquen los jueces. Un gran avance en la práctica judicial. https://www.wired.com/story/algorithms-supposed-fix-bail-system-they-havent/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La Administración Federal y la universidad de Stanford: informe sobre IA en la Administración Pública

Es una noticia que están preparando un informe sobre la IA en la administración pública norteamericana. https://law.stanford.edu/press/acus-stanford-law-school-and-nyu-school-of-law-announce-report-on-artificial-intelligence-in-federal-agencies/ https://hai.stanford.edu/news/new-hai-funded-research-explores-ai-governance por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Libro Blanco de IA de la Unión Europea

la UE quiere ser una potencia en IA, pero hasta ahora se ha centrado en establecer reglas. Así que la IA no se ha adoptado mucho en la UE. Las compañías europeas tienen que acudir a empresas americanas o chinas. La dependencia de tecnología extranjera trae dos problemas: uno geopolítico, el segundo es que dar acceso a los datos a compañías de IA existentes puede dilatar el desarrollo de empresas europeas. Para poder desarrollar la tecnología hace falta dinero y formación. Europa necesita poder entrenar los modelos con sus datos. La disposición de datos es clave, por eso la UE va a crear un mercado único de datos. Europa es líder en en regulación de IA pero no es suficiente para explotar su potencial. https://www.politico.eu/article/europe-may-be-the-worlds-ai-referee-but-referees-dont-win-margrethe-vestager/ Libro Blanco: Este documento es una propuesta abierta a consultas hasta el 19 de mayo de 2020. Propone dos ejes para desarrollar una estrategia de IA y de datos: excelencia

¿Qué significa Inteligencia Artificial?

¿Qué significa IA? Muchas cosas, cada persona utiliza la expresión en un sentido, pero cuando al final se implementa la magia desaparece. Sólo son matemáticas. La IA es un objetivo en movimiento, es un concepto complejo, del que se abusa, con límites borrosos Hace un repaso histórico; habla de Marvin Minsky y Alan Turing. https://www.forbes.com/sites/robtoews/2020/02/17/what-does-artificial-intelligence-really-mean/#14ca1b174c5f por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La oculta realidad detrás de la oferta de OpenAI para salvar el mundo

El objetivo de OpenAI es ser la primera en lograr la AGI. El objetivo no es dominar el mundo, sino que se desarrolle con seguridad y que se distribuya por todo el mundo. En contra de la imagen pública, internamente ha cambiado debido a la fiera competitividad y la financiación, se ha erosionado los ideales fundacionales de apertura, transparencia y colaboración. La vaguedad en la definición de la AGI y cómo será hace que sea difícil mantener el espíritu. Este artículo cuenta la historia de OpenAI y su trayectoria, una descripción detallada, por cierto. Imposible eludir citar GPT-2. Trata sobre la insuficiente diversidad en la empresa https://www.technologyreview.com/s/615181/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Transparencia de la IA en servicios financieros

Informe del Instituto Alan Turing sobre la importancia de la transparencia. Este informe trata de ¿Porqué es importante la transparencia? ¿Qué tipos de información son relevantes? ¿Quién debería tener acceso a esa información? ¿Cuando importa? https://www.turing.ac.uk/research/research-programmes/public-policy/programme-articles/ai-transparency-financial-services por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Medidas de equidad para la regresión mediante clasificación probabilística

La equidad algorítmica incluye nociones como igualdad o tratamiento razonable como medida cuantificable a optimizar. La mayor parte de la literatura se limita a problemas de clasificación donde la predicción es categórica, como aceptar o rechazar un préstamo. Esto se debe en parte a que los que se calcula es que los resultados se distribuyan equitativamente en grupos tal como mujeres. Esto es difícil de generalizar en predicciones lineales como precios. La dificultad surge del cáculo de densidades condicionales. Para la regresión presentamos aproximaciones manejables de criterios de independencia, separación y suficiencia observando que factorizan como ratios de diferentes probabilidades condicionales de los atributos protegidos. https://arxiv.org/abs/2001.06089 por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los futuros humanos podrían llegar a ser cyborgs

El profesor David Gunkel de la universidad de Chicago, Illinois, experto en ética robótica cree que el futuro humano será híbrido. La situación legal de los robots está aún por decidir y será una gran cuestión en las próximas décadas. Considera que llevar un teléfono móvil ya es una forma de aumentar nuestras capacidades. https://www.express.co.uk/news/science/1242682/Science-news-AI-robotics-human-machine-intelligence-transhumanism-Professor-David-J-Gunke por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

NEC, la compañía más importante en reconocimiento facial

Cientos de agencias gubernamentales de todo el mundo utilizan la tecnología dereconocimiento facial de NEC con más de 1000 despliegues. Se usa en aplicaciones policiales, para verificar atletas, voluntarios o a la prensa en los Juegos Olímpicos de Tokyo 2020. Recientemente surgió el escándalo de Clearview AI, pero otras compañías como Gemalto, Idemia, MorphoTrust y NEC siguen firmando contratos. El artículo narra la historia del reconocimiento facial y de la compañía NEC. A pesar del número de usuarios de FRT, no está clara cual es su precisión fuera de los laboratorios. Un análisis en 2018 mostraba que los productos comerciales eran un 30% menos precisos al identificar mujeres de color que hombres blancos.. Los defensores de la privacidad indican que una identificación equivocada en un crimen podría implicar injustamente a personas inocentes poniendo en cuestión la labor policial. La congresista Alejandra Ocasio-Cortez decía en una audiencia sobre reconocimientofacial en 2019

Para proteger a la gente necesitamos una IA diferente

Los productos de ciberseguridad no son capaces de frenar todas las brechas de seguridad. Los métodos tradicionales de machine learning no están preparados para las complejidades de las relaciones humanas y los comportamientos a través de negocios. Las personan tienen cada vez mayor poder por las herramientas informáticas y eso hace que los errores humanos supongan un mayor peligro. La gente comete equivocaciones, rompen las reglas, se distraen, se cansan. Se puede usar ML para identificar patrones normales, pero el comportamiento humano cambia con el tiempo. Así pues el aprendizaje de patrones no es suficiente para protegerse de las personas, el punto más d´bil de la cadena. https://venturebeat.com/2020/02/11/to-protect-people-we-need-a-different-type-of-machine-learning/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿IA frente a humanos? Horvitz prevee un futuro de asociación IA-humanos

Frente a la visión generalizada de IA contra los seres humanos, Eric Horvitz, directos de Microsoft Research Labs, prefiere ver un futuro de la IA trabajando con los humanos. Trató de varios casos en los que la cooperación es mayor que la suma de las partes, por ejemplo en diagnóstico médico, supervisión médica 24x7 y predicción con 12-24 h de antelación de un suceso. Horvitz habla de IA integradora. Reconoció que existe un lado oscuro de la IA, como el reconocimiento facial que falla con frecuencia. Cree que no es motivo para abandonar la IA. Estas preocupaciones están guiando a Microsoft hacia una IA responsable. Citó el comité ético de Microsoft Aether, pero no dió detalles sobre él. https://www.geekwire.com/2020/ai-vs-humans-microsofts-eric-horvitz-sees-future-ai-human-partnership/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La IA puede señalar cuando la correlación en realidad es causa-efecto

Una nueva investigación presentada en la conferencia de la AAAI en Nueva York prueba que se puede demostrar de forma útil y fiable que un caso de correlación en realidad es causalidad. La investigación se ha centrado en otras formas de observar las variables causantes. Una teoría con origen en la física es que las cosas se desordenan y complican con el tiempo, la entropía, así que la causa debe sermenos desordenada y complicada que su efecto. La teoría se ha aplicado al cáncer de mama y datasets de proteínas de señalización. En cada caso la IA señaló la variable causante. Se describen distintas pruebas. El algoritmo y los datasets están disponibles en abierto en arxiv. https://www.eurekalert.org/pub_releases/2020-02/b-aic020320.php por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Indra revoluciona el control de tráfico aéreo

Indra ha desarrollado tecnología de torres de control remotas. La primera experiencia ha sido Noruega. El centro va a controlar 36 de los 46 aeropuertos noruegos. https://www.eurasiareview.com/17022020-indra-revolutionizes-air-traffic-control-with-artificial-intelligence-remote-tower/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Europa puede ser el árbitro mundial de la IA, pero los árbitros no ganan

la UE quiere ser una potencia en IA, pero hasta ahora se ha centrado en establecer reglas. Así que la IA no se ha adoptado mucho en la UE. Las compañías europeas tienen que acudir a empresas americanas o chinas. La dependencia de tecnología extranjera trae dos problemas: uno geopolítico, el segundo es que dar acceso a los datos a compañías de IA existentes puede dilatar el desarrollo de empresas europeas. Para poder desarrollar la tecnología hace falta dinero y formación. Europa necesita poder entrenar los modelos con sus datos. La disposición de datos es clave, por eso la UE va a crear un mercado único de datos. Europa es líder en en regulación de IA pero no es suficiente para explotar su potencial. https://www.politico.eu/article/europe-may-be-the-worlds-ai-referee-but-referees-dont-win-margrethe-vestager/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La IA quiere quebrantar el orden mundial establecido

La IA está sacudiendo el orden mundial permitiendo a los pequeños países levantarse en un nuevo panorama competitivo. Actualmente la economía se mide por el PIB, pero en un mundo dirigido por la IA no será capaz de predecir el que tenga éxito. Se supone que serán aquellos que hagan  inversiones estratégicas ahora. EEUU ha sido el país que más ha invertido, son inversiones privadas lo que no implica una estrategia nacional de IA. China es el segundo país. Gasta en investigación en IA más que EEUU. Hay otros países que están invirtiendo bien como Singapur, Israel, Irlanda y Finlandia. Eso puede ser un salto importante. https://www.weforum.org/agenda/2020/02/ai-looks-set-to-disrupt-the-established-world-order-here-s-how por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El reconocimiento automatizado de emociones faciales no es compaible con GDPR

Esta tecnología no cumple con el requerimiento del consentimiento, según Marghette Vestager, vicepresidente de la UE para asuntos digitales. GDPR clasifica la información facial como datos personales sensibles. La vicepresidente Vestager ha dicho "China tiene los datos, EEUU el dinero y nosotros tenemos el propósito", https://thenextweb.com/neural/2020/02/17/automated-facial-recognition-breaches-gdpr-says-eu-digital-chief/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Plan de la UE: nuevas reglas, mejores impuestos

La UE cree que la desventaja en IA se debe a la falta de datos y a que las plataformas nube están fuera. La UE quiere que se compartan datos y que se almacenen  y procesen en la UE mediante la creación de un mercado único de datos. El presupuesto público-privado se estima en 20.000 M eur en la próxima década. Una de las medidas en poner impuestos a los gigantes tecnológicos que apenas tributan. https://euobserver.com/science/147454 por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los investigadores de emociones e IA dicen que las afirmaciones exageradas perjudican su reputación

Compañías como HireVue aseguran quede las grabaciones de las entrevistas de trabajo además de la cara y postura corporal, se puede sacar si el candidato es tenaz o si trabajará bien en equipo. Estas evaluaciones tienen gran impacto en el futuro del candidato. Esta técnica se está usando en EEUU y Corea del Sur. Hay desacuerdo en la comunidad sobre el fundamento científico de esos resultados. El negocio de reconocimiento de emociones valorado en 25.000 M$ se ha reducido en buena parte debido a los activistas y especialistas en ética que temen que esta tecnología discrimine como los algoritmos de predicción de sentencias o de selección de inquilinos. Los científicos que estudian microexpresiones están molestos por la mala reputación. https://www.technologyreview.com/s/615232/ai-emotion-recognition-affective-computing-hirevue-regulation-ethics/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Poner la Ética en en el Centro de la Innovación

Las nuevas tecnologías enriquecen y transforman nuestras vidas. Los nuevos productos tienen un gran potencial pero exponen al ser humano a nuevos riesgos. Para atender esto, Stanford va a prestar especial atención a la intersección de la ética, la sociedad y las tecnologías. https://stanfordmag.org/contents/putting-ethics-at-the-heart-of-innovation-marc-tessier-lavigne por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El peligro que supone la IA para la civilización

Se utiliza para cosas no esenciales La "inteligencia" de la IA supone un problema para la civilización. Se suele usar para cosas no esenciales, a veces egoístas. Incluso Google Maps, aunque útil, signigica que soy rastreado por mi teléfono al usarla. La IA realmente no trabaja para el usuario. Siempre que se usa IA es a cambio de la privacidad. Que el teléfono aprenda cómo me comporto y se adelante me hace sentirme niño. Facebook etiqueta las fotos que subo sin que se lo haya pedido. ¿Me beneficia? Es poner muy bajo el listón del beneficio. El problema es el coste: un incremento en dependencia externa que básicamente nos infantiliza. la IA no está empoderando a nadie,excepto a los gobiernos y otras organizaciones que se benefician de rastrear los movimiento, aplicar las normas y tratar a las personas como meros datos. Es interesante que cuando se automatizan cosas para objetivos no frívolos no solemos llamarlo IA. Por ejemplo los sistemas de pilotaje automático de las mod

Roadmap de IA de la Agencia Europea de Seguridad Aérea (EASA)

Es un documento que, partiendo de la estrategia europea de IA, muestra el previsible impacto de la IA en la aviación, tiempos de aplicación, confianza en la IA, los objetivos de EASA y el roadmap de EASA en IA. La cuestión transversal en la estrategia de la UE y de EASA en la IA es la Transparencia. https://www.easa.europa.eu/sites/default/files/dfu/EASA-AI-Roadmap-v1.0.pdf por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los sistemas que revindican "leer" las emociones plantean riesgos de discriminación

La profesora de psicología Lisa Feldman afirma que la "lectura" de las emociones a partir de las expresiones faciales se basa en ciencia anticuada. A pesar de que empresas como Unilever o Amazon aseguran haber ahorrado mucho tiempo, hay multitud de pruebas de que no existe un código universal de expresiones y emociones. https://www.theguardian.com/technology/2020/feb/16/ai-systems-claiming-to-read-emotions-pose-discrimination-risks por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El Directorado de Ciencia, Tecnología e Innovación de Sierra Laeona y Naciones Unidas acuerdan acelerar la IA

El DSTI y Naciones Unidas han firmado un Memorandum of Understanding para colaborar en IA para gobernanza, emprendimiento y el bien social https://www.dsti.gov.sl/dsti-and-undp-team-up-to-accelerate-sierra-leones-national-innovation-strategy-with-artificial-intelligence-and-evidence-based-approaches/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Es un abuso de la privacidad usar el reconocimento facial en investigación criminal?

Trae a colación la noticia de Clearview AI, una empresa que extrae imágenes de personas y sus  indentificaciones en la web y ofrece una aplicación de reconocimiento facial para identificar criminales. La aplicación ha resuelto crímenes de personas que no estaban en registros públicos en pocos minutos. Esta aplicación suscita problemas morales y es cuestionable su compatibilidad con el GDPR. El problema radica en la base de imágenes almacenadas, unos 3.000 millones ¿Es lícito recoger imágenes subidas a redes sociales y usarlas para tus propios fines? A subir imágenes a estos sitios se aceptan unas condiciones de uso y muchas de ellas prohiben su uso para reconocimiento facial. Es irónico que Google ponga pegas a incluir publicidad en este blog si incorporo en las entradas texto de las noticias, solamente para que se indexe su contenido, cuando eso es exactamente lo que hace Google para mostrar el resutado de las búsquedas. https://cincodias-elpais-com.cdn.ampproject.org/c/s/c

Próxima década en IA: Cuatro pasos hacia una IA robusta

El artículo considera la historia de la IA y cual podría ser en el futuro una IA más robusta aunque no sea superinteligencia. La idea es que la IA sea más fiable, si no, no se podrá confiar en ella. La narrow AI es ampliamente conocida por resolver problemas concretos excepcionalmente bien, como jugar  al ajedrez, pero no es transferible a otros problemas, ni siquiera a otras circunstacias sin un nuevo entrenamiento. Funcionan bien en entornos controlados, pero no en el mundo fluído y variable. Una IA robusta es lo contrario a una que funciona bien en muchos casos pero también falla en otros muy similares. Desde el principio la robustez no ha sido el objetivo. Solo se ha demostrado hambrienta de datos y con escasa capacidad de generalizar. Gary Marcus y Ernie Davis denominan comprensión profunda (deep understanding) a la capacidad no solo de correlar y discernir patrones sutiles, sino también la capacidad de ante cualquier escenario poder preguntar ónde, cuándo, quién, por qué,

Nuestra historia clínica es demasiado valiosa para ser explotada por los gigantes tecnológicos

La anonimización de datos es una técnica inútil para proteger la privacidad de los datos. La información anonimizada junto con otra información adicional puede mostrar mucho sobre nosotros. Recientes estudios muestran que se ha vendido a farmacéuticas americanas información del servicio de salud británico (NHS). La sociedad ha perdido el control de cómo los datos son recogidos y compartidos. Cuando alguien utiliza esos datos es poco probable llegar a saber su procedencia. El profesor Frank Pasquale lo llama "blackbox society". La regulación GDPR nos protege, pero es difícil de exigir a gran escala y a través de diferentes jurisdicciones. Las gigantes tecnológicas tienen algo de información, normalmente incompleta y no son muy transparentes sobre ello. La mayoría cree que este "capitalismo de la vigilancia" no es ético, pero poco se puede hacer frente al móvil de los beneficios. Este capitalismo de la vigilancia no se sirve sólo de los datos de internet, sino ta

Mark Zuckerberg: Facebook debe aceptar cierta regulación estatal

Zuckerberg reconoce cierto papel de tercero mediador de Facebook en las publicaciones y que pueden influir en elecciones, pero también su incapacidad de supervisar los 10.000M de contenidos que se publican diariamente. https://www.theguardian.com/technology/2020/feb/15/mark-zuckerberg-facebook-must-accept-some-state-regulation por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

No hay una solucion única para la explicabilidad en IA

Ksenia Ponomareva, y Simone Caenazzo han estudiado tres enfoques en la explicación de la redes neuronales y cada uno da resultados diferenes y complementarios. Ninguno es la varita mágica. https://www.risk.net/cutting-edge/views/7419571/no-silver-bullet-for-ai-explainability por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

IA Sostenible

El coste de lograr modelos del último crece de forma alarmante estableciendo una barrera difícil de superar. La IA no solo debe ser más precisa, también no empeorar el planeta. Se llama Red AI el el concepto de obtener los mejores resultados con la tecnología más reciente (state of the art SOTA) con la potencia de cálculo que haga falta. Paulatinamente en los congresos de IA se ha pasado de buscar aumentar la precisión a buscar también la eficiencia. Se denomina Green AI la investigación que busca mejorar los resultados sin aumenta los costes computacionales o incluso reducirlos. El artículo contempla la medida de diversas magnitudes de los costes. Trata la huella de carbono y la eficiencia. También de la transparencia en los costes de la IA. https://medium.com/ai2-blog/green-ai-db24a414a7a4 por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La Universidad Estatal de Penn abre un centro sobre IA socialmente responsable

El Centro Penn State para la Inteligencia Artificial Socialmente Responsable promueve el desarrollo reflexivo y la aplicación de la IA y estudia su impacto en todas las áreas del esfuerzo humano. Además de apoyar la investigación en la IA para el bien social y mitigar las amenazas de su mal uso. CPSAIS alentará que todas las actividades de investigación y desarrollo de la IA consideren las implicaciones sociales y éticas, así como las consecuencias intencionadas y no intencionadas. El centro incluirá profesorado de diferentes facultades. Noticia https://news.psu.edu/story/608338/2020/02/14/research/new-research-center-will-focus-socially-responsible-artificial por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Cambiando el ecosistema de la gobernanza de datos

El Instituto Ada Lovelace lanza Rethinking Data, un programa de investigación y participación pública para comprender y desarrollar nuevas narrativas de datos. Partirá del acceso internacional a los datos y las asociaciones de datos para informar las mejores prácticas y crear regulaciones que fortalezcan los derechos de datos. La primera área es cambiar las narrativas de los datos . Hablar de los datos como el nuevo petróleo, la nueva agua o el nuevo bacon implica diferentes connotaciones. La segunda es cambiar las prácticas con los datos . Considerar la mejor gobernanza y evitar que conduzcan a asimetrías de poder. La tercera área es cambiar las regulaciones . Existen diferentes normativas y otras provenir y es necesario armonización. Noticia https://www.adalovelaceinstitute.org/changing-the-data-governance-ecosystem-through-narratives-practices-and-regulations/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Simple Framework for Contrastive Learning of Visual Representations

SimCLR es un nuevo método de auto entrenamiento con imágenes. Mejora la precisión un 7% https://arxiv.org/abs/2002.05709 por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El reconocimiento facial podría ser prohibido temporalmente para uso policial

Un senador de los EEUU ha presentado una ley de moratoria del reconocimiento facial (facial recognition technologies FRT) en usos policiales. Las FRT se usan cada vez más en EEUU sin un debate apropiado o considerar su impacto. Las FRT muestran tendencias y errores en las personas de color y las mujeres, inmigrantes y activistas. La ley pretende evitar que se supriman los derechos de la Primera Enmienda. https://www.cnet.com/news/facial-recognition-could-be-temporarily-banned-for-law-enforcement-use/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Ley HB-4126, Esfuerzos para socavar la prohibición de las tecnologías de reconocimiento facial

El Estado de Oregón está tramitando la ley HB-4126 para prohibir que en las protestas callejeras se lleve cubierta la cara, a fin de poder identificar a los alborotadores. Los defensores de la prohibición de las tecnologías de reconocimiento facial (Facial Recognition Technology FRT) creen que es una excusa para dilatar su petición. También se quejan de que esas leyes solo afectan a las agencias del gobierno, no a los particulares y al mercado de información sobre datos biométricos. Comunicado https://cairoregon.org/wp-content/uploads/2020/02/CAIR-OR_2020-02-13_HB-4126-Public-Awareness-Campaign.pdf Noticias relacionadas Tech Ethics: A Disappointing Year in Review (2019) por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Marchena, el juez del Procès, avisa en la Universidad de Navarra sobre la importancia de la geolocalización

El juez Marchena disertó en la UNAV sobre el deecho y las nuevas tecnologías. Destacó que todos vamos dejando un rastro que hace que nuestra privacidad no sea tanta como esperamos. Esos datos pueden ser más importantes que el contenido de una conversación. Ha disertado sobre la reforma jurídica para considerar la información digital y la justicia. Noticia https://navarra.elespanol.com/articulo/sociedad/navarra-sociedad-marchena-universidad-navarra-juez-tribunal/20200212141525312124.html

Los padres del deep learning godfathers, Bengio, Hinton, y LeCun dicen que los fallos se pueden solucionar

geoffrey Hinton, Yann LeCun y Joshua Bengio han aparecido juntos en una conferencia sobre IA en Manhattan. Han abordado el futuro de la IA. Trataron sobre la falsa identificación de objetos usando redes generativas adversarias (GAN). LeCun restó importancia a las habladurías negativas sobre el deep learning. Los tres ganadores del Premio Turing se mostraron confiados en que el deep learning continuará avanzando. El aprendizaje auto supervisado es la gran esperanza. LeCun aseguró que el sentido común surgiría de ahí, lo cual suena excesivamente optimista. Bengio hablo de que la IA será capaz de inferir efectos a partir de causas. Los tres se mostraron esperanzados de una vuelta de la IA simbólica. Noticia https://www.zdnet.com/article/deep-learning-godfathers-bengio-hinton-and-lecun-say-the-field-can-fix-its-flaws/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La nieve y el hielo, un molesto obstáculo para los vehículos autónomos

La mayor parte de las pruebas de vehículos autónomos se realizan en lugares cálidos. Para llegar a ser útiles en cualquier lugar, eso debe cambiar. La nieve, el hielo, la niebla, añaden serias dificultades en el reconocimiento equivocado de señales, de peatones, etc https://www.wired.com/story/snow-ice-pose-vexing-obstacle-self-driving-cars/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Aún jugamos al escondite con la IA. Es un juego peligroso

La IA está empezando, los algoritmos son muy simples. Según Stuart Rusell la IA no es segura, es artificial. https://www.zdnet.com/article/we-are-still-playing-catch-up-with-ai-and-its-a-dangerous-game/ por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Cristos Goodrow: el algoritmo de YouTube

Goodrow lleva ocho años en TouTube. Es conocido como el hambre tras el "algoritmo de TouTube". Predecir el vídeo que encaja con cada usuario no es sencillo. La conversación con Lex Fridman trata sobre machime learning, videos virales, el usuario, que es el centro de todo. Vídeo https://www.youtube.com/watch?v=nkWmiNRPU-c por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Regular la IA en salud

La IA ofrece un enorme potencial para la salud. La GDPR establece reglas para evitar problemas de privacidad. https://digital.nhs.uk/blog/transformation-blog/2020/regulating-ai-in-health-and-care Healthcare, AI Principles Regulation National Strategies, por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los británicos temen que un ser tipo Terminator controlado por IA que "aprenda a hacer el mal"

Existe un cierto temor a que la IA pueda llevar a crear un ser malvado tipo Terminator. Los ciudadanos necesitan más seguridad del impacto positivo en sus vidas de la IA al ser usada por el el Gobierno, según recoge el Comité sobre Normas en la Vida Pública. Asegura que los organismos deben ser más transparentes sobre su uso cuando son utilizados con personas. Algunas personas creen que es como la tecnología de los cajeros del supermercado, otros que tienen propensión a tomar malas indecisiones por sí mismos. No tanto porque aprendan a ser malvados, sino porque alguien incluya en ellos ese código. Según el Comité no es necesario un nuevo regulador sino adaptar las leyes. La mayor preocupación es los sesgos (bias). https://www.dailymail.co.uk/news/article-7986765/Britons-fear-Terminator-style-takeover-AI-learns-bad-says-watchdog.html por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La IA ha llegad para quedarse,pero estamos sacrificando sefuridad y pivacidad

Nuevo curso de la universidad de Seattle sobre ética e IA https://www.seattletimes.com/business/technology/seattle-university-launches-public-course-to-bring-the-ethics-of-artificial-intelligence-to-the-masses/ AI Training, AI FATE (fairness accuracy transparency ethics),

Researchers develop artificial intelligence that can understand social cues

DARPA ha concedido 7,5 M$ a la Universidad de Arizona para un proyecto de detección de señales sociales e intercambios humanos. Estudian el intercambio de signos entre las personas: leguaje corporal y expresiones faciales. Las ciencias de la salud están también interesadas, por ejemplo para pacientes angustiados. La IA pretende comprender lo que los humanos intentan lograr. Una parte es ser capaces de leer las mentes, comprender el lenguaje natural https://www.wildcat.arizona.edu/article/2020/02/n-ai-grant-ua Emotions, por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

FACIAL RECOGNITION: HOW POLICING IN SCOTLAND MAKES USE OF THIS TECHNOLOGY

https://digitalpublications.parliament.scot/Committees/Report/JSP/2020/2/11/Facial-recognition--how-policing-in-Scotland-makes-use-of-this-technology Scottish Parliament Recent Reports Aithisgean ùra Committee Reports Aithisgean Chomataidh Research Briefings Brathan-ullachaidh Rannsachadh Feedback Ais-eòlas FACIAL RECOGNITION: HOW POLICING IN SCOTLAND MAKES USE OF THIS TECHNOLOGYSHARE Overview Report Sources 7 MEMBERS 4 REPORTS Justice Sub-Committee on Policing Website Email 0131 348 5220 Executive Summary The introduction of live facial recognition to policing in the UK is a relatively new phenomenon. Police Scotland has an ambition, outlined in its 10-year strategy, to introduce its use by 2026. Its assessment of the likely equalities and human rights impact as “likely to be positive in nature” is in stark contrast to the evidence received by the Justice Sub-Committee on Policing. The live facial recognition software which is currently available to the police service