Entradas

Mostrando entradas de octubre, 2020

¡Sonríe, estás siendo identificado! Riesgos y medidas para el uso del reconocimiento facial en espacios (semi) públicos

 Este artículo analiza el uso de la tecnología de reconocimiento facial (FRT) en espacios (semi) públicos con un enfoque en el contexto brasileño. Por lo tanto, se aborda el funcionamiento de la cadena de procesamiento de FRT, así como la naturaleza jurídica de la firma facial, enfocándose principalmente en el marco brasileño de protección de datos. FRT se ha utilizado en la vida cotidiana para varios fines, como seguridad, clasificación digital, marketing dirigido y protección de la salud. Sin embargo, el uso indiscriminado de FRT plantea grandes riesgos para la privacidad y la protección de datos. En esta perspectiva, para evitar daños como la inexactitud, la normalización de la cibervigilancia y la falta de transparencia, se identificaron salvaguardas para garantizar los derechos individuales, tales como soft law, fiscalización, estándares internacionales y sandboxes regulatorios. https://link.springer.com/article/10.1007/s43681-020-00014-3 Editado por Aniceto Pérez y Madrid, Especi

Algoritmos y democracia - AlgorithmWatch Online Policy Dialogue, 30 de octubre de 2020

 Cuando los sistemas de recomendación eligen qué información promover y qué ocultar, afectan profundamente lo que sabemos sobre el mundo. Naturalmente, asumimos que las cosas que vemos primero son las más importantes: las noticias más precisas, la opinión más compartida. Y las cosas que son empujadas hacia abajo en nuestros feeds, o eliminadas por completo por los sistemas de moderación de contenido, bueno, esas cosas bien podrían no existir. Esas son buenas noticias, por supuesto, si hablamos de contenido ilegal. Pero muchas veces, significa que estos sistemas eligen qué argumentos e ideas legítimos vemos, todo sin pedir nuestro permiso o incluso sin decirnos lo que están haciendo. Todo se parece un poco a The Truman Show, esa película en la que Jim Carrey vive en un mundo que cree que es real, pero que en realidad es solo un programa de televisión. El mundo que vemos a través de estas plataformas parece tan real que puede ser difícil recordar que en realidad está construido, construi

Ética de la IA: ¿Por qué importa?

 La IA no puede resolver los viejos problemas de la humanidad ni todos los problemas de la humanidad. Las grandes preguntas sobre la ética de la IA son las grandes preguntas de la sociedad. Por tanto, como sociedad, debemos decidir qué principios son importantes. Después de todo, "IA es lo que hacemos con ella" (Verhulst). El esfuerzo para asegurarse de que las tecnologías sean beneficiosas para la sociedad debe ser, entre otras cosas, un esfuerzo de colaboración global. En este esfuerzo, las instituciones de investigación académica que colaboran entre culturas y disciplinas tienen la oportunidad de generar un impacto valioso y único. https://ieai.mcts.tum.de/wp-content/uploads/2020/10/Research-Brief_WhyAIEthicsMatter_Final-1.pdf Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos d

La Coalición de la Sociedad Civil liderada por AlgorithmWatch pide reglas de transparencia vinculantes para las plataformas en línea

 Como organizaciones comprometidas con la defensa de los valores democráticos y los derechos fundamentales, vemos una necesidad urgente de comprometer las plataformas de Internet con un mayor nivel de transparencia. Proponemos que la UE debe mantener los principios clave del régimen de responsabilidad limitada descrito en la Directiva de comercio electrónico e introducir marcos de transparencia vinculantes que permitan el acceso a los datos para su escrutinio respetando la privacidad. Acogemos con beneplácito la Ley de Servicios Digitales (DSA) propuesta por la Comisión Europea e instamos a los responsables políticos de la UE a utilizar este "Reglamento moderno para servicios digitales" en Europa como una oportunidad para hacer que las plataformas rindan cuentas. https://algorithmwatch.org/en/governing-platforms-final-recommendations Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). L

Humans in the Loop: el diseño de sistemas de IA interactivos

A menudo nos preguntamos  cómo automatizar mejor una  tarea, pero la pregunta correcta debería ser con qué diseño nos gustaría vivir https://hai.stanford.edu/blog/humans-loop-design-interactive-ai-systems Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Dataficación sanitaria, fenotipado digital e "Internet de la salud"

 Hasta hace relativamente poco tiempo, los datos sobre la salud de una persona se registraban principalmente solo en entornos clínicos: notas médicas garabateadas por un médico o ingresadas en un sistema hospitalario, hallazgos de ensayos clínicos diseñados para comprender la enfermedad en una población o resultados de una prueba realizada por un hospital laboratorio. En estos entornos, las prácticas éticas establecidas como la confidencialidad médico-paciente y las regulaciones médicas aseguraron la integridad, seguridad y privacidad de esa información. Pero los datos sobre la salud de las personas ya no se limitan a los registros médicos y los ensayos clínicos. Ahora, las empresas de Big Data y Big Tech pueden recopilar información sobre la salud de las personas a partir de los datos obtenidos de sus interacciones diarias con dispositivos inteligentes y plataformas digitales. https://www.adalovelaceinstitute.org/health-datafication-digital-phenotyping-and-the-internet-of-health/ Edit

INFORME DE LA SOCIEDAD DE AUTOMATIZACIÓN 2020

 A medida que los sistemas automatizados de toma de decisiones ocupan un lugar central en distribuir derechos y servicios en Europa, instituciones de la región reconoce cada vez más su papel en la vida pública, tanto en términos de oportunidades y desafíos. https://automatingsociety.algorithmwatch.org/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Cómo los adolescentes terminaron operando partes cruciales del sistema de prueba y rastreo de Inglaterra

 Espeluznante relato sobre la adjudicación de la app de ratreo de contactos, privatización del rastreo manual y el empleo de rastreadores no cualificados. https://www.theguardian.com/commentisfree/2020/oct/28/england-coronavirus-covid-test-and-trace-teenagers?CMP=Share_AndroidApp_Other Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Deepfakes y el futuro de la verdad

 Es cada vez más fácil crear videos convincentes, pero falsos, mediante inteligencia artificial. Estos “deepfakes” pueden tener aplicaciones creativas en el arte y la educación, pero también pueden causar un gran daño, desde arruinar la reputación de una ex pareja hasta provocar conflictos internacionales o elecciones cambiantes. Cuando ver para no creer, ¿en quién podemos confiar y pueden sobrevivir la democracia y la verdad? https://www.bravenewplanet.org/episodes/deepfakes-and-the-future-truth Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Cómo utilizar la ética de la virtud para pensar en la posición moral de los robots sociales: una interpretación relacional en términos de prácticas, hábitos y desempeño

 Los robots sociales están diseñados para facilitar la interacción con los humanos a través del comportamiento "social". Como muestra la literatura en el campo de la interacción humano-robot, esto a veces conduce a un "mal" comportamiento hacia el robot o al "abuso" del robot. La ética de la virtud ofrece una forma útil de captar la intuición de que, aunque nadie resulta perjudicado cuando un robot es "maltratado", todavía hay algo malo en este tipo de comportamiento: daña el carácter moral de la persona que se involucra en ese comportamiento, especialmente cuando es habitual. Sin embargo, una de las limitaciones de las aplicaciones actuales de la ética de la virtud a los robots y la tecnología es su enfoque en el comportamiento individual e individual y la atención insuficiente a los aspectos temporales y corporales de la virtud. Después de posicionar su proyecto en relación con la obra de Shannon Vallor y Robert Sparrow, el presente artículo ex

Mind the Gap: Informe final del Grupo de trabajo sobre igualdad

 Los gobiernos y las empresas utilizan cada vez más los algoritmos para tomar decisiones 'automatizadas' basadas en datos que pueden tener consecuencias de gran alcance con poca transparencia, escrutinio o responsabilidad. Aunque la apariencia superficial de objetividad de los algoritmos parece eliminar los sesgos en la toma de decisiones humana, los algoritmos siempre reflejan las suposiciones de quienes los diseñaron y los patrones en los datos en los que están entrenados. Sin intervención ni supervisión, el estado natural de las tecnologías basadas en datos es replicar patrones pasados ​​de desigualdad estructural que están codificados en datos y proyectarlos hacia el futuro. Es vital que los responsables de la formulación de políticas comprendan esto. Para evitar este resultado, quienes usan algoritmos para tomar decisiones que afectan la vida de las personas, desde el nivel educativo hasta la contratación para pagar y los ascensos, deben tomar medidas activas y deliberadas

"Desarrollar sistemas autónomos de manera ética". Sistemas autónomos: problemas para los encargados de formular políticas de defensa

 Las armas y el equipo militares se benefician en gran medida de los avances tecnológicos. Estos avances han permitido a los combatientes atacar objetivos con mayor precisión y desde más lejos, lo que ha significado una mayor seguridad para las fuerzas militares y civiles y una capacidad mejorada para realizar las tareas asignadas. La última tecnología para mejorar la capacidad de los sistemas militares es la autonomía. Los sistemas militares están adquiriendo una mayor capacidad para realizar las tareas asignadas de forma autónoma, y ​​esta capacidad solo mejorará con el tiempo. La autonomía en los sistemas militares permite a los operadores humanos permanecer fuera de peligro y completar tareas que los sistemas tripulados no pueden (o completar estas tareas de manera más eficiente. Si la capacidad autónoma alcanza el potencial que muchos de sus partidarios creen que puede, esto cambiará radicalmente la forma en que Se llevan a cabo operaciones militares. Debido a que estos cambios pu

Inteligencia Artificial y Justicia Social

 Trata de justicia matemática, que es distinta de la justicia social Discute sobre tecno-chauvinismo. Sesgos de los padres de la IA: hombres, blancos, matemáticos, ivy league y oxbridge. Sesgos en los datos de entrenamiento. Las diferencias entre la "inteligencia" matemática basada en elpasado y la humana iterativa, creativa e ierativa. Lanecesidad de replantear no ya si entrenar mejor los algoritmos de vigilancia, sino si hay que desarrollarlos. Trata del escándalo de las notas del bachillerato internacional de 2020; hay que pensar qué es lo que se busca con  un algoritmo. https://www.youtube.com/watch?v=2ywuNv7pMlc&feature=emb_logo Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La inteligencia artificial como servicio público: aprender de Amsterdam y Helsinki

 El 28 de septiembre de 2020, en la Next Generation Internet Summit, Helsinki y Amsterdam anunciaron el lanzamiento de sus registros abiertos de IA. Son las primeras ciudades en ofrecer un servicio de este tipo en el mundo (Ciudad de Helsinki 2020). Los registros de IA describen qué, dónde y cómo se utilizan las aplicaciones de IA en los dos municipios; qué conjuntos de datos se utilizaron con fines de capacitación; cómo se evaluaron los algoritmos para detectar posibles sesgos o riesgos; y cómo los humanos usan los servicios de IA. Los registros también ofrecen un canal de retroalimentación, que está destinado a permitir una mayor participación, con información sobre el departamento de la ciudad y la persona responsable del servicio de IA. El objetivo es hacer que el uso de las soluciones de IA urbana sea tan responsable, transparente y seguro como otras actividades del gobierno local, para mejorar los servicios y las experiencias de los ciudadanos. https://link.springer.com/article/1

Gran promesa pero potencial de peligro

 Pero su promesa revolucionaria de hacer cosas como mejorar la eficiencia, reducir los costos y acelerar la investigación y el desarrollo se ha atenuado últimamente con la preocupación de que estos sistemas complejos y opacos puedan causar más daño social que beneficio económico. Prácticamente sin supervisión del gobierno de EE. UU., Las empresas privadas utilizan software de inteligencia artificial para tomar decisiones sobre salud y medicina, empleo, solvencia e incluso justicia penal sin tener que responder por cómo se aseguran de que los programas no estén codificados, consciente o inconscientemente, con sesgos estructurales. https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de

Un marco socio-técnico para el rastreo digital de contactos

 En sus esfuerzos por abordar la crisis de COVID-19, los tomadores de decisiones están considerando el desarrollo y uso de aplicaciones de teléfonos inteligentes para el rastreo de contactos. Aunque estas aplicaciones difieren en tecnología y métodos, existe una preocupación creciente por sus implicaciones para la privacidad y los derechos humanos. Aquí proponemos un marco para evaluar su idoneidad en términos de impacto en los usuarios, tecnología empleada y métodos de gobernanza. Ilustramos su uso con tres aplicaciones, y con las directrices de la Junta Europea de Protección de Datos (EDPB), destacando sus limitaciones. https://www.sciencedirect.com/science/article/pii/S2590123020300694 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

LA INTELIGENCIA ARTIFICIAL Y EL PROBLEMA DE LA AUTONOMÍA

 Se dice de manera rutinaria que los sistemas de inteligencia artificial (IA) operan de manera autónoma, exponiendo brechas en los regímenes regulatorios que asumen la centralidad de los actores humanos. Sin embargo, sorprendentemente se presta poca atención a lo que se entiende por "autonomía" y su relación con esas brechas. Los vehículos sin conductor y los sistemas de armas autónomos son los ejemplos más estudiados, pero surgen problemas relacionados en los algoritmos que asignan recursos o determinan la elegibilidad para programas en el sector público o privado. Este artículo desarrolla una novedosa tipología de autonomía que distingue tres desafíos regulatorios discretos que plantean los sistemas de IA: las dificultades prácticas de gestionar el riesgo asociado con las nuevas tecnologías, la moralidad de que ciertas funciones sean asumidas por las máquinas y la brecha de legitimidad cuando las autoridades públicas delegan sus poderes a los algoritmos. https://ndlsjet.com

Ética e inteligencia artificial

 La inteligencia artificial (IA) y todas las aplicaciones y servicios basados en esta tecnología han recibido una atención considerable por parte de la comunidad científica y empresarial durante los últimos años. Si bien es cierto que los medios de comunicación y otras plataformas de divulgación han contribuido a crear unas expectativas desmedidas respecto a las posibilidades de la IA, también lo es que dicha tecnología se encuentra ya presente en muchas de nuestras actividades cotidianas: desde realizar una búsqueda en Internet hasta escuchar música desde nuestros dispositivos o solicitar un préstamo bancario. https://www.iese.edu/wp-content/uploads/2019/12/ST-0522.pdf Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Expectativas de inteligencia artificial y la performatividad de la ética: implicaciones para la gobernanza de la comunicación

 Este artículo se basa en la sociología de las expectativas para examinar la construcción de expectativas de la "IA ética" y considera las implicaciones de estas expectativas para la gobernanza de la comunicación. Primero analizamos una variedad de documentos públicos para identificar los actores, mecanismos y problemas clave que estructuran las expectativas sociales en torno a la inteligencia artificial (IA) y un discurso emergente sobre la ética. Luego, exploramos las expectativas de la inteligencia artificial y la ética a través de una encuesta a miembros del público. Finalmente, discutimos las implicaciones de nuestros hallazgos para el papel de la IA en la gobernanza de la comunicación. Descubrimos que, a pesar de las expectativas de la sociedad de que podemos diseñar una IA ética y de las expectativas del público de que los desarrolladores y los gobiernos deben compartir la responsabilidad de los resultados del uso de la IA, existe una divergencia significativa entre es

Innovación disruptiva e incertidumbre moral

 Este artículo desarrolla una explicación filosófica de la ruptura moral. Según Robert Baker (2013), la disrupción moral es un proceso en el que las innovaciones tecnológicas socavan las normas morales establecidas sin conducir claramente a un nuevo conjunto de normas. Aquí analizo este proceso en términos de incertidumbre moral, formulando un relato filosófico con dos variantes. En la Cuenta de daños, tal incertidumbre es siempre dañina porque bloquea nuestro conocimiento de nuestras obligaciones morales y de los demás. En la Cuenta del Daño Calificado, no hay daño en los casos en que la incertidumbre moral está relacionada con la innovación que es "para lo mejor" en una perspectiva histórica, o donde la incertidumbre es la expresión de una virtud deliberativa. Los dos relatos se comparan aplicándolos al caso histórico de Baker sobre la introducción de tecnologías de ventilación mecánica y trasplante de órganos, así como al caso actual de prácticas de datos masivos en el dom

El nuevo concepto de privacidad: la transformación estructural de la visibilidad

  El concepto de  privacidad  ha ido cobrando protagonismo en el debate público y académico según han ido aumentando las voces que proclaman su desaparición por los efectos de las tecnologías de la información. A diferencia de otros conceptos limítrofes —como  intimidad  o  vida privada —, este nuevo concepto de privacidad comprende un nuevo régimen de visibilidad que afecta a la configuración del espacio público digital (EPD). A través del estudio histórico de cómo se ha formado este nuevo concepto, expongo las cuatro dimensiones del contexto de experiencia que recoge: 1) la imposibilidad del secreto en el ciberespacio; 2) el desarrollo de una economía de la vigilancia que ha llevado a la hiperfragmentación del EPD y 3) a la transformación de la visibilidad de este ámbito público, y 4) el carácter esencialmente reactivo de este nuevo concepto de privacidad. https://recyt.fecyt.es/index.php/RevEsPol/article/view/74389 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inte

AD BREAK FOR EUROPE THE RACE TO REGULATE DIGITAL ADVERTISING AND FIX ONLINE SPACES

 Europa se encuentra en una posición y un momento únicos en su relación con las tecnologías y los servicios digitales. A principios de 2020, la Comisión Europea presentó una serie de propuestas que exponen el enfoque de la UE sobre los datos, la inteligencia artificial y la regulación de plataformas durante los próximos cinco años y más allá. En palabras de la Comisaria Margrethe Vestager, esta agenda es nada menos que la segunda oportunidad de Europa de convertirse en líder mundial en tecnología. https://assets.mofoprod.net/network/documents/Ad_Break_for_Europe_FINAL_online.pdf Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

INFORME sobre los derechos de propiedad intelectual para el desarrollo de las tecnologías relativas a la inteligencia artificia

 Recuerda que los métodos matemáticos como tales no son patentables, a menos que se empleen con fines técnicos en el contexto de inventos técnicos, en cuyo caso son patentables solo si se respetan los criterios aplicables en materia de inventos; señala, además, que, en caso de que un invento esté relacionado con un método en el que intervengan medios técnicos o con un dispositivo técnico, su finalidad, considerada en su conjunto, es, de hecho, de carácter técnico y, por lo tanto, no se excluye su patentabilidad; pone de relieve, a este respecto, la función del marco de protección mediante patente a la hora de incentivar los inventos de IA y fomentar su difusión, así como la necesidad de crear oportunidades para las empresas europeas y las empresas emergentes al objeto de impulsar el desarrollo y a adopción de la IA en Europa; señala que las patentes esenciales para una norma desempeñan un papel fundamental en el desarrollo y la difusión de las novedades en la IA y en las tecnologías co

First Steps Towards an Ethics of Robots and Artificial Intelligence

 Este artículo ofrece una descripción general de las principales cuestiones éticas de primer orden planteadas por los robots y la inteligencia artificial (RAI) en cinco grandes rubros: funcionalidad, importancia inherente, derechos y responsabilidades, efectos secundarios y amenazas. La primera letra de cada rúbrica en conjunto genera convenientemente el acrónimo FIRST. Se presta especial atención a las rúbricas de funcionalidad y significado inherente dada la centralidad de la primera y la tendencia a descuidar la segunda en virtud de su carácter algo nebuloso y controvertido. Además de explorar algunos problemas ilustrativos que surgen bajo cada rúbrica, el artículo también enfatiza una serie de temas más generales. Estos incluyen: la multiplicidad de niveles interactivos en los que surgen preguntas éticas sobre los RAI, la necesidad de reconocer que los RAI potencialmente implican a toda la gama de valores humanos (en lugar de exclusiva o principalmente a un subconjunto fácilmente i

Atención reguladores de la UE: necesitamos algo más que "ética" de la IA para mantenernos a salvo

 En esta publicación, Access Now y European Digital Rights (EDRi) analizan los desarrollos recientes en el debate sobre la IA de la UE y explican por qué necesitamos un enfoque audaz y de líneas brillantes que priorice nuestros derechos fundamentales. Esto fue coescrito por Sarah Chander, asesora principal de políticas de EDRi, y Ella Jakubowska, oficial de políticas y campañas de EDRi. Los últimos meses han sido un viaje tumultuoso para aquellos de nosotros preocupados por garantizar la protección de nuestros derechos fundamentales a medida que la UE desarrolla su política de inteligencia artificial (IA). Si bien los vicepresidentes de la Comisión de la UE, Vestager y Jourová, se comprometieron recientemente a combatir "de manera proactiva" la amenaza de los sistemas de IA que refuerzan la discriminación estructural, otros desarrollos han sido menos prometedores. Varios Estados miembros han adoptado una posición firme en contra de la regulación en el debate, y ayer el Parlam

¿Se pierde el ser humano en el proceso de contratación?

 El proceso de contratación se está volviendo cada vez más automatizado, y las empresas implementan algoritmos para realizar búsquedas de palabras clave y análisis de videos. Entonces, ¿dónde está el lugar de la humanidad en este sistema cada vez más automatizado? Para demostrar esto, me refiero a los esfuerzos tanto federales como estatales para preservar su posición, con los esfuerzos individualizados de la ciudad también destacando de manera prominente en este esfuerzo. Luego considero cómo las empresas pueden navegar en este campo y asegurarme de que también mantengan el lugar de la humanidad en el proceso. A pesar de que el control se cede cada vez más a la automatización, los esfuerzos estatales y federales han asegurado que parte de esto haya regresado a los candidatos involucrados. Gracias al poder de la automatización, cada vez más empresas utilizan procesos de contratación automatizados para ayudar con el procesamiento de candidatos. Desde el análisis de videos con inteligenc

La equidad de la IA no es solo una cuestión ética

 Para aprovechar plenamente las oportunidades rentables de la IA, primero debemos comprender de dónde provienen los sesgos. A menudo se asume que la tecnología es neutral, pero la realidad está lejos de serlo. Los algoritmos de aprendizaje automático son creados por personas, todas con sesgos. Nunca son completamente "objetivos"; más bien reflejan la visión del mundo de quienes los construyen y los datos con los que se alimentan. Los juicios humanos sesgados pueden afectar los sistemas de IA de dos formas diferentes. El primero es el sesgo en los datos de los que aprenden los sistemas. Puede ver este juego por sí mismo: realice una búsqueda de imágenes en Google para "corte de pelo profesional" y otra para "corte de pelo no profesional". El "corte de pelo profesional" arroja resultados que son exclusivamente de hombres blancos, mientras que el "corte de pelo no profesional" tiene mucha más diversidad racial y de género. (Este problema f

Más que sentimientos

 El sesgo es endémico en la aplicación de la ley de EE. UU. La computación afectiva puede exacerbarlo. Por ejemplo, como ha descubierto la investigadora Lauren Rhue, "las expresiones faciales de los hombres negros se puntúan con las emociones asociadas con comportamientos amenazantes con más frecuencia que los hombres blancos, incluso cuando están sonriendo". También es probable que haya problemas de muestreo. Si se desarrolla una base de datos de agresión a partir de la observación de un subconjunto particular de la población, la IA resultante puede ser mucho mejor para encontrar “comportamiento sospechoso” en ese subconjunto que en otros. Aquellos que estuvieron más expuestos a los sistemas de vigilancia en el pasado pueden ser mucho más propensos a sufrir juicios computacionales de su comportamiento como "amenazantes" o algo peor. Los Robocops del futuro son "aprendizaje automático" a partir de datos distorsionados por un pasado plagado de discriminació

Las empresas se apresuran a utilizar la inteligencia artificial, pero pocas ven una recompensa

 El informe destaca las empresas que implementaron la IA como parte de un replanteamiento más amplio de cómo operan y, como resultado, obtuvieron mayores retornos. Repsol, por ejemplo, una empresa española de energía y servicios públicos, utiliza IA para identificar problemas en sus operaciones de perforación; coordinar la mezcla, el almacenamiento y la entrega de aceite; y generar automáticamente ofertas para los clientes. Pero el informe sugiere que Repsol se beneficia más de cómo aprende de estos procesos y, como resultado, implementa nuevas prácticas comerciales. https://www.wired.com/story/companies-rushing-use-ai-few-see-payoff/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La ola de ciberataques rusos muestra cómo se ve la guerra sin restricciones en Internet

El lunes, las autoridades de EE. UU. Y el Reino Unido acusaron a la unidad de planificar un ciberataque en los Juegos Olímpicos y Paralímpicos de 2020 en Tokio. No solo causaron confusión e inconvenientes. Aparte de su supuesto papel en el ascenso de Donald Trump, están acusados de privar a cientos de miles de ucranianos de luz y calor en pleno invierno y de cerrar los sistemas informáticos de un importante hospital de Pensilvania. Sus hazañas son un anticipo de la guerra cibernética sin restricciones que podría parecer en el mundo real. La acusación de Estados Unidos de seis agentes Sandworm, todos oficiales de inteligencia militar de GRU, da una descripción detallada de cómo se ocuparon de sus asuntos.  https://www.theguardian.com/technology/2020/oct/19/russian-hackers-cyber-attack-spree-tactics Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su es

Aprendizaje automático interpretable: breve historia, estado de la técnica y desafíos

 Presentamos una breve historia del campo del aprendizaje automático interpretable (IML), brindamos una descripción general de los métodos de interpretación de vanguardia y discutimos los desafíos. La investigación en IML se ha disparado en los últimos años. Tan joven como es el campo, tiene más de 200 años de raíces en el modelado de regresión y el aprendizaje automático basado en reglas, a partir de la década de 1960. Recientemente, se han propuesto muchos métodos nuevos de IML, muchos de ellos independientes del modelo, pero también técnicas de interpretación específicas para el aprendizaje profundo y los conjuntos basados ​​en árboles. Los métodos de IML analizan directamente los componentes del modelo, estudian la sensibilidad a las perturbaciones de entrada o analizan aproximaciones sustitutas locales o globales del modelo de ML. El campo se acerca a un estado de preparación y estabilidad, con muchos métodos no solo propuestos en la investigación, sino también implementados en so

La ética de los algoritmos: problemas y soluciones clave

 La investigación sobre la ética de los algoritmos ha crecido sustancialmente durante la última década. Junto al desarrollo exponencial y aplicación de algoritmos de aprendizaje automático, nuevos problemas éticos y Se han propuesto soluciones relacionadas con su uso ubicuo en la sociedad. Este artículo se basa en una revisión de la ética de los algoritmos publicado en 2016 (Mittelstadt et al. 2016). Los golas deben contribuir a el debate sobre la identificación y análisis de las implicaciones éticas de los algoritmos, para proporcionar una análisis actualizado de preocupaciones epistémicas y normativas, y para ofrecer una guía práctica para el gobernanza del diseño, desarrollo y despliegue de algoritmos. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3662302 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan ne

Según se informa, la Universidad de Miami utilizó el reconocimiento facial para disciplinar a estudiantes manifestantes

 La Universidad de Miami utilizó una red de cámaras de vigilancia y software de reconocimiento facial para rastrear a los estudiantes involucrados en una protesta el mes pasado contra la decisión de la universidad de reanudar las clases presenciales durante la pandemia. Eso es según el Miami New Times, que informa que después de ser identificados en las imágenes de vigilancia, los estudiantes recibieron correos electrónicos que les ordenaban presentarse ante los administradores de la universidad para ser interrogados. https://www.democracynow.org/2020/10/16/headlines/university_of_miami_reportedly_used_facial_recognition_to_discipline_student_protesters Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Iniciativa pionera une ética y tecnología

Durante dos décadas, el florecimiento de la era digital ha sido recibido con un optimismo de cielos azules, definido por una creencia inquebrantable de que cada nuevo avance tecnológico, ya sean computadoras personales más potentes, Internet más rápido, teléfonos celulares más inteligentes o redes sociales más personalizadas, solo sería mejorar nuestras vidas. Pero el sentimiento público se ha cuajado en los últimos años con revelaciones sobre empresas de Silicon Valley y minoristas en línea que recopilan y comparten datos de personas, redes sociales manipuladas por malos actores que difunden información falsa o sembran discordia y algoritmos corporativos que utilizan métricas opacas que favorecen a algunos grupos sobre otros. Estas preocupaciones se multiplican a medida que la inteligencia artificial (IA) y las tecnologías de aprendizaje automático, que hicieron posible muchos de estos avances, silenciosamente comienzan a apartar a los humanos, asumiendo roles más importantes en el ma

Automatización, COVID y el futuro del trabajo

Desde que Carl Benedikt Frey y Michael Osborne de Oxford publicaron su artículo sobre el potencial de la automatización de los trabajos en 2013, ha surgido una oleada de preocupación sobre el impacto que las diversas tecnologías de la cuarta revolución industrial podrían tener en el mercado laboral. Dado que para muchos, la narrativa predominante ha sido que la incesante marcha de la tecnología digital consumirá todos los puestos de trabajo a su paso, una pandemia de COVID-19 que ha acelerado de muchas maneras la transformación digital también podría haber acelerado la automatización de la fuerza laboral. Es una narrativa que tiene un elemento de verdad. Un informe reciente de Dell destacó la forma en que COVID ha acelerado los esfuerzos de transformación digital que muchas organizaciones habían estado emprendiendo antes de la pandemia, aunque áreas como la ciberseguridad recibieron tanta inversión como la reconstrucción de modelos comerciales. También es notable que tecnologías como l

Europa y América se están enfrentando a los gigantes tecnológicos. Gran Bretaña necesita unirse a la lucha

 Es hora de abordar el capitalismo monopolista y, en particular, el capitalismo monopolista de datos, que ha sido acelerado por Covid-19, lo que obliga al mundo a vivir y trabajar en línea. Una presidencia de Joe Biden, cada vez más probable, y una UE que no se vea obstaculizada por la renuencia británica a hacer algo audaz para reformar o incluso gravar a un sector privado monopolista están listos para hacer una causa común. Actuarán en sincronía para atacar el ahora desconcertante poder de monopolio de los gigantes de la alta tecnología al abordar su base: la posesión simultánea de plataformas digitales fundamentales y la prestación desenfrenada de los servicios en ellas. Juntos, continuarán para recuperar el funcionamiento de Internet y ampliar el control individual de los datos personales. Además, Biden, si cumple sus promesas de campaña de desafiar las empresas estadounidenses impulsadas por el valor de los accionistas, actuar sobre la crisis climática y ampliar los derechos sindi

Hacer que la Inteligencia Artificial sea ética, segura e innovadora

 El Comité de Asuntos Jurídicos adoptó el jueves tres informes sobre cuestiones específicas relacionadas con el mayor desarrollo y uso de sistemas de inteligencia artificial. Se espera que la Comisión presente una propuesta legislativa al respecto a principios de 2021. Marco ético para la IA La iniciativa legislativa de Iban García del Blanco (S&D, ES), aprobada con 20 votos a favor, ninguno en contra y 4 abstenciones, insta a la Comisión de la UE a presentar un nuevo marco legal en el que se definan los principios éticos que se deben utilizar en el desarrollo, despliegue y uso inteligencia artificial, robótica y tecnologías relacionadas en la UE, incluidos software, algoritmos y datos. Los eurodiputados aprobaron propuestas sobre varios principios rectores que deben tenerse en cuenta en las leyes futuras, incluida una IA centrada en el ser humano, creada por el ser humano y controlada por el ser humano; seguridad, transparencia y responsabilidad; salvaguardias contra prejuicios y

Singapur lanza una guía de referencia sobre gobernanza y ética de la IA

 Las empresas de Singapur que buscan adoptar tecnologías de inteligencia artificial (IA) de manera responsable ahora pueden acceder a un documento de referencia para ayudarlas a hacerlo. Se promociona el Cuerpo de conocimientos sobre ética y gobierno de la IA (BoK) para proporcionar una guía de referencia para los líderes empresariales y los profesionales de TI sobre los aspectos éticos relacionados con el desarrollo y la implementación de tecnologías de IA. Lanzado por el grupo industrial Singapore Computer Society (SCS), el BoK se creó en base a la experiencia de más de 60 personas de entornos multidisciplinarios, con el objetivo de ayudar en el despliegue "responsable, ético y centrado en las personas" IA para una ventaja competitiva. Abarca casos de uso para describir los resultados positivos y negativos de la adopción de la IA y analiza el potencial de la tecnología para respaldar un ecosistema "seguro" cuando se utiliza correctamente. El BoK se desarrolló en b

Ha oído hablar de los paraísos fiscales. Después del Brexit, el Reino Unido podría convertirse en un 'paraíso de datos'

 El mes pasado, el Reino Unido publicó su estrategia nacional de datos. Oliver Dowden, el secretario digital, escribió que, según la estrategia del Reino Unido, "los datos y el uso de datos se ven como oportunidades que se deben aprovechar, en lugar de amenazas contra las que protegerse". Nadie duda de que existen buenas oportunidades en los datos, pero no sería prudente centrarse demasiado en los beneficios potenciales de los datos y descuidar las amenazas que conlleva la recopilación y el uso de datos personales. Uno podría comenzar a preocuparse razonablemente de que el Reino Unido opte por un enfoque demasiado inseguro cuando la estrategia se refiere a abordar las barreras a los datos, que, según afirma, van desde “barreras legales (reales y percibidas) hasta bloqueadores culturales y aversión al riesgo”. La preocupación podría aumentar a la luz de las opiniones del asesor principal número 10, Dominic Cummings, sobre los datos. No solo apoyó la vasta recopilación de datos

La barrera más grande para la IA humana y ética: el capitalismo en sí

 Pero aunque estas voces son cada vez más fuertes, todavía chocan contra los sistemas de poder que valoran las ganancias y el status quo sobre garantizar que la IA se construya de una manera que no sea dañina para las personas marginadas y la sociedad en general. En un panel de discusión para el Festival de Innovación 2020 de Fast Company, los expertos en IA ética explicaron a qué se enfrentan al tratar de cambiar la forma en que las grandes empresas e instituciones piensan sobre la creación e implementación de IA. https://www.fastcompany.com/90558020/ai-ethics-money-facial-recognition-fei-fei-li Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

¿Qué tan segura es nuestra dependencia de la IA? ¿deberíamos regularla?

A l final, será necesaria algún tipo de regulación de terceros, porque algunas aplicaciones de IA, como el reconocimiento facial o los videos deepfake, son demasiado fáciles de usar para los malos actores. Sin embargo, el problema de la regulación gubernamental contraproducente y derrochadora podría reducirse significativamente si aquellos que están en el negocio de pensar y crear IA pueden regularse de manera efectiva. https://link.springer.com/article/10.1007/s43681-020-00010-7 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Transparencia significativa y algoritmos (in)visibles

Los esfuerzos en curso de los investigadores revelan casos individuales de preocupación, pero sigue habiendo un déficit sistémico persistente en la comprensión del público sobre dónde y cómo se utilizan estos sistemas. Esto apunta a una cuestión fundamental de transparencia. La transparencia tiene una larga tradición en el trabajo anticorrupción y es un elemento central en los debates de responsabilidad algorítmica, tanto en los campos de la regulación como en la ética de los datos. En los últimos años, ha habido reiterados llamamientos a la transparencia de los sistemas ADM, aunque con poco efecto, posiblemente porque tales llamamientos han tendido a adoptar la forma de posicionamiento retórico de alto nivel en lugar de propuestas sustantivas. Las organizaciones de la sociedad civil han ido un paso más allá, al sugerir que las organizaciones del sector público deberían utilizar mecanismos de transparencia como la obligación de informar y la institución de registros públicos. [2] A pes

Renuncie a Google, no presione 'aceptar todo': cómo luchar por su privacidad

Privacy is Power está disponible justo cuando el gobierno del Reino Unido ha lanzado su nueva aplicación de rastreo de contactos. Véliz dice que hay pocos indicios de que será eficaz, y ciertamente no sin pruebas masivas que las acompañen, porque cuando se advierte a las personas que han entrado en contacto con un caso confirmado, ya habrán infectado a otros. “La primera aplicación fue un completo fiasco y todos sabían que lo sería”, dice Véliz. Queda por ver si la segunda es una mejora, pero los riesgos de privacidad y seguridad son una certeza. Los investigadores del Imperial College estiman que los rastreadores instalados en los teléfonos de solo el 1% de la población de Londres podrían controlar la ubicación en tiempo real de más de la mitad de la ciudad. https://www.theguardian.com/books/2020/sep/28/carissa-veliz-intrusion-privacy-is-power-data Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplea

Detrás de Cambridge Analytica se esconde una amenaza mayor para nuestra democracia: Facebook

 El comisionado de información (ICO), el regulador de protección de datos del Reino Unido, ha concluido su investigación de larga duración sobre Cambridge Analytica. Como muchos habían esperado, esto no encontró una prueba irrefutable. A pesar de las preocupaciones sobre sus prácticas de datos, la consultoría política de corta duración terminó funcionando como una distracción. Pero todavía hay razones reales para preocuparse por el impacto de las empresas de tecnología, especialmente Facebook, en nuestra democracia. Necesitamos confrontar sus modelos comerciales de vigilancia, su posición cada vez más central en la sociedad digital y el poder que ahora tienen como resultado. En las elecciones estadounidenses de 2016, Cambridge Analytica utilizó técnicas de ciencia de datos comunes para predecir las opiniones políticas de los votantes y orientarlos con anuncios en Facebook. Su participación en el referéndum de la UE en el Reino Unido, concluye la ICO, se extendió a un trabajo limitado c

Una bomba de relojería: el peligro real y actual de la economía de datos

 Los datos en línea son un problema mucho mayor que los irritantes anuncios personalizados de productos vergonzosos y préstamos dudosos. La enorme cantidad de datos personales que circulan en Internet no puede subestimarse y está socavando la igualdad y la democracia, según un nuevo libro de la Dra. Carissa Véliz de Oxford. Ella sostiene que ahora somos sujetos de un poderoso mundo de datos, que va al corazón de las economías y el gobierno democrático, y sobre el cual tenemos muy poco control. La privacidad es poder exige el fin de la economía de datos. Los datos personales, argumenta, no son el tipo de cosas que deberían permitirse comprar y vender. https://www.ox.ac.uk/news/arts-blog/ticking-time-bomb-real-and-present-danger-data-economy Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos d

La próxima generación de inteligencia artificial

 El campo de la inteligencia artificial avanza rápido. Solo han pasado 8 años desde que comenzó la era moderna del aprendizaje profundo en la competencia ImageNet de 2012. El progreso en el campo desde entonces ha sido impresionante e implacable. En todo caso, este ritmo vertiginoso solo se está acelerando. Dentro de cinco años, el campo de la IA se verá muy diferente al actual. Los métodos que actualmente se consideran de vanguardia habrán quedado obsoletos; métodos que hoy son incipientes o marginales serán la corriente principal. Artículo demasiado optimista sobre las capacidades del aprendizaje no supervisado https://www.forbes.com/sites/robtoews/2020/10/12/the-next-generation-of-artificial-intelligence/#6cad8bac59eb Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor

La innovación disruptiva y la incertidumbre moral

 Este artículo desarrolla una explicación filosófica de la ruptura moral. Según Robert Baker (2013), la disrupción moral es un proceso en el que las innovaciones tecnológicas socavan las normas morales establecidas sin conducir claramente a un nuevo conjunto de normas. Aquí analizo este proceso en términos de incertidumbre moral, formulando un relato filosófico con dos variantes. En la Cuenta de daños, tal incertidumbre es siempre dañina porque bloquea nuestro conocimiento de nuestras obligaciones morales y de los demás. En la Cuenta del Daño Calificado, no hay daño en los casos en que la incertidumbre moral está relacionada con la innovación que es "para lo mejor" en una perspectiva histórica, o donde la incertidumbre es la expresión de una virtud deliberativa. Los dos relatos se comparan aplicándolos al caso histórico de Baker sobre la introducción de tecnologías de ventilación mecánica y trasplante de órganos, así como al caso actual de prácticas de datos masivos en el dom

Cinco problemas tecnológicos que enfrenta la próxima administración

 Grotto y Zacharia llevaron su propuesta de camino al New York Times, ABC, NPR y otros. “Todavía no hemos encontrado una organización de noticias que tenga un plan en marcha”, dice Zacharia. Ella y Grotto aconsejaron a las organizaciones que se consideraran a sí mismas un adversario objetivo. “Piensa si te están engañando o usando”, dice, “aumenta tu escepticismo. Desarrolle el músculo de su organización para determinar el origen y la naturaleza de la información viral ". https://hai.stanford.edu/blog/expert-roundtable-five-tech-issues-facing-next-administration Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

"Ha sido muy, muy malo": cómo los votantes hispanos están siendo atacados por la desinformación

Las comunidades hispanas son clave para algunos de los distritos indecisos más críticos en las elecciones y están siendo bombardeadas por propaganda online.  https://www.technologyreview.com/2020/10/12/1010061/hispanic-voter-political-targeting-facebook-whatsapp/ Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn). Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

En Facebook la desinformación es ahora más popular que en 2016

 El problema persiste, excepto que hay más personas que se involucran más con #fakenews: las plataformas cuyo modelo de negocio son los anuncios se benefician del contenido viral; las noticias falsas tienden a ser más virales que las verdaderas; va en contra de los resultados de Facebook deshacerse de dicho contenido (Carissa Véliz) La gente se está involucrando más en Facebook hoy en día con medios de comunicación que publican información errónea de forma rutinaria que antes de las elecciones de 2016, según una nueva investigación del German Marshall Fund Digital, el brazo digital del grupo de expertos en políticas públicas. La organización, que tiene una asociación de datos con la start-up NewsGuard y la firma de análisis de redes sociales NewsWhip, publicó sus hallazgos el lunes. https://www.nytimes.com/2020/10/12/technology/on-facebook-misinformation-is-more-popular-now-than-in-2016.html Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Edito

Señales para una IA ética: una ruta hacia la transparencia

La Inteligencia Artificial (IA) se ha elevado recientemente al punto en que tiene un impacto en la vida diaria de miles de millones de personas. Este es el resultado de su aplicación a sectores como finanzas, salud, entretenimiento digital, transporte, seguridad y publicidad. Hoy en día, la IA alimenta algunos de los factores económicos y instituciones de investigación en el mundo y el impacto de la IA en un futuro próximo parece difícil de predecir o incluso delimitado. En contraste con todo este poder, la sociedad permanece mayoritariamente ignorante de las capacidades, requisitos y prácticas estándar de la IA hoy. La sociedad se está dando cuenta de los peligros que conlleva ese ignorancia, y legítimamente está pidiendo soluciones. Para abordar esta necesidad, mejorando sobre las prácticas actuales de interacción entre personas y sistemas de IA, proponemos un esquema de transparencia que se implementará en cualquier sistema de IA abierto al público. El esquema se basa en dos pilares

Qué significa ser eticista de la IA

  A pesar de que existe un fuerte llamado a la tecnología responsable, el camino hacia la puesta en práctica de la ética aún no se ha entendido completamente. Para ayudar a guiar la implementación de la ética, hemos visto el surgimiento de un nuevo título profesional; el especialista en ética de la IA. Sin embargo, aún no está claro qué debe incluir el rol y el conjunto de habilidades de esta nueva profesión. El propósito de este artículo es ofrecer una definición preliminar de lo que significa ser un especialista en ética de la inteligencia artificial examinando primero el concepto de especialista en ética en el contexto de la inteligencia artificial, seguido de explorar qué responsabilidades se agregan al rol en la industria específicamente, y terminando en la característica fundamental que subyace a todo: la valentía. https://link.springer.com/article/10.1007/s43681-020-00020-5 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actual

Tenga cuidado al aplicar las ciencias del comportamiento a las políticas

 Los investigadores de las ciencias sociales y del comportamiento debaten periódicamente si su investigación debe utilizarse para abordar problemas urgentes en la sociedad. Para proporcionar algunos ejemplos, en la década de 1940, los psicólogos discutieron el uso de la investigación para abordar problemas relacionados con las relaciones intergrupales, los problemas que el Holocausto puso de relieve y otros actos de prejuicio desenfrenado. En la década de 1990, los psicólogos debatieron si su investigación debería informar la toma de decisiones legales. En la década de 2010, los psicólogos abogaron por asesorar a las ramas del gobierno como suelen hacer los economistas. Y ahora, en 2020, psicólogos y otros científicos sociales y del comportamiento argumentan que nuestra investigación debería informar la respuesta a la nueva enfermedad por coronavirus (en adelante COVID-19) 1,2. Somos un equipo formado en su mayoría por psicólogos empíricos que realizan investigaciones sobre procesos bá