Entradas

Mostrando entradas de septiembre, 2021

Los robots que no son

https://dailysceptic.org/2021/09/10/the-bots-that-are-not/ Desde 2016 se ha culpado a las cuentas automatizadas de Twitter de Donald Trump y del Brexit (muchas veces), de la política brasileña, de la política venezolana, del escepticismo de la climatología, de la desinformación sobre el cannabis, del sentimiento antiinmigración, del vaping e, inevitablemente, de la desconfianza hacia las vacunas COVID. Los artículos de noticias sobre bots están respaldados por una cantidad sorprendentemente grande de investigación académica. Sólo Google Scholar indexa casi 10.000 artículos sobre el tema. Algunos de estos trabajos han recibido una amplia cobertura

Regulación del reconocimiento reconocimiento facial en la UE

https://www.europarl.europa.eu/RegData/etudes/IDAN/2021/698021/EPRS_IDA(2021)698021_EN.pdf La inteligencia artificial (IA) impulsa el uso de tecnologías biométricas, incluidas las aplicaciones de reconocimiento facial facial, que se utilizan con fines de verificación, identificación y categorización por parte de o públicos. Aunque los mercados de reconocimiento facial están preparados para crecer sustancialmente en los próximos años, el creciente uso de las tecnologías de reconocimiento facial ha surgido como una cuestión destacada en el debate público mundial sobre la vigilancia biométrica. Aunque el uso de sistemas de reconocimiento facial para la seguridad pública tiene ventajas reales, su de los sistemas de reconocimiento facial para la seguridad pública, su omnipresencia e intrusividad, así como su susceptibilidad a los errores, suscitan una serie de de derechos fundamentales en lo que respecta, por ejemplo, a la discriminación de determinados de la población y las violaciones del

Reuniendo fuerzas, reuniendo tormentas: El estudio de cien años sobre la inteligencia artificial (AI100) Informe del grupo de estudio 2021

https://ai100.stanford.edu/2021-report/gathering-strength-gathering-storms-one-hundred-year-study-artificial-intelligence Mientras que el primer informe del estudio se centraba explícitamente en el impacto de la IA en las ciudades norteamericanas, para el estudio de 2021 hemos querido profundizar en el impacto que la IA está teniendo en las personas y las sociedades de todo el mundo. La IA se está desplegando en aplicaciones que afectan a la vida de las personas de forma crítica y personal (por ejemplo, a través de la aprobación de préstamos, sentencias penales, asistencia sanitaria, atención emocional y recomendaciones influyentes en múltiples ámbitos). Dado que estas aplicaciones orientadas a la sociedad influirán en la relación de las personas con las tecnologías de IA, además de tener implicaciones socioeconómicas de gran alcance, titulamos el cargo

Google dice a la UE que los usuarios son responsables de la discriminación

https://netzpolitik.org/2021/ai-ethics-google-tells-eu-that-users-bear-responsibility-for-discrimination/ Mientras la Unión Europea prepara nuevas leyes para regular la Inteligencia Artificial (IA), Google ha dicho a la Comisión de la UE que los usuarios deben "asumir la obligación de no discriminar" al utilizar aplicaciones de IA. En una reunión celebrada en marzo, los funcionarios de la Comisión preguntaron al gigante tecnológico qué responsabilidades distintas deberían tener los proveedores y los usuarios de la tecnología de IA. Los responsables del grupo de presión respondieron que son los usuarios los que deben estar "obligados a asegurarse de que entienden el sistema que utilizan y de que su uso es conforme". Los defensores de los derechos humanos advierten que las aplicaciones de IA podrían perpetuar la discriminación social por razón de género o etnia. Recientemente, Google ha dicho públicamente que se ha abstenido de utilizar su tecnología para calificar el

A medida que la IA se vuelve omnipresente, hay riesgos, dice el nuevo informe AI100

https://cns.utexas.edu/news/as-artificial-intelligence-becomes-ubiquitous-there-are-risks-says-new-ai100-report La inteligencia artificial ha alcanzado un punto de inflexión crítico en su evolución, según un nuevo informe elaborado por un grupo internacional de expertos que evalúa el estado de este campo por segunda vez en cinco años. Los importantes avances en el procesamiento del lenguaje, la visión por ordenador y el reconocimiento de patrones hacen que la IA afecte a la vida de las personas a diario, desde la ayuda para elegir una película hasta el diagnóstico médico. Sin embargo, este éxito conlleva una renovada urgencia por comprender y mitigar los riesgos y desventajas de los sistemas basados en la IA, como la discriminación algorítmica o el uso de la IA para el engaño deliberado. Los informáticos deben colaborar con expertos en ciencias sociales y jurídicas para garantizar que se minimicen los riesgos de la IA. Estas conclusiones proceden de un informe titulado "Gathering

La Comisión anhela establecer la norma mundial sobre inteligencia artificial

https://www.euractiv.com/section/digital/news/commission-yearns-for-setting-the-global-standard-on-artificial-intelligence/ La Comisión Europea cree que su propuesta de Ley de Inteligencia Artificial debe convertirse en la norma mundial si quiere ser plenamente eficaz. El próximo tratado sobre IA que está elaborando el Consejo de Europa podría ayudar a la UE a conseguirlo. En abril, la Comisión Europea lanzó su propuesta de Ley de Inteligencia Artificial (AIA). Estructurada en torno a un enfoque basado en el riesgo, la normativa introduce obligaciones más estrictas en proporción al impacto potencial de las aplicaciones de IA. El Comisario Thierry Breton afirmó que "no hay que subestimar la ventaja de que la UE sea la primera en actuar" y subrayó que la UE es el principal "marcapasos" en la regulación del uso de la IA a escala mundial. En una línea similar, el Director General de Redes de Comunicación, Contenidos y Tecnología de la Comisión, Roberto Viola, dijo que &

Una norma para acabar con el capitalismo de la vigilancia - ¡Pánico! en el Consejo - El Reino Unido quiere más innovación en IA

https://www.politico.eu/newsletter/ai-decoded/politico-ai-decoded-a-standard-to-end-surveillance-capitalism-panic-at-the-council-uk-wants-more-ai-innovation/ Conoce al IEEE 7000. No es un pájaro, un avión o el nuevo humanoide de Elon Musk. Es la primera norma mundial que mostrará a las empresas tecnológicas de forma muy práctica cómo construir tecnología que aporte valor humano y social, en lugar de sólo dinero. El IEEE (pronunciado ojo-triple E) es la mayor asociación de ingeniería del mundo, con más de 400.000 miembros, y tiene mucha importancia en el sector. AI: Decoded llamó a Sarah Spiekermann, de la Universidad de Economía y Negocios de Viena, que participó en el esfuerzo, para saber más. Recalibrando la IA: La norma se inspira en el concepto de "ingeniería basada en valores", que hace que las empresas sean conscientes de los retos éticos de la tecnología y les ayuda a dar prioridad al bienestar de los seres humanos. Spiekermann dijo que el modelo de capitalismo de vigi

Los empresarios tienen demasiado poder sobre la información. Los trabajadores deben reclamar sus derechos sobre los datos

https://www.weforum.org/agenda/2021/09/workplace-data-rights-regulation/ La pandemia supuso un fuerte aumento de la acumulación de datos en el lugar de trabajo. - La mayoría de los trabajadores están mal protegidos con respecto al acceso y la portabilidad de los datos en virtud de los regímenes normativos actuales. - La portabilidad de los datos es especialmente acuciante para los trabajadores de plataformas. Se recogen muchos datos en el trabajo. Sin embargo, el lugar de trabajo no está actualmente en la vanguardia de la gobernanza de datos. Las cuestiones relativas a los derechos, la recogida, el acceso y el intercambio de datos siguen sin resolverse, lo que afecta a la privacidad de los trabajadores, a su movilidad profesional y a la calidad del empleo. Lo mismo ocurre con la necesidad de hacer valer los derechos de los datos colectivos ya que, según la organización filantrópica mundial Luminate, "los reguladores siguen centrándose en la protección de los individuos o, en el me

La (il)lógica de la legibilidad - Por qué los gobiernos deberían dejar de simplificar los sistemas complejos

https://blogs.lse.ac.uk/impactofsocialsciences/2021/02/12/the-illogic-of-legibility-why-governments-should-stop-simplifying-complex-systems/ A veces, uno aprende una idea que se le queda grabada. Esto me ocurrió recientemente cuando aprendí sobre la "legibilidad", un concepto que James C. Scott introduce en su libro Seeing like a State. La semana pasada, participé en dos conversaciones que pusieron de manifiesto que la lógica de la legibilidad sigue influyendo en la forma de pensar y actuar de los gobiernos. Pero primero, ¿qué es la legibilidad? Definir la legibilidad La legibilidad describe la tendencia muy humana a simplificar los sistemas complejos para ejercer el control sobre ellos. En este blog, Venkatesh Rao ofrece una receta para la legibilidad: Observar una realidad compleja y confusa... No comprender todas las sutilezas del funcionamiento de la compleja realidad Atribuya ese fracaso a la irracionalidad de lo que está viendo, en lugar de a sus propias limitaciones At

Mitigar la falta de atención digital

http://ceur-ws.org/Vol-2942/paper5.pdf La atención plena es un fenómeno bien estudiado y el uso de la tecnología para promover la atención plena está ganando rápidamente popularidad. Sin embargo, en el espacio digital la atención plena suele pasarse por alto. En cambio se han incrementado las técnicas engañosas y explotadoras de la inteligencia artificial (IA) que fomentan y que fomentan y explotan los comportamientos sin sentido de los usuarios. Para combatir el mindlessness digital y los efectos de estas peligrosas Este documento de posición explora la literatura en un intento de definir el concepto de mindlessness y y encontrar formas de reducirlo (es decir, de promover un comportamiento más consciente). En particular, los efectos de la falta de atención de la IA se exploran desde cuatro puntos de vista temáticos: 1) Burbujas de filtrado, 2) Patrones oscuros, 3) Noticias falsas y desinformación, y 4) Deepfakes. Terminamos el artículo identificando posibles líneas de investigación pa

El detector de mentiras moderno: La detección de afectos potenciada por la IA y la Ley de Protección del Polígrafo de los Empleados (EPPA)

https://www.law.georgetown.edu/georgetown-law-journal/in-print/volume-109-issue-5-april-2021/the-modern-lie-detector-ai-powered-affect-screening-and-the-employee-polygraph-protection-act-eppa/ Los algoritmos predictivos se utilizan cada vez más para seleccionar y clasificar la mano de obra moderna. Sin embargo, la delegación de las decisiones de contratación en sistemas informáticos impulsados por la IA tendrá un profundo impacto en la privacidad de las personas. Esta nota se basa en el trabajo fundacional de los juristas que estudian la creciente tendencia a la toma de decisiones algorítmicas en las prácticas de reclutamiento y contratación. Sin embargo, esta nota difiere de su análisis en aspectos críticos. Aunque esta cuestión se ha estudiado principalmente a través de la lente de la ley federal contra la discriminación y por el potencial de sesgo algorítmico, esta nota explorará cómo la ley federal de privacidad, en concreto la a menudo olvidada Ley de Protección Poligráfica del Em

Los ensayos de estimación facial con IA no resolverán el problema del consumo de alcohol en menores

https://techmonitor.ai/technology/ai-and-automation/ai-facial-estimation El Ministerio del Interior ha puesto en marcha esta semana un ensayo en el que los supermercados de todo el Reino Unido aplicarán un software de estimación facial mediante IA para juzgar si un cliente tiene la edad suficiente para comprar alcohol. Este nuevo enfoque tecnológico ha sido anunciado por algunos como una solución innovadora para prevenir el consumo de alcohol en menores, pero el ensayo también ha sido criticado por tratar de aplicar una solución tecnológica simplista a lo que es un problema social complejo. Estimación facial con IA La tecnología de IA podría utilizarse para impedir que los menores compren alcohol. (Foto de bodnar. photo/Shutterstock) Quince empresas han sido aprobadas provisionalmente para los ensayos, que comenzarán en las próximas semanas y se prolongarán hasta el próximo mes de abril. Las pruebas se centrarán en el uso de un software de estimación facial para juzgar la edad de la pe

La gente dice que si quieres una ciudad inteligente, tienes que renunciar a la privacidad. Al diablo con eso

https://www.codastory.com/authoritarian-tech/privacy-smart-cities/ De Ámsterdam a Dubai, las ciudades inteligentes prometen un futuro brillante y sostenible. Pensemos en los sistemas de GPS que ponen en verde las luces de las calles para las ambulancias que se acercan y en los sistemas de riego que controlan la calidad del suelo y el clima para conservar el agua. Sin embargo, la tecnología que hay detrás puede tener serias implicaciones para nuestra privacidad y derechos civiles. En 2016, San Diego desplegó farolas equipadas con cámaras de vigilancia para controlar el tráfico, pero la policía ha utilizado desde entonces sus imágenes durante las investigaciones. En la primavera de 2020, incluso se encendieron en las protestas de Black Lives Matter. El ayuntamiento está estudiando ahora una nueva normativa para regular su uso.  En 2017, la doctora Ann Cavoukian aceptó trabajar como asesora en un proyecto ahora abandonado, en el que la empresa hermana de Google, Sidewalk Labs, planeaba eq

PREGUNTAS Y RESPUESTAS: Qué es lo tonto de las ciudades inteligentes

https://www.bostonglobe.com/2021/09/10/opinion/qa-whats-dumb-about-smart-cities/ Hace tiempo que se habla de las ciudades inteligentes. Al fin y al cabo, tiene sentido intentar utilizar las tecnologías de la información y la comunicación para mejorar los servicios públicos y aumentar el bienestar de las comunidades urbanas. Por desgracia, los proyectos piloto han sido decepcionantes. Por ejemplo, Sidewalk Labs, propiedad de la empresa matriz de Google, planeó en 2017 transformar una sección de Toronto en un "campo de pruebas" para el futuro de la vida urbana. El Wi-Fi público cubriría la zona, y los datos recogidos por los sensores del distrito ayudarían a tomar decisiones sobre el tráfico y la vivienda. Pero el año pasado, después de que los residentes de la ciudad plantearan preguntas sobre la privacidad de los datos y el papel de una empresa privada en la gobernanza, el proyecto fue abandonado -aunque la razón oficial aducida fue la incertidumbre económica derivada de la p

La "IA para el bien social": ¿De quién es el bien y de quién es el bien? Introducción al número especial sobre Inteligencia Artificial para el Bien Social

https://link.springer.com/article/10.1007/s13347-021-00466-3 En esta introducción se exponen los objetivos y el alcance del número especial y se ofrece una visión general de cada uno de los artículos de investigación y los comentarios que siguen. En la última década, la investigación sobre la inteligencia artificial (IA) ha salido de la sombra de un largo invierno de desprecio y se ha convertido en un cálido verano de esperanza y exageración. Aunque los académicos y los defensores de la IA han documentado minuciosamente los riesgos y los posibles perjuicios de la utilización de herramientas y técnicas basadas en la IA en una serie de ámbitos sociales, persiste la idea de que el poder prometido de la IA podría ser aprovechado funcionalmente y éticamente para fines "socialmente buenos" o, al menos, (re)orientado hacia ellos. El doble objetivo de este número especial es, sencillamente, cuestionar la plausibilidad de esta noción y considerar sus implicaciones. La idea de que la I

Para que los pacientes confíen en la IA médica, deben entenderla

https://hbr.org/2021/09/for-patients-to-trust-medical-ai-they-need-to-understand-it La IA promete aumentar la calidad y reducir el coste de la asistencia sanitaria en los países desarrollados y en desarrollo. Pero un obstáculo para su uso es que los pacientes no confían en ella. Una de las razones principales es que perciben la IA médica como una caja negra y creen saber más del proceso de toma de decisiones de los médicos de lo que realmente saben, según la investigación de los autores. Un remedio: Ofrecer a los pacientes una explicación de cómo toman las decisiones ambos tipos de profesionales sanitarios.

¿Ha encontrado la IA una nueva fundación?

https://thegradient.pub/has-ai-found-a-new-foundation/ I n agosto, 32 profesores y 117 investigadores, postdoctorales y estudiantes de la Universidad de Stanford, que durante mucho tiempo ha sido uno de los principales actores de la IA, declararon que se había producido un "cambio de paradigma radical en la IA". Acuñaron un nuevo término, "modelos de fundación", para caracterizar el nuevo paradigma, unieron sus fuerzas en un "Centro de Investigación sobre Modelos de Fundación" y publicaron el enorme informe de 212 páginas "Sobre las oportunidades y los riesgos de los modelos de fundación". Aunque el término es nuevo, el enfoque general no lo es. Se entrena una gran red neuronal (como la conocida GPT-3) con una enorme cantidad de datos, y luego se adapta ("afina") el modelo a un montón de tareas más específicas (en palabras del informe, "un modelo básico... [así] sirve como [parte de] la base común a partir de la cual se construyen

Los daños de la IA

https://www.nber.org/papers/w29247 Este ensayo analiza varios costes económicos, políticos y sociales potenciales de la trayectoria actual de las tecnologías de IA. Argumento que si la IA sigue desplegándose en su trayectoria actual y no se regula, puede producir varios daños sociales, económicos y políticos. Estos incluyen: dañar la competencia, la privacidad del consumidor y la elección del consumidor; automatizar excesivamente el trabajo, alimentar la desigualdad, empujar ineficientemente a la baja los salarios y no mejorar la productividad de los trabajadores; y dañar el discurso político, la savia más fundamental de la democracia. Aunque no hay pruebas concluyentes que sugieran que estos costes sean inminentes o sustanciales, puede ser útil comprenderlos antes de que se materialicen por completo y sean más difíciles o incluso imposibles de revertir, precisamente por el prometedor y amplio potencial de la IA. También sugiero que estos costes no son inherentes a la naturaleza de las

El ETSI publica especificaciones que impulsan la automatización fiable de las redes y los servicios de extremo a extremo

https://www.etsi.org/newsroom/press-releases/1968-2021-09-etsi-releases-specifications-boosting-trustful-end-to-end-network-and-service-automation?jjj=1631558313533 El ETSI se complace en anunciar la publicación de tres importantes especificaciones e informes elaborados por su grupo de gestión de redes y servicios "Zero-touch" (ZSM). ETSI GS ZSM 003, define la gestión de extremo a extremo de la red y el proyecto de arquitectura de orquestación y soluciones, y ETSI GS ZSM 009-1 especifica los habilitadores para la automatización de bucle cerrado. Los aspectos generales de seguridad relacionados con el marco y las soluciones de ZSM, así como las posibles opciones de mitigación, se presentan en el ETSI GR ZSM 010. El grupo ZSM del ETSI se formó con el objetivo de definir un marco, soluciones y tecnologías básicas operativas de extremo a extremo y preparadas para el futuro que permitieran la automatización sin intervención de las redes y los servicios/rebanadas emergentes y futur

Déjeme tomar el control: Autonomía variable para un control humano significativo

https://www.frontiersin.org/articles/10.3389/frai.2021.737072/full?&utm_source=Email_to_authors_&utm_medium=Email&utm_content=T1_11.5e1_author&utm_campaign=Email_publication&field=&journalName=Frontiers_in_Artificial_Intelligence&id=737072 A medida que la Inteligencia Artificial (IA) sigue ampliando su alcance, también crece la demanda de control humano y de desarrollo de sistemas de IA que se adhieran a nuestros valores legales, éticos y sociales. Muchas instituciones (internacionales y nacionales) han dado pasos en esta dirección y han publicado directrices para el desarrollo y el despliegue de sistemas de IA responsables. Estas directrices, sin embargo, se basan en gran medida en declaraciones de alto nivel que no proporcionan criterios claros para la evaluación del sistema, lo que hace que el control efectivo de los sistemas sea un reto. La "supervisión humana" es uno de los requisitos que se proponen como medio para apoyar la autonomía y la ag

La IA hace predicciones extrañamente precisas a partir de escaneos médicos borrosos, alarmando a los investigadores

https://www.iflscience.com/technology/ai-makes-strangely-accurate-predictions-from-blurry-medical-scans-alarming-researchers/ Una nueva investigación ha descubierto que la inteligencia artificial (IA) que analiza las exploraciones médicas puede identificar la raza de los pacientes con un grado de precisión asombroso, mientras que sus homólogos humanos no pueden hacerlo. Ahora que la Administración de Alimentos y Medicamentos (FDA) está aprobando más algoritmos para uso médico, a los investigadores les preocupa que la IA pueda acabar perpetuando los prejuicios raciales. Les preocupa especialmente que no hayan podido averiguar con precisión cómo los modelos de aprendizaje automático fueron capaces de identificar la raza, incluso a partir de imágenes muy corruptas y de baja resolución. En el estudio, publicado en el servicio de preimpresión Arxiv, un equipo internacional de médicos investigó cómo los modelos de aprendizaje profundo pueden detectar la raza a partir de imágenes médicas. Uti

La ciencia de la inteligencia artificial y sus críticos

https://www.tandfonline.com/doi/full/10.1080/03080188.2020.1840821 No parece que mucha gente entienda lo que es imitar la inteligencia humana con éxito, es decir, sin tener en cuenta estados internos como las intenciones. El éxito de la imitación implicará la integración en las sociedades humanas. Los profesionales de la IA se han preocupado por reproducir algo que pueda imitar un cerebro humano individual, sin darse cuenta de que si ese cerebro va a imitar la inteligencia humana, también tendrá que imitar el proceso de socialización en la sociedad humana, porque las características cruciales de la inteligencia humana se encuentran en las sociedades humanas. Un ejemplo notable de ello es el lenguaje natural, que cambia continuamente y es enormemente flexible de maneras que no pueden ser predichas o controladas por los individuos. El hablante de lenguaje natural fluido se nutre del lenguaje de la sociedad del mismo modo que un termómetro se nutre del líquido en el que está inmerso. La t

Así se arregla la Ley de Inteligencia Artificial de la UE

https://www.accessnow.org/how-to-fix-eu-artificial-intelligence-act/ Si quieres regular algo, tienes que definirlo adecuadamente; si no, estás creando lagunas problemáticas. Desgraciadamente, las definiciones de reconocimiento de emociones (artículo 3.34) y categorización biométrica (artículo 3.35) del actual proyecto de Ley de Inteligencia Artificial de la UE son técnicamente erróneas. Ambas definiciones se limitan a las aplicaciones de la IA que utilizan datos biométricos, que se definen en el artículo 3(33) en consonancia con su definición en el Reglamento General de Protección de Datos como datos relativos "a las características físicas, fisiológicas o de comportamiento de una persona física, que permiten o confirman la identificación única de dicha persona física." La pregunta clave aquí es: ¿todos los datos fisiológicos permiten una identificación única?

¿Debemos crear máquinas morales?

https://blogs.bcm.edu/2021/09/13/should-we-create-moral-machines/ El desarrollo de la inteligencia artificial (IA) que puede actuar de forma autónoma ha planteado importantes cuestiones sobre la naturaleza de la toma de decisiones de las máquinas y sus capacidades potenciales. ¿Es posible aplicar una dimensión ética a las máquinas autónomas, es decir, es la ética "computable"? ¿Son las máquinas autónomas capaces de incluir consideraciones morales en sus decisiones? ¿Puede programarse la IA para que conozca la diferencia entre "lo correcto" y "lo incorrecto"? Estas preguntas, que en su día fueron tema de novelas de ciencia ficción, están dando lugar a debates sobre la creación real de máquinas morales, también conocidas como agentes morales artificiales, y han contribuido en gran medida a la expansión del campo de la ética de las máquinas. Algunos estudiosos han intentado frenar esta evolución, preguntando no si podemos crear máquinas morales, sino si debem

Los defectos de las políticas que exigen la supervisión humana de los algoritmos gubernamentales

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3921216 Los responsables políticos de todo el mundo se plantean cada vez más cómo evitar que los usos gubernamentales de los algoritmos produzcan injusticias. Un mecanismo que se ha convertido en una pieza central de los esfuerzos globales para regular los algoritmos gubernamentales es exigir la supervisión humana de las decisiones algorítmicas. Sin embargo, la calidad funcional de este enfoque regulatorio no ha sido cuestionada a fondo. En este artículo, analizo 40 políticas que prescriben la supervisión humana de los algoritmos gubernamentales y descubro que adolecen de dos defectos significativos. En primer lugar, la evidencia sugiere que las personas son incapaces de realizar las funciones de supervisión deseadas. En segundo lugar, las políticas de supervisión humana legitiman el uso gubernamental de algoritmos defectuosos y controvertidos sin abordar los problemas fundamentales de estas herramientas. Por lo tanto, en lugar de pro

Vigilancia Los fantasmas de la supremacía blanca en la reforma de la IA

https://medium.com/a-new-ai-lexicon/a-new-ai-lexicon-surveillance-8a4231ef8359 La vigilancia y la recopilación de datos llevan mucho tiempo siendo impulsadas por los colonizadores que se reúnen para decidir cómo se debe controlar a los negros y morenos. Hoy en día, la vigilancia policial es uno de los métodos más violentos de control racial en Estados Unidos, y los esfuerzos por mejorar, perfeccionar y calibrar la vigilancia policial a través de la reforma policial continúan la tradición de experimentación de la supremacía blanca. Este ensayo explora cómo los conceptos reformistas y el lenguaje como "supervisión", "responsabilidad" y "transparencia" han proliferado junto a las tecnologías de vigilancia perjudiciales, contribuyendo a normalizarlas y ampliarlas. Estos conceptos reformistas suelen ser promovidos por organizaciones sin ánimo de lucro financiadas por la industria policial, y se instituyen a través de organismos de supervisión policial, requisit

Preservación del sesgo en el aprendizaje automático: La legalidad de las métricas de equidad según la ley de no discriminación de la UE

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3792772 Las sociedades occidentales están marcadas por diversos y amplios sesgos y desigualdades que están inevitablemente integrados en los datos utilizados para entrenar el aprendizaje automático. Los algoritmos entrenados con datos sesgados producirán, sin intervención, resultados sesgados y aumentarán la desigualdad experimentada por grupos históricamente desfavorecidos. Conscientes de este problema, en los últimos años se han realizado muchos trabajos para comprobar la existencia de sesgos en los sistemas de aprendizaje automático y de IA mediante el uso de diversas métricas de equidad y sesgo. A menudo, estas métricas abordan el sesgo técnico pero ignoran las causas subyacentes de la desigualdad. En este artículo hacemos tres aportaciones. En primer lugar, evaluamos la compatibilidad de las métricas de equidad utilizadas en el aprendizaje automático con los objetivos y la finalidad de la legislación de la UE en materia de no dis

La UE "quiere convertir la base de datos de inmigrantes en una herramienta de vigilancia masiva

https://www.theguardian.com/world/2021/sep/08/eu-seeking-to-turn-migrant-database-into-mass-surveillance-tool La UE ha sido acusada de planear "una poderosa herramienta para la vigilancia masiva" de los inmigrantes a través de los cambios propuestos en la base de datos de huellas dactilares de los solicitantes de asilo. Los activistas de 31 organizaciones no gubernamentales, entre las que se encuentran Amnistía Internacional y la Red Europea contra el Racismo, formularon la acusación en una carta abierta al Parlamento Europeo en la que instan a los eurodiputados a reconsiderar los planes de revisión de la base de datos Eurodac de huellas dactilares de solicitantes de asilo. En 2018, los legisladores del Parlamento Europeo y los ministros de Interior de la UE alcanzaron un acuerdo político para ampliar la base de datos, lo que significa que incluiría imágenes faciales, detalles del pasaporte o del documento de identidad, además de las huellas dactilares. Las autoridades tambié

Todos tenemos el poder de dar forma al futuro de la tecnología

https://news.stanford.edu/2021/09/07/change-future-technology/ La tecnología es una parte tan omnipresente de la vida moderna que a menudo puede parecer una fuerza de la naturaleza, un poderoso maremoto en el que los usuarios y los consumidores pueden subirse pero tienen poco poder para guiar su dirección. No tiene por qué ser así. Kurt Hickman Los académicos de Stanford afirman que la innovación tecnológica no es una fuerza inevitable que ejerce su poder sobre nosotros. En cambio, en un nuevo libro, tratan de capacitarnos a todos para crear un futuro tecnológico que apoye el florecimiento humano y los valores democráticos. En lugar de aceptar simplemente la idea de que los efectos de la tecnología están fuera de nuestro control, debemos reconocer el poderoso papel que desempeña en nuestra vida cotidiana y decidir qué queremos hacer al respecto, afirman Rob Reich, Mehran Sahami y Jeremy Weinstein en su nuevo libro System Error: Where Big Tech Went Wrong and How We Can Reboot (Harper Co

La inteligencia artificial y el derecho internacional de los refugiados

https://moderndiplomacy.eu/2021/09/05/artificial-intelligence-and-international-refugee-law/ Los derechos de los refugiados son cosmológicos, vinculantes, combinados, codependientes e interconectados y constituyen la estructura básica de la costumbre internacional [BASIC] que engloba las jurisdicciones nacionales de todo el mundo. BASIC se nutre de la dignidad; por lo tanto, la palabra "derechos de los refugiados" puede ser delineada y definida en una sola palabra -según mi entendimiento- llamada "dignidad", ya que es la cuestión de la dignidad humana la que abordamos en los derechos de los refugiados. Por lo tanto, los derechos de los refugiados significan dignidad, pero la misma se ha enrevesado aún más con el ascenso de la Inteligencia Artificial (IA) que ha presentado nuevos desafíos a la igualdad humana en todos los ámbitos de la vida. La IA ha reducido la humanidad a cálculos algorítmicos contrarios a las normas mundiales de derechos humanos. La IA no reconoce

La respuesta oficial de CLAIRE a los dos documentos que forman el núcleo de la estrategia europea de IA

https://claire-ai.org/wp-content/uploads/2021/08/CLAIRE-EC-AI-Regulation-Feedback.pdf Resumen de preocupaciones y recomendaciones Preocupación 1: El reglamento propuesto "propone una única definición de IA a prueba de futuro" (sección 1.1); Sin embargo, esta definición es profundamente defectuosa. Preocupación 2: La incertidumbre resultante de las definiciones problemáticas puede tener consecuencias perjudiciales consecuencias perjudiciales para el desarrollo, la adopción y el uso de la IA por parte de las empresas europeas, especialmente las PYME y las nuevas empresas. y las nuevas empresas. Preocupación 3: La noción de calidad de los datos (y de los conjuntos de datos) sigue siendo poco clara. El reglamento propuesto plantea El reglamento propuesto propone requisitos generales para la calidad de los datos, pero no establece criterios adecuados para evaluar la calidad de los datos. la calidad de los datos. Sin esos criterios, los requisitos de calidad de los datos siguen sie

Los robots autónomos controlan el mal comportamiento en el corazón de Singapur

https://www.straitstimes.com/singapore/autonomous-robots-checking-on-bad-behaviour-in-the-heartland Mientras patrulla el centro de la ciudad, cerca de Toa Payoh HDB Hub, Xavier encuentra a un hombre dando una calada a un cigarrillo en una zona en la que está prohibido fumar. En cuestión de segundos, las imágenes de vídeo se envían a un centro de mando y control y se introducen en un sistema de análisis de vídeo programado para reconocer la postura del hombre, el contorno del cigarrillo en la boca y otros indicadores visuales. Con una voz sintética, se emite un mensaje pregrabado: "Por favor, no fume en las zonas prohibidas, como los pasillos cubiertos". Actuando como un incansable par de ojos, Xavier es un robot autónomo diseñado para eliminar "comportamientos sociales indeseables" que han sido identificados por los organismos públicos aquí. En el barrio de Toa Payoh Central, dos de estos robots patrullarán durante tres semanas a partir del domingo (5 de septiembre)

La revolución de las criptomonedas está fracasando

https://unherd.com/2021/09/the-crypto-revolution-has-failed/ Wall Street, la Reserva Federal y el brazo financiero de Silicon Valley no pueden creer su suerte. El movimiento de las criptomonedas, la misma rebelión que se propuso derrotar su hegemonía, les ha proporcionado la tecnología necesaria para ser aún más dominantes. Cuando se lanzó Bitcoin, la primera criptomoneda de la historia, en 2008, se esperaba que su tecnología "Blockchain" -que registra las transacciones y no puede ser pirateada- desencadenara una revolución digital. Se prometió que si una transacción podía realizarse de forma segura sin necesidad de un banco establecido, marcaría el fin del capitalismo corporativo y el comienzo de una nueva era de descentralización. Sin embargo, poco más de una década después, Blockchain se ha convertido en el centro del sistema bancario de la nueva era de la élite financiera. De hecho, entre bastidores, están apostando por las criptomonedas.

Vehículos autónomos, robots sociales y mitigación del riesgo Riesgo: hacia un nuevo enfoque consecuencialista de la seguridad de la IA

https://montrealethics.ai/wp-content/uploads/2019/08/Autonomous-Vehicles-Social-Robots-Consequentialism.pdf En este artículo, argumentaré, sobre bases consecuencialistas, que la principal preocupación ética que debería informar y guiar tanto el diseño de los sistemas de IA como la regulación de la sociedad de la sociedad sobre el tratamiento de los robots sociales es la mitigación del riesgo. Demostraré que el consecuencialismo tradicional que el consecuencialismo tradicional no puede servir de guía adecuada para la toma de decisiones en estos de decisiones en estos dos proyectos porque está mal equipado para tratar con escenarios de decisión en los que hay un alto nivel de incertidumbre sobre los posibles resultados. de incertidumbre sobre los posibles resultados de una o más de las acciones de las acciones disponibles para el agente, pero en los que hay un alto nivel de certeza de que al menos uno de los de los posibles resultados implicaría un daño grave. A estos escenarios de decis

Las startups de IA afirman que detectan la depresión a partir del habla, pero el jurado no se pronuncia sobre su precisión

https://venturebeat.com/2021/08/31/ai-startups-claim-to-detect-depression-from-speech-but-the-jurys-out-on-their-accuracy/ En un estudio de 2012 publicado en la revista Biological Psychiatry, un equipo de científicos del Centro de Consulta Psicológica (CPC) de Madison (Wisconsin) planteó la hipótesis de que las características de la voz de una persona deprimida podrían revelar mucho sobre la gravedad de su trastorno. Los coautores afirmaron que la investigación, financiada en parte por el gigante farmacéutico Pfizer, identificó varios "biomarcadores viables" -indicadores cuantitativos de cambios en la salud- para medir la gravedad de la depresión mayor. Desde entonces ha surgido una industria artesanal, con empresas que pretenden automatizar la detección de la depresión utilizando IA entrenada en cientos de grabaciones de voces de personas. Una de las iniciativas mejor financiadas, Ellipsis Health, que genera evaluaciones de la depresión a partir de 90 segundos de la voz de u

Uso de la inteligencia artificial para el análisis de imágenes en los programas de cribado de cáncer de mama: revisión sistemática de la precisión de las pruebas

https://www.bmj.com/content/374/bmj.n1872 Objetivo Examinar la precisión de la inteligencia artificial (IA) para la detección del cáncer de mama en la práctica del cribado mamográfico.

Errores en el pasaporte de vacunas que no debemos repetir

https://www.eff.org/deeplinks/2021/08/vaccine-passport-missteps-we-should-not-repeat Los mandatos de vacunación son cada vez más urgentes por parte de las autoridades de salud pública y de los distintos gobiernos. A medida que se despliegan, debemos proteger a los usuarios de los pasaportes de vacunas y a aquellos que no quieren o no pueden utilizar un medio digitalmente escaneable para demostrar la vacunación. No podemos permitir que las herramientas utilizadas para luchar por la salud pública se conviertan en sistemas para perpetuar la desigualdad o como cobertura para la recopilación de datos innecesarios y no relacionados.  Durante el último año, la EFF ha estado siguiendo las propuestas de pasaportes de vacunas y cómo se han aplicado. Tenemos objeciones, sobre todo cuando las ponen en marcha empresas tecnológicas oportunistas que ya están creando desigualdades digitales y gestionando mal los datos de los usuarios. Esperamos poder evitar que se transformen en otra capa de seguimien

Otro papel mojado en las acaloradas afirmaciones sobre el reconocimiento de las emociones

https://www.biometricupdate.com/202109/another-wet-blanket-on-heated-claims-about-emotion-recognition Las afirmaciones de que los algoritmos de reconocimiento facial pueden discernir las emociones son más difíciles de creer a raíz de una nueva investigación. De hecho, ni siquiera la mente puede leer las emociones viendo las expresiones, a menos que conozca el contexto de una expresión, según un artículo escrito por un par de investigadores del Instituto Tecnológico de Massachusetts y la Universidad Católica de Lovaina. Los científicos partieron en su proyecto de investigación sobre el reconocimiento de emociones de la suposición habitual en la industria de que un ceño fruncido sólo significa tristeza, por ejemplo. Al menos algunos estudios anteriores sobre el reconocimiento de emociones fotografiaron a modelos, no a actores profesionales, a los que se pidió simplemente que expresaran una emoción genérica con sus caras. La IA se ha entrenado de esta manera desde la década de 1990, cuand

¿Debe la IA ser tratada como los humanos?

https://www.makeuseof.com/should-ai-be-treated-like-humans/ La inteligencia artificial (IA) aún no ha alcanzado el nivel humano. Pero con la tecnología cerrando la brecha cada año más, han surgido muchos problemas éticos. Una pregunta importante es: ¿Cómo se parecerá la inteligencia artificial a los seres humanos? ¿Pensarán por sí mismas o tendrán deseos y emociones? ¿Deben tener derechos legales como los humanos? ¿Deben ser obligadas a trabajar o a rendir cuentas si algo sale mal? En este artículo nos adentramos en estas cuestiones y en otras más. Ética de la IA: Por qué es importante pensar en ella Un robot de IA La IA y la ética de las máquinas son dos campos relacionados que están ganando cada vez más adeptos. Se relacionan con varios aspectos importantes de la tecnología, como la forma en que diseñamos, utilizamos y tratamos las máquinas. La mayoría de estas cuestiones están relacionadas con la seguridad en relación con los seres humanos. Sin embargo, la ética de la IA está empeza

El nuevo mandato de vigilancia masiva de Australia

https://digitalrightswatch.org.au/2021/09/02/australias-new-mass-surveillance-mandate/ El gobierno australiano tiene nuevas leyes para hackear tu ordenador, tus cuentas online y casi cualquier pieza de tecnología y redes con las que estés en contacto. Puede ocurrir sin una orden judicial y sin que te enteres. Esto es sólo el principio. ¿Indignado? Bien. A principios de agosto, la Comisión Parlamentaria Mixta de Inteligencia y Seguridad (PJCIS) publicó un informe sobre la Ley de Enmienda de la Legislación de Vigilancia (Identificación y Destrucción) de 2020 en el que recomendaba su aprobación con cambios significativos. En particular, recomendó reducir el alcance de los nuevos poderes introducidos por el proyecto de ley, limitando los criterios para la emisión de nuevas órdenes, exigiendo la aprobación de un juez del tribunal superior y pidiendo mecanismos de supervisión y revisión más fuertes. El proyecto de ley fue aprobado poco más de una semana después por ambas cámaras. No hace fal