Entradas

Mostrando entradas de junio, 2021

La Realidad detrás de la ilusión de la IA

https://www.forbes.com/sites/forbestechcouncil/2021/06/16/the-reality-behind-the-ai-illusion/?sh=167b1ddd3dac Aunque la inteligencia artificial ha evolucionado recientemente y parece ser un fenómeno nuevo en la sociedad moderna, es mucho más antigua de lo que imagina. Al participar activamente en la comunidad global de IA, he notado que muchas personas todavía asocian la IA con las películas de ciencia ficción de Hollywood que muestran el futuro lejano impulsado por robots y máquinas inteligentes. Sin embargo, esta percepción está disminuyendo a medida que la IA se vuelve más común en nuestra vida diaria. Los primeros casos de máquinas inteligentes se encontraron en la mitología griega antigua con concepciones de robots mecánicos hechos para ayudar al dios griego Hefesto. A continuación se presentan algunos hitos en la historia de la IA, que comenzó como un campo de investigación a fines de la década de 1950 con el desarrollo de los primeros algoritmos para resolver problemas matemátic

IA en servicios financieros

https://www.turing.ac.uk/sites/default/files/2021-06/ati_ai_in_financial_services_lores.pdf La inteligencia artificial (IA) juega un papel central en los procesos actuales de cambio tecnológico en servicios financieros. Su lugar destacado en las agendas de innovación habla de los importantes beneficios que las tecnologías de IA pueden permitir a las empresas, los consumidores y los mercados. Al mismo tiempo, los sistemas de IA tienen el potencial de causar un daño significativo. A la luz de este hecho, en los últimos años se ha observado una creciente reconocimiento de la importancia de que la adopción de la IA se guíe por consideraciones de responsabilidad innovación. El objetivo de este informe es informar y promover el debate sobre la IA responsable en el contexto de servicios financieros. Proporciona una introducción a conceptos tecnológicos relevantes, analiza desafíos generales y principios rectores para la adopción de la IA, traza los beneficios potenciales y los daños asociados

Ética como servicio: una operacionalización pragmática de la ética de la IA

https://link.springer.com/article/10.1007/s11023-021-09563-w A medida que ha aumentado la gama de usos potenciales de la inteligencia artificial (IA), en particular el aprendizaje automático (ML), también ha aumentado la conciencia de los problemas éticos asociados. Esta mayor conciencia ha llevado a la comprensión de que la legislación y la regulación existentes brindan una protección insuficiente a las personas, los grupos, la sociedad y el medio ambiente de los daños de la IA. En respuesta a esta constatación, ha habido una proliferación de códigos, directrices y marcos de ética basados ​​en principios. Sin embargo, cada vez está más claro que existe una brecha significativa entre la teoría de los principios éticos de la IA y el diseño práctico de los sistemas de IA. En trabajos anteriores, analizamos si es posible cerrar esta brecha entre el "qué" y el "cómo" de la ética de la IA mediante el uso de herramientas y métodos diseñados para ayudar a los desarrollador

Las fallas en el reconocimiento facial están excluyendo a las personas de los sistemas de desempleo

https://www.vice.com/en/article/5dbywn/facial-recognition-failures-are-locking-people-out-of-unemployment-systems La gente de todo el país está furiosa después de que se le nieguen sus beneficios de desempleo debido a problemas aparentes con la tecnología de reconocimiento facial que afirma prevenir el fraude. Los beneficiarios de desempleo se han estado quejando durante meses sobre el servicio de verificación de identidad ID.me, que utiliza una combinación de información biométrica y documentos oficiales para confirmar que los solicitantes son quienes dicen ser. Las quejas alcanzaron otro crescendo esta semana después de que Axios publicara un artículo de "análisis profundo" sobre la amenaza del fraude por desempleo basado en estadísticas proporcionadas al medio por ID.me. ANUNCIO PUBLICITARIO Algunos solicitantes de desempleo han dicho que los modelos de reconocimiento facial de ID.me no los identifican correctamente (en términos generales, la tecnología de reconocimiento f

El problema de la IA de Transparencia

https://knightcolumbia.org/content/transparencys-ai-problem La inteligencia artificial tiene un grave problema de transparencia. La IA está transformando la gobernanza, pero sus resultados son difíciles de explicar y sus procesos son imposibles de entender para los usuarios no profesionales. 1. La IA es un término notoriamente resbaladizo. En este ensayo, estoy hablando de sistemas de software que pueden interpretar grandes cantidades de datos y determinar cómo actuar para lograr un objetivo articulado. Ver Eur. Comm'n High Level Expert Grp. en A.I., Pautas de ética para una inteligencia artificial confiable, en 36 (8 de abril de 2019). Véase también David Freeman Engstrom et al., Government by Algorithm: Artificial Intelligence in Federal Administrative Agencies, ssrn elec. j. (2020) Es más, las herramientas de inteligencia artificial en las que los gobiernos confían cada vez más para automatizar la toma de decisiones a menudo se obtienen de proveedores del sector privado, lo que

El EDPB y el SEPD piden la prohibición del uso de inteligencia artificial para el reconocimiento automático de características humanas en espacios de acceso público y algunos otros usos de la inteligencia artificial que pueden conducir a una discriminación injusta

Noticia https://edpb.europa.eu/news/news/2021/edpb-edps-call-ban-use-ai-automated-recognition-human-features-publicly-accessible_en Postura https://edps.europa.eu/system/files/2021-06/2021-06-18-edpb-edps_joint_opinion_ai_regulation_en.pdf El EDPB y el SEPD han adoptado un dictamen conjunto sobre la propuesta de Reglamento de la Comisión Europea por la que se establecen normas armonizadas sobre inteligencia artificial (IA). El EDPB y el SEPD acogen con gran satisfacción el objetivo de abordar el uso de sistemas de inteligencia artificial en la Unión Europea, incluido el uso de sistemas de inteligencia artificial por parte de instituciones, organismos o agencias de la UE. Al mismo tiempo, el EDPB y el SEPD están preocupados por la exclusión de la cooperación policial internacional del ámbito de la propuesta. El EDPB y el SEPD también hacen hincapié en la necesidad de aclarar explícitamente que la legislación de protección de datos de la UE existente (RGPD, EUDPR y LED) se aplica a cualq

Reconocimiento visual de voz

https://arxiv.org/abs/1409.1411 La lectura de labios se utiliza para comprender o interpretar el habla sin escucharla, una técnica especialmente dominada por personas con dificultades auditivas. La capacidad de leer los labios permite a una persona con discapacidad auditiva comunicarse con los demás y participar en actividades sociales, que de otro modo serían difíciles. Los avances recientes en los campos de la visión por computadora, el reconocimiento de patrones y el procesamiento de señales han llevado a un creciente interés en automatizar esta desafiante tarea de la lectura de labios. De hecho, la automatización de la capacidad humana para leer los labios, un proceso denominado reconocimiento visual de voz (VSR) (o en ocasiones lectura de voz), podría abrir la puerta a otras aplicaciones novedosas relacionadas. VSR ha recibido mucha atención en la última década por su uso potencial en aplicaciones como la interacción humano-computadora (HCI), el reconocimiento de voz audiovisual (

El falso consuelo de la supervisión humana como antídoto contra la I.A. Dañar

https://slate.com/technology/2021/06/human-oversight-artificial-intelligence-laws.html En abril, la Comisión Europea publicó una propuesta de reglamento de amplio alcance para regular el diseño, desarrollo y despliegue de A.I. sistemas. El reglamento estipula que “la I.A. de alto riesgo. sistemas ”(como el reconocimiento facial y los algoritmos que determinan la elegibilidad para los beneficios públicos) deben diseñarse para permitir la supervisión por parte de humanos, quienes tendrán la tarea de prevenir o minimizar los riesgos. A menudo expresado como la solución "humana en el circuito", este enfoque de supervisión humana sobre la I.A. se está convirtiendo rápidamente en un elemento básico en A.I. propuestas de políticas a nivel mundial. Y aunque colocando a los humanos de nuevo en el "bucle" de la I.A. Parece tranquilizador, este enfoque es, en cambio, "descabellado" en un sentido diferente: se basa en una lógica circular que ofrece una falsa comodidad

Presentación de Access Now a la consulta de la UE sobre el documento técnico de IA

https://daniel-leufer.com/2020/06/12/access-now-submission-to-the-eu-consultation-on-the-ai-whitepaper/ Consulte la presentación de Fanny Hidvégi y mía de Access Now al 'Libro blanco sobre inteligencia artificial: un enfoque europeo' de la Comisión Europea. Además de contribuir a través del formulario de consulta en línea, hemos elaborado un documento adicional que describe nuestras seis recomendaciones clave. : No debemos promover la adopción indiscriminada de inteligencia artificial. La adopción de cualquier tecnología, particularmente en el sector público, no debería ser un objetivo independiente y no tiene valor en sí mismo. Implementar un enfoque basado en los derechos y evaluaciones obligatorias del impacto en los derechos humanos. Nos oponemos a un enfoque binario de alto / bajo riesgo. Todas las aplicaciones de IA deben respetar los derechos humanos. Pedimos evaluaciones de impacto de derechos humanos obligatorias para todos los AI / ADM. Ninguna salvaguardia o remedio

Abren dos procedimientos sancionadores contra Radar Covid por falta de cumplimiento en protección de datos

https://www.abc.es/tecnologia/moviles/aplicaciones/abci-abren-procedimientos-sancionadores-contra-radar-covid-falta-cumplimiento-proteccion-datos-202106161227_noticia.html La  Agencia Española de Protección de Datos  ( AEPD ) ha abierto dos procesos sancionadores –uno a la Dirección General de Salud Pública y otro al Ministerio de Asuntos Económicos y Transformación Digital– por una  posible vulneración del Reglamento General de Protección de Datos (RGPD)  en la aplicación de rastreo del coronavirus,  Radar Covid . Esta medida llega después de la presentación de sendas reclamaciones interpuestas por la ONG Rights International Spain y Pau Enseñat, director ejecutivo de la plataforma Reclamadatos, en las que se sostiene que el Gobierno  no compartió la información necesaria –y en los plazos adecuados– sobre el desarrollo de la aplicación en base a las directrices europeas , entre ella la evaluación de impacto de la herramienta y el histórico de su código fuente. En el documento enviado

La Opinión del Comisionado de Información aborda las preocupaciones de privacidad sobre el uso de tecnología de reconocimiento facial en vivo en lugares públicos

https://ico.org.uk/about-the-ico/news-and-events/news-and-blogs/2021/06/information-commissioner-s-opinion-live-facial-recognition-technology/ La tecnología de reconocimiento facial trae beneficios que pueden hacer que aspectos de nuestra vida sean más fáciles, eficientes y seguros. La tecnología nos permite desbloquear nuestros teléfonos móviles, configurar una cuenta bancaria en línea o pasar por el control de pasaportes. Pero cuando la tecnología y sus algoritmos se utilizan para escanear los rostros de las personas en tiempo real y en contextos más públicos, aumentan los riesgos para la privacidad de las personas. Estoy profundamente preocupado por la posibilidad de que la tecnología de reconocimiento facial en vivo (LFR) se use de manera inapropiada, excesiva o incluso imprudente. Cuando se recopilan datos personales confidenciales a gran escala sin el conocimiento, la elección o el control de las personas, los impactos pueden ser significativos. Deberíamos poder llevar a nuestros

Convertir la desconfianza en el intercambio de datos en "participar, deliberar, decidir"

https://www.adalovelaceinstitute.org/blog/distrust-data-sharing-engage-deliberate-decide/ La decisión de NHS Digital de retrasar la fecha límite para que los pacientes opten por no participar en el esquema de datos de GP para la planificación y la investigación (GPDPR), un esquema que permite que los registros de médicos de cabecera de los pacientes se extraigan y compartan en un repositorio central de NHS Digital, ha revitalizado la sociedad debate sobre el intercambio de registros de pacientes con fines más allá de la atención individual y la gobernanza de los datos de los pacientes (quién accedería a los registros de pacientes y con qué fines). Existe una considerable discusión en el dominio público sobre la situación actual. El apoyo a los objetivos de GPDPR, destinado a responder a los desafíos de la recopilación y vinculación de datos durante la pandemia y a respaldar la investigación que beneficia a los pacientes, se combina con la sospecha de que los datos podrían ser mal utili

Privacidad y fascismo: la tormenta política perfecta

https://medium.com/swlh/privacy-and-fascism-the-perfect-political-storm-867c15dbe7f6 Los Data Barons están erosionando los ideales democráticos al infringir nuestro derecho a la privacidad. Al reclamar nuestra privacidad, recuperamos el poder político. Las personas a menudo responden a las amenazas a la privacidad digital insistiendo en que "no tengo nada que ocultar, así que ¿por qué debería importarme?". Esta actitud nace de un malentendido fundamental de lo que está en juego en el debate sobre la privacidad, y Véliz hace un trabajo fantástico al explicar esto. Quizás nos han atraído los encantos del liberalismo y su individualismo, pero hay momentos en que las cosas, simplemente, no se tratan de ti (conmoción). La privacidad en la era digital es uno de esos valores en los que el todo es mayor que la suma de sus partes. Google o Amazon no se preocupan por usted, lo que les importa son los datos que usted produce y las formas en que estos datos pueden mejorar la eficiencia d

El papel de las artes y las humanidades en el pensamiento sobre la inteligencia artificial (IA)

https://www.adalovelaceinstitute.org/blog/role-arts-humanities-thinking-artificial-intelligence-ai/ Quizás la contribución más fundamental de las artes y las humanidades es hacer vívido el hecho de que el desarrollo de la IA no es una cuestión de destino, sino que implica oleadas sucesivas de elecciones humanas de gran trascendencia. Es importante identificar las opciones, enmarcarlas de la manera correcta y plantear la pregunta: ¿quién puede tomarlas y cómo? Esto es importante porque la IA, y la tecnología digital en general, se ha convertido en el enfoque más reciente del mito historicista de que la evolución social está predeterminada, que nuestro mundo social está determinado por variables independientes sobre las cuales nosotros, como individuos o sociedades, somos capaces de ejercer poco control. . Así que nos dejamos llevar por la corriente o nos hundimos. Como dijo Aristóteles: "Nadie delibera sobre cosas que son invariables, ni sobre cosas que le es imposible hacer"

La regulación de la IA propuesta por Europa se queda corta en protección de los derechos

https://www.computerweekly.com/feature/Europes-proposed-AI-regulation-falls-short-on-protecting-rights La propuesta de la Comisión Europea para la regulación de la inteligencia artificial se centra en la creación de un enfoque basado en el riesgo y liderado por el mercado, repleto de autoevaluaciones, procedimientos de transparencia y estándares técnicos, pero los críticos advierten que no es capaz de proteger los derechos fundamentales de las personas y mitigar los problemas de la tecnología. peores abusos

Las empresas de tecnología están capacitando a la inteligencia artificial para leer tus labios

https://www.vice.com/en/article/bvzvdw/tech-companies-are-training-ai-to-read-your-lips Un paciente se sienta en una cama de hospital, un vendaje cubre su cuello con una pequeña abertura para el tubo de traqueotomía que le suministra oxígeno. Debido a su cirugía reciente, el hombre que aparece en este video de marketing no puede vocalizar. Entonces, un médico sostiene un teléfono inteligente y registra al paciente mientras pronuncia una frase corta. Una aplicación llamada SRAVI analiza los movimientos de los labios y en unos dos segundos devuelve su interpretación: "Necesito succión". ANUNCIO PUBLICITARIO Parece una interacción simple y, en algunos aspectos, SRAVI (aplicación de reconocimiento de voz para personas con problemas de voz) sigue siendo bastante simplista. Solo puede reconocer unas pocas docenas de frases, y lo hace con aproximadamente un 90 por ciento de precisión. Pero la aplicación, creada por la startup irlandesa Liopa, representa un gran avance en el campo de

Convertir la desconfianza en el intercambio de datos en "participar, deliberar, decidir"

https://www.adalovelaceinstitute.org/blog/distrust-data-sharing-engage-deliberate-decide / La decisión de NHS Digital de retrasar la fecha límite para que los pacientes opten por no participar en el esquema de datos de GP para la planificación y la investigación (GPDPR), un esquema que permite que los registros de médicos de cabecera de los pacientes se extraigan y compartan en un repositorio central de NHS Digital, ha revitalizado la sociedad. debate sobre el intercambio de registros de pacientes con fines más allá de la atención individual y la gobernanza de los datos de los pacientes (quién accedería a los registros de pacientes y con qué fines). Existe una considerable discusión en el dominio público sobre la situación actual. El apoyo a los objetivos de GPDPR, destinado a responder a los desafíos de la recopilación y vinculación de datos durante la pandemia y a respaldar la investigación que beneficia a los pacientes, se combina con la sospecha de que los datos podrían ser mal uti

Los derechos de datos colectivos pueden evitar que las grandes tecnologías destruyan la privacidad

https://www.technologyreview.com/2021/05/25/1025297/collective-data-rights-big-tech-privacy/ Cada persona involucrada con el mundo en red crea constantemente ríos de datos. Hacemos esto de formas que conocemos y de formas que no. Las corporaciones están ansiosas por aprovechar. Tomemos, por ejemplo, NumberEight, una startup que, según Wired, “ayuda a las aplicaciones a inferir la actividad del usuario en función de los datos de los sensores de un teléfono inteligente: ya sea que estén corriendo o sentados, cerca de un parque o museo, conduciendo o viajando en tren. " Los nuevos servicios basados ​​en dicha tecnología "combinarán lo que saben sobre la actividad de un usuario en sus propias aplicaciones con información sobre lo que están haciendo físicamente en ese momento". Con esta información, "en lugar de crear un perfil para dirigirse, por ejemplo, a mujeres mayores de 35 años, un servicio podría orientar anuncios a 'madrugadores'". Tales ambiciones

Cómo discriminan los anuncios online

https://edri.org/wp-content/uploads/2021/06/EDRi_Discrimination_Online.pdf Apareció el primer banner publicitario en línea en 1994, y funcionó de manera similar a vallas publicitarias que aparecen junto a carreteras o páginas publicitarias en revistas impresas: AT&T pagó HotWired $ 30,000 para colocar un banner publicitario en su sitio durante tres meses para que cada el visitante de ese sitio lo vería directamente en cima. Mucho ha cambiado desde entonces. Hoy, los anuncios en línea hiperorientados volverse omnipresente. Aparecen en historias de redes sociales, en redes sociales feeds, en contenido de video, en aplicaciones, siguiente a las noticias y en un importante cuota de sitios web y blogs del mundo y sitios de editores. Los riesgos y daños que son asociado con hiperactividad en línea los anuncios han sido ampliamente documentados.1 De la explotación generalizada de datos que es prácticamente imposible de evitar, a la falta de rendición de cuentas en el cadena de suministro

Más allá de la propiedad de los datos

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3564480 Las propuestas de propiedad de datos son muy mal entendidas, apuntan a un objetivo equivocado y serían contraproducentes si se implementaran. Este artículo, en primer lugar, muestra que las propuestas de propiedad de datos no defienden el conjunto de derechos de propiedad que existe sobre la propiedad en el derecho consuetudinario. En cambio, estas propuestas se centran en transferir derechos sobre la información personal únicamente a través del consentimiento. En segundo lugar, este artículo muestra las fallas de un enfoque de propiedad de la información personal. Este enfoque magnifica problemas bien conocidos de consentimiento en la ley de privacidad: información asimétrica, poder de negociación asimétrico y omisión de datos inferidos. También crea un problema fatal: un problema de riesgo moral donde las corporaciones carecen de incentivos para reducir el daño a la privacidad. Ese problema de riesgo moral hace que la propie

El detector de mentiras moderno: detección de afectos impulsada por la inteligencia artificial y la ley de protección del polígrafo del empleado (EPPA)

https://www.law.georgetown.edu/georgetown-law-journal/in-print/volume-109-issue-5-april-2021/the-modern-lie-detector-ai-powered-affect-screening-and-the-employee-polygraph-protection-act-eppa/ Los algoritmos predictivos se utilizan cada vez más para seleccionar y clasificar la fuerza laboral moderna. Sin embargo, la delegación de decisiones de contratación a sistemas de software impulsados ​​por inteligencia artificial tendrá un impacto profundo en la privacidad de las personas. Esta nota se basa en el trabajo fundamental de los juristas que estudian la tendencia creciente de la toma de decisiones algorítmica en las prácticas de reclutamiento y contratación. Sin embargo, esta Nota se diferenciará de su análisis de manera crítica. Aunque este problema se ha estudiado principalmente a través de la lente de la ley federal contra la discriminación y por el potencial de sesgo algorítmico, esta Nota explorará cómo la ley federal de privacidad, a saber, la Ley de Protección del Polígrafo del

Desafiando el status quo de la jurisprudencia

https://www.livelaw.in/columns/artificial-intelligence-jurisprudence-175193 La jurisprudencia siempre se ha enfrentado a desafíos por innovaciones, desarrollos socioeconómicos y cambios en el panorama político.

Entre Golem y Dios: el futuro de la IA

https://3quarksdaily.com/3quarksdaily/2021/06/between-golem-and-god-the-future-of-ai.html Entre todas las fascinantes criaturas míticas que pueblan el folclore de varias culturas, una que se destaca es el golem, una criatura artificial, a medio formar, parecida a un ser humano que nos llega del folclore judío. Aunque la idea se remonta mucho más atrás, el golem más famoso es el que se dice que fue creado y traído a la vida por el gran rabino Loew de Praga en el siglo XVI. Las historias de varios otros golems también se han transmitido a lo largo de la historia, cada una con sus propias peculiaridades. La mayoría de ellos, sin embargo, comparten algunos temas comunes. Primero, el golem se crea para realizar alguna función específica. Por ejemplo, el golem de Praga se creó para proteger a los judíos de la ciudad de los pogromos. En segundo lugar, el golem es capaz de comportarse con un propósito, pero de forma limitada. Y tercero, el golem es activado por un maestro humano etiquetándolo

La computadora lo verá ahora: ¿su sesión de terapia está a punto de automatizarse?

https://www.theguardian.com/us-news/2021/jun/04/therapy-session-artificial-intelligence-doctors-automated La computadora lo verá ahora: ¿su sesión de terapia está a punto de automatizarse? "La pregunta es, ¿puede la IA, o las herramientas digitales en general, ayudarnos a recopilar datos más precisos para que podamos ser médicos más eficaces?" Los expertos dicen que la IA crecerá rápidamente en psiquiatría y terapia, lo que permitirá a los médicos detectar las enfermedades mentales antes y mejorar la atención. Pero, ¿son las tecnologías efectivas y éticas? Apoyado por OSF (Automatización de la atención) Acerca de este contenido Ramin Skibba 4 de junio de 2021 11.00 BST En solo unos años, su visita a la oficina del psiquiatra podría verse muy diferente, al menos según Daniel Barron. Su médico podría beneficiarse al hacer que las computadoras analicen las interacciones registradas con usted, incluidos los cambios sutiles en su comportamiento y en la forma en que habla. "Cr

Preocupaciones de derechos civiles en relación con el uso de la tecnología de reconocimiento facial por parte de las fuerzas del orden

https://www.newamerica.org/oti/briefs/civil-rights-concerns-regarding-law-enforcement-use-of-face-recognition-technology/ En todo el país, las agencias policiales y de inmigración locales, estatales y federales utilizan sistemas de reconocimiento facial para identificar, rastrear y apuntar a las personas. Más de la mitad de todos los adultos estadounidenses ya se encuentran en bases de datos de reconocimiento facial utilizadas para investigaciones criminales. [1] Esta tecnología expande drásticamente el poder de la aplicación de la ley y plantea graves amenazas a la seguridad, el bienestar y las libertades de expresión y asociación de todos, pero especialmente para las comunidades negras y marrones, comunidades musulmanas, comunidades de inmigrantes, comunidades indígenas y otras personas histórica y actualmente marginadas y seleccionadas. vigilando. Gran parte del debate público se ha centrado en la alarmante inexactitud de los sistemas de reconocimiento facial, especialmente en mujer

Un enfoque sociotécnico de la ética y la tecnología en acción

https://arxiv.org/abs/2106.01784 Las controversias recientes relacionadas con temas como las noticias falsas, la privacidad y el sesgo algorítmico han provocado un mayor escrutinio público de las tecnologías digitales y un examen de conciencia entre muchas de las personas asociadas con su desarrollo. En respuesta, la industria tecnológica, la academia, la sociedad civil y los gobiernos han aumentado rápidamente su atención a la "ética" en el diseño y uso de tecnologías digitales ("ética tecnológica"). Sin embargo, casi tan rápido como el discurso ético ha proliferado en todo el mundo de las tecnologías digitales, las limitaciones de estos enfoques también se han hecho evidentes: la ética tecnológica es vaga y sin dientes, está subsumida en la lógica y los incentivos corporativos, y tiene un enfoque miope en los ingenieros y diseño de tecnología más que en las estructuras y culturas de producción de tecnología. Como resultado de estas limitaciones, muchos se han vuel

De que hablamos cuando hablamos de biometría

https://www.adalovelaceinstitute.org/blog/what-talk-about-biometrics/ Para un conjunto de tecnologías tan amplio y diverso, el debate público sobre la biometría a menudo puede parecer sorprendentemente estrecho. Durante los últimos años, el reconocimiento facial automatizado, y especialmente su uso por parte de la policía, a menudo ha parecido la única controversia biométrica en la ciudad. En el Reino Unido, los juicios policiales (y los despliegues operativos de facto) de reconocimiento facial han avivado la controversia, lo que ha provocado pedidos de intervenciones que van desde una prohibición total de la tecnología hasta una mejor supervisión y códigos de práctica y una revisión de la ley actual que rige el uso. de la tecnología por parte del sector público, así como defensas enérgicas de sus beneficios potenciales. En los EE. UU., Ha comenzado a surgir un mosaico de regulaciones a nivel estatal en respuesta al reconocimiento facial, impulsado en parte por la investigación (predom

Los "bots de cuidado" están en aumento y están reemplazando a los cuidadores humanos

https://www.theguardian.com/us-news/2021/jun/03/care-bots-on-the-rise-elder-care Si buscas "robots de atención" en Google, verás un ejército de mayordomos y enfermeras robot que toman los signos vitales en los hospitales, entregan rosas rojas a los pacientes y sirven jugo a los ancianos. En su mayor parte, estas son solo fantasías de ciencia ficción. Los bots de atención que ya existen tienen una apariencia diferente. Estos robots de atención se parecen menos a robots y más a piezas invisibles de código, cámaras web y algoritmos. Pueden controlar quién se somete a qué prueba en el consultorio del médico o cuántas horas de atención recibe una persona con Medicaid. Y están en todas partes. Cada vez más, los cuidadores humanos trabajan a través y junto con sistemas automatizados que establecen recomendaciones, administran y vigilan su trabajo y asignan recursos. Están surgiendo porque EE. UU. Ha invertido insuficientemente de manera crónica en infraestructura de atención, depend

El aprendizaje automático está en auge en la medicina. También se enfrenta a una crisis de credibilidad

https://www.statnews.com/2021/06/02/machine-learning-ai-methodology-research-flaws/ La loca carrera se aceleró tan rápido como la pandemia. Los investigadores corrieron para ver si la inteligencia artificial podía desentrañar los muchos secretos de Covid-19, y por una buena razón. Hubo una escasez de pruebas y tratamientos para un número vertiginoso de pacientes. Quizás la IA podría detectar la enfermedad antes en imágenes pulmonares y predecir qué pacientes tenían más probabilidades de enfermarse gravemente. Cientos de estudios llegaron a servidores de preimpresión y revistas médicas que afirman demostrar la capacidad de la IA para realizar esas tareas con gran precisión. No fue hasta muchos meses después que un equipo de investigación de la Universidad de Cambridge en Inglaterra comenzó a examinar los modelos, más de 400 en total, y llegó a una conclusión muy diferente: todos y cada uno de ellos tenía fallas fatales. "Fue una verdadera revelación y bastante sorprendente la canti

Los clientes de Amazon en EE. UU. Tienen una semana para excluirse del uso compartido inalámbrico masivo

https://www.theguardian.com/technology/2021/jun/01/amazon-us-customers-given-one-week-to-opt-out-of-mass-wireless-sharing Los clientes de Amazon tienen una semana para optar por no participar en un plan que convertiría cada altavoz Echo y cámara de seguridad Ring en los EE. UU. En una red inalámbrica compartida, como parte del plan de la compañía para solucionar los problemas de conexión de sus dispositivos domésticos inteligentes. La propuesta, llamada Amazon Sidewalk, implica que los dispositivos de la compañía se utilicen como trampolín para construir "redes de malla" en toda la ciudad que ayuden a simplificar el proceso de configuración de nuevos dispositivos, manteniéndolos en línea incluso si están fuera del alcance de la red wifi doméstica. y ampliar la gama de dispositivos de seguimiento como los fabricados por Tile.

El error humano de la inteligencia artificial

https://www.agendadigitale.eu/cultura-digitale/the-human-error-of-artificial-intelligence/ En enero de 2020, Robert Julian-Borchak, un hombre negro, fue arrestado en Detroit por un crimen que no cometió solo por un error en un sistema de inteligencia artificial de reconocimiento facial. Este, según el New York Times, fue el primer caso conocido de un ciudadano estadounidense arrestado por un error algorítmico. El caso de Robert Julian-Borchak cuenta la historia de nuestro tiempo. Hoy en día, las fuerzas del orden y los tribunales utilizan cada vez más los sistemas de inteligencia artificial para monitorear, rastrear y perfilarnos y determinar nuestra posible inocencia o culpabilidad. Estas transformaciones no solo afectan a Estados Unidos. También en Europa, las lógicas algorítmicas se están incorporando rápidamente en los entornos de justicia penal [1] y la vigilancia policial predictiva. [2]. Como demuestra el ejemplo de Robert Julian-Borchak, el uso de estas tecnologías por los trib