Entradas

Mostrando entradas de abril, 2021

Ver piedras: la pandemia revela el preocupante alcance de Palantir en Europa

https://www.theguardian.com/world/2021/apr/02/seeing-stones-pandemic-reveals-palantirs-troubling-reach-in-europe El 24 de marzo de 2020 será recordado por algunos por la noticia de que el Príncipe Carlos dio positivo por Covid y estaba aislado en Escocia. En Atenas fue memorable como el día en que el tráfico se quedó en silencio. A las veinticuatro horas de un duro encierro, los griegos se estaban aclimatando a una nueva realidad en la que tenían que enviar un SMS al gobierno para poder salir de casa. Además de millones de mensajes de texto, el gobierno griego enfrentó dilemas extraordinarios. La economía más vulnerable de la Unión Europea, su población más anciana junto con Italia, y uno de sus sistemas de salud más débiles se enfrentaron a la primera ola de una pandemia que abrumó a los países más ricos con menos pensionistas y una mayor atención sanitaria. La carnicería en Italia se extendió por todo el Adriático. Un griego que sí entró en la oficina ese día fue Kyriakos Pierrakakis...

La policía de Pittsburgh está investigando la correspondencia entre el reconocimiento facial Clearview y el personal policial

https://www.publicsource.org/pittsburgh-police-clearview-facial-recognition-investigation/ La oficina de policía de Pittsburgh está investigando el contacto entre el personal policial y Clearview AI luego de las consultas de PublicSource sobre la participación de la oficina con la empresa de reconocimiento facial. Según una historia reciente de Buzzfeed News, la Oficina de Policía de Pittsburgh realizó entre 101 y 500 búsquedas en Clearview entre 2018 y febrero de 2020. Utilizando datos proporcionados por una fuente confidencial, junto con registros públicos y entrevistas, Buzzfeed News compiló una lista de más de 1.800 agencias financiadas con fondos públicos en todo el país que utilizaron Clearview, incluidas 63 en Pensilvania. Cara Cruz, portavoz de la policía de Pittsburgh, confirmó a PublicSource que los miembros de la oficina recibieron correos electrónicos de Clearview y dijeron que la oficina todavía está investigando el alcance de la correspondencia entre Clearview y el person...

La nueva ley de inteligencia artificial de la UE corre el riesgo de permitir a los estados de vigilancia orwellianos

https://www.euronews.com/2021/04/22/eu-s-new-artificial-intelligence-law-risks-enabling-orwellian-surveillance-states-view Desde que la presidenta de la Comisión Europea, Ursula von der Leyen, prometió entregar un reglamento para la inteligencia artificial (IA) "de vanguardia pero confiable" en sus primeros 100 días de mandato, el microscopio de la política tecnológica global se ha fijado en la respuesta de la UE. . Ayer, más de un año desde que von der Leyen asumió el cargo, la Comisión Europea lanzó su propuesta sobre IA. La regulación es una bolsa mixta. A pesar del persistente cabildeo de los países de la UE y la industria para evitar reglas obligatorias sobre IA, la propuesta adopta una postura de derechos fundamentales mucho más fuerte de lo que muchos esperaban. Al prohibir la IA para la puntuación social y algunos usos policiales de los sistemas biométricos, la Comisión Europea ha allanado el camino para el argumento de que algunos usos de la IA son simplemente demasi...

Las propuestas de IA de la UE pueden no proteger los derechos humanos, advierten los expertos

https://digitalprivacy.news/2021/04/23/eu-ai-proposals-may-not-protect-human-rights-experts-warn/ “La comisión ha reconocido que algunos usos de la inteligencia artificial son muy problemáticos para los derechos fundamentales”, dijo Daniel Leufer, analista de políticas con sede en Bruselas de la organización global de derechos humanos Access Now.

La IA tiene una enorme huella de carbono. Esto es lo que podemos hacer para reducirlo

https://www.msn.com/en-us/news/technology/ai-has-a-huge-carbon-footprint-here-s-what-we-can-do-to-reduce-it/ar-BB1c0DQV Entre los riesgos está la gran huella de carbono de desarrollar este tipo de tecnología de IA. Según algunas estimaciones, entrenar un modelo de IA genera tantas emisiones de carbono como se necesitan para construir y conducir cinco automóviles durante su vida útil. Soy un investigador que estudia y desarrolla modelos de inteligencia artificial, y estoy muy familiarizado con los costos energéticos y financieros vertiginosos de la investigación de la inteligencia artificial. ¿Por qué los modelos de IA se han vuelto tan hambrientos de energía y en qué se diferencian de la computación tradicional del centro de datos? El entrenamiento de hoy es ineficiente Los trabajos tradicionales de procesamiento de datos realizados en centros de datos incluyen transmisión de video, correo electrónico y redes sociales. La IA es más computacionalmente intensiva porque necesita leer una ...

Por qué la IA es más difícil de lo que pensamos

https://arxiv.org/pdf/2104.12871.pdf Desde sus inicios en la década de 1950, el campo de la inteligencia artificial ha realizado varios ciclos entre períodos. de predicciones optimistas e inversión masiva (“primavera de la IA”) y períodos de decepción, pérdida de confianza y reducción de la financiación (“invierno de la IA”). Incluso con el ritmo aparentemente rápido de los avances en IA de hoy, el desarrollo de tecnologías prometidas desde hace mucho tiempo, como automóviles autónomos, robots de limpieza y compañeros ha resultado ser mucho más difícil de lo que mucha gente esperaba. Una de las razones por las que se repiten ciclos es nuestra comprensión limitada de la naturaleza y complejidad de la inteligencia misma. En este artículo describo Cuatro falacias en suposiciones comunes hechas por investigadores de IA, que pueden conducir a predicciones demasiado seguras. sobre el campo. Concluyo discutiendo las preguntas abiertas suscitadas por estas falacias, incluida la antigua desafío...

Esta investigadora dice que la inteligencia artificial no es ni artificial ni inteligente.

https://www.wired.com/story/researcher-says-ai-not-artificial-intelligent/ https://www.theguardian.com/technology/2021/jun/06/microsofts-kate-crawford-ai-is-neither-artificial-nor-intelligent A LAS EMPRESAS DE TECNOLOGÍA LES GUSTA presentar la inteligencia artificial como una herramienta precisa y poderosa para el bien. Kate Crawford dice que la mitología tiene fallas. En su libro Atlas of AI, visita una mina de litio, un almacén de Amazon y un archivo de cráneos frenológicos del siglo XIX para ilustrar los recursos naturales, el sudor humano y la mala ciencia que sustentan algunas versiones de la tecnología. Crawford, profesor de la Universidad del Sur de California e investigador de Microsoft, dice que muchas aplicaciones y efectos secundarios de la IA necesitan una regulación urgente.

Canadá juega con su liderazgo en inteligencia artificial

https://www.theglobeandmail.com/business/commentary/article-canada-is-gambling-with-its-leadership-on-artificial-intelligence/ El presupuesto federal de la semana pasada comprometió $ 443,8 millones durante los próximos 10 años para renovar la Estrategia Pancanadiense de Inteligencia Artificial. Por casualidad, el presupuesto coincidió con la publicación por parte de la Unión Europea de la propuesta de reglamento de IA. La comparación de los dos muestra que Canadá está jugando un juego arriesgado al evitar un enfoque sólido y basado en los derechos para la gobernanza de la IA. La IA es ahora una parte firme de cómo se gobierna la sociedad, y el enfoque de la UE es un marco legal intervencionista claro destinado a abordar la complejidad, la imprevisibilidad y el comportamiento autónomo de la IA. Su enfoque prohíbe ciertas aplicaciones de IA, en particular la mayoría de los usos del reconocimiento facial en el espacio público, estipula actividades de alto riesgo y luego pide mejores códi...

El reconocimiento facial debería prohibirse, dice el organismo de control de la privacidad de la UE

https://www.reuters.com/technology/facial-recognition-should-be-banned-eu-privacy-watchdog-says-2021-04-23/ El reconocimiento facial debería prohibirse en Europa debido a su "intrusión profunda y no democrática" en la vida privada de las personas, dijo el viernes el supervisor de la privacidad de la UE, el Supervisor Europeo de Protección de Datos (SEPD). Los comentarios se producen dos días después de que la Comisión Europea propusiera un borrador de reglas que permitiría utilizar el reconocimiento facial para buscar niños o delincuentes desaparecidos y en casos de ataques terroristas. El borrador de las reglas, que deben discutirse con los países de la UE y el Parlamento Europeo, es un intento de la Comisión de establecer reglas globales para la inteligencia artificial, una tecnología dominada por China y Estados Unidos. El organismo de control de la privacidad dijo que lamentaba que la Comisión no hubiera atendido su llamado anterior para prohibir el reconocimiento facial ...

La UE toma medidas mínimas para regular los sistemas dañinos de IA, debe ir más allá para proteger los derechos fundamentales

https://www.accessnow.org/eu-minimal-steps-to-regulate-harmful-ai-systems/ Access Now ha estado abogando por una regulación basada en los derechos humanos para garantizar que tanto el sector público como el privado respeten y promuevan los derechos humanos en el contexto de la inteligencia artificial, incluida una convocatoria de líneas rojas para las aplicaciones de IA que son incompatibles con los derechos fundamentales. Desafortunadamente, la nueva propuesta no cumple con los requisitos mínimos necesarios para salvaguardar los derechos humanos en la UE. “En su presentación del Reglamento de IA, la vicepresidenta ejecutiva Vestager dijo que 'queremos que la IA sea una fuerza para el progreso' en la UE. La introducción de una disposición para prohibir ciertos usos es un primer paso hacia eso. Desafortunadamente, esas prohibiciones son demasiado limitadas y este marco legal no hace nada para detener el desarrollo o despliegue de una serie de aplicaciones de IA que socavan drást...

Basta de hablar de ética de la IA. Es hora de hablar de poder.

https://www.technologyreview.com/2021/04/23/1023549/kate-crawford-atlas-of-ai-review/ A principios del siglo XX, un caballo alemán tomó Europa por asalto. El inteligente Hans, como se le conocía, aparentemente podía realizar todo tipo de trucos antes limitados a los humanos. Podía sumar y restar números, decir la hora y leer un calendario, incluso deletrear palabras y oraciones, todo marcando la respuesta con un casco. "A" fue un toque; "B" era dos; 2 + 3 eran cinco. Fue una sensación internacional, y muchos creían que era una prueba de que a los animales se les podía enseñar a razonar tan bien como a los humanos. El problema era que Hans Clever realmente no estaba haciendo ninguna de estas cosas. Como descubrieron más tarde los investigadores, el caballo había aprendido a dar la respuesta correcta al observar cambios en la postura, la respiración y las expresiones faciales de sus interrogadores. Si el interrogador se quedaba demasiado lejos, Hans perdería sus habil...

Por qué Bitcoin es malo para el medioambiente

https://www.newyorker.com/news/daily-comment/why-bitcoin-is-bad-for-the-environment El dinero, se dice a menudo, es una ficción compartida. Te doy un trozo de papel o, más probablemente estos días, un trozo de plástico. Me pasas huevos o mantequilla o un moca frappuccino de chocolate blanco y ambos nos marchamos satisfechos. Con la criptomoneda, el arreglo es más como una metaficción compartida, y la inestabilidad del género es, presumiblemente, parte de la emoción. Dogecoin, una criptomoneda que se creó como una parodia, ha aumentado su valor en un ocho mil por ciento desde enero, debido a una combinación de bombeo al estilo GameStop y tweets de refuerzo de Elon Musk. El martes, que los patrocinadores proclamaron DogeDay, la criptomoneda se valoró en más de cincuenta mil millones de dólares, que es más que la capitalización de mercado de Ford. Coinbase, un intercambio de criptomonedas, se hizo público el miércoles pasado; casi de inmediato, valió más que G.M. La integración de la crip...

Humanizando la Automatización

https://issues.org/humanizing-automation-shneiderman-pasquale-new-laws-robotics/ El objetivo de Pasquale con sus cuatro nuevas leyes está admirablemente centrado en el ser humano: "Las nuevas leyes de la robótica pueden ayudarnos a imaginar futuros en los que la IA respete y ayude a preservar la dignidad y la identidad humanas". A medida que los investigadores, ingenieros y programadores se apresuran a desarrollar sistemas robóticos y de inteligencia artificial cada vez más potentes, los responsables políticos y el público están debidamente preocupados por el efecto de estas tecnologías en la sociedad. Al defender la primacía de la humanidad en un mundo cada vez más automatizado, Pasquale rechaza la noción concebida en la ciencia ficción (y perseguida por muchos diseñadores) de que la tecnología robótica transformará inevitablemente el espacio humano en un mundo de y para máquinas. La primera ley de Pasquale asume la noción ampliamente difundida de que todas las profesiones s...

Propuesta de reglamento de IA en la UE

  https://ec.europa.eu/commission/presscorner/detail/en/ip_21_1682

Ferment Is Abroad: Techlash, instituciones legales y los límites de la legalidad

https://lpeproject.org/blog/ferment-is-abroad-techlash-legal-institutions-and-the-limits-of-lawfulness/ “Las leyes tienen que determinar qué es legal, pero no se puede prohibir la tecnología. Claro, eso podría conducir a un futuro distópico o algo así, pero no puedes prohibirlo ". David Scalzo (uno de los primeros inversores en Clearview AI) Las instituciones tecnológicas y legales se enfrentan a momentos gemelos de ajuste de cuentas. Por un lado, tenemos el "techlash". En los últimos años, el entusiasmo por la ideología de California de Silicon Valley como fuente de esperanza y vigor para el imaginario capitalista occidental ha comenzado a desvanecerse. La industria de la tecnología ya no disfruta de una buena voluntad incuestionable y de un apoyo popular entusiasta a sus narrativas de determinismo tecnológico y benevolencia rentable. Por el contrario, la industria ha sido el foco de una mayor desconfianza pública, activismo civil y de los trabajadores y escrutinio regu...

Los bancos estadounidenses implementan inteligencia artificial para monitorear a los clientes y trabajadores en medio de una reacción violenta tecnológica

https://www.reuters.com/technology/us-banks-deploy-ai-monitor-customers-workers-amid-tech-backlash-2021-04-19/ Varios bancos estadounidenses han comenzado a implementar software de cámara que puede analizar las preferencias de los clientes, monitorear a los trabajadores y detectar a las personas que duermen cerca de los cajeros automáticos, incluso aunque desconfían de una posible reacción violenta por una mayor vigilancia, dijeron a Reuters más de una docena de fuentes bancarias y tecnológicas. Ensayos no informados anteriormente en City National Bank of Florida (BCI.SN) y JPMorgan Chase & Co (JPM.N), así como implementaciones anteriores en bancos como Wells Fargo & Co (WFC.N) ofrecen una visión poco común del potencial de EE. UU. las instituciones financieras ven en el reconocimiento facial y los sistemas de inteligencia artificial relacionados. El despliegue generalizado de tales herramientas de inteligencia artificial visual en el sector bancario fuertemente regulado sería ...

La necesidad de una garantía de IA eficaz

https://cdei.blog.gov.uk/2021/04/15/the-need-for-effective-ai-assurance/ Las tecnologías basadas en datos, como la inteligencia artificial (IA), tienen el potencial de generar beneficios significativos para nuestra economía y nuestra sociedad. Sin embargo, también introducen riesgos que deben gestionarse. A medida que estas tecnologías se adoptan más ampliamente, existe una necesidad cada vez mayor de que una variedad de actores, incluidos reguladores, desarrolladores, ejecutivos y usuarios de primera línea, verifiquen que estas herramientas estén funcionando como se espera, de una manera que cumpla con los estándares (incluyendo regulación), y para demostrarlo a otros. Sin embargo, estos actores a menudo tienen información limitada o carecen del conocimiento especializado adecuado para garantizar que los sistemas de IA sean confiables. Para abordar esta brecha de información, se requiere un ecosistema de garantía de IA eficaz. La garantía como servicio se basa originalmente en la prof...

La auditoría de IA es la próxima gran novedad. Pero, ¿garantizará algoritmos éticos?

https://techmonitor.ai/technology/ai-and-automation/ai-auditing-next-big-thing-will-it-ensure-ethical-algorithms Desde sistemas de reclutamiento discriminatorios hasta chat bots racistas, las trampas éticas de la inteligencia artificial están bien documentadas. Con el espectro de la regulación de la IA que se avecina, las empresas se apresuran a comprender las implicaciones morales de los algoritmos. Para satisfacer esta necesidad, surge la incipiente industria de auditoría de IA. Pero la falta de un marco ético universal de IA ha llevado a enfoques fortuitos y temores de que las auditorías no solo no detecten el sesgo, sino que legitimen las tecnologías dañinas. “En 2018, hubo una explosión en el interés por la ética digital como resultado del escándalo de Cambridge Analytica”, dice Emre Kazim, investigador de UCL y cofundador de la empresa de auditoría y aseguramiento Holistic AI. “En ese momento, los ingenieros se interesaron más en contratar personas de diferentes disciplinas: soci...

Zombies morales:por qué los algoritmos no son agentes morales

https://link.springer.com/article/10.1007/s00146-021-01189-x En filosofía de la mente, los zombis son criaturas imaginarias que son duplicados físicos exactos de sujetos conscientes para quienes no existe una experiencia personal. Los zombis están destinados a mostrar que el fisicalismo, la teoría de que el universo está compuesto enteramente por componentes físicos, es falso. En este artículo, aplico el experimento mental zombi al ámbito de la moralidad para evaluar si la agencia moral es algo independiente de la sensibilidad. Los algoritmos, en mi opinión, son una especie de zombi moral funcional, de modo que pensar en los últimos puede ayudarnos a comprender y regular mejor los primeros. Sostengo que la razón principal por la que los algoritmos no pueden ser autónomos ni responsables es que carecen de sensibilidad. Los zombis y algoritmos morales son incoherentes como agentes morales porque carecen de la comprensión moral necesaria para ser moralmente responsables. Para comprender l...

No necesitamos una regulación débil en contratación, necesitamos una prohibición

https://www.fastcompany.com/90625587/new-york-city-ai-hiring-rules-ban A veces, la cura es peor que la enfermedad. Cuando se trata de los peligros de la inteligencia artificial, las regulaciones mal elaboradas que dan una falsa sensación de responsabilidad pueden ser peores que ninguna. Este es el dilema que enfrenta la ciudad de Nueva York, que está preparada para convertirse en la primera ciudad del país en aprobar reglas sobre el creciente papel de la IA en el empleo. Cada vez más, cuando solicitas un trabajo, pides un aumento o esperas tu horario de trabajo, la IA elige tu destino. Es alarmante que muchos solicitantes de empleo nunca se den cuenta de que están siendo evaluados por una computadora, y casi no tienen ningún recurso cuando el software está sesgado, comete un error o no se adapta a una discapacidad. Si bien la ciudad de Nueva York ha dado el paso importante de tratar de abordar la amenaza del sesgo de la IA, el problema es que las reglas pendientes ante el Ayuntamiento ...

Recomendación del Consejo de Inteligencia Artificial, OCDE

https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449 Las tecnologías y herramientas de inteligencia artificial (IA) juegan un papel clave en todos los aspectos de la respuesta a la crisis de COVID-19. Esta Recomendación proporciona un conjunto de principios y recomendaciones acordados internacionalmente que pueden promover una respuesta a las crisis impulsada por la IA que sea confiable y respete los valores democráticos y centrados en el ser humano. Para obtener más información sobre esta Recomendación y su relevancia para la respuesta y recuperación de COVID-19, consulte la información de antecedentes a continuación.

La regulación de IA filtrada de la UE es ambiciosa pero decepcionantemente vaga

https://techmonitor.ai/policy/eu-ai-regulation-machine-learning-european-union   La versión filtrada del documento apareció el miércoles y se remonta a enero. Algunas de sus propuestas son audaces y describen planes para prohibir clases enteras de aplicaciones de inteligencia artificial de "alto riesgo", incluida la inteligencia artificial utilizada para la vigilancia indiscriminada y la manipulación del comportamiento. Otras aplicaciones de alto riesgo están sujetas a un intenso régimen regulatorio que incluye rigurosos mecanismos de supervisión y revisión. Hay ecos de GDPR en la nueva regulación: los reguladores podrán multar a las empresas que no cumplan con los requisitos de hasta 20 millones de euros, o el 4% de su facturación mundial. La UE también planea crear una nueva “Junta Europea de Inteligencia Artificial” para supervisar el régimen, a pesar de las críticas actuales al mecanismo de supervisión equivalente para GDPR. "Si el documento filtrado realmente se ace...

REGLAMENTO SOBRE UN ENFOQUE EUROPEO DE INTELIGENCIA ARTIFICIAL

https://drive.google.com/file/d/1ZaBPsfor_aHKNeeyXxk9uJfTru747EOn/view Borrador

Europa ya está desarrollando políticas de privacidad. La IA podría venir después

https://www.bloomberg.com/news/newsletters/2021-04-13/europe-is-already-policing-privacy-ai-could-be-next Las empresas que utilizan inteligencia artificial en la UE pronto podrían tener que ser auditadas primero, según las nuevas reglas que la Unión Europea propondrá la próxima semana. Las regulaciones se esbozaron en parte en un libro blanco de la UE el año pasado y tienen como objetivo garantizar la aplicación responsable de la IA en situaciones de alto riesgo como la conducción autónoma, la cirugía remota o la vigilancia policial predictiva. Los funcionarios quieren asegurarse de que dichos sistemas estén capacitados en la protección de la privacidad y en conjuntos de datos diversos. La propuesta surge cuando las capacidades de inteligencia artificial están integradas en todo, desde compras en línea hasta recomendaciones de música e incluso detección de fiebre y otras tecnologías de detección de Covid implementadas durante la pandemia. La tecnología está impulsando la innovación, pe...

UK y EU afrontan críticas por os pasaportes covid

https://www.wsj.com/articles/u-k-eu-face-privacy-criticism-for-covid-19-passport-plans-11617960601 Los planes británicos y europeos para desarrollar pasaportes contra el coronavirus tienen como objetivo permitir que las empresas vuelvan a abrir de forma segura, pero los defensores de la privacidad y las empresas advierten que pueden ser invasivos y onerosos. El gobierno del Reino Unido dijo esta semana que las pruebas para un sistema de certificado Covid-19 comenzarían este mes y continuarían hasta mayo. Con algunas exenciones, las personas deberán mostrar pruebas de que tienen una prueba de virus negativa reciente, que han sido vacunadas o son inmunes después de recuperarse de Covid-19 para ingresar a ciertos eventos en clubes nocturnos y estadios deportivos, incluida la final de la Copa FA de fútbol. El Servicio Nacional de Salud de Gran Bretaña está desarrollando formas digitales y no digitales para que las personas muestren pruebas de su estado de virus con "la seguridad y la ...

Son los pasaportes covid una amenaza a la liberta? Depende cómo definas libertad

https://www.theguardian.com/commentisfree/2021/apr/10/covid-passports-threat-to-liberty-freedom-pandemic Ahora que el programa de vacunación del Reino Unido está comenzando a ofrecer una ruta de escape para salir de las restricciones de bloqueo, a pesar de algunos contratiempos, la atención se centra en los llamados pasaportes de vacunas nacionales. Los detalles importantes siguen siendo inciertos, pero la idea ya ha sido criticada como potencialmente "divisiva y discriminatoria", además de ir en contra del "instinto británico", presumiblemente porque los pasaportes Covid recuerdan las tarjetas de identificación obligatorias, cuya ausencia muchos consideran un sello distintivo de Libertad británica. El deseo de libertad es, por supuesto, bastante universal, pero hay muchas ideas de libertad incompatibles. El filósofo británico Isaiah Berlin distinguió dos de los más de 200 sentidos de la palabra que, según él, había sido registrada por historiadores de las ideas: “l...

Estadounidenses y privacidad: preocupación, confusión y sensación de falta de control sobre su información personal

https://www.pewresearch.org/internet/2019/11/15/americans-and-privacy-concerned-confused-and-feeling-lack-of-control-over-their-personal-information/ La mayoría de los estadounidenses cree que sus actividades en línea y fuera de línea están siendo rastreadas y monitoreadas por las empresas y el gobierno con cierta regularidad. Es una condición tan común de la vida moderna que aproximadamente seis de cada diez adultos estadounidenses dicen que no creen que sea posible pasar por la vida diaria sin que las empresas o el gobierno recopilen datos sobre ellos. La mayoría de los estadounidenses sienten que tienen poco control sobre los datos recopilados sobre ellos por las empresas y el gobierno. Los productos y servicios basados ​​en datos a menudo se comercializan con el potencial de ahorrar tiempo y dinero a los usuarios o incluso conducir a una mejor salud y bienestar. Aún así, una gran parte de los adultos estadounidenses no está convencida de que se beneficie de este sistema de recopila...

Una unidad secreta del Ministerio del Interior ha acumulado datos sobre millones de personas

Un equipo de análisis de datos cercano al corazón del gobierno ha recopilado datos sobre más de 650 millones de personas, incluidos niños menores de 13 años, según documentos recientemente descubiertos. La unidad de servicios y análisis de datos se describe como "uno de los centros de análisis de datos más avanzados del gobierno" y forma parte del departamento digital, de datos y tecnología (DDaT) del Ministerio del Interior. Desarrolla herramientas para la toma de decisiones y proporciona información basada en datos al resto del Ministerio del Interior, aunque los detalles de exactamente lo que hace permanecen estrictamente protegidos. La enorme cantidad de datos que se analizan y la falta de transparencia del Ministerio del Interior ha provocado acusaciones de los activistas de la privacidad de que la unidad podría estar creando una "súper base de datos" que corre el riesgo de exacerbar los prejuicios raciales entre las agencias de aplicación de la ley. Además de ...

Recomendaciones y hallazgos de una deliberación pública sobre biometría tecnología, políticas y gobernanza

https://www.adalovelaceinstitute.org/report/citizens-biometrics-council/ Las tecnologías biométricas, desde el reconocimiento facial hasta la toma de huellas digitales, han proliferado en la sociedad en los últimos años. Aplicados en un número cada vez mayor de contextos, los beneficios que ofrecen se ven contrarrestados por numerosas preocupaciones éticas y sociales. En 2019, el Instituto Ada Lovelace pidió una moratoria sobre el reconocimiento facial, argumentando que se detuviera su uso hasta que se establecieran las condiciones sociales, éticas y legales para el uso responsable de las tecnologías biométricas emergentes. Desde entonces, una variedad de actores, desde los comerciales y políticos hasta los legales y académicos, han continuado contribuyendo al debate en torno a la biometría. Pero aún no se ha consultado a un grupo de partes interesadas crucial: el público. A lo largo de 2020, el Instituto Ada Lovelace estableció el Consejo de Biometría de los Ciudadanos para deliberar ...

Privacidad débil, adquisiciones débiles: el estado del reconocimiento facial en Canadá

https://www.mediatechdemocracy.com/work/weak-privacy-weak-procurement-the-state-of-facial-recognition-in-canada FRT se utiliza para identificar rostros en imágenes o videos digitales [10]. La tecnología nació de la “visión por computadora”, un campo de estudio que busca replicar el proceso humano de observar patrones en imágenes y videos [11]. Se puede utilizar una tecnología de "reconocimiento" similar para huellas dactilares, material genético, latidos del corazón y muchos otros tipos de datos biométricos o corporales [12]. FRT se puede implementar en tiempo real, lo que permite una identificación instantánea. Las fuerzas policiales ya han tenido acceso a dicha tecnología durante varios años con transparencia y rendición de cuentas inadecuadas. Existen múltiples desafíos superpuestos en las prácticas de contratación pública que permiten a empresas como Clearview AI operar sin hacer un seguimiento público de sus implementaciones. El escándalo de Clearview AI destaca cómo las...

¿Deberían ser explicables los modelos de IA? Eso depende

  https://hai.stanford.edu/news/should-ai-models-be-explainable-depends?utm_source=twitter&utm_medium=social&utm_content=Stanford%20HAI_twitter_StanfordHAI_202104071230_sf141835232&utm_campaign=&sf141835232=1 Los sistemas de inteligencia artificial que pueden diagnosticar cáncer, leer imágenes médicas o sugerir un medicamento apropiado a menudo reciben una mala reputación por no poder explicarse: cuando se les investiga, solo ofrecen una caja negra sobre cómo lograr su éxito. Como resultado, algunos médicos se preguntan si se debe confiar en estas herramientas de IA. Pero los modelos de IA no necesitan ser interpretables para ser útiles, dice Nigam Shah, profesor de medicina (informática biomédica) y de ciencia de datos biomédicos en la Universidad de Stanford y miembro de la facultad afiliado del Instituto de Stanford para la Inteligencia Artificial Centrada en el Humano. Eso es especialmente cierto en la medicina, dice, donde los médicos ofrecen tratamientos rutin...

Tu atención no es un recurso

https://theconvivialsociety.substack.com/p/your-attention-is-not-a-resource “Discurso de la atención” es como suelo referirme a la proliferación de ensayos, artículos, charlas y libros en torno al problema de la atención (o, alternativamente, la distracción) en la era de los medios digitales. Si bien ha habido precursores importantes del discurso de atención de la era digital que se remonta al siglo XIX, diría que la versión actual probablemente comenzó alrededor de 2008 con el ensayo de Nick Carr en el Atlántico, "¿Google nos está haciendo estúpidos?" Y mientras que el discurso de la desinformación ha reemplazado su lugar en la imaginación pública durante los últimos años, el discurso de la atención está vivo y coleando. No pretendo que la etiqueta "discurso de la atención" salga peyorativa o despectiva. De hecho, he hecho mis propias contribuciones menores al género. Era un tema recurrente en el antiguo blog (por ejemplo), y fue el tema de una entrega de este bole...

"No hay mucha autorreflexión en Silicon Valley": sobre las grandes tecnologías y la ética

https://onezero.medium.com/theres-not-a-lot-of-self-reflection-in-silicon-valley-on-big-tech-and-ethics-367d14ed452f Estoy encantado de hablar con Mary Berk. Mary tiene un doctorado en filosofía, un título que incluye una especialización en ética, pero pasó su carrera trabajando en Silicon Valley. Más recientemente, Mary fue gerente de producto en Facebook e Instagram. Anteriormente, Mary trabajó en Amazon, Google, Microsoft, eBay. Dados los muchos años de experiencia de Mary y su disposición para el pensamiento crítico, es la persona perfecta para discutir si las grandes tecnologías pueden preocuparse por la ética. Nuestra conversación ha sido editada y condensada para mayor claridad. Evan: ¿Qué te hizo interesado en la filosofía? Me atrajeron de inmediato durante mi primer semestre en la universidad. Mi escuela secundaria ofrecía principalmente los cursos típicos de humanidades, como inglés, comunicaciones y estudios sociales. Casi no puedo creer que exista una disciplina profesional...

Abolir la Vigilancia con IA

https://onezero.medium.com/abolish-a-i-proctoring-c9e017dd764f Durante la pandemia, las empresas de tecnología educativa experimentaron un aumento del 900% en los negocios una vez que las escuelas comenzaron a cerrar los campus y restringir los visitantes. Estas empresas se lanzaron con software infundido en inteligencia artificial diseñado para evitar que los estudiantes hicieran trampa. Estos algoritmos de supervisión pueden verificar quién está realizando un examen a través de la verificación facial. También pueden monitorear a los examinados, examinando su comportamiento en busca de signos de irregularidades que puedan indicar una trampa, como apartar la mirada de la pantalla. Los críticos sostienen que el software promueve la injusticia, la invasión de la privacidad y la ansiedad infligida indebidamente. La situación es tan grave que el Electronic Privacy Information Center (EPIC), una organización de investigación de interés público, presentó una queja ante la oficina del fiscal ...

La IA no puede detectar tus emociones

https://onezero.medium.com/a-i-cant-detect-our-emotions-3c1f6fce2539 La IA de las emociones, la computación afectiva y la inteligencia emocional artificial son campos que crean tecnología para comprender, responder, medir y simular las emociones humanas. La esperanza es tan alta para estos esfuerzos que el valor de mercado proyectado para la inteligencia artificial emocional. es de $ 91.67 mil millones para 2024. Algunos ejemplos son reveladores: la industria automotriz ve valor en los algoritmos que determinan cuándo los conductores están distraídos y somnolientos. Las empresas ven el valor de los algoritmos que analizan cómo hablan los agentes de atención al cliente y los capacitan computacionalmente para ser mejores oradores. Y los investigadores ven el valor de que los niños con autismo usen anteojos infundidos con IA para interpretar las reacciones faciales transmitidas por las personas que los rodean. Sin embargo, no todo el mundo sonríe acerca de la inteligencia artificial sensi...

Explicaciones locales a través de la necesidad y la suficiencia: Unificando teoría y práctica

https://arxiv.org/pdf/2103.14651.pdf La necesidad y la suficiencia son los componentes básicos de todas las explicaciones acertadas. Sin embargo, a pesar de su importancia, estas nociones han sido conceptualmente subdesarrolladas y aplicadas de manera inconsistente en inteligencia artificial explicable (XAI), un área de investigación en rápido crecimiento que hasta ahora carece de bases teóricas firmes. Construyendo sobre el trabajo en lógica, probabilidad y causalidad, establecemos la papel central de la necesidad y la suficiencia en XAI, unificando métodos aparentemente dispares en un solo marco formal. Ofrecemos un algoritmo sólido y completo para calcular factores explicativos. con respecto a un contexto dado, y demostrar su flexibilidad y desempeño competitivo contra alternativas de vanguardia en diversas tareas.

Por qué necesitamos nuevos puntos de referencia para la IA

https://www.wsj.com/articles/why-we-need-new-benchmarks-for-ai-11617634800 ¿Cómo se mide la inteligencia artificial? Desde que la idea se afianzó por primera vez en la década de 1950, los investigadores han medido el progreso de la IA mediante el establecimiento de puntos de referencia, como la capacidad de reconocer imágenes, crear oraciones y jugar juegos como el ajedrez. Estos puntos de referencia han demostrado ser una forma útil de determinar si la IA es más capaz de hacer más cosas y de impulsar a los investigadores a crear herramientas de IA que sean aún más útiles. En los últimos años, los sistemas de IA han superado muchas de las pruebas propuestas por los investigadores, superando a los humanos en muchas tareas. Para los investigadores, la misión ahora es crear puntos de referencia que puedan capturar los tipos más amplios de inteligencia que podrían hacer que la IA sea realmente útil; puntos de referencia, por ejemplo, que pueden reflejar habilidades esquivas como el razonam...

COMPRAR UN TELÉFONO, CONSEGUIR UN RASTREADOR: CÓDIGO DE SEGUIMIENTO NO AUTORIZADO INSTALADO ILEGALMENTE EN TELÉFONOS ANDROID

https://noyb.eu/en/buy-phone-get-tracker-unauthorized-tracking-code-illegally-installed-android-phones Seguimiento sin el consentimiento del usuario. El software de Google crea el AAID sin el conocimiento o consentimiento del usuario. El número de identificación funciona como una placa de matrícula que identifica de forma única el teléfono de un usuario y se puede compartir entre empresas. Después de su creación, Google y terceros (por ejemplo, proveedores de aplicaciones y anunciantes) pueden acceder al AAID para rastrear el comportamiento de los usuarios, elaborar preferencias de consumo y proporcionar publicidad personalizada. Dicho seguimiento está estrictamente regulado por la "Ley de cookies" de la UE (artículo 5 (3) de la Directiva de privacidad electrónica) y requiere el consentimiento informado e inequívoco de los usuarios. ¿Sin seguimiento? ¡Ninguna posibilidad! Google no solo instala el AAID sin consentimiento, sino que también niega al usuario de Android la opción...