Entradas

Mostrando entradas de agosto, 2021

Requisitos de seguridad frente a la ética de la colisión: lo que más importa en las políticas sobre vehículos autónomos

https://link.springer.com/article/10.1007/s00146-020-00964-6 La literatura filosófico-ética y el debate público sobre los vehículos autónomos se han obsesionado con las cuestiones éticas relacionadas con la colisión. En este artículo, se evaluarán críticamente estos debates, incluidas las investigaciones más empíricas. Se argumenta que una cuestión relacionada y más apremiante son las cuestiones relativas a la seguridad. Por ejemplo, ¿qué debemos exigir a los vehículos autónomos en materia de seguridad? ¿Qué entendemos por "seguridad"? ¿Cómo la medimos? En respuesta a estas preguntas, el artículo presentará una base para un debate continuado sobre estas cuestiones y un argumento de por qué los debates sobre la seguridad deberían tener prioridad sobre las preocupaciones éticas relacionadas con las colisiones.

IA y derecho: implicaciones éticas, jurídicas y sociopolíticas

https://link.springer.com/article/10.1007/s00146-021-01194-0 Vivimos tiempos interesantes. La humanidad ha sido testigo de avances tecnológicos sin precedentes en lo que respecta a la inteligencia artificial (IA), que ahora repercute en nuestra vida cotidiana a través, por ejemplo, de nuestros teléfonos inteligentes y del Internet de las Cosas. La IA determina el resultado de nuestras solicitudes de crédito y préstamo; en Estados Unidos, a menudo informa de las decisiones de libertad condicional; e impregna nuestros entornos de trabajo. En las últimas décadas, hemos visto los efectos positivos de la IA en casi todos los ámbitos de nuestras vidas, pero también nos hemos encontrado con importantes desafíos éticos y legales en áreas como el transporte autónomo, el sesgo de las máquinas y el problema de la caja negra. También ha surgido la preocupación por el rápido desarrollo y el creciente uso de las tecnologías inteligentes, especialmente en lo que respecta a su impacto en los derechos

Responsabilidad algorítmica para el sector público

  The full report is available  here , and the executive summary  here .   El Instituto Ada Lovelace (Ada), el Instituto AI Now (AI Now) y la Open Government Partnership (OGP) se han asociado para lanzar el primer estudio mundial que analiza la ola inicial de políticas de algorítmica para el sector público. Este estudio tiene como objetivo comprender los desafíos y los éxitos de de las políticas de rendición de cuentas algorítmica desde la perspectiva de los de los actores e instituciones directamente responsables de su aplicación sobre el terreno. Este resumen ejecutivo destaca las principales conclusiones de este estudio. Lea el informe completo para obtener más detalles sobre estas conclusiones y estudios de casos prácticos de políticas aplicadas. Instituto Ada Lovelace, Instituto AI Now y Open Government Partnership. (2021). Algorithmic Accountability for the Public Sector. Disponible en: https://www.opengovpartnership.org/documents/ algorithmic-accountability-public-sector/

La identidad en un mundo "Phygital": Por qué el cambio a seres humanos legibles por máquinas exige una mejor gobernanza de la identificación digital

https://www.cigionline.org/articles/identity-in-a-phygital-world-why-the-shift-to-machine-readable-humans-demands-better-digital-id-governance/ Dieciocho meses después de la pandemia de COVID-19, se ha instalado una inquietud palpable, ya que la gente, en todas partes, está desesperada por reincorporarse al mundo y reanudar sus vidas. Pero en esta nueva realidad, incluso las actividades antiguas y familiares tienen una nueva dimensión digital. ¿Le apetecen unas vacaciones en Europa? Prepárese para presentar una aplicación móvil o un código de respuesta rápida (QR) cuando le pidan que viaje. ¿Desea asistir a un espectáculo de Broadway en Nueva York o a una cena en Los Ángeles? ¿Planea volver al campus este otoño? Lo más probable es que tenga que presentar una prueba de vacunación a través de una aplicación móvil o por otros medios digitales para viajar, disfrutar del teatro, cenar fuera o incluso asistir a conferencias; de hecho, la ciudad de Nueva York exigirá una prueba de vacunación

Las herramientas de IA de los hospitales no están bien documentadas

https://hai.stanford.edu/news/flying-dark-hospital-ai-tools-arent-well-documented A principios de este año, los hospitales de Estados Unidos se enteraron de una noticia impactante: Un modelo de inteligencia artificial ampliamente utilizado para detectar los primeros signos de sepsis, la mortal infección de origen hospitalario, se equivocaba más a menudo de lo que acertaba. Los investigadores de la Universidad de Michigan calcularon que el modelo de inteligencia artificial no detectó alrededor de dos tercios de los casos reales cuando lo aplicaron a los datos de 30.000 pacientes del hospital de la universidad. Además, generó un gran número de falsas alarmas. Aunque sorprendente en sí mismo, el estudio apuntaba a un problema más profundo: los modelos de inteligencia artificial suelen obtener buenas puntuaciones en las pruebas estadísticas de precisión predictiva, pero su rendimiento es sorprendentemente pobre en entornos médicos en tiempo real. Algunos modelos son más precisos para los p

Demasiados investigadores de IA piensan que los problemas del mundo real no son relevantes

https://www-technologyreview-com.cdn.ampproject.org/c/s/www.technologyreview.com/2020/08/18/1007196/ai-research-machine-learning-applications-problems-opinion/amp/ Cualquier investigador que se haya centrado en aplicar el aprendizaje automático a problemas del mundo real probablemente haya recibido una respuesta como ésta: "Los autores presentan una solución para un problema original y muy motivador, pero es una aplicación y la importancia parece limitada para la comunidad del aprendizaje automático". Estas palabras proceden directamente de una reseña que recibí por un artículo que presenté en la conferencia NeurIPS (Neural Information Processing Systems), un lugar destacado para la investigación sobre el aprendizaje automático. He visto este estribillo una y otra vez en las reseñas de los trabajos en los que mis coautores y yo presentamos un método motivado por una aplicación, y he escuchado historias similares de innumerables personas. Publicidad Esto me hace preguntarme: S

El ordenador dice no: cómo las leyes de la UE sobre IA provocan nuevas injusticias

https://euobserver.com/investigations/152695 Cuando Roger Derikx solicitó las prestaciones por cuidado de hijos, pensó que recibiría dinero, no que lo perdería. Derikx, de 46 años, tuvo que devolver al gobierno holandés 68.000 euros. El problema: nunca le dijeron por qué tenía que devolver las prestaciones, a las que tenía derecho. Las autoridades le embargaron el coche y le recortaron el 40% de su sueldo durante años. "Tienes dos hijos pequeños y quieres dárselo todo", dijo Derikx, "pero cada vez que te piden algo, tienes que decir 'no'; es duro". Derikx fue uno de los 26.000 padres acusados de presentar solicitudes fraudulentas de prestaciones por la autoridad fiscal holandesa, que utilizó un algoritmo para detectar el fraude. El sistema era "ilegal y discriminatorio", según una investigación oficial, que acabó llevando al primer ministro holandés, Mark Rutte, a dimitir a principios de este año. Para Derikx, la investigación llegó demasiado tarde

Entrenamiento de coches autodirigidos por 1 dólar la hora

https://restofworld.org/2021/self-driving-cars-outsourcing/   Durante más de cuatro años, Ramsés se levantó en su casa de Barquisimeto (Venezuela), encendió su ordenador y empezó a etiquetar imágenes que ayudarán a que los coches autónomos sean omnipresentes algún día. A través de una plataforma de microtareas llamada Remotasks, identificaba los objetos mundanos que bordean las calles en todas partes -árboles, postes de luz, peatones, señales de alto- para que los vehículos autónomos pudieran aprender a notarlos también. Al igual que muchos venezolanos, Ramsés recurrió a las microtareas cuando su país se sumió en la confusión económica. El trabajo le dio la oportunidad de ganar dólares americanos en lugar de la moneda local, que está sujeta a una inflación extraordinariamente alta. "Trabajaba de domingo a domingo", dijo Ramses, que pidió usar sólo su nombre de pila por razones de privacidad, a Resto del Mundo por WhatsApp. "Nunca descansaba, pero ganaba buen dinero por j

Los actores profesionales demuestran variabilidad, no expresiones estereotipadas, al representar estados emocionales en las fotografías

https://www.nature.com/articles/s41467-021-25352-6 Durante mucho tiempo se ha planteado la hipótesis de que existe un mapeo fiable y específico entre determinados estados emocionales y los movimientos faciales que expresan esos estados. Esta hipótesis suele ponerse a prueba pidiendo a los participantes no entrenados que planteen los movimientos faciales que creen que utilizan para expresar emociones durante escenarios genéricos. En este caso, probamos esta hipótesis utilizando, como estímulos, fotografías de configuraciones faciales posadas por actores profesionales en respuesta a escenarios ricos en contexto. Los escenarios representados en las fotografías fueron calificados por una muestra de conveniencia de participantes en cuanto a la medida en que evocaban una instancia de 13 categorías de emoción, y las poses faciales de los actores fueron codificadas por sus movimientos específicos. Tanto el aprendizaje automático no supervisado como el supervisado descubrieron que, en estas fot

Ética de la inteligencia artificial

https://iep.utm.edu/ethic-ai/ Este artículo ofrece una visión general de las principales cuestiones éticas relacionadas con el impacto de la Inteligencia Artificial (IA) en la sociedad humana. La IA es el uso de máquinas para hacer cosas que normalmente requerirían inteligencia humana. En muchos ámbitos de la vida humana, la IA ha afectado rápida y significativamente a la sociedad humana y a la forma en que nos relacionamos. Y seguirá haciéndolo. A lo largo del camino, la IA ha planteado importantes retos éticos y sociopolíticos que exigen un análisis filosófico y ético exhaustivo. Su impacto social debe ser estudiado para evitar cualquier repercusión negativa. Los sistemas de IA son cada vez más autónomos, aparentemente racionales e inteligentes. Este amplio desarrollo da lugar a numerosas cuestiones. Además del daño potencial y el impacto de las tecnologías de IA en nuestra privacidad, otras preocupaciones incluyen su estatus moral y legal (incluyendo los derechos morales y legales),

Nuestros derechos digitales (mal representados)

https://www.cigionline.org/articles/our-misrepresented-digital-rights/ La semana pasada, Google recibió, con razón, cobertura y críticas por lanzar una aplicación de dermatología que no funcionaba para las personas de piel más oscura. Aunque, por desgracia, no es nada nuevo que las grandes empresas tecnológicas lancen productos de aprendizaje automático obviamente racistas, su creciente presencia en las tecnologías médicas supone un cambio de escala, no en su tecnología, sino en su impacto. Los profesionales médicos y las vías de atención que la aplicación de Google pretende "aumentar" están fuertemente regulados, supervisados continuamente por instituciones profesionales y organismos de certificación, y sujetos a obligaciones fiduciarias con sus pacientes. En cambio, esta aplicación se basa en un artículo de Nature. Las tecnologías médicas son un ejemplo de las formas en que las tecnologías asesoran cada vez más a las personas -a menudo un asesoramiento que de otro modo esta

Toyota detiene los autobuses autoconducidos de los Juegos Paralímpicos después de que uno atropellara a un atleta con discapacidad visual

https://www.theguardian.com/technology/2021/aug/28/toyota-pauses-paralympics-self-driving-buses-after-one-hits-visually-impaired-athlete Toyota se ha disculpado por el "exceso de confianza" de un autobús autoconducido tras atropellar a un judoka paralímpico en la villa de los atletas y ha dicho que suspenderá temporalmente el servicio. El atleta japonés, Aramitsu Kitazono, no podrá competir este fin de semana en su categoría de 81 kilos tras quedar con cortes y contusiones después del impacto con el vehículo "e-Palette". Sus lesiones provocaron la intervención personal del presidente de Toyota, Akio Toyoda. "Lamentamos mucho que el accidente haya preocupado a mucha gente", dijo Toyoda. "Un vehículo es más fuerte que una persona, así que obviamente me preocupé por cómo estaban. Demuestra que los vehículos autónomos aún no son realistas para las carreteras normales". Como parte de su patrocinio de Tokio 2020, Toyota ha estado mostrando sus vehículo

El gobierno federal ampliará el uso del reconocimiento facial a pesar de las crecientes preocupaciones

https://www.washingtonpost.com/technology/2021/08/25/federal-facial-recognition-expansion/

Por qué la ética debe ser parte integral de la Inteligencia Artificial

https://www.tue.nl/en/our-university/departments/biomedical-engineering/the-department/news/news-overview/16-03-2021-why-ethics-should-be-integral-part-of-artificial-intelligence/?twclid=11428270583956090887 Gran parte de la IA actual consiste en encontrar patrones estadísticos en datos históricos para hacer valiosas predicciones para el futuro. Sin embargo, cada vez hay más pruebas de que el uso de algoritmos, incluida la elaboración de perfiles raciales, puede perjudicar gravemente a sectores vulnerables de la sociedad, incluso cuando no hay una intención explícita de discriminación. Preguntamos a Mykola Pechenizkiy, profesor de Minería de Datos en la Universidad Tecnológica de Eindhoven y uno de los pioneros en IA ética, sobre sus esfuerzos para que la IA sea justa y responsable. "Debemos dejar de culpar a los datos y hacer que la IA sea digna de confianza por su diseño". El 15 de enero de 2021, el gobierno holandés dimitió, justo dos meses antes de las elecciones generale

La IA de la industria tecnológica se está homogeneizando peligrosamente, dicen los expertos de Stanford

https://www.fastcompany.com/90666920/ai-bias-stanford-percy-liang-fei-fei-li?partner=rss&utm_source=twitter.com&utm_medium=social&utm_campaign=rss+fastcompany&utm_content=rss Un grupo multidisciplinar de profesores y estudiantes de la Universidad de Stanford quiere iniciar un debate serio sobre el creciente uso de modelos de IA grandes y terriblemente inteligentes, como el modelo de lenguaje natural GPT-3 (Generative Pretraining Transformer 3) de OpenAI. PUBLICIDAD PUBLICIDAD El GPT-3 es fundacional porque se desarrolló utilizando enormes cantidades de datos de entrenamiento y potencia informática para alcanzar un rendimiento de propósito general de última generación. Los desarrolladores, que no quieren reinventar la rueda, lo utilizan como base de su software para abordar tareas específicas. Pero los modelos de base tienen algunos inconvenientes reales, explica el profesor de informática de Stanford Percy Liang. Crean "un único punto de fallo, por lo que cualquier

carta sobre el uso del sistema de reconocimiento automático de imágenes en migrantes en Italia

https://edpb.europa.eu/system/files/2021-08/edpb_letter_out_2021_00130_mepveld_facialrecognition_publication.pdf En relación con el uso de tecnologías de reconocimiento facial para controlar las operaciones de desembarco en Italia por parte de las autoridades policiales, la Autoridad de Protección de Datos italiana, según la información compartida, examinó el llamado "Sistema Sari en tiempo real", sobre la base de una evaluación de de protección de datos realizada por el Ministerio del Interior, de conformidad con la legislación nacional por la que se aplica la Directiva de aplicación de la ley (UE) 2016/6801 , con anterioridad a la activación de dicho sistema. En particular, este sistema no fue diseñado para ser utilizado específicamente para actividades de migración, asilo y control de fronteras, sino en general para operar en apoyo a las actividades de investigación.

La IA descontrolada puede poner en peligro la vida de las personas. Debemos aplicar garantías más estrictas

https://time.com/6084163/ai-safeguards/ La inteligencia artificial es ahora una de las industrias más concentradas del mundo. Dominada por un puñado de gigantes tecnológicos y desplegada a escala planetaria, la IA ya influye en instituciones sociales de alto riesgo en la educación, la justicia penal, la contratación y el bienestar. La IA está remodelando e interviniendo en el mundo, ampliando la desigualdad de la riqueza y las asimetrías de poder. Pero hasta ahora el sector ha escapado principalmente a la regulación, a pesar de afectar a la vida de miles de millones de personas, incluso cuando sus productos no están probados o son potencialmente dañinos. La pandemia del COVID-19 ha acelerado esta situación. Muchas empresas de IA proponen ahora herramientas de reconocimiento de emociones (ERT) para controlar a los trabajadores a distancia e incluso a los escolares. Estos sistemas mapean las "microexpresiones" de los rostros de las personas a partir de sus cámaras de vídeo. A c

Pasar del compromiso al contenido en la IA y la ética de los datos: Justicia y explicabilidad

https://www.atlanticcouncil.org/in-depth-research-reports/report/specifying-normative-content/ Los investigadores, las empresas, los responsables políticos y el público en general son conscientes de que el uso de la inteligencia artificial (IA) y de los macrodatos plantea problemas de justicia, privacidad, autonomía, transparencia y responsabilidad. Se espera que las organizaciones aborden cada vez más estas y otras cuestiones éticas. En respuesta, muchas empresas, organizaciones no gubernamentales y entidades gubernamentales han adoptado marcos y principios de ética de la IA o de los datos con el fin de demostrar el compromiso de abordar los retos que plantea la IA y, sobre todo, orientar los esfuerzos de las organizaciones para desarrollar e implementar la IA de forma social y éticamente responsable. Sin embargo, articular los valores, los conceptos éticos y los principios generales es sólo el primer paso -y en muchos sentidos el más fácil- para abordar los retos de la IA y la ética

Cómo la tecnología basada en la IA llevó a un hombre a la cárcel con escasas pruebas

https://apnews.com/article/artificial-intelligence-algorithm-technology-police-crime-7e3345485aa668c97606d4b54f9b6220 La esposa de Michael Williams le rogaba que recordara sus viajes de pesca con los nietos, cómo solía trenzarle el pelo, cualquier cosa que le hiciera volver a su mundo fuera de los muros de hormigón de la cárcel del condado de Cook. Sus tres llamadas diarias se habían convertido en un salvavidas, pero cuando se redujeron a dos, luego a una y después a unas pocas por semana, Williams, de 65 años, sintió que no podía seguir adelante. Hizo planes para quitarse la vida con un alijo de pastillas que había almacenado en su dormitorio. Williams fue encarcelado el pasado agosto, acusado de matar a un joven del barrio que le pidió que le llevara durante una noche de disturbios por la brutalidad policial en mayo. Pero las pruebas clave contra Williams no procedían de un testigo o de un informante, sino de un clip de vídeo de seguridad sin ruido que mostraba un coche atravesando u

Sobre las oportunidades y los riesgos de los modelos básicos

https://arxiv.org/abs/2108.07258?sf149288348=1 La IA está experimentando un cambio de paradigma con el aumento de los modelos (por ejemplo, BERT, DALL-E, GPT-3) que se entrenan con datos amplios a escala y se adaptan a una amplia gama de tareas posteriores. Llamamos a estos modelos modelos fundacionales para subrayar su carácter críticamente central aunque incompleto. Este informe ofrece una relación exhaustiva de las oportunidades y los riesgos de los modelos fundacionales, que van desde sus capacidades (por ejemplo, lenguaje, visión, robótica, razonamiento, interacción humana) y principios técnicos (por ejemplo, arquitecturas de modelos, procedimientos de entrenamiento, datos, sistemas, seguridad, evaluación, teoría) hasta sus aplicaciones (por ejemplo, derecho, sanidad, educación) y el impacto social (por ejemplo, desigualdad, mal uso, impacto económico y medioambiental, consideraciones legales y éticas). Aunque los modelos de las fundaciones se basan en el aprendizaje profundo está

La nueva ley de privacidad

https://lawreview.law.ucdavis.edu/online/55/waldman.html Nos encontramos en una segunda ola de legislación sobre privacidad. La primera ola se caracterizó por las políticas de privacidad, la autorregulación y la notificación y elección. Pero en los últimos tres años, se han presentado once propuestas de legislación integral sobre privacidad en el Congreso de Estados Unidos y cuarenta en los estados. Desde el punto de vista de la práctica, casi todas estas propuestas son más o menos iguales: garantizan los derechos individuales sobre los datos y se basan en el cumplimiento interno de las empresas para un control continuo. Esta segunda oleada de leyes de privacidad es sin duda diferente de la primera, pero ¿cómo? Este ensayo ofrece una taxonomía para entender los cambios en la ley de privacidad de Estados Unidos, distinguiendo entre dos "olas" a lo largo de tres métricas: sus prácticas, teorías de gobernanza e ideologías subyacentes. Una primera ola se caracterizó por las polít

Li Xiang, CEO de Li Auto, habla alto y claro sobre el error de usar el término «conducción autónoma» para vender más coches

https://forococheselectricos.com/2021/08/li-xiang-ceo-de-li-auto-habla-alto-y-claro-sobre-el-error-de-usar-el-termino-conduccion-autonoma-para-vender-mas-coches.html Según Li Xiang, CEO del fabricante chino de coches eléctricos Li Auto,  el término conducción autónoma está llevando a equívocos a los consumidores . Si bien hasta la fecha ninguna marca está ofreciendo una conducción completamente autónoma, se está dando a entender erróneamente que un conductor puede despreocuparse de la conducción durante su trayecto, pudiendo provocar graves accidentes. Esta advertencia de Li Xiang llega a raíz de  un reciente accidente   donde estuvo implicado un coche eléctrico de la marca Nio (modelo ES8) . Su conductor tenía el sistema de ayuda a la conducción encendido y falleció al arrollar por detrás a otro coche en la autopista. EL CEO de Li Auto, apuntó también que términos como «autónomo» y «self driving», son conflictivos a la hora de trasladar al usuario que la conducción, en último término,

NO SE PUEDE DETERMINAR LA EMOCIÓN A PARTIR DE LOS MOVIMIENTOS FACIALES DE ALGUIEN, Y TAMPOCO LA AI

https://news.northeastern.edu/2021/08/20/you-cant-determine-emotion-from-someones-facial-expression-and-neither-can-ai/ Si vieras a una persona con el ceño fruncido, la boca baja y los ojos entrecerrados, ¿adivinarías que está enfadada? ¿Y si descubrieras que se ha olvidado las gafas de leer y está descifrando el menú de un restaurante? La interpretación de los movimientos faciales de una persona no puede hacerse en el vacío, sino que depende del contexto, como demuestra la neurocientífica del Northeastern Lisa Feldman Barrett en un nuevo e innovador estudio publicado el jueves en la revista científica Nature Communications. Lisa Feldman Barrett es profesora distinguida de psicología en la Facultad de Ciencias de Northeastern. Foto por cortesía de Lisa Feldman Barrett. Lisa Feldman Barrett es profesora distinguida de psicología en la Facultad de Ciencias de Northeastern. Fotografía por cortesía de Lisa Feldman Barrett. Barrett, distinguida profesora universitaria de psicología en North

Reconocimiento

https://medium.com/a-new-ai-lexicon/a-new-ai-lexicon-recognition-f535df26069d En los últimos cinco años, el reconocimiento facial se ha convertido en un campo de batalla para el futuro de la Inteligencia Artificial (IA). Esta controvertida tecnología encierra los temores del público sobre la vigilancia ineludible, el sesgo algorítmico y la IA distópica. Ciudades de todo Estados Unidos han prohibido el uso del reconocimiento facial por parte de organismos gubernamentales y destacadas empresas han anunciado moratorias en el desarrollo de esta tecnología. Pero, ¿qué significa ser reconocido? Numerosos autores han esbozado las implicaciones sociales, políticas y éticas de la tecnología de reconocimiento facial.¹ ² ³ Estas importantes críticas ponen de relieve las consecuencias de las identificaciones falsas positivas, que ya han dado lugar a detenciones injustas de hombres negros,⁴ así como los efectos del reconocimiento facial en la privacidad, las libertades civiles y la libertad de reun

Es hora de que la IA se explique

https://www.hpe.com/us/en/insights/articles/it-s-time-for-ai-to-explain-itself-2108.html Los modelos de IA son cada vez más precisos, pero ni siquiera los científicos de datos que los crearon pueden explicar por qué, y eso es un problema. Los algoritmos basados en la IA forman parte de la vida cotidiana de casi todo el mundo. Todos nos hemos acostumbrado a que las máquinas nos sugieran una nueva serie para ver en Netflix, otra persona a la que seguir en Facebook o lo siguiente que tenemos que pedir en Amazon. También están impulsando decisiones mucho más importantes, como en qué acciones invertir, qué procedimientos médicos considerar o si se puede optar a una hipoteca. En algunos casos, un sistema de IA puede ofrecer mejores consejos que un asesor financiero, un médico o un banquero. Pero si acabas en el lado equivocado de un algoritmo, no hay ninguna persona a la que puedas abrochar para explicar por qué tu solicitud de préstamo fue rechazada o tu currículum descartado. Y con demasia

El gran malentendido en el centro del reconocimiento facial

https://www.fastcompany.com/90666477/facial-recognition-misunderstanding En los últimos cinco años, el reconocimiento facial se ha convertido en un campo de batalla para el futuro de la inteligencia artificial (IA). Esta controvertida tecnología encierra los temores del público sobre la vigilancia ineludible, el sesgo algorítmico y la IA distópica. Ciudades de todo Estados Unidos han prohibido el uso del reconocimiento facial por parte de las agencias gubernamentales y destacadas empresas han anunciado moratorias en el desarrollo de esta tecnología. PUBLICIDAD Pero, ¿qué significa ser reconocido? Numerosos autores han esbozado las implicaciones sociales, políticas y éticas de la tecnología de reconocimiento facial. Estas importantes críticas ponen de relieve las consecuencias de las identificaciones falsas, que ya han dado lugar a detenciones injustas de hombres negros, así como los efectos del reconocimiento facial sobre la privacidad, las libertades civiles y la libertad de reunión.

Los accesorios de los vehículos "autónomos

https://journals.sagepub.com/doi/full/10.1177/03063127211038752 El ideal del coche autoconducido sustituye a un humano propenso a cometer errores por un conductor infalible y artificialmente inteligente. Esta narrativa de la autonomía promete la liberación de los inconvenientes de la automovilidad, aunque eso signifique quitarle el control a los individuos autónomos que se mueven libremente. Miramos detrás de esta narrativa para entender los vínculos que los llamados vehículos "autónomos" (AV) pueden tener con el mundo. A partir de 50 entrevistas con desarrolladores de vehículos autónomos, investigadores y otras partes interesadas, exploramos los vínculos sociales y tecnológicos que las partes interesadas ven dentro del vehículo, en la carretera y con el mundo en general. Estos vínculos van desde el software y el hardware hasta los comportamientos de otros usuarios de la carretera y la infraestructura material, social y económica que apoya la conducción y la autoconducción. D

Carmela Troncoso: "La digitalización también trae inconvenientes y aún no entendemos el impacto que va a tener"

https://www.atlantico.net/articulo/vigo/carmela-troncoso-digitalizacion-tambien-trae-inconvenientes-aun-entendemos-impacto-que-va-tener/20210815225620858578.html Carmela Troncoso es una ingeniera viguesa especializada en el área de la privacidad en las telecomunicaciones que trabaja como profesora en la Escuela Politécnica de Lausana, donde desarrolló un protocolo que permitía utilizar aplicaciones móviles para facilitar el rastreo de contactos de covid sin usar geolocalización. Un trabajo por el que fue reconocida por la revista Fortune como una de las 40 personas más influyentes del mundo. ¿Cómo recibió este reconocimiento? Fue una sorpresa, no solo por la valoración de la privacidad, sino también por tener en cuenta contribución conceptual a la hora de cambiar el diseño y no tanto a la hora de generar beneficio económico. En la lista de tecnología era de las pocas personas que no había fundado una empresa multimillonaria. La aplicación Radar Covid tuvo una baja adopción. ¿Se debió a

El nuevo traje de la gobernanza de datos Cuando los ciudadanos, los consumidores y las partes interesadas no pueden hacer que las instituciones rindan cuentas de sus promesas, hay pocas razones para confiar en ellas

https://www.cigionline.org/articles/data-governances-new-clothes/ El "gobierno" de los datos, sin derechos reales, es una ilusión vergonzosa. Recientemente, el Servicio Nacional de Salud (NHS) del Reino Unido, a menudo descrito como el orgullo de ese país, recibió el revés legal y de la prensa por una política de compartir la información sanitaria personal de los pacientes con terceros, entre ellos Palantir, una controvertida empresa tecnológica estadounidense. La medida fue lo suficientemente preocupante como para inspirar una demanda, meses de retrasos en la investigación y una protesta de los médicos. Pero, quizá lo más preocupante, es que el Gobierno británico describió su necesidad de confianza y cumplimiento de las leyes de datos, al tiempo que obligaba a los pacientes -probablemente de forma ilegal- a pasar por un enrevesado proceso de "exclusión", en lugar de obtener un consentimiento afirmativo. La medida centraliza de forma significativa las decisiones sob

La eliminación de conjuntos de datos poco éticos no es suficiente

https://www-technologyreview-com.cdn.ampproject.org/c/s/www.technologyreview.com/2021/08/13/1031836/ai-ethics-responsible-data-stewardship/amp/ En 2016, con la esperanza de estimular los avances en el reconocimiento facial, Microsoft publicó la mayor base de datos de rostros del mundo. Llamada MS-Celeb-1M, contenía 10 millones de imágenes de 100.000 rostros de famosos. Sin embargo, la definición de "famoso" era poco precisa. Tres años después, los investigadores Adam Harvey y Jules LaPlace revisaron el conjunto de datos y encontraron a muchas personas corrientes, como periodistas, artistas, activistas y académicos, que mantienen una presencia en Internet por su vida profesional. Ninguno había dado su consentimiento para ser incluido y, sin embargo, sus rostros se habían colado en la base de datos y fuera de ella; la investigación con la recopilación de rostros fue realizada por empresas como Facebook, IBM, Baidu y SenseTime, uno de los mayores gigantes del reconocimiento faci