Entradas

Necesitamos más protección contra la vigilancia gubernamental, no menos

https://www.politico.eu/article/we-need-more-protection-government-surveillance-not-less/ En su artículo de opinión "El último refugio del delincuente: Los teléfonos inteligentes encriptados" (26 de julio), Catherine De Bolle, directora ejecutiva de Europol, y Cyrus R. Vance, Jr. fiscal del condado de Nueva York, hicieron una extraordinaria apuesta por socavar la encriptación, apenas una semana después de que el escándalo Pegasus sacudiera el mundo y pusiera de manifiesto los peligros de la vigilancia gubernamental facilitada por las empresas tecnológicas. El propio titular resultará especialmente chocante para los cientos de periodistas y defensores de los derechos humanos actualmente detenidos en todo el mundo. ¿Su "delito"? Defender los derechos de los demás y defender la democracia. En Turquía, por ejemplo, muchos han ido a la cárcel simplemente por utilizar servicios de mensajería encriptada, un acto en sí mismo considerado delictivo por las autoridades. Como h

La terapia a través de Zoom debería poner la asistencia mental al alcance de todos, pero no lo ha hecho

https://www.theguardian.com/commentisfree/2021/aug/03/therapy-zoom-mental-healthcare-remote-treatment Ya sea con un terapeuta privado en Zoom, a través de una aplicación que nos recuerda diariamente que debemos registrar nuestras emociones, o en un ida y vuelta con un chatbot, la teleterapia se ofrece a menudo como un bálsamo para nuestra actual crisis de salud mental. El tratamiento a distancia se promociona como una forma eficaz de llegar a más pacientes en un momento de extrema dificultad, una intervención íntima que puede ampliarse. Durante el distanciamiento social obligatorio que ha marcado los últimos 18 meses de la pandemia, la teleterapia ha dejado de ser una forma menor de atención para convertirse, a veces, en lo único que se ofrece. La popularidad de las sesiones terapéuticas a distancia se ha disparado en Estados Unidos y los "usuarios" a los que antes llamábamos pacientes se sienten cada vez más cómodos con estas prácticas y, en algunos casos, incluso las prefie

¿Una historia de vigilancia? Pasado, presente, predicción

https://www.degruyter.com/document/doi/10.1515/sats-2020-0021/html En este ensayo, exploraré las interrelaciones y diferencias entre la tecnología humana y la digital a través de la lente de la vigilancia y el modelo de predicción: la construcción de perfiles. Aportaré algunas consideraciones filosóficas sobre la vigilancia y las prácticas de vigilancia, especialmente a la luz de la informatización y la digitalización, incluyendo algunas consideraciones epistemológicas con respecto a los supuestos subyacentes en la construcción algorítmica de perfiles e identidades humanas. El punto de partida son los encuentros accidentales con una misma persona en las calles de Copenhague.

Decisiones difíciles en inteligencia artificial

https://www.sciencedirect.com/science/article/pii/S0004370221001065?via%3Dihub A medida que los sistemas de IA se integran en ámbitos sociales de gran importancia, los investigadores examinan ahora cómo diseñarlos y operarlos de forma segura y ética. Sin embargo, los criterios para identificar y diagnosticar los riesgos de seguridad en contextos sociales complejos siguen siendo poco claros y controvertidos. En este artículo, examinamos la vaguedad de los debates sobre la seguridad y el comportamiento ético de los sistemas de IA. Mostramos cómo esta vaguedad no puede resolverse únicamente mediante un formalismo matemático, sino que requiere una deliberación sobre la política de desarrollo y el contexto de despliegue. A partir de un nuevo léxico sociotécnico, redefinimos la indefinición en términos de distintos retos de diseño en etapas clave del desarrollo de sistemas de IA. El marco resultante de Hard Choices in Artificial Intelligence (HCAI) capacita a los desarrolladores al 1) identi

Se han construido cientos de herramientas de inteligencia artificial para atrapar a los cóvidos. Ninguna de ellas ha ayudado

https://www.technologyreview.com/2021/07/30/1030329/machine-learning-ai-failed-covid-hospital-diagnosis-pandemic/ Cuando el covid-19 asoló Europa en marzo de 2020, los hospitales se vieron inmersos en una crisis sanitaria que aún no se comprendía bien. "Los médicos no tenían ni idea de cómo tratar a estos pacientes", dice Laure Wynants, epidemióloga de la Universidad de Maastricht (Países Bajos), que estudia las herramientas de predicción. Pero había datos procedentes de China, que llevaba cuatro meses de ventaja en la carrera para vencer la pandemia. Si se pudieran entrenar algoritmos de aprendizaje automático con esos datos para ayudar a los médicos a entender lo que estaban viendo y tomar decisiones, se podrían salvar vidas. "Pensé: 'Si hay algún momento en que la IA puede demostrar su utilidad, es ahora'", dice Wynants. "Tenía muchas esperanzas". Historia relacionada La IA médica de Google fue súper precisa en un laboratorio. La vida real fue u

Proyecto de texto de la Recomendación sobre la ética de la inteligencia artificial

https://unesdoc.unesco.org/ark:/48223/pf0000377897 La presente Recomendación aborda las cuestiones éticas relacionadas con el ámbito de la Inteligencia Artificial en la medida en que entran en el mandato de la UNESCO. Plantea la ética de la IA como una reflexión normativa sistemática, basada en un marco holístico, global, multicultural y evolutivo de valores, principios y acciones interdependientes, que puede orientar a las sociedades a la hora de abordar de forma responsable los impactos conocidos y desconocidos de las tecnologías de la IA sobre los seres humanos, las sociedades y el medio ambiente y los ecosistemas, y les ofrece una base para aceptar o rechazar las tecnologías de la IA. Considera la ética como una base dinámica para la evaluación normativa y la orientación de las tecnologías de la IA, refiriéndose a la dignidad humana, el bienestar y la prevención de daños como brújula, y enraizada en la ética de la ciencia y la tecnología.

La desidentificación de los datos médicos de los pacientes no protege nuestra privacidad

https://hai.stanford.edu/news/de-identifying-medical-patient-data-doesnt-protect-our-privacy Cuando visitamos a un médico en Estados Unidos, firmamos una declaración de privacidad en la que reconocemos que, aunque nuestro estado de salud y nuestros problemas de salud mental son privados, nuestra información sanitaria puede compartirse para diversos fines legítimos, como la salud pública y la investigación. Lo que la declaración de privacidad no explica es que, cuando nuestros datos sanitarios se utilizan para estos fines específicos, deben ser "desidentificados" en cumplimiento de la Ley Federal de Portabilidad y Responsabilidad del Seguro Médico (HIPAA). Es decir, hay que eliminar información clave como nombres, fechas de nacimiento, sexo y otros factores. Pero eso no significa que nuestros registros se mantengan realmente privados. "Hay un desajuste entre lo que pensamos que ocurre con nuestros datos sanitarios y lo que realmente ocurre con ellos", afirma Nigam Sh