Es complicado: lo que el público piensa sobre las tecnologías del coronavirus

Durante esta pandemia se han planteado diversas soluciones tecnológicas que han revelado problemas: bien que no funcionan técnicamente o no están legitimadas públicamente o son desproporcionadas.

El informe realiza varias consideraciones
  1. La Confianza no va solo de datos y privacidad
  2. Cualquier aplicación vinculada a la identidad se considera de alto riesgo
  3. Las herramientas deben proteger proactivamente contra daños
  4. Las aplicaciones serán juzgadas como parte del sistema en el que están integradas
  5. El público considera que las herramientas son políticas y sociales
Hace algunas recomendaciones, sobre la base de estas deliberaciones públicas, a los desarrolladores de tecnología y formuladores de políticas:

  • Avanzar con cuidado y lentamente. Reconozca las ansiedades y los riesgos: no los minimice, los controle y trabaje al aire libre. Anticípese y diseñe respuestas a los daños en lugar de descartarlos.
  • Desarrollar una deliberación pública profunda desde el principio. Ahora es el momento en que el público está profundamente involucrado en este tema y sigue de cerca las políticas y las noticias para considerar cómo manejar sus vidas y sus riesgos. Si le das tiempo a las personas para hablar con expertos en igualdad de condiciones, tienen opiniones matizadas y contextualizadas.
  • Comprender que las aplicaciones deben estar entrelazadas con las decisiones de política. Los equipos no pueden ser desacoplados u operar únicamente en la tecnología sin interacciones con las decisiones de salud pública y con las estrategias políticas. El público se involucrará con la tecnología a través de los contextos sociales, de comportamiento y de gobierno en los que están integrados.
  • Desarrollar herramientas abiertas, agradezca los comentarios y establezca una investigación independiente. No es un fracaso reconocer las dificultades y agradecer el escrutinio. La confianza será mayor si una pluralidad de organizaciones se ha involucrado en el desarrollo y el despliegue de apoyo, y se identificarán rápidamente movimientos incorrectos, ahorrando tiempo, dinero y capital político.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje