Es complicado: lo que el público piensa sobre las tecnologías del coronavirus
Durante esta pandemia se han planteado diversas soluciones tecnológicas que han revelado problemas: bien que no funcionan técnicamente o no están legitimadas públicamente o son desproporcionadas.
El informe realiza varias consideraciones
- La Confianza no va solo de datos y privacidad
- Cualquier aplicación vinculada a la identidad se considera de alto riesgo
- Las herramientas deben proteger proactivamente contra daños
- Las aplicaciones serán juzgadas como parte del sistema en el que están integradas
- El público considera que las herramientas son políticas y sociales
Hace algunas recomendaciones, sobre la base de estas deliberaciones públicas, a los desarrolladores de tecnología y formuladores de políticas:
- Avanzar con cuidado y lentamente. Reconozca las ansiedades y los riesgos: no los minimice, los controle y trabaje al aire libre. Anticípese y diseñe respuestas a los daños en lugar de descartarlos.
- Desarrollar una deliberación pública profunda desde el principio. Ahora es el momento en que el público está profundamente involucrado en este tema y sigue de cerca las políticas y las noticias para considerar cómo manejar sus vidas y sus riesgos. Si le das tiempo a las personas para hablar con expertos en igualdad de condiciones, tienen opiniones matizadas y contextualizadas.
- Comprender que las aplicaciones deben estar entrelazadas con las decisiones de política. Los equipos no pueden ser desacoplados u operar únicamente en la tecnología sin interacciones con las decisiones de salud pública y con las estrategias políticas. El público se involucrará con la tecnología a través de los contextos sociales, de comportamiento y de gobierno en los que están integrados.
- Desarrollar herramientas abiertas, agradezca los comentarios y establezca una investigación independiente. No es un fracaso reconocer las dificultades y agradecer el escrutinio. La confianza será mayor si una pluralidad de organizaciones se ha involucrado en el desarrollo y el despliegue de apoyo, y se identificarán rápidamente movimientos incorrectos, ahorrando tiempo, dinero y capital político.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).
Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Comentarios
Publicar un comentario