Nuestros derechos digitales (mal representados)

https://www.cigionline.org/articles/our-misrepresented-digital-rights/

La semana pasada, Google recibió, con razón, cobertura y críticas por lanzar una aplicación de dermatología que no funcionaba para las personas de piel más oscura. Aunque, por desgracia, no es nada nuevo que las grandes empresas tecnológicas lancen productos de aprendizaje automático obviamente racistas, su creciente presencia en las tecnologías médicas supone un cambio de escala, no en su tecnología, sino en su impacto. Los profesionales médicos y las vías de atención que la aplicación de Google pretende "aumentar" están fuertemente regulados, supervisados continuamente por instituciones profesionales y organismos de certificación, y sujetos a obligaciones fiduciarias con sus pacientes. En cambio, esta aplicación se basa en un artículo de Nature. Las tecnologías médicas son un ejemplo de las formas en que las tecnologías asesoran cada vez más a las personas -a menudo un asesoramiento que de otro modo estaría regulado- sin la correspondiente supervisión, experiencia o responsabilidad.


Cuando los sistemas digitales intercambian datos, suelen hacerlo para comunicar un hecho, o un conjunto de hechos. Por ello, la primera ola de regulación de Internet se centró en la protección de los datos como expresión, dando lugar a una serie de amplias protecciones, como la Sección 230 de Estados Unidos. Sin embargo, las protecciones basadas en la expresión descuidan en gran medida un tipo importante de comunicación: la representación de hechos.


En derecho, una representación es una declaración de hechos realizada en un contexto con repercusiones legales, como un tribunal o un contrato. La forma en que regulamos la representación de los hechos se basa en el contexto, porque el impacto de las representaciones también es contextual. La forma en que tratamos lo que la gente dice bajo juramento en un tribunal, por ejemplo, es muy diferente de la forma en que tratamos las frases pronunciadas a un terapeuta o a un amigo. Lo que separa una representación de otros tipos de expresión, como el habla, es que la ley asume que la persona que hace la representación entiende su seriedad, su potencial de impacto y su responsabilidad en consecuencia.


Los sistemas digitales, sin embargo, no suelen distinguir cómo comparten la información o la responsabilidad del impacto en función del contexto, que es donde las amplias protecciones se quedan especialmente cortas. A diferencia de la aplicación de dermatología de Google, por ejemplo, en el momento en que un cirujano coge un bisturí para operar a una persona, ese bisturí estará estéril, afilado y diseñado según las normas de la industria médica. La industria médica regula el hardware porque entendemos el impacto de la cirugía en la vida de una persona y la importancia de la consistencia de las herramientas para la prestación de servicios de alto impacto. Sin embargo, cuando diseñamos sistemas digitales -incluso sistemas digitales que afectan a los derechos fundamentales de millones de personas- a menudo no exigimos a esos sistemas ninguna norma perceptible. Por ejemplo, el despliegue mundial de aplicaciones de rastreo de contactos -utilizadas por millones de personas a un coste de cientos de millones- que todavía no han supuesto una diferencia perceptible en la contención del COVID-19. Y lo que es peor, tanto las licencias de datos comerciales como las "abiertas" otorgan una autoridad aún más amplia, permitiendo la reutilización de datos sin ninguna consideración real por su contexto. Es el equivalente a permitir que un cirujano te opere -o, más exactamente, a millones de personas- con cualquier cuchillo que encuentre en la calle.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social