El aprendizaje automático puede revolucionar la sanidad, pero también conlleva riesgos legales

https://www.healthcareitnews.com/news/machine-learning-can-revolutionize-healthcare-it-also-carries-legal-risks

A medida que el aprendizaje automático y la inteligencia artificial se han hecho omnipresentes en la atención sanitaria, han surgido preguntas sobre sus posibles repercusiones.


Y como señaló Matt Fisher, consejero general de la plataforma de atención virtual Carium, esos impactos potenciales pueden, a su vez, dejar a las organizaciones abiertas a posibles responsabilidades.  


"Todavía es un área emergente", explicó Fisher en una entrevista con Healthcare IT News. "Hay un montón de preguntas diferentes sobre dónde pueden surgir los riesgos y las responsabilidades". 


Fisher, que está moderando un panel sobre el tema en el evento HIMSS Machine Learning & AI for Healthcare este diciembre, describió dos áreas principales de preocupación legal: ciberseguridad y sesgo. (HIMSS es la organización matriz de Healthcare IT News).


Cuando se trata de ciberseguridad, dijo, los problemas potenciales no son tanto con la consecuencia de usar el modelo como con el proceso de entrenamiento. "Si las grandes empresas contratan a un sistema sanitario, vamos a trabajar para desarrollar nuevos sistemas que analicen los datos y produzcan nuevos resultados", dijo.


Y todos esos datos podrían representar un jugoso objetivo para los malos actores. "Si un sistema sanitario transfiere información sanitaria protegida a una gran empresa tecnológica, no sólo se plantea el problema de la privacidad, sino también el de la seguridad", dijo. "Tienen que asegurarse de que sus sistemas están diseñados para protegerse de los ataques".


Algunos hospitales víctimas del ransomware se han enfrentado al doble problema de las demandas de los pacientes afectados que dicen que los sistemas sanitarios deberían haber tomado más medidas para proteger su información.   


Y una brecha es una cuestión de cuándo, no de si, dijo Fisher. Fisher dijo que los datos sintéticos o desidentificados son opciones para ayudar a aliviar el riesgo, si los conjuntos son suficientes para la formación.  


"Cualquiera que trabaje con información sensible tiene que ser consciente y pensar en ello", dijo.  


Mientras tanto, si un dispositivo se basa en un algoritmo sesgado y da lugar a un resultado menos que ideal para un paciente, eso podría dar lugar a reclamaciones contra el fabricante o una organización sanitaria. La investigación ha demostrado, por ejemplo, que los modelos sesgados pueden empeorar el impacto desproporcionado que la pandemia del COVID-19 ya ha tenido en las personas de color.


"Se han empezado a ver reclamaciones relacionadas con la historia clínica electrónica en casos de mala praxis", señaló Fisher. Si un paciente experimenta un resultado negativo de un dispositivo en su casa, podría presentar la demanda contra el fabricante, dijo.   


Y un clínico que confíe en un dispositivo en un entorno médico y no tenga en cuenta los resultados variados para diferentes grupos de personas podría correr el riesgo de una demanda por negligencia. "Cuando se informa y se habla ampliamente de este tipo de problemas, se presenta un panorama más favorable para tratar de encontrar a las personas que han sido perjudicadas", dijo Fisher.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social