Cuando los robots médicos fallan: principios de negligencia para una era de automatización

 En los últimos años, los investigadores han desarrollado robots médicos y chatbots para monitorear a los ancianos vulnerables y ayudar con algunas tareas básicas. Las aplicaciones de terapia impulsadas por inteligencia artificial ayudan a algunas personas con enfermedades mentales; los sistemas de pedido de medicamentos ayudan a los médicos a evitar interacciones peligrosas entre diferentes recetas; y los dispositivos de asistencia hacen que la cirugía sea más precisa y segura, al menos cuando la tecnología funciona según lo previsto. Y estos son solo algunos ejemplos de cambio tecnológico en la medicina.

La adopción gradual de la IA en la medicina también plantea una cuestión de responsabilidad crítica para la profesión médica: ¿quién debería ser responsable cuando estos dispositivos fallan? Acertar con esta pregunta sobre la responsabilidad será de vital importancia no solo para los derechos de los pacientes, sino también para proporcionar los incentivos adecuados para la economía política de la innovación y el mercado laboral médico.

https://www.brookings.edu/techstream/when-medical-robots-fail-malpractice-principles-for-an-era-of-automation/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social