Los pacientes no son avisados de que se utiliza IA

En un número cada vez mayor de hospitales y clínicas prominentes en todo el país, los médicos recurren a herramientas de apoyo a la toma de decisiones basadas en inteligencia artificial, muchas de ellas no comprobadas, para ayudar a predecir si los pacientes hospitalizados pueden desarrollar complicaciones o deteriorarse, ya sea que corran el riesgo de readmisión, y si es probable que mueran pronto. Pero estos pacientes y sus familiares a menudo no están informados ni se les pide que den su consentimiento para el uso de estas herramientas en su atención, según un examen STAT.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social