Se han creado estándares de IA para ayudar a abordar el problema de los estudios médicos sobrevalorados

Un equipo internacional de expertos ha lanzado un conjunto de pautas bajo las cuales se espera que los ensayos clínicos que involucren IA cumplan con una estricta lista de verificación de criterios antes de ser publicados en las principales revistas.

Los nuevos estándares se están publicando simultáneamente en BMJ, Nature Medicine y Lancet Digital Health, ampliando los estándares existentes para ensayos clínicos, implementados hace más de una década para medicamentos, pruebas de diagnóstico y otras intervenciones, para hacerlos más adecuados para Sistemas basados en IA.

El profesor Alastair Denniston de la Universidad de Birmingham, experto en el uso de IA en la atención médica y miembro del equipo, dijo que las pautas eran cruciales para garantizar que los sistemas de IA fueran seguros y efectivos para su uso en entornos de atención médica.

https://www.theguardian.com/technology/2020/sep/09/ai-standards-launched-help-tackle-problem-overhyped-studies-artificial-intelligence

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social