La forma en que entrenamos a la IA es fundamentalmente defectuosa

 No es ningún secreto que los modelos de aprendizaje automático ajustados y ajustados para un rendimiento casi perfecto en el laboratorio a menudo fallan en entornos reales. Esto generalmente se atribuye a una falta de coincidencia entre los datos en los que se entrenó y probó la IA y los datos que encuentra en el mundo, un problema conocido como cambio de datos. Por ejemplo, una IA entrenada para detectar signos de enfermedad en imágenes médicas de alta calidad tendrá problemas con imágenes borrosas o recortadas capturadas con una cámara barata en una clínica concurrida.

Ahora, un grupo de 40 investigadores de siete equipos diferentes en Google ha identificado otra causa importante del fracaso común de los modelos de aprendizaje automático. Llamado "subespecificación", podría ser un problema aún mayor que el cambio de datos. "Estamos pidiendo más a los modelos de aprendizaje automático de lo que podemos garantizar con nuestro enfoque actual", dice Alex D’Amour, quien dirigió el estudio.

https://www.technologyreview.com/2020/11/18/1012234/training-machine-learning-broken-real-world-heath-nlp-computer-vision/

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social