Andrew Ng muestra el bombo de la IA

https://spectrum.ieee.org/view-from-the-valley/artificial-intelligence/machine-learning/andrew-ng-xrays-the-ai-hype

"Aquellos de nosotros en el aprendizaje automático somos muy buenos para hacerlo bien en un conjunto de pruebas", dice el pionero del aprendizaje automático Andrew Ng, "pero, lamentablemente, implementar un sistema requiere más que hacerlo bien en un conjunto de pruebas".


Hablando a través de Zoom en una sesión de preguntas y respuestas organizada por DeepLearning.AI y Stanford HAI, Ng estaba respondiendo a una pregunta sobre por qué los modelos de aprendizaje automático entrenados para tomar decisiones médicas que funcionan casi al mismo nivel que los expertos humanos no están en uso clínico. Ng mencionó el caso en el que los investigadores de Stanford pudieron desarrollar rápidamente un algoritmo para diagnosticar la neumonía a partir de radiografías de tórax, uno que, cuando se probó, funcionó mejor que los radiólogos humanos. (Ng, cofundador de Google Brain y Coursera, es actualmente profesor en la Universidad de Stanford).


Hay desafíos para convertir un artículo de investigación en algo útil en un entorno clínico, indicó.


“Resulta”, dijo Ng, “que cuando recopilamos datos del Hospital de Stanford, luego entrenamos y probamos datos del mismo hospital, de hecho, podemos publicar artículos que muestren que [los algoritmos] son ​​comparables a los radiólogos humanos en la detección de ciertos condiciones ".


Pero, dijo, “resulta que [cuando] llevas ese mismo modelo, ese mismo sistema de inteligencia artificial, a un hospital más antiguo al final de la calle, con una máquina más antigua, y el técnico usa un protocolo de imágenes ligeramente diferente, los datos se desvían para hacer que el rendimiento del sistema de inteligencia artificial se degrade significativamente. Por el contrario, cualquier radiólogo humano puede caminar por la calle hasta el hospital más antiguo y hacerlo bien.


"Entonces, aunque en un momento determinado, en un conjunto de datos específico, podemos mostrar que esto funciona, la realidad clínica es que estos modelos todavía necesitan mucho trabajo para llegar a la producción".

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje