Próxima década en IA: Cuatro pasos hacia una IA robusta
El artículo considera la historia de la IA y cual podría ser en el futuro una IA más robusta aunque no sea superinteligencia. La idea es que la IA sea más fiable, si no, no se podrá confiar en ella.
La narrow AI es ampliamente conocida por resolver problemas concretos excepcionalmente bien, como jugar al ajedrez, pero no es transferible a otros problemas, ni siquiera a otras circunstacias sin un nuevo entrenamiento. Funcionan bien en entornos controlados, pero no en el mundo fluído y variable.
Una IA robusta es lo contrario a una que funciona bien en muchos casos pero también falla en otros muy similares.
Desde el principio la robustez no ha sido el objetivo. Solo se ha demostrado hambrienta de datos y con escasa capacidad de generalizar.
Gary Marcus y Ernie Davis denominan comprensión profunda (deep understanding) a la capacidad no solo de correlar y discernir patrones sutiles, sino también la capacidad de ante cualquier escenario poder preguntar ónde, cuándo, quién, por qué, cómo.
GPT-2 es un ejemplo de generación de textos pero falla estrepitosamente con facilidad.
Los negocios se han centrado en mejorar las herramientas, obtener mayores datasets, disponer de más GPUs y TPUs, pero aún con su valor, hace es más necesario repensarlo. Bengio sugiere técnicas más sofisticadas como extración causal de relaciones causales a partir de la sensibilidad a los cambios de distribución.
Marcus cree que debemos reenfocarnos a un marco que sea capaz de rutinariamente adquirir, representar y manipular conocimiento abstracto.
Para ellos propone volver a tres intereses clásicos de la IA: conocimiento, modelos internos y razonamiento. Esos intereses eran centrales para John McCarthy. Con el tiempo esas ideas ha ido desapareciendo de las publicaciones. Sistemas como GPT-2 son capaces de hacer lo que hacen sin ninguna clase de razonamiento.
Muchos ven esa ausencia de laborioso conocimiento explícito como una ventaja. Todo esto ha impulsado los desarrollos de DeepMind. Incluir el conocimiento humano en el aprendizaje automático se ha visto como una trampa y algo no deseado. El objetivo de DeepMind sería llegar a aprender desde cero hasta llegar a la superinteligencia. Sería deseable poder inyectar el sentido común y el sentimiento a partir de conocimientos previos.
En general los ejemplos utilizados son ámbitos cerrados, no problemas reales.
Los modelos desarrollados para lingüística, juegos de ordenador, etc, no sirven para una inteligencia robusta. Las redes neuronales no son capaces ni de resolver problemas sencillos como los que presenta. Añadir más capas ocultas no cambia las cosas. Hay dos problemas relacionados:
1. la idiosincrasia, los sistemas entrenados son difícilmente generalizables a entornos abiertas.
2. excesiva dependencia del proceso de entrenamiento
Las operaciones simbólicas ofrecen la única solución conocida, pero es una solución parcial.
No es omprescindible abandonar el enfoque actual basado en reglas, entrenamiento, etc, pero hay urge cambiar de perspectiva.
Propone un programa en cuatro pasos:
1. desarrollo inicial de arquitecturas híbridas neuro simbólicas
2. construcción de frameworks cognitivos parcialmente innatos y bases de conocimientos a gran escala
3. mayor desarrollo de herramientas para razonamiento sobre esos frameworks
4. mecanismos más sofisticados para la representación e inducción de modelos cognitivos
https://arxiv.org/abs/2002.06177
por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)
La narrow AI es ampliamente conocida por resolver problemas concretos excepcionalmente bien, como jugar al ajedrez, pero no es transferible a otros problemas, ni siquiera a otras circunstacias sin un nuevo entrenamiento. Funcionan bien en entornos controlados, pero no en el mundo fluído y variable.
Una IA robusta es lo contrario a una que funciona bien en muchos casos pero también falla en otros muy similares.
Desde el principio la robustez no ha sido el objetivo. Solo se ha demostrado hambrienta de datos y con escasa capacidad de generalizar.
Gary Marcus y Ernie Davis denominan comprensión profunda (deep understanding) a la capacidad no solo de correlar y discernir patrones sutiles, sino también la capacidad de ante cualquier escenario poder preguntar ónde, cuándo, quién, por qué, cómo.
GPT-2 es un ejemplo de generación de textos pero falla estrepitosamente con facilidad.
Los negocios se han centrado en mejorar las herramientas, obtener mayores datasets, disponer de más GPUs y TPUs, pero aún con su valor, hace es más necesario repensarlo. Bengio sugiere técnicas más sofisticadas como extración causal de relaciones causales a partir de la sensibilidad a los cambios de distribución.
Marcus cree que debemos reenfocarnos a un marco que sea capaz de rutinariamente adquirir, representar y manipular conocimiento abstracto.
Para ellos propone volver a tres intereses clásicos de la IA: conocimiento, modelos internos y razonamiento. Esos intereses eran centrales para John McCarthy. Con el tiempo esas ideas ha ido desapareciendo de las publicaciones. Sistemas como GPT-2 son capaces de hacer lo que hacen sin ninguna clase de razonamiento.
Muchos ven esa ausencia de laborioso conocimiento explícito como una ventaja. Todo esto ha impulsado los desarrollos de DeepMind. Incluir el conocimiento humano en el aprendizaje automático se ha visto como una trampa y algo no deseado. El objetivo de DeepMind sería llegar a aprender desde cero hasta llegar a la superinteligencia. Sería deseable poder inyectar el sentido común y el sentimiento a partir de conocimientos previos.
En general los ejemplos utilizados son ámbitos cerrados, no problemas reales.
Enfoque híbrido, dirigido al conocimiento y basado en un modelo cognitivo
Muchos científicos cognitivos ven la cognición como un ciclo: los organismos toman de entrada información exterior, construyen modelos cognitivos internos basados en su percepción de esa información y toman decisiones respecto a esos modelos cognitivos. Es un enfoque valioso.Los modelos desarrollados para lingüística, juegos de ordenador, etc, no sirven para una inteligencia robusta. Las redes neuronales no son capaces ni de resolver problemas sencillos como los que presenta. Añadir más capas ocultas no cambia las cosas. Hay dos problemas relacionados:
1. la idiosincrasia, los sistemas entrenados son difícilmente generalizables a entornos abiertas.
2. excesiva dependencia del proceso de entrenamiento
Las operaciones simbólicas ofrecen la única solución conocida, pero es una solución parcial.
Los híbridos son a menudo efectivos
Se presentan varias objecciones a los sistemas simbólicos:
1. Los símbolos no son biológicamente plausibles
2. Los sistemas simbólicos no han funcionado en el pasado
3. No son escalables
Propone un programa en cuatro pasos:
1. desarrollo inicial de arquitecturas híbridas neuro simbólicas
2. construcción de frameworks cognitivos parcialmente innatos y bases de conocimientos a gran escala
3. mayor desarrollo de herramientas para razonamiento sobre esos frameworks
4. mecanismos más sofisticados para la representación e inducción de modelos cognitivos
https://arxiv.org/abs/2002.06177
por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)
Comentarios
Publicar un comentario