Por qué la IA no puede resolver problemas desconocidos

https://bdtechtalks.com/2021/03/29/ai-algorithms-representations-herbert-roitblat/

¿Cuándo tendremos inteligencia artificial general, el tipo de IA que puede imitar la mente humana en todos los aspectos? Los expertos están divididos sobre el tema y las respuestas oscilan entre unas pocas décadas y nunca.


Pero en lo que todos están de acuerdo es en que los sistemas de IA actuales están muy lejos de la inteligencia humana. Los seres humanos pueden explorar el mundo, descubrir problemas sin resolver y pensar en sus soluciones. Mientras tanto, la caja de herramientas de IA continúa creciendo con algoritmos que pueden realizar tareas específicas pero no pueden generalizar sus capacidades más allá de sus dominios estrechos. Tenemos programas que pueden vencer a los campeones del mundo en StarCraft, pero no pueden jugar un juego ligeramente diferente a nivel amateur. Tenemos redes neuronales artificiales que pueden encontrar signos de cáncer de mama en las mamografías, pero no pueden diferenciar entre un gato y un perro. Y tenemos modelos de lenguaje complejos que pueden hacer girar miles de artículos aparentemente coherentes por hora, pero comienzan a romperse cuando les haces preguntas simples y lógicas sobre el mundo.


En resumen, cada una de nuestras técnicas de IA logra replicar algunos aspectos de lo que sabemos sobre la inteligencia humana. Pero ponerlo todo junto y llenar los vacíos sigue siendo un gran desafío. En su libro Algorithms Are Not Enough, el científico de datos Herbert Roitblat ofrece una revisión en profundidad de las diferentes ramas de la IA y describe por qué cada una de ellas no alcanza el sueño de crear inteligencia general.


La deficiencia común en todos los algoritmos de IA es la necesidad de representaciones predefinidas, analiza Roitblat. Una vez que descubrimos un problema y podemos representarlo de una manera computable, podemos crear algoritmos de IA que puedan resolverlo, a menudo de manera más eficiente que nosotros mismos. Sin embargo, son los problemas no descubiertos e irrepresentables los que continúan eludiéndonos.


Representaciones en IA simbólica

los algoritmos no son suficientes

"Los algoritmos no son suficientes" por Herbert Roitblat

A lo largo de la historia de la inteligencia artificial, los científicos han inventado regularmente nuevas formas de aprovechar los avances en las computadoras para resolver problemas de manera ingeniosa. Las primeras décadas de IA se centraron en sistemas simbólicos.


Esta rama de la IA asume que el pensamiento humano se basa en la manipulación de símbolos y que cualquier sistema que pueda calcular símbolos es inteligente. La IA simbólica requiere que los desarrolladores humanos especifiquen meticulosamente las reglas, los hechos y las estructuras que definen el comportamiento de un programa de computadora. Los sistemas simbólicos pueden realizar hazañas notables, como memorizar información, calcular fórmulas matemáticas complejas a velocidades ultrarrápidas y emular la toma de decisiones de expertos. Los lenguajes de programación populares y la mayoría de las aplicaciones que usamos a diario tienen sus raíces en el trabajo que se ha realizado sobre la IA simbólica.


Pero la IA simbólica solo puede resolver problemas para los que podemos proporcionar soluciones paso a paso bien formadas. El problema es que la mayoría de las tareas que realizan los seres humanos y los animales no se pueden representar en reglas claras.


“Las tareas intelectuales, como el ajedrez, el análisis de la estructura química y el cálculo, son relativamente fáciles de realizar con una computadora. Mucho más difíciles son los tipos de actividades que podría realizar incluso un ser humano de un año o una rata ”, escribe Roitblat en Algorithms Are Not Enough.


Esto se llama "La paradoja de Moravec", que lleva el nombre del científico Hans Morav.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje