El esfuerzo de la IA por lograr la "comprensión" y el "significado"

la tecnología de inteligencia artificial más avanzada que tenemos hoy, nuestra mejor imitación del cerebro, puede ver, en el mejor de los casos, personas y rostros, detectar géneros y objetos, y proporcionar descripciones muy básicas, como "una pareja cenando en una mesa".

Esto es solo un vistazo de la capacidad de la mente humana para comprender el mundo, y cuán gran desafío sigue siendo su replicación después de seis décadas de investigación de inteligencia artificial.

"Los humanos son capaces de" comprender realmente "las situaciones que encuentran, mientras que incluso los sistemas de IA más avanzados de la actualidad aún no tienen una comprensión similar a la humana de los conceptos que estamos tratando de enseñarles", escribe el científico de la computación y el investigador de IA. Melanie Mitchell en su último artículo para AI Magazine.

En su artículo, Mitchell, quien también es profesora en el Instituto Santa Fe y autora de un libro reciente sobre inteligencia artificial, analiza las dificultades de los sistemas actuales de inteligencia artificial, es decir, el aprendizaje profundo, para extraer significado de la información que procesan.

El aprendizaje profundo es muy bueno para descubrir correlaciones entre toneladas de puntos de datos, pero cuando se trata de profundizar en los datos y formar abstracciones y conceptos, apenas rascan la superficie (incluso eso podría ser una exageración). Tenemos sistemas de inteligencia artificial que pueden ubicar objetos en imágenes y convertir audio a texto, pero ninguno que pueda empatizar con Aurelie y apreciar su malestar cuando su esposo ataca a Pomponette. De hecho, nuestros sistemas de IA comienzan a romperse tan pronto como se enfrentan a situaciones que son ligeramente diferentes de los datos en los que han sido entrenados.

Algunos científicos creen que tales límites se superarán a medida que escalemos los sistemas de aprendizaje profundo con redes neuronales más grandes y conjuntos de datos más grandes. Pero, sospecha Mitchell, podría faltar algo más fundamental.

Mitchell indica varios puntos
  • la IA no tiene habilidades innanatas
  • las redes neuronales no pueden extrapolar
  • los seres humanos estamos en el mundo e interactuamos con él, la IA no está en el mundo
  • la comprensión no es una función de pérdida o una marca
  • encontrar el significado es un reto multidisciplinar
"Para mí, las perspectivas de personas ajenas a la IA (en psicología, neurociencia, filosofía, etc.) ayudaron a mostrar cómo estos temas de 'comprensión' y 'significado' son simultáneamente clave para la inteligencia, pero también muy difíciles de estudiar", me dijo Mitchell. . “Escuchar a personas de la psicología y la neurociencia realmente nos llevó a casa lo compleja que es la inteligencia, no solo en humanos sino también en otros animales, desde arañas saltarinas hasta loros grises y nuestros primos primates. Y también que realmente no entendemos muy bien la inteligencia natural ".


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social