Sobre la caída de la barrera del significado en la IA

Paper de Melanie Mitchell .

En 1986, el matemático y filósofo Gian-Carlo Rota escribió: "Me pregunto llegará  la inteligencia artificial alguna vez a romper la barrera del significado ". (Rota 1986). Aquí el La frase "barrera de significado" se refiere a una creencia sobre los humanos versus las máquinas: los humanos son capaces para "entender realmente" las situaciones que encuentran, mientras que incluso las más avanzadas de Los sistemas de IA de hoy todavía no tienen una comprensión humana de los conceptos que somos tratando de enseñarles Esta falta de comprensión puede ser la base de las limitaciones actuales en el generalidad y fiabilidad de los sistemas modernos de IA. En octubre de 2018, el Instituto Santa Fe celebró un taller de tres días, organizado por Barbara Grosz, Dawn Song y yo, llamado "Artificial Inteligencia y la barrera del significado ". Treinta participantes de un conjunto diverso de disciplinas: IA, robótica, psicología cognitiva y del desarrollo, comportamiento animal, teoría de la información, y filosofía, entre otros, se reunieron para discutir cuestiones relacionadas con la noción de "Comprensión" en sistemas vivos y la perspectiva de tal comprensión en máquinas. En el Espero que los resultados del taller sean útiles para la comunidad en general, este artículo resume los principales temas de discusión y destaca algunas de las ideas desarrolladas en el taller.

Las discusiones en este taller fueron un intento de dar sentido a la comprensión tanto en sistemas vivos como  en máquinas. La comprensión es una cualidad mal definida que parece ser una parte fundamental de la inteligencia general robusta  que vemos en los humanos y otros sistemas de pensamiento. Nuestra concepción limitada de lo que realmente implica la comprensión hace que sea difícil contestar preguntas básicas: ¿Cómo sabemos si un sistema está "realmente entendiendo"? Qué métricas podemos usar? ¿Se podría decir que las máquinas "entienden" de manera diferente a los humanos? ¿Cuál es la diferencia entre simplemente representar algún aspecto del mundo, como un termostato representa la temperatura y realmente comprende lo que representa? Uno participante del taller comentó: “En mi opinión, la obligación recae sobre aquellos que creen que la "comprensión" es un proceso unificado y generalizado para mostrar cómo es esto en la cognición humana y datos de neurociencia ".


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social