Entradas

Mostrando las entradas etiquetadas como Causalidad Abstracción Razonamiento Analogía

Consecuencialismo y ética de las máquinas: hacia una ética de las máquinas fundamental para garantizar la conducta ética de los agentes morales artificiales

https://montrealethics.ai/consequentialism-and-machine-ethics-towards-a-foundational-machine-ethic-to-ensure-the-ethical-conduct-of-artificial-moral-agents/ Este artículo sostiene que el consecuencialismo representa un tipo de teoría ética que es la más plausible para servir de base a una ética de las máquinas. Comienza esbozando el concepto de agente moral artificial y las propiedades esenciales del consecuencialismo. A continuación, se presenta un escenario con vehículos autónomos para ilustrar cómo las características del consecuencialismo informan la acción del agente. En tercer lugar, se evalúa un enfoque deontológico alternativo y se discute el problema del conflicto moral. Por último, se presentarán dos enfoques ascendentes para el desarrollo de la ética de las máquinas y se cuestionarán brevemente.

Un premio Nobel contra la falacia que une correlación y causalidad

https://elpais.com/politica/2021/10/14/actualidad/1634222568_419481.html Los economistas David Card, Joshua Angrist y Guido Imbens han obtenido el galardón por hacer más científica la economía, inventando trucos para atacar su pregunta más difícil: qué causa qué

Abstracción y creación de analogías en artificial Inteligencia

https://arxiv.org/abs/2102.10717 La abstracción conceptual y la creación de analogías son habilidades clave que subyacen a las capacidades de los seres humanos para aprender, razonar y adaptar de manera sólida su conocimiento a nuevos dominios. A pesar de una larga historia de investigación sobre la construcción de sistemas de IA con estas habilidades, ningún sistema de IA actual se acerca a la capacidad de formar abstracciones o analogías humanas. Este artículo revisa las ventajas y limitaciones de varios enfoques hacia este objetivo, incluidos los métodos simbólicos, el aprendizaje profundo y la inducción probabilística de programas. El artículo concluye con varias propuestas para diseñar tareas de desafío y medidas de evaluación con el fin de lograr avances cuantificables y generalizables en esta área.

Aprendizaje automático interpretable: breve historia, estado de la técnica y desafíos

 Presentamos una breve historia del campo del aprendizaje automático interpretable (IML), brindamos una descripción general de los métodos de interpretación de vanguardia y discutimos los desafíos. La investigación en IML se ha disparado en los últimos años. Tan joven como es el campo, tiene más de 200 años de raíces en el modelado de regresión y el aprendizaje automático basado en reglas, a partir de la década de 1960. Recientemente, se han propuesto muchos métodos nuevos de IML, muchos de ellos independientes del modelo, pero también técnicas de interpretación específicas para el aprendizaje profundo y los conjuntos basados ​​en árboles. Los métodos de IML analizan directamente los componentes del modelo, estudian la sensibilidad a las perturbaciones de entrada o analizan aproximaciones sustitutas locales o globales del modelo de ML. El campo se acerca a un estado de preparación y estabilidad, con muchos métodos no solo propuestos en la investigación, sino también implementados e...

Construyendo máquinas de pensamiento resolviendo tareas de cognición animal

 En "Computing Machinery and Intelligence", Turing, escéptico de la pregunta "¿Pueden pensar las máquinas?", Rápidamente la reemplaza con una prueba verificable experimentalmente: el juego de imitación. Sugiero que para que tal movimiento tenga éxito, la prueba debe ser relevante, expansiva, solucionable con ejemplos, impredecible y conducir a una investigación procesable. El juego de la imitación solo tiene un éxito parcial en este sentido y su dependencia del lenguaje, si bien es útil para resolver parcialmente el problema, ha puesto el progreso de la IA en el pie equivocado, prescribiendo un enfoque de arriba hacia abajo para construir máquinas pensantes. Sostengo que para solucionar las deficiencias de los sistemas modernos de IA se requiere una operacionalización no verbal. Esto lo proporciona el reciente Animal-AI Testbed, que traduce pruebas de cognición animal para IA y proporciona una vía de investigación de abajo hacia arriba para construir máquinas pensan...

El esfuerzo de la IA por lograr la "comprensión" y el "significado"

la tecnología de inteligencia artificial más avanzada que tenemos hoy, nuestra mejor imitación del cerebro, puede ver, en el mejor de los casos, personas y rostros, detectar géneros y objetos, y proporcionar descripciones muy básicas, como "una pareja cenando en una mesa". Esto es solo un vistazo de la capacidad de la mente humana para comprender el mundo, y cuán gran desafío sigue siendo su replicación después de seis décadas de investigación de inteligencia artificial. "Los humanos son capaces de" comprender realmente "las situaciones que encuentran, mientras que incluso los sistemas de IA más avanzados de la actualidad aún no tienen una comprensión similar a la humana de los conceptos que estamos tratando de enseñarles", escribe el científico de la computación y el investigador de IA. Melanie Mitchell en su último artículo para AI Magazine. En su artículo, Mitchell, quien también es profesora en el Instituto Santa Fe y autora de un libro reciente sobre ...

Simposium de Otoño 2020 sobre Abstracción

Organizado por AAAI y Sante Fe Institute, Melanie Mitchell. https://sites.google.com/pdx.edu/abstractionfall2020 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Sobre la caída de la barrera del significado en la IA

Paper de Melanie Mitchell . En 1986, el matemático y filósofo Gian-Carlo Rota escribió: "Me pregunto llegará  la inteligencia artificial alguna vez a romper la barrera del significado ". (Rota 1986). Aquí el La frase "barrera de significado" se refiere a una creencia sobre los humanos versus las máquinas: los humanos son capaces para "entender realmente" las situaciones que encuentran, mientras que incluso las más avanzadas de Los sistemas de IA de hoy todavía no tienen una comprensión humana de los conceptos que somos tratando de enseñarles Esta falta de comprensión puede ser la base de las limitaciones actuales en el generalidad y fiabilidad de los sistemas modernos de IA. En octubre de 2018, el Instituto Santa Fe celebró un taller de tres días, organizado por Barbara Grosz, Dawn Song y yo, llamado "Artificial Inteligencia y la barrera del significado ". Treinta participantes de un conjunto diverso de disciplinas: IA, robótica, psicología cogni...

La IA puede señalar cuando la correlación en realidad es causa-efecto

Una nueva investigación presentada en la conferencia de la AAAI en Nueva York prueba que se puede demostrar de forma útil y fiable que un caso de correlación en realidad es causalidad. La investigación se ha centrado en otras formas de observar las variables causantes. Una teoría con origen en la física es que las cosas se desordenan y complican con el tiempo, la entropía, así que la causa debe sermenos desordenada y complicada que su efecto. La teoría se ha aplicado al cáncer de mama y datasets de proteínas de señalización. En cada caso la IA señaló la variable causante. Se describen distintas pruebas. El algoritmo y los datasets están disponibles en abierto en arxiv. https://www.eurekalert.org/pub_releases/2020-02/b-aic020320.php por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)