Las propias leyes de la física implican que la inteligencia artificial debe ser posible. ¿Qué nos detiene?

https://aeon.co/essays/how-close-are-we-to-creating-artificial-intelligence

Es indiscutible que el cerebro humano tiene capacidades que son, en algunos aspectos, muy superiores a las de todos los demás objetos conocidos del cosmos. Es el único tipo de objeto capaz de entender que el cosmos existe, o por qué hay infinitos números primos, o que las manzanas caen por la curvatura del espacio-tiempo, o que obedecer sus propios instintos innatos puede ser moralmente incorrecto, o que él mismo existe. Sus capacidades únicas no se limitan a estas cuestiones cerebrales. El hecho frío y físico es que es el único tipo de objeto que puede propulsarse a sí mismo en el espacio y volver sin sufrir daños, o predecir y evitar el impacto de un meteorito sobre sí mismo, o enfriar objetos a una milmillonésima de grado por encima del cero absoluto, o detectar otros de su tipo a través de distancias galácticas.


Pero ningún cerebro de la Tierra está todavía cerca de saber lo que los cerebros hacen para lograr cualquiera de esas funcionalidades. La empresa de conseguirlo artificialmente -el campo de la "inteligencia general artificial" o AGI- no ha avanzado en absoluto durante sus seis décadas de existencia.


¿Por qué? Porque, como dijo una vez un sabio desconocido, "no es lo que no sabemos lo que causa problemas, es lo que sabemos con seguridad lo que no es así" (y si sabes que ese sabio era Mark Twain, entonces lo que sabes tampoco es así). No se me ocurre ningún otro campo de conocimiento importante en el que la sabiduría predominante, no sólo en la sociedad en general sino también entre los expertos, esté tan plagada de errores fundamentales arraigados y superpuestos. Sin embargo, también ha sido uno de los campos más seguros de sí mismos al profetizar que pronto logrará el avance definitivo.


A pesar de este largo historial de fracasos, la AGI debe ser posible. Y esto se debe a una profunda propiedad de las leyes de la física, a saber, la universalidad de la computación. Esto implica que todo lo que las leyes de la física requieren que haga un objeto físico puede, en principio, ser emulado con un detalle arbitrario por algún programa en un ordenador de propósito general, siempre que se le dé suficiente tiempo y memoria. Los primeros en adivinar este hecho y en abordar sus ramificaciones fueron el matemático del siglo XIX Charles Babbage y su asistente Ada, Condesa de Lovelace. Siguió siendo una suposición hasta la década de 1980, cuando lo demostré utilizando la teoría cuántica de la computación.


Babbage llegó a la universalidad desde una dirección poco prometedora. Le preocupaba mucho el hecho de que las tablas de funciones matemáticas (como los logaritmos y los cosenos) contuvieran errores. En aquella época las compilaban ejércitos de oficinistas, conocidos como "ordenadores", de donde procede la palabra. Al ser humanos, los ordenadores eran falibles. Existían elaborados sistemas de corrección de errores, pero incluso la corrección de errores tipográficos era una pesadilla. Estos errores no sólo eran incómodos y caros: podían costar vidas. Por ejemplo, las tablas se utilizaban mucho en la navegación. Así que Babbage diseñó una calculadora mecánica, a la que llamó Máquina Diferencial. Se programaría mediante la inicialización de ciertos engranajes. El mecanismo accionaría una impresora, para automatizar la producción de las tablas. De este modo, la tasa de error se reduciría a niveles insignificantes, en beneficio eterno de la humanidad.


Desgraciadamente, la capacidad de Babbage para gestionar el proyecto era tan escasa que, a pesar de gastar grandes cantidades de su propio dinero y del gobierno británico, nunca consiguió construir la máquina. Sin embargo, su diseño era sólido, y desde entonces ha sido implementado por un equipo dirigido por el ingeniero Doron Swade en el Museo de la Ciencia de Londres.



Lento pero seguro: un detalle de la Máquina Diferencial de Charles Babbage, montada casi 170 años después de su diseño. Cortesía del Museo de la Ciencia

Se trataba de una tarea cognitiva que sólo los humanos habían sido capaces de realizar. Ninguna otra cosa en el universo conocido se acercaba a su nivel, pero la Máquina Diferencial rendiría mejor que los mejores humanos. Y por lo tanto, incluso en esa etapa vacilante y embrionaria de la historia de la computación automatizada -antes de que Babbage hubiera considerado algo parecido a la AGI- podemos ver las semillas de un rompecabezas filosófico que es controvertido hasta el día de hoy: ¿cuál es exactamente la diferencia entre lo que hacían los "ordenadores" humanos y lo que podía hacer la Máquina Diferencial? ¿Qué tipo de tarea cognitiva, si es que hay alguna, podía realizar cualquiera de los dos tipos de entidad que el otro no pudiera en principio realizar también?


Una diferencia inmediata entre ellos es que la secuencia de pasos elementales (contar, sumar, multiplicar por 10, etc.) que la Máquina Diferencial utilizaba para calcular una función determinada no reflejaba la de los "ordenadores" humanos. Es decir, utilizaban algoritmos diferentes. En sí mismo, esto no es una diferencia fundamental: la Máquina Diferencial podría haber sido modificada con engranajes y palancas adicionales para imitar exactamente el algoritmo de los humanos. Sin embargo, eso no habría conseguido nada más que un aumento de la tasa de error, debido a un mayor número de fallos en la maquinaria más compleja. Del mismo modo, los humanos, con diferentes in

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social