El riesgo existencial de la IA y la ortogonalidad: ¿Podemos tenerlo todo?

https://onlinelibrary.wiley.com/doi/full/10.1111/rati.12320#.YZLnhBoccAM.twitter

El argumento estándar para concluir que la inteligencia artificial (IA) constituye un riesgo existencial para la especie humana utiliza dos premisas: (1) La IA puede alcanzar niveles superinteligentes, momento en el que los humanos perderemos el control (la "afirmación de la singularidad"); (2) Cualquier nivel de inteligencia puede ir unido a cualquier objetivo (la "tesis de la ortogonalidad"). La tesis de la singularidad requiere una noción de "inteligencia general", mientras que la tesis de la ortogonalidad requiere una noción de "inteligencia instrumental". Si esta interpretación es correcta, no pueden unirse como premisas y el argumento del riesgo existencial de la IA resulta inválido. Si la interpretación es incorrecta y ambas premisas utilizan la misma noción de inteligencia, entonces al menos una de las premisas es falsa y la tesis de la ortogonalidad sigue siendo en sí misma ortogonal al argumento del riesgo existencial de la IA. En cualquier caso, el argumento estándar del riesgo existencial de la IA no es sólido. -Dicho esto, sigue existiendo el riesgo de que la IA instrumental cause daños muy importantes si se diseña o utiliza mal, aunque esto no se debe a la superinteligencia o a una singularidad.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje