Entrevista con Mark Coeckelbergh: Ética de la inteligencia artificial

https://naukas.com/2021/03/23/entrevista-con-mark-coeckelbergh-etica-de-la-inteligencia-artificial/

Los desafíos de la inteligencia artificial exigen reflexiones morales y difícilmente se podrá articular una ética de las inteligencias artificiales sin libros y autores que la discutan críticamente. El filósofo belga Mark Coeckelberg acaba de publicar Ética de la inteligencia artificial (Cátedra, 2021), un libro claro y conciso sobre las posibilidades y los riesgos de nuestro futuro tecnológico.

 

ANDRÉS LOMEÑA: ¿Cree usted en una singularidad tecnológica por medio de una explosión de la inteligencia computacional? John Gray ha sido muy crítico con el transhumanismo.

MARK COECKELBERG: No creo en la singularidad ni en la explosión de inteligencia. Nuestras tecnologías, incluida la inteligencia artificial, seguirán mejorando, pero los transhumanistas tienden a hablar de posibilidades que hoy por hoy son ciencia-ficción y que muy probablemente seguirán siendo ciencia-ficción. Por tanto, estoy de acuerdo con Gray: esas ideas son quimeras.

Sin embargo, he estudiado los textos de los transhumanistas porque nos recuerdan temas muy importantes para la humanidad: cómo afrontamos la condición humana, la vulnerabilidad y sobre todo nuestros límites, nuestro deseo de perfección e inmortalidad o lo que eso significa para la tecnología. Como humanos nos contamos historias y estas deberían analizarse críticamente.

 

A.L.: Según Pedro Domingos, hay cinco paradigmas del aprendizaje automático: los simbolistas, los conexionistas, los evolucionistas, los bayesianos y los analogistas. ¿Deberíamos pensar en un esquema ético para cada uno de esos paradigmas o buscar una ética universal?

M.C.: Es importante saber que no hay un único tipo de inteligencia artificial ni de aprendizaje automático. Cada uno plantea problemas concretos. En ética, hay que observar el impacto de las tecnologías y muchas cuestiones morales son bastante similares, así que me decanto por un enfoque ético universalista, que luego habría que revisar y aplicar a contextos específicos con determinadas tecnologías. Al margen de las cuestiones técnicas de cada tecnología, todas ellas tendrán cierto impacto y a mi juicio, las consideraciones éticas deberían tenerse en cuenta en todo momento.

 

A.L.: Con el dilema del tranvía, toda consideración moral parece reducirse a decidir entre una ética kantiana o una ética utilitarista, decidir si la vida tiene un valor intrínseco o si se deben maximizar los beneficios y minimizar los daños. ¿No es esta una visión muy limitada?

M.C.: La ética no debería tratar solamente sobre qué teoría ética tenemos que usar. A mí me influyó el pragmatismo, lo que implica que deberíamos reconocer la relevancia de algunas teorías y usar muchas de sus herramientas conceptuales para resolver nuestros problemas.

La teoría no siempre es un buen punto de partida: deberíamos mirar también los dilemas morales, las experiencias morales y la imaginación moral que se ha creado con el uso de la inteligencia artificial y otras tecnologías relacionadas. Si la ética fuera simplemente un asunto de aplicar la teoría ética y el razonamiento, podríamos delegar esta tarea en una máquina. Afortunadamente, la ética y el ser humano son bastante más complejos. La filosofía y las humanidades, junto a la literatura y otras artes, deberían recordárnoslo.

 

A.L.: ¿Le parece un hito el aprendizaje profundo de GPT-3?

M.C.: GPT-3 es impresionante, y con el procesamiento de lenguajes naturales se esperan más progresos. Antes tuvimos AlphaGo. Sin embargo, no me interesa tanto la inteligencia técnica en sí misma como su desarrollo y saber qué podemos hacer con estas tecnologías para mejorar la sociedad. Las aplicaciones médicas parecen muy prometedoras. GPT-3 y tecnologías similares también podrían ayudar a investigar en el ámbito de las humanidades. Hay muchas oportunidades.

 

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje