Entrevista con Mark Coeckelbergh: Ética de la inteligencia artificial
https://naukas.com/2021/03/23/entrevista-con-mark-coeckelbergh-etica-de-la-inteligencia-artificial/
Los desafíos de la inteligencia artificial exigen reflexiones morales y difícilmente se podrá articular una ética de las inteligencias artificiales sin libros y autores que la discutan críticamente. El filósofo belga Mark Coeckelberg acaba de publicar Ética de la inteligencia artificial (Cátedra, 2021), un libro claro y conciso sobre las posibilidades y los riesgos de nuestro futuro tecnológico.
ANDRÉS LOMEÑA: ¿Cree usted en una singularidad tecnológica por medio de una explosión de la inteligencia computacional? John Gray ha sido muy crítico con el transhumanismo.
MARK COECKELBERG: No creo en la singularidad ni en la explosión de inteligencia. Nuestras tecnologías, incluida la inteligencia artificial, seguirán mejorando, pero los transhumanistas tienden a hablar de posibilidades que hoy por hoy son ciencia-ficción y que muy probablemente seguirán siendo ciencia-ficción. Por tanto, estoy de acuerdo con Gray: esas ideas son quimeras.
Sin embargo, he estudiado los textos de los transhumanistas porque nos recuerdan temas muy importantes para la humanidad: cómo afrontamos la condición humana, la vulnerabilidad y sobre todo nuestros límites, nuestro deseo de perfección e inmortalidad o lo que eso significa para la tecnología. Como humanos nos contamos historias y estas deberían analizarse críticamente.
A.L.: Según Pedro Domingos, hay cinco paradigmas del aprendizaje automático: los simbolistas, los conexionistas, los evolucionistas, los bayesianos y los analogistas. ¿Deberíamos pensar en un esquema ético para cada uno de esos paradigmas o buscar una ética universal?
M.C.: Es importante saber que no hay un único tipo de inteligencia artificial ni de aprendizaje automático. Cada uno plantea problemas concretos. En ética, hay que observar el impacto de las tecnologías y muchas cuestiones morales son bastante similares, así que me decanto por un enfoque ético universalista, que luego habría que revisar y aplicar a contextos específicos con determinadas tecnologías. Al margen de las cuestiones técnicas de cada tecnología, todas ellas tendrán cierto impacto y a mi juicio, las consideraciones éticas deberían tenerse en cuenta en todo momento.
A.L.: Con el dilema del tranvía, toda consideración moral parece reducirse a decidir entre una ética kantiana o una ética utilitarista, decidir si la vida tiene un valor intrínseco o si se deben maximizar los beneficios y minimizar los daños. ¿No es esta una visión muy limitada?
M.C.: La ética no debería tratar solamente sobre qué teoría ética tenemos que usar. A mí me influyó el pragmatismo, lo que implica que deberíamos reconocer la relevancia de algunas teorías y usar muchas de sus herramientas conceptuales para resolver nuestros problemas.
La teoría no siempre es un buen punto de partida: deberíamos mirar también los dilemas morales, las experiencias morales y la imaginación moral que se ha creado con el uso de la inteligencia artificial y otras tecnologías relacionadas. Si la ética fuera simplemente un asunto de aplicar la teoría ética y el razonamiento, podríamos delegar esta tarea en una máquina. Afortunadamente, la ética y el ser humano son bastante más complejos. La filosofía y las humanidades, junto a la literatura y otras artes, deberían recordárnoslo.
A.L.: ¿Le parece un hito el aprendizaje profundo de GPT-3?
M.C.: GPT-3 es impresionante, y con el procesamiento de lenguajes naturales se esperan más progresos. Antes tuvimos AlphaGo. Sin embargo, no me interesa tanto la inteligencia técnica en sí misma como su desarrollo y saber qué podemos hacer con estas tecnologías para mejorar la sociedad. Las aplicaciones médicas parecen muy prometedoras. GPT-3 y tecnologías similares también podrían ayudar a investigar en el ámbito de las humanidades. Hay muchas oportunidades.
Comentarios
Publicar un comentario