El mantra "Seguir la ciencia" es engañoso cuando se trata de decisiones políticas, dice el director del Instituto de Ética en AI de Oxford

 Fantástica entrevista al profesor John Tasioulas, el recién nombrado director inaugural del Instituto de Ética en Inteligencia Artificial de la Universidad de Oxford.

Hemos estado hablando de ética médica durante muchos años, un debate que aún continúa. Ahora, hay una discusión sobre los principales desafíos éticos que plantea la IA. Algunos argumentan que los sistemas de reconocimiento facial y de perfiles de votantes representan una amenaza para la democracia, y mucho menos para los drones armados que enfrentan múltiples problemas éticos. Otros dicen que demonizar la tecnología y abrazar las teorías de la conspiración puede ser una amenaza mayor. ¿Cuáles son sus opiniones?

R: Por supuesto, tengo mis propias opiniones sobre temas como este, algunas menos seguras que otras. Pero hay dos cosas generales que me gustaría enfatizar para ir más allá del optimismo ingenuo y el miedo irracional a la IA. La primera es que la preocupación no es la IA en sí misma, que es esencialmente una tecnología, sino más bien las decisiones que tomamos los seres humanos sobre si la desarrollamos e implementamos y cómo. Como tecnología, la IA no es intrínsecamente buena ni mala, todo depende de cómo encaja en una variedad de elecciones humanas. La segunda cosa que me gustaría enfatizar es que las cuestiones éticas en torno a la IA deben abordarse de una manera sensible y específica del dominio. La toma de decisiones algorítmica es una cosa cuando se trata del diagnóstico de cáncer, y muy diferente cuando se trata de condenar a los criminales.

Los problemas son intrincados y dependen del contexto, por lo que una ética sólida de la IA debe ser un esfuerzo interdisciplinario, que atraiga a personas con experiencia en dominios específicos relevantes, como la medicina o la justicia penal. Sin embargo, en general, me opongo a la idea de que deberíamos imponer una prohibición general de que nuestros intereses se vean afectados negativamente por la toma de decisiones automatizada, que parece una respuesta demasiado burda, que desperdicia innecesariamente las oportunidades creadas por la IA para beneficiar a las personas.

https://www.linkedin.com/pulse/follow-science-mantra-misleading-when-comes-policy-ai-andritsopoulos/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social