¿POR QUÉ LAS EMPRESAS TIENEN PROBLEMAS CON LA INTELIGENCIA ARTIFICIAL ÉTICA?

https://news.northeastern.edu/2021/09/23/ethical-artificial-intelligence/

Algunas de las organizaciones más importantes del mundo, desde las Naciones Unidas hasta Google y el Departamento de Defensa de Estados Unidos, proclaman con orgullo su buena fe en lo que respecta al uso ético de la inteligencia artificial.

Pero para muchas otras organizaciones, hablar por hablar es la parte fácil. Un nuevo informe elaborado por un par de investigadores del Northeastern analiza cómo la articulación de los valores, los conceptos éticos y los principios es sólo el primer paso para abordar los desafíos de la IA y la ética de los datos. El trabajo más difícil es pasar de las promesas vagas y abstractas a los compromisos sustantivos que guían la acción y son medibles.

"Se ve un caso tras otro en el que una empresa tiene estas declaraciones de misión que no cumplen", dice John Basl, profesor asociado de filosofía y coautor del informe. "Su intento de hacer ética se desmorona".

ronald sandler y john basl hablan de la inteligencia artificial ética
Una nueva investigación de los profesores de Northeastern Ronald Sandler (izquierda) y John Basl (derecha) recomienda una normativa federal para ayudar a las empresas a articular sus valores y su ética con su software de inteligencia artificial. Foto de Matthew Modoono/Northeastern University

Según el informe, publicado en colaboración con el Atlantic Council, un centro de estudios no partidista de Washington, las promesas de las empresas sin una ejecución adecuada no son más que tópicos y un "lavado de cara a la ética". Las conclusiones se debatirán entre los autores y otros ponentes en un acto virtual que tendrá lugar el 23 de septiembre a mediodía, hora del este.

El informe recomienda una mayor transparencia para ayudar a los ciudadanos a entender cómo y por qué se toman las decisiones de IA sobre ellos. "Si me deniegan un préstamo y no puedo averiguar qué causó esa decisión, entonces no sé qué hacer para futuras solicitudes de préstamos", explica Basl. "La transparencia es importante".

El desarrollo y el uso éticamente problemáticos de la IA y el big data continuarán, y el sector será visto por los responsables políticos, los empleados, los consumidores, los clientes y el público como un fracaso en el cumplimiento de sus propios compromisos declarados, añade el informe.

La mayoría de las empresas tienen buenas intenciones y han hecho un buen trabajo de desarrollo de métricas formales para los puntos de referencia, como la equidad y la parcialidad, pero no son realmente capaces de determinar cuál de ellos va a cumplir sus objetivos, dice Basl.

"Una de las cosas que pretende hacer este informe es obligar a las empresas a reflejar de forma cohesionada sus valores en lugar de tratar de elegir", afirma. "No les dice cómo hacer ninguna cosa en particular, pero les proporciona un proceso por el que tienen que pasar si quieren realizar sinceramente sus valores".
*** Translated with www.DeepL.com/Translator (free version) ***

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social