Cuando la mejor IA no es necesariamente la mejor IA

El artículo presenta el modelo de Susan Athey, para consideración de las organizaciones al usar la IA.

Plantea cuatro escenarios:
  • Si un sistema de IA funciona perfectamente todo el tiempo, puede reemplazar al humano. Pero hay inconvenientes. Además de tomar el trabajo de una persona, la IA de reemplazo tiene que estar extremadamente bien entrenada, lo que puede implicar una inversión prohibitivamente costosa en datos de capacitación. 
  • Cuando la IA es imperfecta o "poco confiable", los humanos juegan un papel clave en la captura y corrección de los errores de la IA, compensando parcialmente las imperfecciones de la IA con un mayor esfuerzo. Es muy probable que este escenario produzca resultados óptimos cuando la IA alcanza el punto óptimo donde toma malas decisiones con la frecuencia suficiente para mantener a los compañeros de trabajo humanos alerta.
  • Con la IA de aumento, los empleados conservan el poder de decisión mientras que una IA de alta calidad aumenta su esfuerzo sin diezmar su motivación. Los ejemplos de IA aumentativa pueden incluir sistemas que, de manera imparcial, revisan y clasifican las solicitudes de préstamos o solicitudes de empleo, pero no toman decisiones de préstamo o contratación. Sin embargo, los prejuicios humanos tendrán una mayor influencia en las decisiones en este escenario.
  • La IA antagónica es quizás la clasificación menos intuitiva. Surge en situaciones donde hay una IA imperfecta pero valiosa, el esfuerzo humano es esencial pero poco incentivado, y el humano retiene los derechos de decisión cuando el humano y la IA entran en conflicto. En tales casos, propone el modelo de Athey, el mejor diseño de IA podría ser uno que produzca resultados que entren en conflicto con las preferencias de los agentes humanos, motivándolos de manera antagónica a esforzarse para que puedan influir en las decisiones. "Las personas van a estar, al margen, más motivadas si no están tan contentas con el resultado cuando no prestan atención", dice Athey.
Para aclarar el valor del modelo de Athey, ella describe los posibles problemas de diseño, así como las compensaciones por el esfuerzo de los trabajadores cuando las empresas usan IA para abordar el problema del sesgo en la contratación. El escenario funciona así: si la contratación de gerentes, consciente o no, prefiere contratar a personas que se parezcan a ellos, una IA capacitada con datos de contratación de dichos gerentes probablemente aprenderá a imitar ese sesgo (y mantener felices a esos gerentes). Si la organización quiere reducir el sesgo, puede que tenga que hacer un esfuerzo para expandir los datos de entrenamiento de IA o incluso realizar experimentos, por ejemplo, agregar candidatos de colegios y universidades históricamente negros que podrían no haber sido considerados antes, para recopilar los datos necesarios para entrenar un sistema de IA imparcial. Luego, si los gerentes sesgados aún están a cargo de la toma de decisiones, la nueva IA imparcial podría motivarlos antagónicamente a leer todas las aplicaciones para que puedan defender la contratación de la persona que se parece a ellos. Pero dado que esto no ayuda al propietario a lograr el objetivo de eliminar el sesgo en la contratación, otra opción es diseñar la organización para que la IA pueda anular al administrador, lo que tendrá otra consecuencia no deseada: un administrador desmotivado.

"Estos son los compromisos que intenta aclarar", dice Athey. "La IA en principio puede resolver algunos de estos prejuicios, pero si quieres que funcione bien, debes tener cuidado sobre cómo entrenas a la IA y cómo mantienes la motivación para el humano".

A medida que la IA se adopte en más y más contextos, cambiará la forma en que funcionan las organizaciones. Las empresas y otras organizaciones necesitarán pensar de manera diferente sobre el diseño organizacional, los incentivos para los trabajadores, qué tan bien las decisiones de los trabajadores y la IA están alineadas con los objetivos de la empresa, y si una inversión en datos de capacitación para mejorar la calidad de la IA tendrá consecuencias deseables, Athey dice. "Los modelos teóricos pueden ayudar a las organizaciones a pensar en las interacciones entre todas estas opciones".


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social