El trabajo oculto creado por los programas de inteligencia artificial

https://mitsloan.mit.edu/ideas-made-to-matter/hidden-work-created-artificial-intelligence-programs

La inteligencia artificial a menudo se enmarca en términos de tecnología que acapara los titulares y promesas deslumbrantes. Pero algunos de los trabajadores que habilitan estos programas, las personas que hacen cosas como codificar datos, marcar imágenes o trabajar para integrar los programas en el lugar de trabajo, a menudo son pasados ​​por alto o infravalorados.


"Este es un patrón común en los estudios sociales de la tecnología", dijo Madeleine Clare Elish, SM '10, investigadora científica senior de Google. "Un enfoque en la nueva tecnología, la última innovación, se produce a expensas de los humanos que están trabajando para permitir que esa innovación funcione en el mundo real".


Hablando en la reciente conferencia EmTech Digital organizada por MIT Technology Review, Elish y otros investigadores dijeron que los programas de inteligencia artificial a menudo no toman en cuenta a los humanos que incorporan sistemas de inteligencia artificial en el flujo de trabajo existente, trabajadores que realizan labores detrás de escena para hacer que los programas se ejecuten. y las personas que se ven afectadas negativamente por los resultados de la IA.


"Este es un desafío para la IA étnica, porque pasar por alto el papel de los humanos pasa por alto lo que realmente está sucediendo", dijo Elish.


Aquí están sus ideas sobre cómo hacer que los sistemas de IA sean más efectivos y más éticos.


Considere cómo se integrará la IA en un lugar de trabajo

En su trabajo anterior al frente de la iniciativa AI on the Ground en Data & Society, Elish y su equipo estudiaron una iniciativa de la Universidad de Duke y el Sistema de Salud de Duke llamada Sepsis Watch. Este es un sistema de apoyo a la toma de decisiones clínicas que utiliza IA para predecir el riesgo de sepsis de un paciente, una de las principales causas de muerte en los hospitales que es notoriamente difícil de diagnosticar y tratar rápidamente.

El programa ha mejorado drásticamente los casos de pacientes con sepsis, dijo Elish, pero para los trabajadores del hospital, Sepsis Watch fue perturbador. Cambió la forma en que las enfermeras y los médicos de respuesta rápida se comunican normalmente, y las enfermeras tuvieron que descubrir las mejores formas de transmitir las puntuaciones de riesgo a los médicos. Las enfermeras también tenían que ajustar la información de Sepsis Watch a las prácticas existentes del departamento de emergencias.


“Esto ni siquiera se le había pasado por la mente al equipo de desarrollo tecnológico, pero esta estrategia resultó esencial”, dijo Elish. “Vimos a personas capacitadas que realizaban un trabajo esencial pero que se pasaba por alto y se subestimaba”.


Las enfermeras terminaron haciendo lo que Elish y sus colegas investigadores llaman trabajo de reparación: el trabajo requerido para hacer que una tecnología sea realmente efectiva en un contexto específico y para entretejer esa tecnología en las prácticas laborales, dinámicas de poder y contextos culturales existentes.


La forma en que muchas personas se enfocan en la tecnología y el desarrollo de programas de IA deja fuera a las personas que realizan innovaciones en el terreno para que funcionen.


“Gran parte del trabajo diario real que se requiere para que la IA funcione en el mundo se vuelve invisible y luego se subestima”, dijo Elish.


Incluso el lenguaje utilizado para hablar sobre el lanzamiento de sistemas de IA tiende a descartar la importancia de este trabajo, dijo Elish.


"De hecho, trato de evitar hablar de 'implementación de sistemas'", dijo. “Desplegar es un término militar. Connota una especie de caída sin contexto. Y lo que realmente necesitamos hacer con los sistemas es integrarlos en un contexto particular. Y cuando usas palabras como 'integrar', es necesario que digas: '¿Integrar en qué o con quién?' "

En el caso de Sepsis Watch, las personas respetaron la autonomía de las enfermeras y se les permitió la discreción y la flexibilidad para improvisar y crear formas de comunicarse sobre las puntuaciones de riesgo de sepsis, dijo Elish. Aquellos que crean sistemas de IA deben asignar recursos para apoyar a las personas que realizarán este tipo de trabajo de reparación y asegurarse de que sean parte del proyecto de principio a fin.


"Una solución de inteligencia artificial, en teoría, en realidad no nos lleva muy lejos", dijo Elish. "La implementación responsable, la implementación efectiva, proviene de enfocarse en cómo las personas estarán capacitadas para usar la solución en un contexto particular".


En teoría, una solución de inteligencia artificial no nos lleva muy lejos. La implementación responsable proviene de centrarse en cómo se empoderará a las personas para que utilicen la solución en un contexto particular.


Madeleine Clare Elish

SM '10, científico investigador sénior de Google

Cuota

No te olvides de los "trabajadores fantasma" detrás de escena

El trabajo de reparación para integrar la IA en el lugar de trabajo no es el único trabajo invisible. La IA ha creado millones de nuevos puestos de trabajo, incluso para trabajadores humanos que hacen cosas como etiquetar imágenes para que un modelo de aprendizaje automático pueda aprender, dijo Saiph Savage, director del Laboratorio de Innovación Cívica de la Universidad Nacional Autónoma de México. Otras tareas humanas pueden incluir la transcripción de audio, que ayuda a los asistentes de voz a comprender el mundo, o señalar contenido violento o desinformación en las plataformas de redes sociales.


Los trabajadores que operan detrás de escena, a menudo llamados trabajadores fantasmas o trabajadores invisibles, generalmente están ocultos para el usuario final, dijo Savage. Su investigación muestra que estos trabajadores a menudo ganan por debajo del salario mínimo y tienen oportunidades limitadas de crecimiento y desarrollo profesional.


Tener en cuenta a los trabajadores requiere comprender los desafíos sistémicos que enfrentan y los valores que tienen. Savage dijo que hay varias formas en que los programas de inteligencia artificial se pueden usar para ayudar a los trabajadores fantasma, incluidas algunas herramientas que ella creó:


Programas de inteligencia artificial que pueden detectar cuándo un empleador está siendo injusto con un trabajador, tal vez a través de comentarios negativos, y luego empujar al empleador a reconsiderar. Los programas de IA también se pueden utilizar para guiar a los trabajadores a lograr diferentes objetivos.

Estudiar a los trabajadores que han podido crecer y prosperar y desarrollar programas basados ​​en sus estrategias. “Busco computacionalmente a esos trabajadores y los organizo para compartir consejos y estrategias para otros trabajadores, de modo que esos otros trabajadores puedan seguir [estas] estrategias y también aumentar sus salarios”, dijo Savage. Ha desarrollado complementos web que permiten a los trabajadores compartir consejos.

Herramientas de auditoría para comprender las condiciones a las que están expuestos los trabajadores, como los salarios por hora y el trabajo invisible.

“Realmente necesitamos pensar en los riesgos a los que estamos exponiendo a los trabajadores”, dijo Savage. "Por ejemplo, la cantidad de trabajo invisible que estamos obligando a hacer a los trabajadores".


Pregunte quién no está en la mesa y a quién podría dañar la IA

Abeba Birhane, candidato a doctorado en ciencias cognitivas en la University College Dublin, cuestionó la suposición de que la IA es algo universalmente bueno que puede resolver cualquier problema. La inteligencia artificial y los sistemas algorítmicos "conllevan consecuencias reales y tangibles para personas reales, ya sea en la policía o en el sistema de atención médica", dijo.


Un tema recurrente en todas las herramientas de IA es que “las personas de las comunidades que están al margen de la sociedad, las personas más vulnerables, son siempre las que pagan el precio más alto”, dijo Birhane.


Cosas como los sistemas de reconocimiento facial, los algoritmos de atención médica y las violaciones de la privacidad tienden a afectar y poner en desventaja de manera desproporcionada a las personas negras y transgénero, los inmigrantes y los niños LGBTQ.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social