La IA está cada vez más presente en el puesto de trabajo

Uno de los cambios que va atraer el COVID-19 será el teletrabajo. Esto hace que el comportamiento y las relaciones se digitalicen y da lugar a que el desempeño pueda ser evaluado con más información, una oportunidad para aplicar IA.

Esto trae una serie de peligros:
  • El aumento de la virtualización es probablemente permanente para muchos trabajos, allanando el camino para los bots en el lugar de trabajo
  • privacidad: Los datos recopilados en el proceso de trabajo generalmente pueden ser utilizados por los empleadores sin el consentimiento de los empleados. También existe un mayor riesgo de que nuestros datos personales se mezclen y se vuelvan visibles para los empleadores y sus robots a medida que nuestra vida en el hogar y la oficina convergen.
  • Con un lugar de trabajo cada vez más virtual, aún más del desempeño de los empleados será visible para que un AI lo evalúe. La retroalimentación de una IA puede ayudar a las personas a desarrollar habilidades y ser más competentes en sus trabajos. Al mismo tiempo, permitirá a las empresas exprimir más productividad de sus trabajadores. Sin duda, esto conducirá a empresas de mayor rendimiento, pero trabajar en esta pecera digital puede ser desconcertante para algunos.
  • la IA puede realizar diversas tareas, como transcribir las reuniones por zoom
  • Una IA perro guardián  siempre presente puede fomentar un ambiente de trabajo más justo. Los gerentes pueden tener un mejor comportamiento simplemente porque sus palabras y acciones podrían ser observadas o registradas por alguien en una reunión virtual.
  • La virtualización y la IA juntas dan más poder a los empleadores
Por todo ello El uso de IA en el lugar de trabajo cada vez más virtual necesita ser regulado más que nunca y sugiere  cinco principios para el uso ético de la IA en el lugar de trabajo;

  1. Salvaguardar los datos de los empleados
  2. Ser transparente sobre el uso de IA con los empleados
  3. Protegerse de prejuicios y consecuencias no deseadas
  4. Proporcionar explicaciones de las decisiones hechas a máquina que afectan a los empleados.
  5. Adoptar una definición amplia de empleado

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social