Contribución de la OCDE al una IA centrada en el ser humano
La "gestión mediante algoritmo" ya es una realidad en el espacio laboral, lo que puede conducir a prácticas muy intrusivas. El software y hardware permiten crear herramientas de control del desempeño laboral mediante la monitorización de maneras impensables en el pasado, así como recoger enormes cantidades de datos de su actividad, (Elevtronic Performance Monitoring - EPM)permitiendo que un empleado de bajo rendimiento pueda ser despedido automáticamente sin verificación del supervisor.
Formas incrementadas de control de trabajadores de fábricas y de oficina incluyen la monitorización de emails, escucha telefónica, seguimiento del contenido del ordenador y tiempo de uso, monitorización por vídeo y seguimiento GPS. Con esto se realiza "People Analytics".
EPM y Personal Analytics pueden ser usados legítimamente para fomentar la productividad o elevar la seguridad. Los dispositivos wearables pueden usarse para mejorar la salud, pero pueden usarse para una grave intrusión de la vida privada violando la privacidad.
Además,la idea de que la IA llevará a prácticas médicas más objetivas y libre de sesgos puede ser sustancialmente errónea. Mucha literatura describe cómo estos algoritmos pueden perpetuar prácticas discriminatorias y la marginalización de grupos vulnerables, especialmente cuando la recogida de datos es pobre. Los mecanismos de auto aprendizaje en los que el software elige sus propios criterios puede resultar incluso peor. La falta de transparencia y el riesgo de deshumanizar del trabajo se exacerbaría.
La guía de la OCDE pide a los Gobiernos que "tomen medidas, incluso con el diálogo social, para asegurar una transición limpia para los trabajadores al desplegar la IA" y "trabajen con los interesados para promover el uso responsable de la IA en el trabajo y para mejorar la seguridad de los empleados y la calidad de los empleos.
Se requiere regulación para gobernar los datos recogidos sobre el desempeño en el trabajo, las características personales de los trabajadores así como cómo son recogidos y tratados, así como prohibir los controles intrusivos. Cualquier decisión que afecte a los trabajadores deberían tomarse bajo supervisión humana.
En 2017 la UE abogaba por un enfoque de la IA con "humano al mando". El despliegue de la IA debe ser responsable, seguro y útil donde las máquinas sigan siendo máquinas y las personas sigan controlando las máquinas. Este enfoque se debe seguir estrictamente en lo referente al trabajo. El derecho a no estar sujeto a toma de decisiones automatizada sin intervención humana se abre paso en la regulación supranacional. Los individuos no deberían quedar solos al lidiar con los intríngulis de estas tecnologías cuando quieran comprender y oponerse a sus consecuencias y aplicaciones.
Los Gobiernos tienen un papel esencial que jugar en la regulación. Por ejemplo se pueden usar incentivos fiscales. Es necesario que los trabajadores, los sindicatos y los directivos estén adecuadamente formados en los retos y oportunidades de esta tecnología.
https://poseidon01.ssrn.com/delivery.php?ID=622087009029070101099011072022002024022042010014033020088068074077091106091083109005011118030002007113008089081006076102118083001006043079004112097024114093068113104019076008081002086014064113072117121028104105093100120127095066123113007029093115096020&EXT=pdf
por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)
Formas incrementadas de control de trabajadores de fábricas y de oficina incluyen la monitorización de emails, escucha telefónica, seguimiento del contenido del ordenador y tiempo de uso, monitorización por vídeo y seguimiento GPS. Con esto se realiza "People Analytics".
EPM y Personal Analytics pueden ser usados legítimamente para fomentar la productividad o elevar la seguridad. Los dispositivos wearables pueden usarse para mejorar la salud, pero pueden usarse para una grave intrusión de la vida privada violando la privacidad.
Además,la idea de que la IA llevará a prácticas médicas más objetivas y libre de sesgos puede ser sustancialmente errónea. Mucha literatura describe cómo estos algoritmos pueden perpetuar prácticas discriminatorias y la marginalización de grupos vulnerables, especialmente cuando la recogida de datos es pobre. Los mecanismos de auto aprendizaje en los que el software elige sus propios criterios puede resultar incluso peor. La falta de transparencia y el riesgo de deshumanizar del trabajo se exacerbaría.
La guía de la OCDE pide a los Gobiernos que "tomen medidas, incluso con el diálogo social, para asegurar una transición limpia para los trabajadores al desplegar la IA" y "trabajen con los interesados para promover el uso responsable de la IA en el trabajo y para mejorar la seguridad de los empleados y la calidad de los empleos.
Se requiere regulación para gobernar los datos recogidos sobre el desempeño en el trabajo, las características personales de los trabajadores así como cómo son recogidos y tratados, así como prohibir los controles intrusivos. Cualquier decisión que afecte a los trabajadores deberían tomarse bajo supervisión humana.
En 2017 la UE abogaba por un enfoque de la IA con "humano al mando". El despliegue de la IA debe ser responsable, seguro y útil donde las máquinas sigan siendo máquinas y las personas sigan controlando las máquinas. Este enfoque se debe seguir estrictamente en lo referente al trabajo. El derecho a no estar sujeto a toma de decisiones automatizada sin intervención humana se abre paso en la regulación supranacional. Los individuos no deberían quedar solos al lidiar con los intríngulis de estas tecnologías cuando quieran comprender y oponerse a sus consecuencias y aplicaciones.
Los Gobiernos tienen un papel esencial que jugar en la regulación. Por ejemplo se pueden usar incentivos fiscales. Es necesario que los trabajadores, los sindicatos y los directivos estén adecuadamente formados en los retos y oportunidades de esta tecnología.
https://poseidon01.ssrn.com/delivery.php?ID=622087009029070101099011072022002024022042010014033020088068074077091106091083109005011118030002007113008089081006076102118083001006043079004112097024114093068113104019076008081002086014064113072117121028104105093100120127095066123113007029093115096020&EXT=pdf
por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)
Comentarios
Publicar un comentario