Los británicos quieren una IA más regulada

Una encuesta independiente de 2000 adultos en el Reino Unido realizada por la firma de IA Fountech.ai descubrió que al 64% de los encuestados le gustaría ver la introducción de una regulación adicional para hacer que la inteligencia artificial sea más segura.

La preocupación por la seguridad de la IA varía según la edad, y los encuestados más jóvenes adoptan una actitud más relajada. Mientras que el 73% de los mayores de 55 años apoyó la introducción de pautas adicionales para mejorar los estándares de seguridad, solo el 53% de los mayores de 18 y 34 años estuvieron de acuerdo.

Los británicos también querían ver a las empresas asumir más responsabilidad, y el 72% de las personas creían que las empresas que desarrollan IA deberían ser responsables de los errores que cometa la tecnología. Con un 81%, los mayores de 55 años tenían más probabilidades de mantener este punto de vista, mientras que con un 60%, los millennials tenían menos probabilidades de estar de acuerdo.

La investigación, que se publicó hoy, reveló que los británicos tienen altas expectativas con respecto al rendimiento y las capacidades de AI. La opinión del 61% de los encuestados era que la IA no debería estar cometiendo ningún error al tomar decisiones o realizar un análisis.

Si bien pueden prevalecer suposiciones positivas con respecto al poder de la destreza funcional de la tecnología, más de dos tercios de los encuestados consideraron que la IA debería mantenerse bajo la atenta mirada de la humanidad. La encuesta encontró que el 69% piensa que un ser humano siempre debe estar monitoreando y verificando las decisiones tomadas por la IA.

Una vez más, los encuestados más experimentados solían estar más a favor del monitoreo humano, con el 77% de los mayores de 55 años que afirman que las decisiones de AI deben verificarse y monitorearse.

Cuando se les preguntó sobre las posibilidades de que la IA cometa un error de cálculo, los investigadores encontraron que el 45% de los encuestados dijeron que es más difícil perdonar los errores cometidos por las máquinas que los errores cometidos por los humanos.

Este resultado relativo a la capacidad de perdonar errores fue similar en las distintas características demográficas de edad encuestadas.

Nikolas Kairinos, fundador de Fountech.ai, dijo: “Si bien los legisladores pueden necesitar refinar la responsabilidad de las acciones de AI a medida que avanza la tecnología, la sobrerregulación de los riesgos de AI obstaculiza el potencial de innovación con sistemas de IA que prometen transformar nuestras vidas para mejor. "


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social