Solo el 18% de los que estudian Ciencia de Datos saben de Ética de la IA

En medio de una creciente reacción por los prejuicios raciales y de género de la IA, numerosos gigantes tecnológicos están lanzando sus propias iniciativas de ética, de dudosa intención.

Los esquemas se anuncian como esfuerzos altruistas para hacer que la tecnología sirva a la humanidad. Pero los críticos argumentan que su principal preocupación es evadir la regulación y el escrutinio a través del "lavado ético".

La encuesta de Anaconda a científicos de datos de más de 100 países encontró que la brecha ética se extiende desde la academia a la industria. Si bien las organizaciones pueden mitigar el problema a través de herramientas de equidad y soluciones explicables, ninguna parece estar ganando una adopción masiva.

Solo el 15% de los encuestados dijo que su organización ha implementado un sistema de equidad, y solo el 19% informó que tiene una herramienta explicable.

Los autores del estudio advirtieron que esto podría tener consecuencias de largo alcance:

Más allá de las preocupaciones éticas en juego, el hecho de no abordar de manera proactiva estas áreas plantea un riesgo estratégico para las empresas e instituciones a través de dimensiones competitivas, financieras e incluso legales.

La encuesta también reveló inquietudes en torno a la seguridad de las herramientas de código abierto y la capacitación empresarial, y la carga de datos. Pero es la falta de ética lo que más preocupa a los autores del estudio:

De todas las tendencias identificadas en nuestro estudio, encontramos que el lento progreso al abordar el sesgo y la equidad y hacer que el aprendizaje automático sea explicable es lo más preocupante. Si bien estos dos problemas son distintos, están interrelacionados y ambos plantean preguntas importantes para la sociedad, la industria y la academia.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje