Lecciones aprendidas de los principios éticos de la IA para acciones futuras

 A medida que el uso de sistemas de inteligencia artificial (IA) se ha vuelto significativamente más frecuente en los últimos años, también han aumentado las preocupaciones sobre cómo estos sistemas recopilan, usan y procesan big data. Para abordar estas preocupaciones y abogar por el desarrollo e implementación éticos y responsables de la IA, las organizaciones no gubernamentales (ONG), los centros de investigación, las empresas privadas y las agencias gubernamentales han publicado más de 100 principios y pautas éticas de la IA. Esta primera ola fue seguida por una serie de marcos sugeridos, herramientas y listas de verificación que intentan una solución técnica a los problemas planteados en los principios de alto nivel. Los principios son importantes para crear un entendimiento común de las prioridades y son la base para la gobernanza futura y las oportunidades de innovación. Sin embargo, una revisión de estos documentos en función de su país de origen y entidades financiadoras muestra que las empresas privadas del eje EE.UU.-Occidente dominan la conversación. Mientras tanto, han surgido varios casos que demuestran algoritmos sesgados y su impacto en las personas y la sociedad. El campo de la ética de la IA exige con urgencia acciones tangibles para pasar de abstracciones de alto nivel y argumentos conceptuales a aplicar la ética en la práctica y crear mecanismos de rendición de cuentas. Sin embargo, se deben aprender lecciones de las deficiencias de los principios éticos de la IA para garantizar que las futuras inversiones, colaboraciones, estándares, códigos o legislación reflejan la diversidad de voces e incorporan las experiencias de aquellos que ya se ven afectados por los algoritmos sesgados.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje