Los guardianes de la IA están dando pequeños pasos para elevar los estándares éticos

Bender, Raji, Hecht y otros han pedido salvaguardas para evitar aplicaciones peligrosas de IA. Hecht, quien ayudó a sentar las bases para los requisitos de declaración de impacto en 2018, argumentó que las propuestas para la financiación de la investigación deberían incluir una sección similar sobre daños potenciales. Bender ha pedido declaraciones que expliquen los sesgos incrustados en los datos utilizados para entrenar modelos de IA. Raji y otros abogaron por la transparencia sobre el desempeño de los modelos a través de líneas demográficas como raza, género o edad.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje