El término "IA ética" finalmente comienza a significar algo

 Fantástico resumen de las tres olas de la ética de la IA.

Entre 2016 y 2019, se publicaron 74 conjuntos de principios éticos o pautas para la IA. Esta fue la primera ola de IA ética, en la que recién habíamos comenzado a comprender los riesgos y amenazas potenciales del aprendizaje automático y las capacidades de IA que avanzaban rápidamente, y estábamos buscando formas de contenerlos.

Esta primera ola del movimiento se centró en la ética sobre la ley, descuidó las cuestiones relacionadas con la injusticia sistémica y el control de las infraestructuras, y no estaba dispuesto a abordar lo que Michael Veale, profesor de Regulación y Derechos Digitales en el University College de Londres, llama “la cuestión del problema encuadre ”: los primeros debates éticos sobre la IA generalmente daban por sentado que la IA sería útil para resolver problemas. Estas deficiencias dejaron al movimiento abierto a la crítica de que había sido cooptado por las grandes empresas tecnológicas como un medio para evadir una mayor intervención regulatoria. Y aquellos que creían que las grandes empresas tecnológicas estaban controlando el discurso en torno a la IA ética vieron el movimiento como un "lavado de ética". El flujo de dinero de la gran tecnología hacia las iniciativas de codificación, la sociedad civil y la academia que abogan por un enfoque basado en la ética solo subrayó la legitimidad de estas críticas.

A medida que se desarrollan los eventos salvajes e impredecibles de 2020, junto con ellos, la IA ética de la tercera ola ha comenzado a afianzarse, fortalecida por el inmenso reconocimiento que ha catalizado el movimiento Black Lives Matter. La IA ética de la tercera ola es menos conceptual que la IA ética de la primera ola y está interesada en comprender las aplicaciones y los casos de uso. Está mucho más preocupado por el poder, consciente de los intereses creados y preocupado por los problemas estructurales, incluida la importancia de descolonizar la IA. Un artículo publicado por Pratyusha Kalluri, fundadora de Radical AI Network, en Nature en julio de 2020, ha personificado el enfoque, argumentando que “cuando el campo de la IA cree que es neutral, no se da cuenta de los datos sesgados y construye sistemas que santifican el status quo y promover los intereses de los poderosos.

https://venturebeat.com/2020/08/23/the-term-ethical-ai-is-finally-starting-to-mean-something/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje