Abriendo el camino a la ética en inteligencia artificial
https://link.springer.com/article/10.1007/s43681-020-00031-2
En un intento por abordar los desafíos éticos en la IA, actualmente contamos con varios marcos éticos de IA en todo el mundo, y cada día se lanzan o se desarrollan más en todo el mundo. Desde las Directrices de la Comisión Europea para una IA confiable hasta los Principios de IA de Asilomar, el mensaje suele ser similar: más transparencia y explicabilidad. Sin embargo, navegar por la amplia cantidad de recursos disponibles actualmente no es un proceso simple. Entonces, ¿cómo encontramos un terreno común en lo que respecta a la ética en la IA?
En muchos aspectos, la inteligencia artificial (IA) todavía se encuentra en su juventud y los avances recientes solo han sido posibles debido a los grandes aumentos en el volumen de datos. Aunque lento en comparación con algunas de las primeras predicciones, el campo de la IA ha logrado avances sorprendentes recientemente. Muchos expertos sostienen que es probable que veamos avances significativos en algún momento de este siglo, posiblemente alcanzando un nivel de inteligencia artificial general [1]. Otros creen que todavía estamos lejos de este ideal:
Llegar a ese nivel de inteligencia artificial de propósito general con la flexibilidad de la inteligencia humana no es un pequeño paso desde donde estamos ahora; en cambio, requerirá una inmensa cantidad de progreso fundamental, no solo más del mismo tipo de cosas que se han logrado en los últimos años, sino, como mostraremos, algo completamente diferente [2].
Si bien se ha dicho que, en lo que respecta a la inteligencia artificial, hasta ahora solo hemos arañado la superficie, también podemos ver cómo estos desarrollos relativamente pequeños ya se han hecho eco de cambios drásticos de manera significativa: sociales, éticos y políticos.
El debate ético no es nuevo [3]; sin embargo, a medida que estos desarrollos se desarrollan a un ritmo más rápido, el momento exige debates más concretos sobre la ética de la IA a nivel mundial.
En un intento por abordar algunos de estos desafíos, actualmente contamos con varios marcos éticos de IA en todo el mundo, y cada día se lanzan o se desarrollan más en todo el mundo. Desde las Directrices de la Comisión Europea para una IA confiable, hasta los Principios de IA de Asilomar, el mensaje suele ser similar: más transparencia y explicabilidad. Sin embargo, navegar por la amplia cantidad de recursos disponibles actualmente no es un proceso simple. Más importante aún, cuando se trata de construir IA, estamos lejos de la práctica de estos ideales. Todavía no existe una discusión común o unificadora sobre cómo gobernar la ética en las implementaciones de IA, o la auditabilidad en curso una vez que el aprendizaje automático está mejorando sin intervención humana.
En un artículo reciente [4], el autor se refiere a este problema como “proliferación de principios”. Hay demasiados marcos diferentes disponibles, que no solo dificultan la navegación a través de ellos, sino que también abre una oportunidad para elegir cuando no debería haber uno.
Además, en un estudio reciente [5], los investigadores encontraron que la efectividad de las pautas éticas o códigos éticos es casi nula y que no cambian el comportamiento de los profesionales de la comunidad tecnológica.
Más importante:
La investigación ética también requiere internalizar un compromiso con ella, con la ayuda de capacitación y educación sobre códigos y métodos de investigación adecuados, tutorías y culturas en el lugar de trabajo que fomenten la ética, la transparencia sobre cómo se llevó a cabo la investigación y foros (en persona y por escrito, locales e internacionales). ) donde los investigadores pueden compartir sus experiencias y los desafíos que enfrentan ”. [6]
Comentarios
Publicar un comentario