Ética y equidad en la IA: ¿quién dicta las normas?
https://www.carnegieaie.org/blog/ethics-and-fairness-in-ai-who-makes-the-rules/
Aunque está claro que los sistemas de inteligencia artificial (IA) ofrecen oportunidades en diversos ámbitos y contextos, aún no se ha alcanzado lo que equivale a una perspectiva responsable sobre su ética y gobernanza, y hasta la fecha son pocas las iniciativas que han logrado un impacto real en la modulación de sus efectos.
Los sistemas de IA y las tecnologías algorítmicas se están integrando y ampliando mucho más rápidamente que la madurez de la tecnología que los sustenta actualmente, y los marcos de gobernanza existentes siguen evolucionando.
¿Por qué no lo estamos haciendo bien?
Permítanme compartir algunas reflexiones selectas y desmentir algunos mitos - y dejarles con algunas preguntas para hacer a medida que el impacto de los sistemas basados en la IA está impregnando nuestras vidas:
Primero: Con demasiada frecuencia el debate sobre la IA se presenta como si la tecnología evolucionara por su propia trayectoria.
Este no es el caso
Es humana en todo momento. Cada novedad, cada reto, cada sesgo, cada valor, cada oportunidad. Estamos en un punto de inflexión, pero es humano y hasta cierto punto político o incluso teleológico, no tecnológico.
Segundo: Muchos de los diálogos existentes son demasiado estrechos y no comprenden las sutilezas y el ciclo de vida de los sistemas de IA y su funcionalidad (a veces limitada) e impacto. Además, los métodos científicos y la complejidad que sustentan el qué, el cómo y el por qué de la construcción de un sistema de IA son poco comprendidos por los responsables de la toma de decisiones. Necesitamos una mejor inteligencia científica y antropológica, tanto a la hora de construir modelos fundacionales como en la forma de pensar en las futuras aplicaciones de la inteligencia artificial.
Tercero: El debate se centra en algunos aspectos de la ética, mientras que se ignoran otros aspectos que son más fundamentales y desafiantes. Por ejemplo: ¿Qué potencial pueden tener los sistemas de IA para perpetuar las desigualdades existentes y crear otras nuevas?
Este es el problema conocido como "lavado de ética": crear una sensación superficialmente tranquilizadora, pero ilusoria, de que las cuestiones éticas se están abordando adecuadamente, para justificar que se siga adelante con sistemas que acaban profundizando los patrones actuales.
Cuarto: La trampa de la sobreadaptación, la sobrepromesa, la sobrepromesa y la infrautilización. En una variedad de sistemas sensibles, desde la atención sanitaria hasta el empleo, pasando por la justicia y la defensa, estamos desplegando sistemas de IA que pueden ser brillantes en la identificación de correlaciones, pero que no entienden la causalidad o las consecuencias. Esto conlleva riesgos significativos, especialmente cuando se despliega en contextos políticamente frágiles o cuando se despliega en el sector público.
Quinto: los debates sobre la IA y la ética siguen limitándose en gran medida a la torre de marfil. Es necesario un discurso público más informado y una inversión seria en educación cívica, alfabetización digital, participación diversa y búsquedas transdisciplinarias en torno al impacto social de la revolución bio-digital.
Sexto: Gran parte de lo que el público en general percibe actualmente sobre la IA proviene de tropos de ciencia ficción y películas de gran éxito. Necesitamos mejores formas de comunicar al público que, más allá de los riesgos hipotéticos de la IA del futuro, existen limitaciones reales e inminentes que plantean por qué y cómo incorporamos los sistemas de IA que actualmente conforman la vida cotidiana de todos, y quién puede decidir.
Séptimo: El discurso público sobre la IA no aborda suficientemente las consecuencias posteriores y se centra con demasiada frecuencia en un enfoque miope de optimización tecnológica, en lugar de en lo que el problema requiere. Yo lo llamo el problema del polvo de hadas de la IA. Esto incluye cómo reducir cualquier posible impacto medioambiental de los cálculos que consumen muchos recursos, las cuestiones relativas a la propiedad de los datos, y cómo cultivar el talento, construir la alfabetización digital y la fluidez de la IA, y crear espacios compartidos y una lengua vernácula para compartir ideas.
*** Translated with www.DeepL.com/Translator (free version) ***
Comentarios
Publicar un comentario