Los marcos éticos voluntarios no protegerán contra el sesgo algorítmico

El "optimismo tecnológico ingenuo" que asume que las nuevas tecnologías darán como resultado resultados sociales positivos ya no es aceptable, dijo el Dr. Kanta Dihal, investigador e investigador de Global AI Narratives en el Leverhulme Center for the Future of Intelligence de la Universidad de Cambridge en Digital Ethics Summit 2020, organizado por el organismo comercial techUK.

En este entorno, las empresas y las organizaciones gubernamentales deben garantizar que el uso de la IA sea justo y equitativo. Los marcos éticos, mediante los cuales las organizaciones o industrias definen y se comprometen con comportamientos éticos, son herramientas importantes para ayudarlas a lograrlo.

"Las empresas no deberían crear IA a menos que tengan un marco y un modelo de gobierno para llegar a eso en solo un segundo en torno a la creación de la IA", dijo Allyn L Shaw, presidente y director de tecnología de Recycle Track Systems, en Digital Cumbre de Ética. "Ese modelo de gobernanza significa que debe tener personas representadas y el conjunto de datos de personas que espera que la IA participe representada en ese proceso de diseño".

Ejemplos de tales marcos incluyen el Modelo de Marco de Gobernanza de IA de Singapur o el bautizadi como el inversor estadounidense Stephen Schwarzman para crear un "marco para abordar los impactos y la ética" de la IA.

Sin embargo, existe escepticismo de que estos marcos sean suficientes para evitar que las empresas utilicen la IA de formas discriminatorias pero potencialmente rentables. Sin responsabilidad, los marcos voluntarios son solo un pedazo de papel, dijo en la cumbre Renée Cummings, activista de datos residente en la Escuela de Ciencia de Datos de la Universidad de Virginia y académica comunitaria de la Universidad de Columbia.

“Algunos de los mejores diseñadores de estas regulaciones y marcos también son algunos de los mayores perpetradores de comportamiento poco ético, como hemos visto en los últimos tiempos”, dijo Cummings. “Hasta hace poco, vimos que las principales compañías de automóviles publicaban marcos éticos sobre cómo deberían operar los vehículos autónomos. Pero, de nuevo, es porque están perpetrando las mismas cosas contra las que están hablando ".

En cambio, argumentó Cummings, las organizaciones deben ser legalmente responsables por el uso de IA.

https://techmonitor.ai/ai/voluntary-frameworks-will-not-protect-against-ai-bias

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social