Inteligencia artificial confiable en la educación: trampas y caminos

 En todo el mundo, las aplicaciones de inteligencia artificial (IA) están ingresando a todos los dominios de nuestras vidas, incluido el entorno educativo. Este desarrollo fue impulsado aún más por la pandemia de COVID-19, que hizo que muchas instituciones educativas dependieran de las herramientas de aprendizaje digital (habilitadas por IA) para continuar sus actividades. Si bien el uso de sistemas de inteligencia artificial puede generar numerosos beneficios, también puede implicar riesgos éticos, que aparecen cada vez más en las agendas de los legisladores. Muchos de estos riesgos son específicos del contexto y adquieren mayor importancia cuando están involucradas personas vulnerables, existen asimetrías de poder o los derechos humanos y los valores democráticos están en juego en general. Sin embargo, sorprendentemente, los reguladores hasta ahora han prestado poca atención a los riesgos específicos que surgen en el contexto de la Inteligencia Artificial en la educación (AIED). Por lo tanto, este documento tiene como objetivo evaluar los desafíos éticos planteados por AIED. Su marco normativo consiste en los siete requisitos para la IA confiable, como se establece en las Directrices éticas del Grupo de expertos de alto nivel sobre IA de la Comisión Europea. Después de una descripción general del contexto más amplio en el que estos requisitos tomaron forma (Sección 2), el documento examina cada requisito en el ámbito educativo, así como las dificultades que deben abordarse para permitir su realización (Sección 3). Se presta especial atención al papel especial de la educación en la formación de la mente de las personas y la manera en que este papel puede utilizarse tanto para empoderar como para explotar a las personas. El documento señala que las principales fortalezas de AIED - ofrecer educación a una escala más amplia, a través de métodos de aprendizaje más flexibles e individualizados, y a través de un monitoreo más cercano de la recepción de los materiales por parte de los estudiantes - son también sus principales desventajas cuando no se controlan. Por último, el documento analiza varias vías que los responsables de la formulación de políticas deben considerar para fomentar la AIED confiable más allá de la adopción de directrices (Sección 4), antes de concluir (Sección 5).

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3742421

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social