HOMBRE O MÁQUINA: ¿QUIÉN FORMA A MI HIJO?

https://jenpersson.com/man-or-machine-who-shapes-my-child-worldchildrensday-2021/

Hoy en día, cuando se habla de la IA, oímos el temor a la conciencia en la IA. Vemos "Yo, Robot".  La realidad de cualquier IA que toque sus vidas en los próximos diez años es muy diferente. La definición puede ser discutida, pero la inteligencia artificial en las escuelas ya implica la toma de decisiones automatizada a velocidad y escala, sin compasión ni conciencia, pero con resultados que afectan a la vida de los niños durante mucho tiempo.


Las orientaciones actuales -en los documentos políticos, en las herramientas y directrices bien intencionadas y, por supuesto, en otro marco "ético"- son bastante similares en cuanto a los problemas identificados.


Sesgo en los datos de formación. Discriminación en los resultados. Acceso o tratamiento desigual. Falta de comprensión o transparencia en la toma de decisiones. Falta de vías de recurso. Más reflexiones sobre la exclusión, la discapacidad y el diseño accesible, y la brecha digital. Al tratar de llenarla, el llamamiento puede concluir con un grito para garantizar una "IA para todos".


La mayoría de estas cuestiones no abordan las preguntas clave en mi opinión, con respecto a la IA en la educación.


¿Quién determina la vida de un niño y el entorno en el que crece? El caso especial de los niños se utiliza a menudo para hacer un alegato especial en las cuestiones tecnológicas de los gobiernos. A pesar de ello, en los debates y documentos políticos, los gobiernos no se ocupan una y otra vez de los niños como seres humanos.


Los niños todavía se están desarrollando. Físicamente, emocionalmente, su sentido de la equidad y la justicia, del humor, de la política y de quiénes son.


La IA está moldeando a los niños de formas que las escuelas y los padres no pueden ver.  Y los problemas van más allá de la limitación de la agencia y la autonomía. Más allá de los artículos 8 y 18 de la Convención de las Naciones Unidas sobre los Derechos del Niño, el papel de los padres y los límites perdidos entre la escuela y el hogar, y los artículos 23 y 29. (Ver al final en detalle).


Las preocupaciones sobre la accesibilidad publicadas sobre la IA son a menudo sobre el individuo y la inclusión, en términos de diseño para poder participar. Pero una vez que pueden participar, ¿dónde está la medición y evaluación independiente del impacto en su progreso educativo, o en su desarrollo físico y mental? ¿Cuál es su efecto?


Desde los productos sobrevalorados, como Edgenuity, hasta los sobrevalorados, como ClassCharts (que en realidad no tenía nada de IA, pero aun así ganó los premios Bett Show), los marcos de referencia mencionan a menudo, pero siguen sin tener soluciones significativas para los productos que no funcionan y fracasan.


¿Pero qué pasa con los daños de los productos que funcionan como se pretende? Éstos pueden atentar contra la dignidad humana o crear un efecto escalofriante, como la tecnología de comprobación de exámenes. Esas tecnologías de seguridad que infieren cosas y hacen que el personal intervenga incluso si el niño sólo estaba charlando sobre "una casa adosada". Los sistemas punitivos que guardan los perfiles de los puntos de comportamiento mucho después de que un profesor lo hubiera dejado pasar. ¿Qué hay de los que moldean las emociones y el estado mental del niño en desarrollo por diseño y pretenden operar dentro de la ley de protección de datos? ¿Los que miden y rastrean la salud mental o hacen predicciones para las intervenciones del personal escolar?


Las diademas cerebrales para transferir neuroseñales no son datos biométricos en términos de protección de datos si no se utilizan para identificar a un niño de forma exclusiva.


Las aplicaciones de "bienestar" no están reguladas como dispositivos médicos y, sin embargo, están diseñadas para perfilar e influir en la salud mental y el estado de ánimo y las escuelas las adoptan a gran escala.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje