Las Guías de Ética de la IA no resolverán los problemas
Recientemente la UE ha publicado un libro blanco sobre guías éticas de la IA incluyendo preocupaciones sobre privacidad y dignidad humana. También el Pentágono ha finalizado las suyas. Oxford también ha lanzado un programa para mantener la IA recta y estrecha y el WorldEconomic Forum ha resaltado las profundas implicaciones morales de la IA.
En el fondo el miedo está detrás. Las anteriores tecnologías se podían controlar pero la IA reemplazará nuestras ideas. Los dispositivos de ahorro de trabajo se convierten en máquinas de toma de decisiones que operan en un vacío moral.
Hasta ahora las peticiones han ido a los programadores que escriben los algoritmos. El problema es que la IA aprende por sí misma. El rumbo que toman se inicia por quienes inician el código.
Lo que está en juego es mucho en cuanto el Pentágono quiere automatizar la toma de decisiones. La UE, el WEF y el Pentágono pueden estar alarmados por la ética de la IA, pero en realidad son los mismos problemas de siempre en technicolor, problemas nunca resueltos y que probablemente nunca lo serán.
Los problemas éticos siguen estando ahí desde Aristóteles. Si Newton y Einstein resolvieron la física, se espera que la IA resuelva la ética, pero laética es un problema diferente. Los humanos tomamos decisiones, instintivamente identificamos el bien y el mal en distintas cosas el mismo tiempo, los motivos tras una elección, el tipo de acción que hacemos y sus consecuencias. La IA actual se centra en una cosa al mismo tiempo, pero siempre se dejará algo fuera.
Entonces, si un sistema de IA está seguro de qué hacer cuando las buenas acciones conducen a un mal resultado, o cuando los malos motivos ayudan a las personas, deberíamos ser muy cautelosos: estaría ofreciendo claridad moral cuando realmente no hay ninguna.
Es concebible que la IA, en lugar de ser una causa de problemas morales, pueda ayudar a resolverlos. Al usar big data para anticipar el futuro y al ayudarnos a resolver lo que sucedería si todos siguieran ciertas reglas, la inteligencia artificial hace que la ética basada en reglas y consecuencias sea mucho más fácil. Aplicada cuidadosamente, la IA podría ayudar a responder algunos dilemas morales difíciles. En unos pocos años, el mejor consejo ético puede venir incluso de una aplicación en nuestros teléfonos.
Tanto el enfoque de la Comisión Europea como el del Pentágono dejan abierta esa posibilidad.
Sin embargo, no significaría que se hayan resuelto los profundos problemas éticos planteados por la ética artificial. Nunca se resolverán, porque no tienen una solución única y segura.
https://www.wearethemighty.com/military-culture/ai-guidelines-wont-solve-ethics
Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)
En el fondo el miedo está detrás. Las anteriores tecnologías se podían controlar pero la IA reemplazará nuestras ideas. Los dispositivos de ahorro de trabajo se convierten en máquinas de toma de decisiones que operan en un vacío moral.
Hasta ahora las peticiones han ido a los programadores que escriben los algoritmos. El problema es que la IA aprende por sí misma. El rumbo que toman se inicia por quienes inician el código.
Lo que está en juego es mucho en cuanto el Pentágono quiere automatizar la toma de decisiones. La UE, el WEF y el Pentágono pueden estar alarmados por la ética de la IA, pero en realidad son los mismos problemas de siempre en technicolor, problemas nunca resueltos y que probablemente nunca lo serán.
Los problemas éticos siguen estando ahí desde Aristóteles. Si Newton y Einstein resolvieron la física, se espera que la IA resuelva la ética, pero laética es un problema diferente. Los humanos tomamos decisiones, instintivamente identificamos el bien y el mal en distintas cosas el mismo tiempo, los motivos tras una elección, el tipo de acción que hacemos y sus consecuencias. La IA actual se centra en una cosa al mismo tiempo, pero siempre se dejará algo fuera.
Entonces, si un sistema de IA está seguro de qué hacer cuando las buenas acciones conducen a un mal resultado, o cuando los malos motivos ayudan a las personas, deberíamos ser muy cautelosos: estaría ofreciendo claridad moral cuando realmente no hay ninguna.
Es concebible que la IA, en lugar de ser una causa de problemas morales, pueda ayudar a resolverlos. Al usar big data para anticipar el futuro y al ayudarnos a resolver lo que sucedería si todos siguieran ciertas reglas, la inteligencia artificial hace que la ética basada en reglas y consecuencias sea mucho más fácil. Aplicada cuidadosamente, la IA podría ayudar a responder algunos dilemas morales difíciles. En unos pocos años, el mejor consejo ético puede venir incluso de una aplicación en nuestros teléfonos.
Tanto el enfoque de la Comisión Europea como el del Pentágono dejan abierta esa posibilidad.
Sin embargo, no significaría que se hayan resuelto los profundos problemas éticos planteados por la ética artificial. Nunca se resolverán, porque no tienen una solución única y segura.
https://www.wearethemighty.com/military-culture/ai-guidelines-wont-solve-ethics
Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)
Comentarios
Publicar un comentario