¿Capaz pero amoral? Comparación de la colaboración entre la IA y los expertos humanos en la toma de decisiones éticas
Aunque la inteligencia artificial (IA) se aplica cada vez más en los procesos de toma de decisiones, las decisiones éticas plantean desafíos para las aplicaciones de la IA. Dado que los humanos no siempre pueden ponerse de acuerdo sobre lo que hay que hacer, ¿cómo se percibiría la toma de decisiones éticas por parte de los sistemas de IA y cómo se atribuiría la responsabilidad en la colaboración entre humanos e IA? En este estudio, investigamos cómo el tipo de experto (humano frente a IA) y el nivel de autonomía del experto (asesor frente a decisor) influyen en la confianza, la responsabilidad percibida y la fiabilidad. Descubrimos que los participantes consideran que los humanos son moralmente más dignos de confianza pero menos capaces que su equivalente en IA. Esto se refleja en la confianza de los participantes en la IA: las recomendaciones y decisiones de la IA se aceptan con más frecuencia que las del experto humano. Sin embargo, los expertos de los equipos de IA son percibidos como menos responsables que los humanos, mientras que los programadores y vendedores de sistemas de IA son considerados parcialmente responsables en cambio.
Comentarios
Publicar un comentario