Medir la confianza en la Inteligencia Artificial (IA)
https://scitechdaily.com/measuring-trust-in-artificial-intelligence-ai/
Los investigadores han descubierto que la confianza del público en la IA varía mucho de una aplicación a otra.
Investigadores de la Universidad de Tokio han estudiado las actitudes del público en general hacia la ética de la IA, impulsados por la creciente atención que la inteligencia artificial (IA) suscita en la sociedad. Sus hallazgos cuantifican cómo afectan a estas actitudes los diferentes escenarios demográficos y éticos. Como parte de esta investigación, el equipo desarrolló un indicador visual octogonal similar al sistema de calificación. Esto puede ser útil para los investigadores de IA que quieran saber cómo percibe su trabajo el público en general.
Muchos consideran que el rápido desarrollo de la tecnología suele superar el desarrollo de las estructuras sociales que la guían y regulan implícitamente, como el derecho y la ética. La IA, en particular, lo demuestra porque de la noche a la mañana impregna la vida cotidiana de muchas personas. Este auge, unido a la relativa complejidad de la IA en comparación con tecnologías más conocidas, puede crear miedo y desconfianza hacia este importante elemento de la vida moderna. ¿Quién desconfía de la IA y cuáles son las cuestiones que conviene conocer para los desarrolladores y reguladores de la tecnología de IA? Sin embargo, no es fácil cuantificar este tipo de cuestiones.
Gráfico del octógono de la IA
Un gráfico de ejemplo que muestra las valoraciones de los encuestados sobre ocho temas para cada uno de los cuatro escenarios éticos en diferentes aplicaciones de la IA. Crédito: © 2021 Yokoyama et al.
Investigadores de la Universidad de Tokio, dirigidos por el profesor Hiromi Yokoyama, del Instituto Kavli de Física y Matemáticas del Universo, se han propuesto cuantificar la actitud del público hacia las cuestiones éticas que rodean a la IA. En concreto, a través del análisis de la encuesta, se plantearon dos cuestiones: cómo cambiaban las actitudes en función del escenario presentado a los encuestados, y cómo cambiaban sus actitudes los propios datos demográficos de los encuestados.
Dado que la ética no puede cuantificarse realmente, el equipo adoptó ocho temas comunes a muchas aplicaciones de IA que planteaban cuestiones éticas para medir la actitud de la IA hacia la ética. Privacidad, responsabilidad, seguridad y protección, transparencia y responsabilidad, equidad e indiscriminación, gestión de la tecnología humana, responsabilidad profesional y promoción del valor humano. Estas, que el grupo llama "mediciones octogonales", se inspiraron en un documento de 2020 de la investigadora de Harvard Jessica Fierdo y su equipo.
Comentarios
Publicar un comentario