Un nuevo enfoque para mitigar el impacto negativo de la IA

https://hai.stanford.edu/news/new-approach-mitigating-ais-negative-impact?utm_source=twitter&utm_medium=social&utm_content=Stanford%20HAI_twitter_StanfordHAI_202107140821_sf147342673&utm_campaign=&sf147342673=1

Con demasiada frecuencia, comprendemos el impacto negativo de la inteligencia artificial después de su aplicación: una IA de contratación que rechaza los currículos de las mujeres, una IA de aprobación de préstamos que perjudica a las personas con bajos ingresos o tecnologías de reconocimiento facial racistas. ¿Qué pasaría si los investigadores actuaran sobre los posibles daños en una fase anterior del proceso?


Por primera vez en la Universidad de Stanford, un nuevo programa exige a los investigadores de IA que evalúen sus propuestas para detectar cualquier posible impacto negativo en la sociedad antes de recibir luz verde para su financiación.


La Revisión de la Ética y la Sociedad (ESR) exige a los investigadores que buscan financiación del Instituto de Inteligencia Artificial Centrada en el Ser Humano (HAI) de Stanford que consideren cómo sus propuestas pueden plantear riesgos éticos y sociales negativos, que presenten métodos para reducir esos riesgos y, si es necesario, que colaboren con un grupo interdisciplinario de profesores para garantizar que se aborden esas preocupaciones antes de recibir la financiación.


Lea el documento completo, "ESR: Ethics and Society Review of Artificial Intelligence Research" 


 


El objetivo, dice Michael Bernstein, profesor asociado de ciencias de la computación y codirector del proyecto, es animar a los investigadores de la IA a considerar cuidadosamente el impacto social de su trabajo y minimizar los riesgos en las fases iniciales del proceso de investigación. A pesar de que la IA sigue estando implicada en males sociales que van desde la propagación de la desinformación hasta la desigualdad de resultados en la aplicación de la ley y la atención sanitaria, todavía hay pocos recursos para ayudar en este sentido; la investigación en IA a menudo queda fuera del ámbito de las entidades existentes, como la Junta de Revisión Institucional, que está diseñada para evaluar el daño a los individuos, y no a la sociedad.


"A diferencia de otras profesiones, como el derecho y la medicina, que tienen un historial de procesos institucionales para considerar cuestiones éticas, la informática no tiene realmente una respuesta institucional fuerte; carece de cualquier tipo de revisión ética o social ampliamente aplicada", dice Bernstein. "Así que, ¿cómo conseguimos que la gente se comprometa con esto? La principal idea de la ESR fue que tenemos un punto de influencia, que es cuando los investigadores solicitan financiación interna. Nuestra idea fue trabajar con el donante para que la financiación no se libere hasta que los equipos hayan completado una revisión ética y social".

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social