Necesitamos diseñar la desconfianza en los sistemas de IA para hacerlos más seguros

https://www.technologyreview.com/2021/05/13/1024874/ai-ayanna-howard-trust-robots/

He notado que utiliza el término "inteligencia humanizada" para describir su investigación, en lugar de "inteligencia artificial". ¿Porqué es eso?

Sí, comencé a usar eso en un artículo en 2004. Estaba pensando en por qué trabajamos en inteligencia para robótica y sistemas de inteligencia artificial. No es que queramos crear estas funciones inteligentes fuera de nuestras interacciones con las personas. Estamos motivados por la experiencia humana, los datos humanos, las aportaciones humanas. La "inteligencia artificial" implica que es un tipo diferente de inteligencia, mientras que la "inteligencia humanizada" dice que es inteligente pero está motivada por la construcción humana. Y eso significa que cuando creamos estos sistemas, también nos aseguramos de que tengan algunos de nuestros valores sociales.


¿Cómo llegaste a este trabajo?

Fue principalmente motivado por mi investigación de doctorado. En ese momento, estaba trabajando en la formación de un robot manipulador para eliminar los peligros en un hospital. Esto fue en los días en que no tenías esos lugares agradables y seguros para colocar agujas. Las agujas se arrojaron a la misma basura que todo lo demás, y hubo casos en los que los trabajadores del hospital se enfermaron. Entonces estaba pensando en: ¿Cómo se diseñan robots para ayudar en ese entorno?


Así que, desde el principio, se trataba de construir robots que fueran útiles para las personas. Y fue reconocer que no sabíamos cómo construir robots para hacer muy bien algunas de estas tareas. Pero la gente los hace todo el tiempo, así que imitemos cómo lo hace la gente. Así es como empezó.


Luego estuve trabajando con la NASA y tratando de pensar en la futura navegación del rover de Marte. Y nuevamente, fue como: Los científicos pueden hacer esto muy, muy bien. Entonces, haría que los científicos teleoperaran estos rovers y miraran lo que estaban viendo en las cámaras de estos rovers, y luego tratarían de correlacionar cómo conducen en función de eso. Ese fue siempre el tema: ¿Por qué no voy a los expertos humanos, codifico lo que están haciendo en un algoritmo y luego hago que el robot lo entienda?


¿Estaban otras personas pensando y hablando sobre la inteligencia artificial y la robótica de esta manera centrada en el ser humano en ese entonces? ¿O eras un extraño atípico?

Oh, yo era un caso atípico totalmente extraño. Veía las cosas de manera diferente a todos los demás. Y en ese entonces no había una guía sobre cómo hacer este tipo de investigación. De hecho, cuando miro hacia atrás para ver cómo hice la investigación, lo haría de manera totalmente diferente. Existe toda esta experiencia y conocimiento que desde entonces ha surgido en el campo.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social