Necesitamos diseñar la desconfianza en los sistemas de IA para hacerlos más seguros

https://www.technologyreview.com/2021/05/13/1024874/ai-ayanna-howard-trust-robots/

Me he dado cuenta de que utiliza el término "inteligencia humanizada" para describir su investigación, en lugar de "inteligencia artificial". ¿A qué se debe?

Sí, empecé a utilizarlo en un artículo en 2004. Pensaba en por qué trabajamos en la inteligencia de los sistemas de robótica e IA. No es que queramos crear estas características inteligentes fuera de nuestras interacciones con las personas. Nos motiva la experiencia humana, los datos humanos, las aportaciones humanas. "Inteligencia artificial" implica que es un tipo diferente de inteligencia, mientras que "inteligencia humanizada" dice que es inteligente pero motivada por la construcción humana. Y eso significa que cuando creamos estos sistemas, también nos aseguramos de que tengan algunos de nuestros valores sociales.


¿Cómo se metió en este trabajo?

La motivación principal fue mi investigación de doctorado. Por aquel entonces, trabajaba en el entrenamiento de un robot manipulador para eliminar peligros en un hospital. Esto fue en los días en que no había esos lugares seguros para poner las agujas. Las agujas se tiraban a la misma basura que todo lo demás, y había casos en los que los trabajadores del hospital enfermaban. Así que estaba pensando: ¿Cómo diseñar robots para ayudar en ese entorno?


Así que, desde el principio, se trataba de construir robots que fueran útiles para la gente. Y se trataba de reconocer que no sabíamos cómo construir robots que hicieran muy bien algunas de estas tareas. Pero la gente las hace todo el tiempo, así que vamos a imitar cómo lo hace la gente. Así es como empezó.


Luego estuve trabajando con la NASA y tratando de pensar en la futura navegación de los vehículos en Marte. Y de nuevo, fue como: Los científicos pueden hacer esto muy, muy bien. Así que tenía a los científicos tele-operando estos rovers y mirando lo que estaban viendo en las cámaras de estos rovers, a continuación, tratar de correlacionar la forma de conducir en base a eso. Ese fue siempre el tema: ¿Por qué no acudir a los expertos humanos, codificar lo que hacen en un algoritmo y luego hacer que el robot lo entienda?


¿Había otras personas que pensaban y hablaban de la IA y la robótica de esta forma centrada en el ser humano? ¿O era usted un extraño fuera de serie?

Oh, yo era una persona totalmente atípica. Veía las cosas de forma diferente a los demás. Y por aquel entonces no había ninguna guía sobre cómo hacer este tipo de investigación. De hecho, cuando miro hacia atrás y veo cómo hice la investigación, lo haría totalmente diferente. Hay toda esta experiencia y conocimiento que ha surgido desde entonces en el campo.



*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social