¿Quién supervisa los sistemas de inteligencia artificial?

 Después de que el gobierno holandés se derrumbara por el escándalo de las prestaciones para niños la semana pasada, la cuestión del control humano significativo sobre los sistemas de inteligencia artificial es ahora más urgente que nunca.

El informático y Master en Ética y Tecnología Scott Robbins (1984) escribió su tesis doctoral sobre aprendizaje automático y contraterrorismo. Concluye que las decisiones que requieren una explicación (por qué dispararon a este hombre, por qué almacenan mis datos, por qué me acusan de fraude) no deben delegarse en máquinas impulsadas por IA. Esta idea fundamental sobre el "control humano significativo" va más allá de la guerra contra el terrorismo.

¿Por qué eligió el contraterrorismo como tema de estudio?

“Quería un contexto donde el gol sea bueno. La lucha contra el terrorismo es un objetivo indudablemente bueno. No queremos que los terroristas hagan daño a personas inocentes. Entonces, a partir de este buen objetivo, quería intentar comprender en qué condiciones el estado puede usar la inteligencia artificial para lograr ese objetivo de una manera que sea efectiva y ética ”.

Escribe que el uso del aprendizaje automático en la lucha contra el terrorismo está aumentando. ¿Podría darme algunos ejemplos de lo que estamos hablando?

“El ejemplo más destacado son los sistemas de armas autónomos en los que los sistemas de armas pueden disparar a un objetivo o disparar automáticamente a lo que el sistema percibe como un enemigo. Mucho de esto se debe a la inteligencia artificial en segundo plano, como el reconocimiento facial. Un ejemplo más benigno que en realidad se emplea de manera bastante extensa es el de las fronteras o los aeropuertos. Si cruza a un nuevo país oa la Unión Europea, es probable que se le someta a un sistema de reconocimiento facial que lo coteja con la base de datos de terroristas conocidos o sospechosos. Parece ser parte de un sistema más amplio de control fronterizo en el que también es posible que desee verificar si su rostro coincide con la foto de su pasaporte, cosas así. Hay un ejemplo interesante en el que se implementa la IA para detectar a alguien que actúa de manera sospechosa. Lleve las cámaras CCTV a un aeropuerto. Tienen de todo, desde detectar a alguien dejando una bolsa, verse nerviosos o holgazanear en un área en la que tal vez no deberían estar parados. Estos sistemas están emitiendo juicios todo el tiempo ".

https://www.delta.tudelft.nl/article/who-oversees-artificial-intelligence-systems

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social