Directrices para el uso militar y no militar de la inteligencia artificial

https://www.europarl.europa.eu/news/en/press-room/20210114IPR95627/guidelines-for-military-and-non-military-use-of-artificial-intelligence

Uso militar y supervisión humana


Los eurodiputados subrayan que la dignidad humana y los derechos humanos deben respetarse en todas las actividades de la UE relacionadas con la defensa. Los sistemas habilitados por IA deben permitir que los humanos ejerzan un control significativo, para que puedan asumir la responsabilidad y la rendición de cuentas por su uso.


El uso de sistemas de armas autónomas letales (LAWS) plantea cuestiones éticas y legales fundamentales sobre el control humano, dicen los eurodiputados, reiterando su llamado a una estrategia de la UE para prohibirlos, así como la prohibición de los llamados "robots asesinos". La decisión de seleccionar un objetivo y realizar una acción letal utilizando un sistema de armas autónomo siempre debe ser tomada por un ser humano que ejerza un control y juicio significativos, de acuerdo con los principios de proporcionalidad y necesidad.


El texto pide a la UE que asuma un papel de liderazgo en la creación y promoción de un marco global que rija el uso militar de la IA, junto con la ONU y la comunidad internacional.


IA en el sector público


El mayor uso de los sistemas de inteligencia artificial en los servicios públicos, especialmente la atención médica y la justicia, no debería reemplazar el contacto humano ni conducir a la discriminación, afirman los eurodiputados. Siempre se debe informar a las personas si están sujetas a una decisión basada en la inteligencia artificial y se les debe dar la opción de apelarla.


Cuando la IA se utiliza en asuntos de salud pública (por ejemplo, cirugía asistida por robot, prótesis inteligentes, medicina predictiva), los datos personales de los pacientes deben protegerse y el principio de igualdad de trato debe mantenerse. Si bien el uso de tecnologías de inteligencia artificial en el sector de la justicia puede ayudar a acelerar los procedimientos y tomar decisiones más racionales, las decisiones judiciales finales deben ser tomadas por humanos, ser estrictamente verificadas por una persona y estar sujetas al debido proceso.


Vigilancia masiva y deepfakes


Los eurodiputados también advierten sobre las amenazas a los derechos humanos fundamentales y la soberanía estatal derivadas del uso de tecnologías de inteligencia artificial en la vigilancia civil y militar masiva. Piden que se prohíba a las autoridades públicas el uso de “aplicaciones de puntuación social altamente intrusivas” (para monitorear y calificar a los ciudadanos). El informe también plantea preocupaciones sobre las "tecnologías deepfake" que tienen el potencial de "desestabilizar países, difundir desinformación e influir en las elecciones". Los creadores deberían estar obligados a etiquetar ese material como "no original" y deberían realizarse más investigaciones sobre la tecnología para contrarrestar este fenómeno.



Cita


El relator Gilles Lebreton (ID, FR) dijo: “Ante los múltiples desafíos que plantea el desarrollo de la IA, necesitamos respuestas legales. Para preparar la propuesta legislativa de la Comisión sobre este tema, este informe tiene como objetivo poner en marcha un marco que esencialmente recuerda que, en cualquier ámbito, especialmente en el campo militar y en los gestionados por el Estado como la justicia y la salud, AI debe permanecer siempre una herramienta que se utiliza únicamente para ayudar en la toma de decisiones o para ayudar a la hora de actuar. Nunca debe reemplazar o relevar a los humanos de su responsabilidad ”.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social