Entradas

Mostrando las entradas etiquetadas como Armas Autónomas

Principios éticos para la inteligencia artificial en la defensa nacional

https://link.springer.com/article/10.1007/s13347-021-00482-3 Los organismos de defensa de todo el mundo consideran que la inteligencia artificial (IA) es una tecnología clave para mantener una ventaja sobre los adversarios. Por ello, los esfuerzos para desarrollar o adquirir capacidades de IA para la defensa están creciendo a escala mundial. Lamentablemente, no se han realizado esfuerzos para definir marcos éticos que guíen el uso de la IA en el ámbito de la defensa. Este artículo ofrece uno de esos marcos. Identifica cinco principios -usos justificados y anulables, sistemas y procesos justos y transparentes, responsabilidad moral del ser humano, control humano significativo y sistemas de IA fiables- y recomendaciones relacionadas para fomentar usos éticamente sólidos de la IA con fines de defensa nacional.

problemas de datos desconocidos conocidos y sistemas autónomos militares

https://unidir.org/known-unknowns Los caprichos de los datos son fundamentales para la debate entre los responsables de la formulación de políticas sobre los daños que pudieran derivarse del uso de autónomos sistemas de armas (AWS) y otras formas de militar inteligencia artificial (IA). Sin duda, ha sido postuló que los sistemas autónomos podrían exhibir un mejor desempeño en ciertas tareas que los medios o métodos tradicionales de guerra, lo que lleva a una reducción de algunos tipos de dañar. Pero debido a que los problemas de datos pueden resultar en fallas del sistema autónomo que podrían aumentar el daño, 1 Tales cuestiones son relevantes para las deliberaciones sobre si tales tecnologías podrían "realizar tareas según lo previsto o pueda ser utilizado de conformidad con [el derecho internacional humanitario] ”. 2 Los problemas de datos y las fallas que causan también son entrelazados con cualquier noción de directa o indirecta control o juicio humano, fundamental principio p...

Robots asesinos y su cumplimiento de los principios del derecho de la guerra

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3840427 Los robots ya no son ficticios como solían ser hace años. Los avances tecnológicos y los desarrollos en el desarrollo de la inteligencia artificial (IA) han permitido la innovación de robots que llevan a cabo diversas funciones. Entre ellas se encuentran las innovaciones robóticas destinadas a reemplazar a los soldados en los campos de batalla. Algunos estudiosos han argumentado que estos robots son más éticos y clínicos que los soldados humanos. Otros han argumentado que debería prohibirse el creciente nivel de autonomía en estos robots que conduce a la innovación de armas totalmente autónomas. Argumentan que la capacidad de estas armas para diferenciar entre civiles y combatientes y, por lo tanto, puede causar la muerte innecesaria de civiles. Este artículo analiza lo difícil que es que el algoritmo aplique el derecho de la guerra (derecho internacional humanitario) al analizar cómo los robots asesinos (también conocidos com...

Seis premisas sin examinar sobre inteligencia artificial y seguridad nacional

https://medium.com/@AINowInstitute/six-unexamined-premises-regarding-artificial-intelligence-and-national-security-eff9f06eea0 El 1 de marzo, la Comisión de Seguridad Nacional en Inteligencia Artificial (NSCAI) dio a conocer su Informe Final y Recomendaciones al Presidente y al Congreso. Si bien el Informe es el resultado de un período prolongado de discusión y consulta, las recomendaciones de la Comisión se basan en una serie de supuestos no examinados y muy cuestionables. 1. La seguridad nacional proviene de la ventaja militar, que proviene del dominio tecnológico (específicamente la IA). Los comisionados aconsejan que la adopción acelerada de sistemas de armas habilitados por IA es necesaria para mantener la ventaja militar de Estados Unidos. Prometen que la IA puede permitir el logro de un sistema de mando y control interoperable y totalmente integrado. Para la comunidad de inteligencia, el comisionado Jason Matheny afirma: "Los responsables de la toma de decisiones deberían p...

Directrices para el uso militar y no militar de la inteligencia artificial

https://www.europarl.europa.eu/news/en/press-room/20210114IPR95627/guidelines-for-military-and-non-military-use-of-artificial-intelligence Uso militar y supervisión humana Los eurodiputados subrayan que la dignidad humana y los derechos humanos deben respetarse en todas las actividades de la UE relacionadas con la defensa. Los sistemas habilitados por IA deben permitir que los humanos ejerzan un control significativo, para que puedan asumir la responsabilidad y la rendición de cuentas por su uso. El uso de sistemas de armas autónomas letales (LAWS) plantea cuestiones éticas y legales fundamentales sobre el control humano, dicen los eurodiputados, reiterando su llamado a una estrategia de la UE para prohibirlos, así como la prohibición de los llamados "robots asesinos". La decisión de seleccionar un objetivo y realizar una acción letal utilizando un sistema de armas autónomo siempre debe ser tomada por un ser humano que ejerza un control y juicio significativos, de acuerdo con...

El ejército entrena a la inteligencia artificial para identificar rostros en la oscuridad

https://spectrum.ieee.org/tech-talk/aerospace/military/army-trains-ai-to-identify-faces-in-the-dark El reconocimiento facial ya ha recorrido un largo camino desde que las Fuerzas de Operaciones Especiales de EE. UU. Utilizaron la tecnología para ayudar a identificar a Osama bin Laden después de matar al líder de Al-Qaeda en su escondite paquistaní en 2011. El Laboratorio de Investigación del Ejército de EE. UU. Reveló recientemente un conjunto de datos de rostros diseñados para ayudar Capacitar a la IA para identificar a las personas incluso en la oscuridad: una posible expansión de las capacidades de reconocimiento facial que, según advierten algunos expertos, podría llevar a una mayor vigilancia más allá del campo de batalla. El conjunto de datos de Cara Visible y Térmica del Laboratorio de Investigación del Ejército contiene 500.000 imágenes de 395 personas. A pesar de su tamaño modesto en lo que respecta a los conjuntos de datos de reconocimiento facial, es uno de los conjuntos de ...

Introducción a la ética en el uso de la IA en la guerra: Parte 1

 Los avances en la IA se han extendido al uso en aplicaciones de defensa y, con razón, hay muchas preocupaciones éticas que plantea. Si bien hay muchos documentos detallados disponibles que hablan sobre áreas específicas de preocupación en el uso de IA en aplicaciones de guerra, me gustaría brindar aquí una descripción general de esos problemas y hablar sobre algunas ideas básicas que lo ayudarán a discutir y abordar problemas en el espacio de una manera más informada. https://www.linkedin.com/pulse/introduction-ethics-use-ai-war-part-1-abhishek-gupta/

¿Quién supervisa los sistemas de inteligencia artificial?

 Después de que el gobierno holandés se derrumbara por el escándalo de las prestaciones para niños la semana pasada, la cuestión del control humano significativo sobre los sistemas de inteligencia artificial es ahora más urgente que nunca. El informático y Master en Ética y Tecnología Scott Robbins (1984) escribió su tesis doctoral sobre aprendizaje automático y contraterrorismo. Concluye que las decisiones que requieren una explicación (por qué dispararon a este hombre, por qué almacenan mis datos, por qué me acusan de fraude) no deben delegarse en máquinas impulsadas por IA. Esta idea fundamental sobre el "control humano significativo" va más allá de la guerra contra el terrorismo. ¿Por qué eligió el contraterrorismo como tema de estudio? “Quería un contexto donde el gol sea bueno. La lucha contra el terrorismo es un objetivo indudablemente bueno. No queremos que los terroristas hagan daño a personas inocentes. Entonces, a partir de este buen objetivo, quería intentar compr...

"Desarrollar sistemas autónomos de manera ética". Sistemas autónomos: problemas para los encargados de formular políticas de defensa

 Las armas y el equipo militares se benefician en gran medida de los avances tecnológicos. Estos avances han permitido a los combatientes atacar objetivos con mayor precisión y desde más lejos, lo que ha significado una mayor seguridad para las fuerzas militares y civiles y una capacidad mejorada para realizar las tareas asignadas. La última tecnología para mejorar la capacidad de los sistemas militares es la autonomía. Los sistemas militares están adquiriendo una mayor capacidad para realizar las tareas asignadas de forma autónoma, y ​​esta capacidad solo mejorará con el tiempo. La autonomía en los sistemas militares permite a los operadores humanos permanecer fuera de peligro y completar tareas que los sistemas tripulados no pueden (o completar estas tareas de manera más eficiente. Si la capacidad autónoma alcanza el potencial que muchos de sus partidarios creen que puede, esto cambiará radicalmente la forma en que Se llevan a cabo operaciones militares. Debido a que estos cambio...

LA INTELIGENCIA ARTIFICIAL Y EL PROBLEMA DE LA AUTONOMÍA

 Se dice de manera rutinaria que los sistemas de inteligencia artificial (IA) operan de manera autónoma, exponiendo brechas en los regímenes regulatorios que asumen la centralidad de los actores humanos. Sin embargo, sorprendentemente se presta poca atención a lo que se entiende por "autonomía" y su relación con esas brechas. Los vehículos sin conductor y los sistemas de armas autónomos son los ejemplos más estudiados, pero surgen problemas relacionados en los algoritmos que asignan recursos o determinan la elegibilidad para programas en el sector público o privado. Este artículo desarrolla una novedosa tipología de autonomía que distingue tres desafíos regulatorios discretos que plantean los sistemas de IA: las dificultades prácticas de gestionar el riesgo asociado con las nuevas tecnologías, la moralidad de que ciertas funciones sean asumidas por las máquinas y la brecha de legitimidad cuando las autoridades públicas delegan sus poderes a los algoritmos. https://ndlsjet.com...

¿Es la IA una fuerza para el bien? Entrevista con Branka Panic, fundadora y directora ejecutiva de AI For Peace

 Cada vez más, las organizaciones de muchas industrias y geografías están construyendo e implementando modelos de aprendizaje automático e incorporando inteligencia artificial en una variedad de sus diferentes productos y ofertas. Sin embargo, a medida que colocan capacidades de inteligencia artificial en los sistemas con los que interactuamos a diario, es cada vez más importante asegurarse de que estos sistemas se comporten de manera beneficiosa para el público. Al crear sistemas de IA, las organizaciones también deben considerar las implicaciones éticas y morales para asegurarse de que la IA se crea con buenas intenciones. Los formuladores de políticas que quieran comprender y aprovechar el potencial y el impacto de la IA deben adoptar una visión holística de los problemas. Esto incluye cosas como las intenciones detrás de los sistemas de IA, así como las posibles consecuencias y acciones no deseadas de los sistemas de IA. Este puede ser especialmente el caso de las aplicaciones ...

Rendición de cuentas y control sobre los sistemas de armas autónomos: un marco para la supervisión humana integral

Es un paper sobre la rendición de cuentas del diseño y resultados del uso de armas autónomas. https://link.springer.com/article/10.1007/s11023-020-09532-9 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La pregunta del millón de dólares del Pentágono: ¿Puede la IA predecir las emociones de un enemigo?

El brazo de investigación del Pentágono ha invertido $ 1 millón en un contrato para construir una herramienta de IA destinada a decodificar y predecir las emociones de aliados y enemigos. Incluso quiere que la aplicación AI aconseje a los generales sobre las principales decisiones militares. El respaldo de DARPA es la pistola inicial para una carrera con el gobierno y las nuevas empresas para usar la inteligencia artificial para predecir las emociones, pero la ciencia detrás de esto es profundamente controvertida. Algunos dicen que no está probado, lo que hace que las aplicaciones militares sean mucho más arriesgadas. https://www.forbes.com/sites/thomasbrewster/2020/07/15/the-pentagons-1-million-question-can-ai-predict-an-enemys-emotions/#5181360732b4 Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn).  Los artículos publicados son incluidos por su estimada relevancia y no expresan nece...

Los riesgos de usar IA en la defensa nacional

Extraordinaria charla de Mariarosaria Taddeo sobre la  naturaleza de la IA y los riesgos que comporta su uso en defensa. Habla sobre ciberseguridad. El resumen es que no se debe usar https://youtu.be/e6cvXffMYJs Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Revista Intligencia Artificial, num 48

https://revistaidees.cat/es/monografics/intelligencia-artificial/ Editorial IA: los interrogantes que nos interpelan Ramon López de Mántaras, Carles Sierra, Pere Almeda Políticas estratégicas de IA en la carrera geopolítica La estrategia política en IA en los Estados Unidos Peter Stone Políticas científicas de IA en China Yi Chang, Chengqi Zhang Retos éticos La IA en Catalunya, un ecosistema prometedor Karina Gibert El ecosistema de startups de IA en España Daniel Villatoro Israel: (AI) Startup Nation? Onn Shehory Impactos sociales y democráticos Reflexión sobre la «ética» en la ética de la IA Pak-Hang Wong, Judith Simon La singularidad tecnológica y el sueño transhumanista Miquel Casas Uso militar de la IA Algoritmos iliberales César Rendueles Las sociedades en la era de la automatización Lorena Jaume-Palasí La redefinición del poder Pompeu Casanovas Inteligencia Artificial en tiempos de pandemia Kristine Gloria ¿Inteligencias? ¡Las necesitamos todas! Javi Creus Desigualdad, economía ...

La Marina de EEUU va a desplegar submarinos autónomos con capacidad de matar

Se trata del proyecto CLAWS para desplegar submarinos autónomos no tripulados. Sus torpedos serán controlados por IA sin intervención humana. Stuart Russell considera CLAWS un "proyecto peligroso" https://thenextweb.com/neural/2020/03/10/the-us-navy-is-developing-ai-powered-submarines-that-could-kill-autonomously/ Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)