La pregunta del millón de dólares del Pentágono: ¿Puede la IA predecir las emociones de un enemigo?

El brazo de investigación del Pentágono ha invertido $ 1 millón en un contrato para construir una herramienta de IA destinada a decodificar y predecir las emociones de aliados y enemigos. Incluso quiere que la aplicación AI aconseje a los generales sobre las principales decisiones militares. El respaldo de DARPA es la pistola inicial para una carrera con el gobierno y las nuevas empresas para usar la inteligencia artificial para predecir las emociones, pero la ciencia detrás de esto es profundamente controvertida. Algunos dicen que no está probado, lo que hace que las aplicaciones militares sean mucho más arriesgadas.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social