Confiar en la inteligencia artificial en ciberseguridad es un arma de doble filo

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3831285

Las aplicaciones de la inteligencia artificial (IA) para tareas de ciberseguridad están atrayendo una mayor atención de los sectores privado y público. Las estimaciones indican que el mercado de la IA en ciberseguridad crecerá de 1.000 millones de dólares en 2016 a un valor neto de 34.800 millones de dólares en 2025. Las últimas estrategias nacionales de ciberseguridad y defensa de varios gobiernos mencionan explícitamente las capacidades de la IA. Al mismo tiempo, están surgiendo a escala mundial iniciativas para definir nuevas normas y procedimientos de certificación para suscitar la confianza de los usuarios en la IA. Sin embargo, la confianza en la IA (tanto en el aprendizaje automático como en las redes neuronales) para realizar tareas de ciberseguridad es un arma de doble filo: puede mejorar sustancialmente las prácticas de ciberseguridad, pero también puede facilitar nuevas formas de ataque a las propias aplicaciones de IA, que pueden suponer graves amenazas para la seguridad. Sostenemos que la confianza en la IA para la ciberseguridad no está justificada y que, para reducir los riesgos de seguridad, es necesario algún tipo de control que garantice el despliegue de una "IA fiable" para la ciberseguridad. Para ello, ofrecemos tres recomendaciones centradas en el diseño, el desarrollo y el despliegue de la IA para la ciberseguridad.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social