Dando luz verde al ML: confidencialidad, integridad y disponibilidad de los sistemas de aprendizaje automático en la implementación

La seguridad y la ética son fundamentales para garantizar que se pueda confiar en un sistema de aprendizaje automático. En el aprendizaje automático de producción, generalmente hay una transferencia de quienes crean un modelo a quienes implementan el modelo. En este traspaso, los ingenieros responsables del despliegue del modelo a menudo no conocen los detalles del modelo y, por lo tanto, las vulnerabilidades potenciales asociadas con su uso, exposición o compromiso.

Las técnicas como el robo de modelos, la inversión de modelos o el mal uso de modelos pueden no considerarse en la implementación de modelos, por lo que corresponde a los científicos de datos y a los ingenieros de aprendizaje automático comprender estos riesgos potenciales para que puedan comunicarlos a los ingenieros que implementan y alojan sus modelos. . Este es un problema abierto en la comunidad de aprendizaje automático y para ayudar a aliviar este problema, se deben desarrollar sistemas automatizados para validar la privacidad y la seguridad de los modelos, lo que ayudará a reducir la carga de implementar estas transferencias y aumentar la ubicuidad de su adopción.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje