Dando luz verde al ML: confidencialidad, integridad y disponibilidad de los sistemas de aprendizaje automático en la implementación

La seguridad y la ética son fundamentales para garantizar que se pueda confiar en un sistema de aprendizaje automático. En el aprendizaje automático de producción, generalmente hay una transferencia de quienes crean un modelo a quienes implementan el modelo. En este traspaso, los ingenieros responsables del despliegue del modelo a menudo no conocen los detalles del modelo y, por lo tanto, las vulnerabilidades potenciales asociadas con su uso, exposición o compromiso.
Las técnicas como el robo de modelos, la inversión de modelos o el mal uso de modelos pueden no considerarse en la implementación de modelos, por lo que corresponde a los científicos de datos y a los ingenieros de aprendizaje automático comprender estos riesgos potenciales para que puedan comunicarlos a los ingenieros que implementan y alojan sus modelos. . Este es un problema abierto en la comunidad de aprendizaje automático y para ayudar a aliviar este problema, se deben desarrollar sistemas automatizados para validar la privacidad y la seguridad de los modelos, lo que ayudará a reducir la carga de implementar estas transferencias y aumentar la ubicuidad de su adopción.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: