Compartir vía


Recomendaciones de protección para cargas de trabajo de IA en Azure

En este artículo se ofrecen recomendaciones de protección para organizaciones que ejecutan cargas de trabajo de IA en Azure. Se centra en las soluciones de plataforma como servicio (PaaS) de IA de Azure, incluidos Inteligencia artificial de Azure Studio, Azure OpenAI, Azure Machine Learning y Azure AI Services. Cubre cargas de trabajo de IA generativas y no generativas.

A medida que la IA se integra más en las operaciones empresariales, proteger estos recursos de posibles amenazas es crucial para mantener la integridad y el cumplimiento de los datos. Aplicar líneas de base de seguridad estandarizadas y seguir marcos bien diseñados ayuda a las organizaciones a salvaguardar su infraestructura de IA frente a las vulnerabilidades.

Proteger los recursos de IA

Asegurar los recursos de IA significa aplicar las líneas de base de seguridad y las mejores prácticas para proteger la infraestructura utilizada para las cargas de trabajo de IA en Azure. Esta protección minimiza los riesgos de amenazas externas y garantiza una postura de seguridad coherente en toda la organización.

Proteja las plataformas de IA de Azure. Estandarice la aplicación de las líneas de base de seguridad de Azure para cada recurso de IA. Siga las recomendaciones de seguridad de las guías de servicio de Azure dentro del marco bien diseñado de Azure.

Línea de base de seguridad de la plataforma Azure AI Guía de servicio de Marco de buena arquitectura de Azure
Azure Machine Learning Azure Machine Learning
Azure AI Studio
Azure OpenAI Azure OpenAI

Protección de los modelos de IA

La seguridad de los modelos de IA se refiere a la implementación de la protección frente a amenazas, la supervisión de los riesgos de inyección puntual, la verificación de la integridad de los modelos y la centralización de la gobernanza. Estas prácticas garantizan que los modelos de IA permanezcan a salvo de manipulaciones malintencionadas, mantengan su fiabilidad y proporcionen resultados precisos.

  • Implemente protección contra amenazas para todos los modelos de IA. Utilice Microsoft Defender for Cloud para proteger los modelos de IA frente a amenazas como los ataques de inyección puntual y la manipulación de modelos. Esta herramienta proporciona una supervisión continua de las cargas de trabajo de IA, ayudando a detectar y prevenir amenazas emergentes. La implementación de esta protección en todas las cargas de trabajo garantiza una postura de seguridad coherente en toda la organización.

  • Supervise los resultados y aplique un blindaje rápido. Inspeccione con regularidad los datos devueltos por los modelos de IA para detectar y mitigar los riesgos asociados a mensajes de usuario maliciosos o impredecibles. Implemente Prompt Shields para analizar el texto y detectar el riesgo de un ataque de entrada de usuario en los modelos generativos de IA.

  • Garantizar la verificación de los modelos. Establezca mecanismos de verificación en toda la empresa para garantizar que todos los modelos de IA en uso son legítimos y seguros. Si utiliza modelos de código abierto, utilice firmas de modelos u otros procesos de verificación para confirmar la autenticidad de los modelos de IA, evitando que se desplieguen modelos no autorizados o manipulados.

  • Considere el uso de una puerta de enlace de IA. Azure API Management (APIM) puede ayudar a garantizar una seguridad coherente en todas las cargas de trabajo de IA. Utilice sus políticas integradas para el control del tráfico y la aplicación de la seguridad. Integre APIM con Microsoft Entra ID para centralizar la autenticación y autorización y garantizar que solo los usuarios o aplicaciones autorizados interactúan con sus modelos de IA. Asegúrese de configurar el acceso con privilegios mínimos en la identidad administrada del proxy inverso. Para obtener más información, consulte Autenticación de IA con APIM

Proteger el acceso a la IA

Asegurar el acceso a la IA incluye establecer controles de autenticación y autorización tanto para el plano de administración como para el acceso externo a los recursos de IA. La administración adecuada del acceso restringe el uso de los recursos únicamente a los usuarios con permisos verificados. Reduce las posibilidades de interacciones no autorizadas con los modelos de IA. Los controles de acceso sólidos, como el acceso basado en funciones y las políticas de acceso condicional, ayudan a proteger los datos confidenciales y a mantener el cumplimiento de las normas de seguridad.

  • Organice los recursos y los controles de acceso. Utilice distintos espacios de trabajo para organizar y administrar artefactos de IA como conjuntos de datos, modelos y experimentos. Los espacios de trabajo centralizan la administración de recursos y simplifican el control de acceso. Por ejemplo, utilice proyectos dentro de Inteligencia artificial de Azure Studio para administrar los recursos y los permisos de forma eficaz, facilitando la colaboración al tiempo que se mantienen los límites de seguridad.

  • Use Microsoft Entra ID para la autenticación. Siempre que sea posible, elimine las claves API estáticas en favor de Microsoft Entra ID para la autenticación. Este paso mejora la seguridad mediante la administración centralizada de identidades y reduce la sobrecarga de administración de secretos. Limite también la distribución de claves API. En su lugar, prefiera identidades en Microsoft Entra ID en lugar de claves API para la autenticación. Audite la lista de personas con acceso a la clave de API para asegurarse de que está actualizada. Para obtener orientación sobre la autenticación, consulte Inteligencia artificial de Azure Studio, Azure OpenAI, Servicios de Azure AI, Azure Machine Learning.

  • Configure la autenticación. Habilite la autenticación multifactor (MFA) y prefiera las cuentas administrativas secundarias o el acceso justo a tiempo con Privileged Identity Management (PIM) para las cuentas sensibles. Limite el acceso al plano de control utilizando servicios como Azure Bastion como puntos de entrada seguros en redes privadas.

  • Utilice políticas de acceso condicional. Implemente políticas de acceso condicional basadas en riesgos que respondan a actividades de inicio de sesión inusuales o a comportamientos sospechosos. Utilice señales como la ubicación del usuario, el estado del dispositivo y el comportamiento de inicio de sesión para activar pasos de verificación adicionales. Exija MFA para acceder a los recursos críticos de IA con el fin de mejorar la seguridad. Restrinja el acceso a la infraestructura de IA en función de ubicaciones geográficas o rangos de IP de confianza. Asegúrese de que solo los dispositivos conformes (los que cumplen los requisitos de seguridad) pueden acceder a los recursos de IA.

  • Configure el acceso con menos privilegios. Configure el acceso con menos privilegios implementando el control de acceso basado en funciones (RBAC) para proporcionar un acceso mínimo a los datos y servicios. Asigne funciones a los usuarios y grupos en función de sus responsabilidades. Utilice Azure RBAC para ajustar el control de acceso a recursos específicos como máquinas virtuales y cuentas de almacenamiento. Asegúrese de que los usuarios solo tienen el nivel mínimo de acceso necesario para realizar sus tareas. Revise y ajuste periódicamente los permisos para evitar la acumulación de privilegios. Por ejemplo,

    Role Ejemplo de permisos
    Científicos de datos Acceso de lectura y escritura al almacenamiento de datos, permiso para ejecutar trabajos de formación y acceso a entornos de formación de modelos.
    Desarrolladores de IA Acceso a entornos de desarrollo, permisos de despliegue y capacidad para modificar aplicaciones de IA.
    Administradores de TI Acceso completo para administrar la infraestructura, las configuraciones de red y las políticas de seguridad.
  • Interacciones seguras entre servicios Azure. Utilice la identidad administrada para permitir que los servicios Azure se autentiquen entre sí sin necesidad de administrar credenciales.

  • Asegure el acceso externo a los puntos de conexión del modelo de IA. Exija a los clientes que se autentiquen utilizando Microsoft Entra ID cuando accedan a los puntos de conexión del modelo de IA. Considere el uso de Azure API Management como puerta de enlace de IA frente a los puntos de conexión del modelo de IA para aplicar políticas de acceso, controlar el uso y proporcionar capacidades de supervisión.

Ejecución segura de la IA

Proteger la ejecución de la IA implica salvaguardar los procesos mediante los cuales los agentes de IA, como los asistentes virtuales o los agentes autónomos, ejecutan código en respuesta a las solicitudes de los usuarios. Aísle los entornos de ejecución, realice revisiones del código y establezca límites de recursos. Estas medidas ayudan a garantizar que estas ejecuciones no comprometan la estabilidad o la seguridad del sistema. Estas prácticas evitan actividades maliciosas y protegen la integridad de los sistemas en los que operan los agentes de IA, permitiéndoles funcionar de forma fiable dentro de un marco seguro.

  • Implantar mecanismos de aislamiento. Utilice la administración dinámica de sesiones, como Dynamic Sessions en Azure Container Apps, para garantizar que cada ejecución de código se produce en un entorno fresco y aislado que se destruye después de su uso.

  • Asegure el código de ejecución. Realice revisiones y pruebas exhaustivas del código antes de desplegar secuencias de comandos para su ejecución por agentes de IA. Este proceso ayuda a identificar y mitigar posibles vulnerabilidades. Utilice sistemas de control de versiones para administrar los cambios en el código y garantizar que solo se ejecutan las versiones aprobadas de los scripts.

  • Establezca límites de recursos. Establezca límites de recursos (CPU, memoria, uso de disco) para los entornos de ejecución de código con el fin de evitar que una sola ejecución consuma recursos excesivos y pueda interrumpir otros servicios. Defina tiempos de espera de ejecución para garantizar que los procesos de larga duración o potencialmente atascados finalicen automáticamente.

Para obtener más información, consulte Cómo crear asistentes con Azure OpenAI Service , Cómo utilizar la llamada a funciones de Azure OpenAI Assistants e Implementación de agentes.

Paso siguiente