Evaluación de la seguridad de los Servicios de IA

Completado

En esta unidad se presenta un resumen de las recomendaciones del Marco de buena arquitectura para proteger Azure Open AI

Para más información, consulte Perspectiva del Marco de buena arquitectura en Azure OpenAI Service

El propósito del pilar seguridad es proporcionar garantías de confidencialidad, integridad y disponibilidad a la carga de trabajo.

Los principios de diseño de Seguridad proporcionan una estrategia de diseño de alto nivel para lograr esos objetivos al aplicar enfoques al diseño técnico en torno a Azure OpenAI.

Diseño de una lista de comprobación

Inicie la estrategia de diseño en función de la lista de comprobación de revisión de diseño de seguridad e identifique vulnerabilidades y controles para mejorar la posición de seguridad. A continuación, revise la línea de base de seguridad de Azure para Azure OpenAI. Por último, amplíe la estrategia para incluir más enfoques según sea necesario.

  • Protección de la confidencialidad: Si carga datos de entrenamiento en Azure OpenAI, use claves administradas por el cliente para el cifrado de datos, implemente una estrategia de rotación de claves y elimine los datos de entrenamiento, validación y resultados de entrenamiento. Si usa un almacén de datos externo para los datos de entrenamiento, siga los procedimientos recomendados de seguridad para ese almacén. Por ejemplo, para Azure Blob Storage, use claves administradas por el cliente para el cifrado e implemente una estrategia de rotación de claves. Use el acceso basado en identidad administrada, implemente un perímetro de red mediante puntos de conexión privados y habilite los registros de acceso.

  • Protección de la confidencialidad: Proteja contra la filtración de datos limitando las direcciones URL de salida a las que pueden acceder los recursos de Azure OpenAI.

  • Proteger la integridad: Implemente controles de acceso para autenticar y autorizar el acceso de usuario al sistema mediante el principio de privilegios mínimos y mediante identidades individuales en lugar de claves.

  • Proteger la integridad: Implemente la detección de riesgo de jailbreak para proteger las implementaciones de modelo de lenguaje frente a ataques de inyección de indicaciones.

  • Protección de la disponibilidad: Use controles de seguridad para evitar ataques que podrían agotar las cuotas de uso del modelo. Puede configurar controles para aislar el servicio en una red. Si el servicio debe ser accesible desde Internet, puede usar una puerta de enlace para bloquear un abuso sospechoso mediante el enrutamiento o la limitación.

Recomendaciones

Recomendación Prestación
Claves seguras: Si la arquitectura requiere la autenticación basada en claves de Azure OpenAI, almacene esas claves en Azure Key Vault, no en el código de la aplicación. La separación de secretos del código almacenándolas en Key Vault reduce la posibilidad de filtrar secretos. La separación también facilita la administración central de secretos, lo que acelera las responsabilidades como la rotación de claves.
Restricción del acceso: Deshabilitar el acceso público a Azure OpenAI a menos que la carga de trabajo lo requiera. Cree puntos de conexión privados si se conecta desde consumidores de una red virtual de Azure. Controlar el acceso a Azure OpenAI ayuda a evitar ataques de usuarios no autorizados. El uso de puntos de conexión privados garantiza que el tráfico de red permanezca privado entre la aplicación y la plataforma.
Microsoft Entra ID: Use Microsoft Entra ID para la autenticación y para autorizar el acceso a Azure OpenAI mediante el control de acceso basado en rol (RBAC). Deshabilitar la autenticación local en Servicios de Azure AI y establecer disableLocalAuth en true. Conceda identidades que realicen finalizaciones o generación de imágenes en el rol de usuario OpenAI de Cognitive Services. Conceda a las canalizaciones de automatización de modelos y a ciencia de datos ad hoc acceso a un rol como colaborador de OpenAI de Cognitive Services. El uso de Microsoft Entra ID centraliza el componente de administración de identidades y elimina el uso de claves de API. El uso de RBAC con Microsoft Entra ID garantiza que los usuarios o grupos tengan exactamente los permisos que necesitan para realizar su trabajo. Este tipo de control de acceso específico no es posible con claves de API de Azure OpenAI.
Uso de claves administradas por el cliente: Uso de claves administradas por el cliente para modelos optimizados y datos de entrenamiento cargados en Azure OpenAI. El uso de claves administradas por el cliente ofrece mayor flexibilidad para crear, rotar, deshabilitar y revocar controles de acceso.
Protección contra ataques de jailbreak: Use Seguridad del contenido de Azure AI para detectar riesgos de jailbreak. Detecte intentos de jailbreak para identificar y bloquear indicaciones que intentan eludir los mecanismos de seguridad de las implementaciones de Azure OpenAI.