Directivas de seguridad de contenido predeterminadas
Azure OpenAI Service incluye directivas de seguridad predeterminadas aplicadas a todos los modelos, excepto Azure OpenAI Whisper. Estas configuraciones proporcionan una experiencia responsable de forma predeterminada, incluidos los modelos de filtrado de contenido, las listas de bloqueo, la transformación de mensajes, las credenciales de contenido y otras.
La seguridad predeterminada tiene como objetivo mitigar los riesgos en diferentes categorías, como el odio y la imparcialidad, la violencia, el autolesión, el contenido material protegido y los ataques por inyección de mensajes de usuario. Para obtener más información sobre el filtrado de contenido, visite nuestra documentación que describe categorías y niveles de gravedad.
Todas las directivas de seguridad son configurables. Para obtener más información sobre la capacidad de configuración, consulte la documentación sobre configuración del filtrado de contenido.
Modelos de texto
Los modelos de texto del servicio Azure OpenAI pueden tomar y generar texto y código. Estos modelos aprovechan los filtros de contenido de texto de Azure para detectar y evitar contenidos dañinos. Este sistema funciona tanto en solicitudes como en finalizaciones.
Categoría de riesgo | Solicitud o finalización | Umbral de gravedad |
---|---|---|
Odio y equidad | Indicaciones y finalizaciones | Media |
Violencia | Indicaciones y finalizaciones | Media |
Sexual | Indicaciones y finalizaciones | Media |
Autolesiones | Indicaciones y finalizaciones | Media |
Ataque por inyección de indicaciones de usuario (liberar) | Mensajes | N/D |
Material protegido: texto | Finalizaciones | N/D |
Material protegido: código | Finalizaciones | N/D |
Modelos de visión
Modelos de chat habilitados para Visión
Categoría de riesgo | Solicitud o finalización | Umbral de gravedad |
---|---|---|
Odio y equidad | Indicaciones y finalizaciones | Media |
Violencia | Indicaciones y finalizaciones | Media |
Sexual | Indicaciones y finalizaciones | Media |
Autolesiones | Indicaciones y finalizaciones | Media |
Identificación de individuos e inferencia de atributos confidenciales | Mensajes | N/D |
Ataque por inyección de indicaciones de usuario (liberar) | Mensajes | N/D |
Modelos de generación de imágenes
Categoría de riesgo | Solicitud o finalización | Umbral de gravedad |
---|---|---|
Odio y equidad | Indicaciones y finalizaciones | Bajo |
Violencia | Indicaciones y finalizaciones | Bajo |
Sexual | Indicaciones y finalizaciones | Bajo |
Autolesiones | Indicaciones y finalizaciones | Bajo |
Credenciales de contenido | Finalizaciones | N/D |
Generación engañosa de candidatos políticos | Mensajes | N/D |
Representaciones de figuras públicas | Mensajes | N/D |
Ataque por inyección de indicaciones de usuario (liberar) | Mensajes | N/D |
Material protegido: personajes de Arte y Estudios | Mensajes | N/D |
Palabras soeces | Mensajes | N/D |
Además de las configuraciones de seguridad anteriores, Azure OpenAI DALL-E también incluye la transformación de indicaciones de forma predeterminada. Esta transformación se produce en todas las indicaciones para mejorar la seguridad de su indicación original, específicamente en las categorías de riesgo de diversidad, generación engañosa de candidatos políticos, representaciones de figuras públicas, material protegido y otros.