Operación de una solución de inteligencia artificial generativa responsable
Una vez que identifique posibles daños, desarrolle una manera de medir su presencia e implemente mitigaciones para ellos en la solución, puede prepararse para liberar la solución. Antes de hacerlo, hay algunas consideraciones que lo ayudarán a garantizar una publicación correcta y las operaciones posteriores.
Realización de revisiones previas a la publicación
Antes de publicar una solución de IA generativa, identifique los distintos requisitos de cumplimiento de la organización y del sector y asegúrese de que los equipos adecuados tienen la oportunidad de revisar el sistema y su documentación. Las revisiones de cumplimiento comunes incluyen:
- Información legal
- Privacidad
- Seguridad
- Accesibilidad
Liberar y operar la solución
Una publicación correcta requiere cierto planeamiento y preparación. Tenga en cuenta las directrices siguientes:
- Diseñar un plan de entrega por fases que le permite publicar la solución inicialmente para un grupo restringido de usuarios. Con este enfoque, puede recopilar comentarios e identificar problemas antes de publicarlos para un público más amplio.
- Cree un plan de respuesta a incidentes que incluya estimaciones del tiempo necesario para responder a incidentes imprevistos.
- Cree un plan de reversión que defina los pasos para revertir la solución a un estado anterior si se produce un incidente.
- Implemente la capacidad de bloquear inmediatamente las respuestas dañinas del sistema cuando se detecten.
- Implemente una capacidad para bloquear aplicaciones, direcciones IP de cliente o usuarios específicos en caso de uso incorrecto del sistema.
- Implemente una manera para que los usuarios proporcionen comentarios e informen los problemas. En concreto, permita que los usuarios notifiquen contenido generado como "inexacto", "incompleto", "dañino", "ofensivo" o problemático de algún otro modo.
- Haga un seguimiento de los datos de telemetría que le permiten determinar la satisfacción del usuario e identificar brechas funcionales o desafíos de facilidad de uso. La telemetría recopilada debe cumplir con las leyes de privacidad y las directivas y compromisos de su propia organización respecto de la privacidad del usuario.
Uso de la seguridad del contenido de Azure AI
Varios recursos de Azure AI proporcionan análisis integrados del contenido con el que trabajan, incluidos Language, Vision y Azure OpenAI mediante filtros de contenido.
Azure AI Content Safety proporciona más funciones centradas en mantener la IA y los copilotos a salvo de riesgos. Estas características incluyen detectar lenguajes inapropiados u ofensivos, tanto de entrada como generados, y de detección de entradas de riesgo o inapropiadas.
Entre las características de la seguridad del contenido de Azure AI se incluyen las siguientes:
Característica | Funcionalidad |
---|---|
Escudos de indicaciones | Examina el riesgo de ataques de entrada de usuario en modelos de lenguaje |
Detección de la base de datos | Detecta si las respuestas de texto se basan en el contenido de origen de un usuario. |
Detección de material protegido | Examina el contenido conocido con derechos de autor |
Categorías personalizadas | Definir categorías personalizadas para cualquier patrón nuevo o emergente |
Puede encontrar detalles e inicios rápidos para usar la seguridad del contenido de Azure AI en las páginas de documentación para el servicio.