Operar uma solução de IA generativa responsável
Depois de identificar danos potenciais, desenvolver uma maneira de medir sua presença e implementar mitigações para eles em sua solução, você pode se preparar para lançar sua solução. Antes de fazer isso, há algumas considerações que ajudam a garantir uma liberação bem-sucedida e operações subsequentes.
Revisões completas de pré-lançamento
Antes de lançar uma solução de IA generativa, identifique os vários requisitos de conformidade em sua organização e setor e garanta que as equipes apropriadas tenham a oportunidade de revisar o sistema e sua documentação. As revisões comuns de conformidade incluem:
- Legal
- Privacidade
- Segurança
- Acessibilidade
Liberar e operar a solução
Um lançamento bem-sucedido requer algum planejamento e preparação. Tenha em consideração as seguintes orientações:
- Elabore um plano de entrega em fases que permita liberar a solução inicialmente para um grupo restrito de usuários. Essa abordagem permite que você colete feedback e identifique problemas antes de liberar para um público mais amplo.
- Crie um plano de resposta a incidentes que inclua estimativas do tempo necessário para responder a incidentes imprevistos.
- Crie um plano de reversão que defina as etapas para reverter a solução para um estado anterior se ocorrer um incidente.
- Implemente a capacidade de bloquear imediatamente respostas prejudiciais do sistema quando forem descobertas.
- Implemente um recurso para bloquear usuários, aplicativos ou endereços IP de clientes específicos em caso de uso indevido do sistema.
- Implemente uma maneira para os usuários fornecerem feedback e relatarem problemas. Em particular, permitir que os usuários denunciem o conteúdo gerado como "impreciso", "incompleto", "prejudicial", "ofensivo" ou de outra forma problemático.
- Rastreie dados de telemetria que permitem determinar a satisfação do usuário e identificar lacunas funcionais ou desafios de usabilidade. A telemetria coletada deve estar em conformidade com as leis de privacidade e as políticas e compromissos da sua própria organização com a privacidade do usuário.
Utilize a Segurança de Conteúdo do Azure AI
Vários recursos de IA do Azure fornecem análise interna do conteúdo com o qual trabalham, incluindo Linguagem, Visão e Azure OpenAI usando filtros de conteúdo.
A Segurança de Conteúdo da IA do Azure fornece mais recursos com foco em manter a IA e os copilots protegidos contra riscos. Esses recursos incluem a deteção de linguagem inadequada ou ofensiva, tanto de entrada quanto gerada, e a deteção de entradas arriscadas ou inadequadas.
Os recursos do Azure AI Content Safety incluem:
Caraterística | Caraterística |
---|---|
Proteções rápidas | Verifica o risco de ataques de entrada do usuário em modelos de idioma |
Deteção de aterramento | Deteta se as respostas de texto estão fundamentadas no conteúdo de origem de um usuário |
Deteção de material protegido | Verifica se há conteúdo protegido por direitos autorais conhecido |
Categorias personalizadas | Definir categorias personalizadas para quaisquer padrões novos ou emergentes |
Detalhes e inícios rápidos para usar o Azure AI Content Safety podem ser encontrados nas páginas de documentação do serviço.