Operar uma solução de IA generativa responsável

Concluído

Depois de identificar danos potenciais, desenvolver uma maneira de medir sua presença e implementar mitigações para eles em sua solução, você pode se preparar para lançar sua solução. Antes de fazer isso, há algumas considerações que ajudam a garantir uma liberação bem-sucedida e operações subsequentes.

Revisões completas de pré-lançamento

Antes de lançar uma solução de IA generativa, identifique os vários requisitos de conformidade em sua organização e setor e garanta que as equipes apropriadas tenham a oportunidade de revisar o sistema e sua documentação. As revisões comuns de conformidade incluem:

  • Legal
  • Privacidade
  • Segurança
  • Acessibilidade

Liberar e operar a solução

Um lançamento bem-sucedido requer algum planejamento e preparação. Tenha em consideração as seguintes orientações:

  • Elabore um plano de entrega em fases que permita liberar a solução inicialmente para um grupo restrito de usuários. Essa abordagem permite que você colete feedback e identifique problemas antes de liberar para um público mais amplo.
  • Crie um plano de resposta a incidentes que inclua estimativas do tempo necessário para responder a incidentes imprevistos.
  • Crie um plano de reversão que defina as etapas para reverter a solução para um estado anterior se ocorrer um incidente.
  • Implemente a capacidade de bloquear imediatamente respostas prejudiciais do sistema quando forem descobertas.
  • Implemente um recurso para bloquear usuários, aplicativos ou endereços IP de clientes específicos em caso de uso indevido do sistema.
  • Implemente uma maneira para os usuários fornecerem feedback e relatarem problemas. Em particular, permitir que os usuários denunciem o conteúdo gerado como "impreciso", "incompleto", "prejudicial", "ofensivo" ou de outra forma problemático.
  • Rastreie dados de telemetria que permitem determinar a satisfação do usuário e identificar lacunas funcionais ou desafios de usabilidade. A telemetria coletada deve estar em conformidade com as leis de privacidade e as políticas e compromissos da sua própria organização com a privacidade do usuário.

Utilize a Segurança de Conteúdo do Azure AI

Vários recursos de IA do Azure fornecem análise interna do conteúdo com o qual trabalham, incluindo Linguagem, Visão e Azure OpenAI usando filtros de conteúdo.

A Segurança de Conteúdo da IA do Azure fornece mais recursos com foco em manter a IA e os copilots protegidos contra riscos. Esses recursos incluem a deteção de linguagem inadequada ou ofensiva, tanto de entrada quanto gerada, e a deteção de entradas arriscadas ou inadequadas.

Os recursos do Azure AI Content Safety incluem:

Caraterística Caraterística
Proteções rápidas Verifica o risco de ataques de entrada do usuário em modelos de idioma
Deteção de aterramento Deteta se as respostas de texto estão fundamentadas no conteúdo de origem de um usuário
Deteção de material protegido Verifica se há conteúdo protegido por direitos autorais conhecido
Categorias personalizadas Definir categorias personalizadas para quaisquer padrões novos ou emergentes

Detalhes e inícios rápidos para usar o Azure AI Content Safety podem ser encontrados nas páginas de documentação do serviço.