Compartilhar via


Perguntas frequentes sobre a experiência de criação do agente de conversa

Essas perguntas frequentes (FAQ) descrevem o efeito de IA da experiência de criação do agente da conversa no Copilot Studio.

O que é a experiência de criação do agente de conversação?

A experiência de criação do agente de conversa é usada para ajudá-lo a criar um agente personalizado ou um agente do Copilot. Durante a conversa, ele prevê o nome, a descrição, as instruções, quaisquer fontes de conhecimento da Web adicionadas e os prompts iniciais (para agentes Copilot)

Quais são os recursos para a experiência de criação de agente de conversação?

Você pode começar rapidamente com a configuração do agente personalizado ou do agente Copilot por meio de uma interface de linguagem natural. O sistema atualizará a configuração com base nas entradas do criador durante a conversa.

Qual é o uso pretendido da experiência de criação de agente de conversação?

Você pode usar essa experiência para iniciar a configuração inicial do agente.

Como a experiência de criação do agente de conversação foi avaliada e quais métricas são usadas para medir o desempenho?

Avaliamos o sistema quanto à precisão de quão bem a configuração prevista representava as solicitações através da conversa para garantir a qualidade. Também testamos para garantir que o sistema não produza conteúdo nocivo ou mal-intencionado.

Quais são as limitações da experiência de criação do agente conversacional e como os usuários podem minimizar o impacto das limitações ao usá-la?

  • A experiência de criação do agente de conversa oferece suporte a determinados idiomas apenas. Talvez você possa usar outros idiomas, mas as respostas geradas podem ser inconsistentes e o agente pode não responder corretamente ou conforme o esperado.

  • Essa experiência não pode ajudá-lo a testar seu agente e só pode ser usada para configurar:

    • O nome
    • A descrição
    • Instruções que criam o agente
    • Fontes de conhecimento da Web
    • Prompts de início para agentes do Copilot
  • Consulte as Perguntas frequentes sobre IA responsável para obter respostas para considerações e limitações adicionais ao usar respostas generativas em agentes criados com esse recurso.

Quais fatores e configurações operacionais permitem o uso efetivo e responsável da experiência de criação do agente conversacional?

Você pode usar linguagem natural para conversar com o sistema por chat ou pode editar diretamente a configuração manualmente no painel lateral. Se você editar manualmente, o sistema pode atualizar com informações adicionais à medida que você continua a conversa.

Quais proteções existem dentro do Copilot Studio para a IA responsável?

Respostas gerativas incluem diversas proteções para garantir que administradores, criadores e usuários tenham uma experiência segura e em conformidade. Os administradores têm controle total sobre os recursos em seus locatários e sempre podem desativar a capacidade de publicar agentes com respostas generativas em sua organização. Os criadores podem adicionar instruções personalizadas para influenciar os tipos de respostas retornadas por seus agentes. Para obter mais informações sobre as melhores práticas para escrever instruções personalizadas, consulte Usar modificação de prompt para fornecer instruções personalizadas ao seu agente.

Os criadores também podem limitar as fontes de conhecimento que os agentes podem usar para responder a perguntas. Para permitir que os agentes respondam a perguntas fora do escopo de suas fontes de conhecimento configuradas, os criadores podem ativar o recurso Conhecimento Geral de IA. Para limitar os agentes a responder apenas perguntas ao escopo de suas fontes de conhecimento configuradas, os criadores devem desativar esse recurso.

O Copilot Studio também aplica políticas de moderação de conteúdo em todas as solicitações de IA generativa para proteger administradores, criadores e usuários contra conteúdo ofensivo ou prejudicial. Essas políticas de moderação de conteúdo também se estendem a tentativas maliciosas de jailbreak, injeção de prompts, exfiltração de prompt e violação de direitos autorais. Todo o conteúdo é verificado duas vezes: primeiro durante a entrada do usuário e novamente quando o agente está prestes a responder. Se o sistema encontrar conteúdo prejudicial, ofensivo ou mal-intencionado, ele impedirá que seu agente responda.

Finalmente, é uma melhor prática comunicar aos usuários que o agente usa inteligência artificial, portanto, a seguinte mensagem padrão informa os usuários: "Só para que você esteja ciente, às vezes uso IA para responder às suas perguntas".