Perguntas frequentes sobre a experiência de primeira execução conversacional
Estas perguntas frequentes (FAQ) descrevem o efeito da IA na experiência de primeira execução de conversação Copilot Studio.
Como é a experiência de primeira execução de conversação?
A experiência de primeira execução conversacional é usada para ajudar você a criar um agente ou agente do Copilot personalizado. Por meio da conversa, ele prevê o nome, a descrição, as instruções, quaisquer fontes de conhecimento da web adicionadas e prompts iniciais (para agentes Copilot)
Quais são os recursos para a experiência de primeira execução conversacional?
Você pode começar rapidamente com a configuração personalizada agente ou agente do Copilot por meio de uma interface de linguagem natural. O sistema atualizará a configuração com base nas informações inseridas pelo fabricante durante a conversa.
Qual é o uso pretendido da experiência de primeira execução de conversação?
Você pode usar essa experiência para iniciar sua configuração inicial do agente.
Como foi avaliada a experiência de primeira execução da conversa e quais métricas são usadas para medir o desempenho?
Avaliamos o sistema quanto à precisão de quão bem a configuração prevista representava as solicitações por meio da conversa para garantir a qualidade. Também testamos para garantir que o sistema não produza conteúdo prejudicial ou malicioso.
Quais são as limitações da experiência de primeira execução de conversação e como os usuários podem minimizar o impacto das limitações ao usá-la?
A experiência de primeira execução de conversação oferece suporte ao inglês e não foi projetada para oferecer suporte a outros idiomas.
Consulte Suporte a idiomas para obter a lista mais recente de idiomas suportados para este e outros recursos de IA generativa.
Você pode usar outros idiomas, mas as respostas geradas podem ser inconsistentes e o agente pode não responder corretamente ou como você espera.Esta experiência não pode ajudar você a testar seu agente e só pode ser usada para configurar:
- O nome
- A descrição
- Instruções que criam o agente
- Fontes de conhecimento da Web
- Prompts iniciais para agentes Copilot
Consulte as Perguntas frequentes sobre IA responsável para respostas generativas para considerações e limitações adicionais ao usar respostas generativas em agentes criados com esse recurso.
Quais fatores e configurações operacionais permitem o uso eficaz e responsável da experiência de primeira execução de conversação?
Você pode usar linguagem natural para conversar com o sistema pelo chat ou pode editar a configuração manualmente no painel lateral. Se você editar manualmente, o sistema poderá ser atualizado com informações adicionais à medida que você continua a conversa.
Quais proteções estão em vigor para a IA responsável? Copilot Studio
As respostas generativas incluem várias proteções para garantir que administradores, criadores e usuários tenham uma experiência segura e em conformidade. Os administradores têm controle total sobre os recursos em seus locatários e sempre podem desativar a capacidade de publicar agentes com respostas generativas em sua organização. Os criadores podem adicionar instruções personalizadas para influenciar os tipos de respostas que seus agentes retornam. Para obter mais informações sobre as melhores práticas para escrever instruções personalizadas, consulte Usar modificação de prompt para fornecer instruções personalizadas ao seu agente.
Os criadores também podem limitar as fontes de conhecimento que os agentes podem usar para responder a perguntas. Para permitir que os agentes respondam a perguntas fora do escopo de suas fontes de conhecimento configuradas, os criadores podem ativar o recurso Conhecimento Geral de IA . Para limitar os agentes a responder apenas perguntas relacionadas ao escopo de suas fontes de conhecimento configuradas, os criadores devem desativar esse recurso.
Copilot Studio também aplica políticas de moderação de conteúdo em todas as solicitações de IA generativa para administradores, criadores e usuários do proteger contra conteúdo ofensivo ou prejudicial. Essas políticas de moderação de conteúdo também se estendem a tentativas maliciosas de jailbreak, injeção imediata, exfiltração imediata e violação de direitos autorais. Todo o conteúdo é verificado duas vezes: primeiro durante a entrada do usuário e novamente quando o agente está prestes a responder. Se o sistema encontrar conteúdo prejudicial, ofensivo ou malicioso, ele impede que seu agente responda.
Por fim, é uma prática recomendada comunicar aos usuários que o agente usa inteligência artificial, portanto, a seguinte mensagem padrão informa os usuários: "Só para você saber, às vezes uso IA para responder às suas perguntas."