Perguntas frequentes para respostas generativas
Estas perguntas frequentes (FAQ) descrevem o efeito da IA do recurso de respostas generativas no Copilot Studio.
O que são respostas generativas?
As respostas generativas tornam seu agente valioso desde o início e aumentam o número de tópicos em que ele está conversando, sem a necessidade de criação manual de árvore de diálogo.
Quais são os recursos de respostas generativas?
Quando um usuário faz ao agente uma pergunta que não contém um tópico configurado, ele pode, opcionalmente, pesquisar conteúdo relevante de uma fonte de sua escolha. Essa pesquisa inclui sites públicos do SharePoint, ou suas próprias fontes de dados personalizadas, incluindo elementos não textuais em arquivos carregados, como imagens, dados tabulares e diagramas. O agente usa IA generativa para resumir essas informações em uma resposta retornada ao usuário do agente.
Qual é o uso desejado das respostas generativas?
As respostas generativas podem ser usadas como fontes de informações primárias no agente ou como fallback quando os tópicos criados não conseguem responder à consulta de um usuário.
Como as resposta generativas são avaliadas e quais métricas são usadas para medir o desempenho?
A capacidade é avaliada continuamente em uma coleção de conjuntos de dados de perguntas e respostas selecionados manualmente, abrangendo vários setores. Avaliações adicionais são realizadas em conjuntos de dados personalizados para solicitações e respostas ofensivas e maliciosas, tanto de forma automatizada quanto por meio de sessões manuais dedicadas, projetada para expandir o conjunto de testes.
Quais são as limitações das respostas generativas e como os usuários podem minimizar o impacto das limitações ao usar respostas generativas?
Você deve habilitar a opção de respostas generativas para cada agente.
Consulte Idiomas com suporte para obter a lista de idiomas com suporte neste recurso e seus respectivos estágios. Talvez você possa usar outros idiomas, mas as respostas geradas podem ser inconsistentes e o agente pode não responder corretamente ou conforme o esperado.
Esse recurso pode estar sujeito a limites de uso ou limitação de capacidade.
As respostas geradas pelo recurso de respostas generativas nem sempre são perfeitas e podem conter erros.
O sistema foi projetado para consultar o conhecimento do site de sua escolha e agrupar descobertas relevantes em uma resposta facilmente consumível. No entanto, é importante ter em mente algumas características da IA que podem levar a respostas inesperadas:
O corpo de dados no qual o modelo foi treinado não inclui dados criados após 2021.
Existem mitigações para evitar que o modelo use seu corpo de treinamento como fonte de respostas, no entanto, é possível que as respostas incluam conteúdo de sites diferentes daquele que você selecionou.O sistema não executa uma verificação de precisão, portanto, se a fonte de dados selecionada contiver informações imprecisas, elas poderão ser mostradas aos usuários do seu agente. Implementamos mitigações para filtrar respostas irrelevantes e ofensivas, e o recurso foi projetado para não responder quando linguagem ofensiva é detectada. Esses filtros e mitigações não são à prova de falhas.
Observação
Você deve sempre testar e revisar seus agentes antes de publicá-los e considerar coletar comentários dos usuários do agente. Seu administrador pode desativar a capacidade de publicar agentes que usam recursos de IA generativa para seu locatário no centro de administração do Power Platform.
Quais dados a capacidade coleta? Como os dados são usados?
A capacidade coleta prompts do usuário, as respostas retornadas pelo sistema e qualquer comentário que você fornecer.
Usamos esses dados para avaliar e melhorar a qualidade da capacidade. Mais informações sobre quais dados são coletados estão disponíveis nos termos da versão preliminar.
Quais fatores e configurações operacionais possibilitam uso eficaz e responsável das respostas generativas?
As respostas generativas funcionam melhor quando você designa uma origem confiável e válida a partir da qual o conteúdo deve ser consultado. Essa fonte pode ser o site da sua empresa, por exemplo www.microsoft.com. Todas as páginas da Web que pertencem a este domínio seriam pesquisadas em busca de uma correspondência com a pergunta do usuário.
Usamos o feedback que você fornece sobre sua satisfação com as respostas geradas para melhorar a qualidade do sistema. Você pode fornecer feedback selecionando os ícones de polegar para cima ou de polegar para baixo para respostas geradas. Você também pode incluir mais comentários em texto livre.
Quais proteções existem dentro do Copilot Studio para a IA responsável?
Respostas gerativas incluem diversas proteções para garantir que administradores, criadores e usuários tenham uma experiência segura e em conformidade. Os administradores têm controle total sobre os recursos em seus locatários e sempre podem desativar a capacidade de publicar agentes com respostas generativas em sua organização. Os criadores podem adicionar instruções personalizadas para influenciar os tipos de respostas retornadas por seus agentes. Para obter mais informações sobre as melhores práticas para escrever instruções personalizadas, consulte Usar modificação de prompt para fornecer instruções personalizadas ao seu agente.
Os criadores também podem limitar as fontes de conhecimento que os agentes podem usar para responder a perguntas. Para permitir que os agentes respondam a perguntas fora do escopo de suas fontes de conhecimento configuradas, os criadores podem ativar o recurso Conhecimento Geral de IA. Para limitar os agentes a responder apenas perguntas ao escopo de suas fontes de conhecimento configuradas, os criadores devem desativar esse recurso.
O Copilot Studio também aplica políticas de moderação de conteúdo em todas as solicitações de IA generativa para proteger administradores, criadores e usuários contra conteúdo ofensivo ou prejudicial. Essas políticas de moderação de conteúdo também se estendem a tentativas maliciosas de jailbreak, injeção de prompts, exfiltração de prompt e violação de direitos autorais. Todo o conteúdo é verificado duas vezes: primeiro durante a entrada do usuário e novamente quando o agente está prestes a responder. Se o sistema encontrar conteúdo prejudicial, ofensivo ou mal-intencionado, ele impedirá que seu agente responda.
Finalmente, é uma melhor prática comunicar aos usuários que o agente usa inteligência artificial, portanto, a seguinte mensagem padrão informa os usuários: "Só para que você esteja ciente, às vezes uso IA para responder às suas perguntas".