Compartilhar via


Perguntas frequentes sobre IA responsável para o Copilot no Customer Service

Aplica-se a: Dynamics 365 Contact Center – integrado, Dynamics 365 Contact Center – independente e Dynamics 365 Customer Service

Este artigo de perguntas frequentes ajuda a responder às perguntas relacionadas ao uso responsável da IA em recursos do copiloto no Customer Service.

O que é Copilot no Dynamics 365 Customer Service?

O Copilot é uma ferramenta da plataforma AI que transforma a experiência do agente no Dynamics 365 Customer Service. Ele oferece assistência da plataforma AI em tempo real que vai ajudar agentes a resolverem problemas mais rapidamente, casos de maneira mais eficiente e automatizarem tarefas demoradas. Assim, os agentes podem se concentrar em oferecer serviço de alta qualidade aos clientes.

Quais são as características do sistema?

O Copilot oferece os seguintes recursos principais:

  • Fazer uma pergunta: é a primeira guia que os agentes veem ao ativar o painel de ajuda do Copilot. Trata-se de uma interface de conversa com o Copilot, que ajuda a dar respostas contextuais às perguntas dos agentes. As respostas do Copilot se baseiam em ambas as fontes de conhecimento internas e externas fornecidas pela organização durante a configuração.

  • Escrever um email: é a segunda guia no painel de ajuda do Copilot que auxilia os agentes a criarem rapidamente respostas de email com base no contexto do caso, reduzindo o tempo que os usuários precisam gastar criando emails.

  • Esboçar uma resposta de chat: permite aos agentes criarem uma resposta em um clique simples para a conversa de mensagens digitais em andamento com base em fontes de conhecimento configuradas pela organização.

  • Resumir um caso: o Copilot fornece aos agentes um resumo de um caso diretamente no formulário do caso, de maneira que eles possam acompanhar rapidamente os detalhes importantes de um caso.

  • Resumir uma conversa: o Copilot fornece aos agentes um resumo de uma conversa em pontos-chave ao longo da jornada do cliente, como entregas de agente virtual, transferências e sob demanda.

  • Gerar rascunho de conhecimento com base em caso (versão preliminar): o Copilot gera um rascunho do artigo de conhecimento como uma proposta com base em informações do caso. Os agentes podem revisar e refinar o rascunho dando instruções de revisão ao Copilot e, em seguida, salvá-lo.

  • Resumir um registro personalizado: o Copilot oferece aos agentes um resumo de um registro com base em campos que o administrador configura para a tabela personalizada, de maneira que os agentes possam acompanhar rapidamente os detalhes importantes de um registro de suporte.

  • Gerar notas de resolução: o Copilot fornece aos agentes um resumo dos detalhes do caso, emails e observações vinculadas ao caso na guia Fazer uma pergunta para que eles possam fechar rapidamente o caso ou incidente.

Qual é o uso pretendido do sistema?

O Copilot no Customer Service se destina a ajudar os representante do serviço de atendimento ao consumidor a trabalharem de maneira mais eficiente e eficaz. Os representante do serviço de atendimento ao consumidor podem usar as respostas baseadas em conhecimento do Copilot para economizar tempo na pesquisa dos artigos de conhecimento e no esboço das respostas. Os resumos do Copilot foram projetados para dar suporte aos agentes no aumento rápido de casos e conversas. O conteúdo gerado pelo Copilot no Customer Service não deve ser usado sem revisão ou supervisão humana.

Como o Copilot no Customer Service é avaliado? Quais métricas são usadas para medir o desempenho?

O Copilot no Customer Service foi avaliado em cenários reais com clientes em todo o mundo em cada fase do design, do desenvolvimento e da versão. Usando uma combinação de pesquisas e estudos de impacto sobre os negócios, avaliamos métricas quantitativas e qualitativas variadas sobre o Copilot, inclusive precisão, utilidade e confiança do agente. Saiba mais em Relatório de transparência de IA responsável.

Quais são as limitações do Copilot no Customer Service? Como os usuários podem minimizar o impacto das limitações do Copilot?

Os recursos baseados em conhecimento do Copilot, como fazer uma pergunta, escrever um email e esboçar uma resposta de chat, dependem de artigos de conhecimento atualizados e de alta qualidade para fundamentação. Sem esses artigos de conhecimento, é mais provável que os usuários encontrem respostas do Copilot não factuais.

Para minimizar a probabilidade de ver respostas não factuais do Copilot, é importante que o Microsoft empregue práticas robustas de geranciamento de conhecimento para garantir que o conhecimento de negócios que se conecta ao Copilot seja de alta qualidade e atualizado.

Quais fatores e configurações operacionais permitem o uso eficaz e responsável do sistema?

Revisar sempre resultados do Copilot

O Copilot aproveita tecnologia de modelo de linguagem grande, de natureza probabilística. Quando apresentado a um texto de entrada, o modelo calcula a probabilidade de cada palavra nesse texto, dadas as palavras que vieram antes dela. O modelo acaba escolhendo a palavra com mais probabilidade de seguir. No entanto, como se baseia em probabilidades, o modelo não consegue dizer com certeza absoluta qual é a próxima palavra correta. Em vez disso, ele nos dá a melhor estimativa com base na distribuição da probabilidade aprendida com os dados nos quais ele foi treinado. O Copilot usa uma abordagem chamada aterramento, que envolve a adição de informações à entrada para contextualizar a saída para a organização. Ele usa pesquisa semântica para compreender a entrada e recuperar documentos organizacionais internos relevantes e resultados da pesquisa na Web públicos confiáveis e orienta o modelo de linguagem para responder com base nesse conteúdo. Embora seja útil para garantir que as respostas do Copilot sigam os dados organizacionais, sempre é importante revisar os resultados produzidos pelo Copilot antes de usá-los.

Obter o melhor do Copilot

Ao interagir com o Copilot, é importante ter em mente que a estrutura das perguntas pode afetar muito a resposta dada pelo Copilot. Para interagir com o Copilot de maneira eficaz, é crucial fazer perguntas claras e específicas, contextualizar para ajudar a IA a entender melhor a intenção, fazer uma pergunta por vez e evitar termos técnicos para fins de clareza e acessibilidade.

Fazer perguntas claras e específicas

A intenção clara é essencial ao fazer perguntas, pois afeta diretamente a qualidade da resposta. Por exemplo, fazer uma pergunta ampla como "Por que a máquina de café do cliente não liga?" tem menos probabilidade de produzir uma resposta útil em comparação com uma pergunta mais específica, como "Quais etapas posso seguir para determinar por que a máquina de café do cliente não está ligando?".

No entanto, fazer uma pergunta ainda mais detalhada como "Quais etapas posso seguir para determinar por que uma máquina de café Contoso 900 com classificação nominal da pressão de 5 bar não está ligando?" restringe o escopo do problema e contextualiza mais, acarretando respostas mais precisas e segmentadas.

Contextualizar

A contextualização ajuda o sistema de IA de conversa a entender melhor a intenção do usuário e dar respostas mais precisas e relevantes. Sem contexto, o sistema pode interpretar mal a pergunta do usuário ou dar respostas genéricas ou irrelevantes.

Por exemplo, "Por que a máquina de café não liga?" acarretará uma resposta genérica quando comparada a uma pergunta com mais contexto como: "Recentemente, o cliente iniciou o modo de descalcificação na máquina de café e concluiu a descalcificação com êxito. Eles até mesmo receberam três piscadas da luz de energia ao final para confirmar que a descalcificação foi concluída. Por que eles não conseguem mais ligar a máquina de café?"

A contextualização dessa maneira é importante porque ajuda o Copilot a entender melhor a intenção do usuário e dar respostas mais precisas e relevantes.

Evitar termos técnicos, se possível

Recomendamos que você evite usar termos e nomes de recursos extremamente técnicos ao interagir com o Copilot, porque o sistema nem sempre pode entendê-lo de maneira precisa ou devida. O uso de uma linguagem mais simples e natural ajuda a garantir que o sistema possa compreender corretamente a intenção do usuário e dar respostas claras e úteis. Por exemplo:

"O cliente não conseguirá transformar SSH em VM depois de alterar a configuração do firewall."

Em vez disso, você pode reformular como:

"O cliente alterou as regras de firewall na máquina virtual. No entanto, eles não conseguem mais se conectar usando SSH (Secure Shell). Você pode ajudar?"

Seguindo as sugestões, os agentes podem aprimorar as interações com o Copilot e aumentar a probabilidade de receber respostas precisas e seguras.

Resumo ou expansão de uma resposta

Às vezes, a resposta do Copilot pode ser mais longa do que o esperado. Esse pode ser o caso quando o agente está em uma conversa de chat ao vivo com um cliente e precisa enviar respostas concisas em comparação com o envio de uma resposta por email. Nesses casos, pedir ao Copilot para "resumir a resposta" acarretará uma resposta concisa para a pergunta. Da mesma maneira, se houver necessidade de mais detalhes, pedir ao Copilot para "Fornecer mais detalhes" acarretará uma resposta mais detalhada para a pergunta. Se a resposta for truncada, a digitação de "continuar" exibirá a parte restante da resposta.

Como posso influenciar as respostas geradas pelo copiloto? Posso ajustar o LLM subjacente?

Não é possível personalizar diretamente o LLM (modelo de linguagem grande). As respostas do Copilot podem ser influenciadas pela atualização da documentação de fonte. Todo o conteúdo de comentários das respostas do Copilot é armazenado. Os relatórios podem ser criados usando esses dados para determinar as fontes de dados que precisam ser atualizadas. É uma boa ideia ter processos em vigor para revisar periodicamente os dados de comentários e garantir que os artigos de conhecimento forneçam as melhores e mais atualizadas informações ao Copilot.

Qual é o modelo de segurança de dados do Copilot?

O Copilot impõe os controles RBAC (acesso baseado em função) definidos e respeita todos os constructos de segurança existentes. Portanto, os agentes não podem exibir dados aos quais não têm acesso. Além disso, somente fontes de dados às quais o agente tem acesso são usadas na geração de resposta do copiloto.

Como o Copilot determina se o conteúdo é ofensivo ou prejudicial?

Copilot determina se o conteúdo é prejudicial por meio de um sistema de classificação de gravidade baseado em categorias distintas de conteúdo censurável. Você pode saber mais em Categorias de danos em Segurança de Conteúdo de IA do Azure.

Onde o processamento de dados e a recuperação ocorrem para gerar respostas do copiloto?

O Copilot não está chamando o serviço OpenAI público que alimenta o ChatGPT. O Copilot no Customer Service usa o Serviço OpenAI do Microsoft Azure em um locatário gerenciado pela Microsoft. Todo o processamento de dados e a recuperação ocorrem dentro dos locatários gerenciados pela Microsoft. Além disso, os dados do cliente não são compartilhados e não são realimentados em modelos públicos.

Quais são as limitações de linguagem para resumos que o Copilot gera a partir de casos e conversas?

Há suporte para muitos idiomas em resumos gerados pelo Copilot a partir de casos e conversas. Espera-se que a qualidade desses resumos seja a mais alta em inglês, enquanto nos outros idiomas, espera-se que a qualidade melhore com o tempo. Saiba mais sobre os idiomas compatíveis em Suporte a idiomas para recursos do Copilot

O modelo é testado e monitorado continuamente? Em caso afirmativo, com que frequência? Quais testes são realizados?

O modelo é testado quanto à qualidade e conteúdo nocivo, sempre que há uma alteração na interação ou versão do modelo. Saiba mais no Relatório de Transparência de IA Responsável.

Com que frequência o modelo é monitorado para detectar degradação de desempenho?

O Modelo GPT de IA generativa é hospedado e gerenciado pelo Azure OpenAI. O uso do modelo em cenários de atendimento ao cliente está vinculado a práticas de IA responsáveis e verificações do Conselho de Segurança de Implantação. Quaisquer alterações nas versões do modelo ou nos prompts subjacentes são validadas quanto à qualidade e ao conteúdo prejudicial. Saiba mais no Relatório de transparência de IA responsável.

O produto ou serviço emprega mais de um modelo ou um sistema de modelos interdependentes?

Diferentes recursos no sistema podem estar usando versões diferentes dos modelos de serviço do Azure OpenAI. Saiba mais em Modelos de serviço do Azure OpenAI.

O Copilot usa um produto ou um serviço modelo que não seja da Microsoft, e a documentação desse modelo está disponível?

O Copilot foi compilado usando o Azure OpenAI, um serviço de IA totalmente gerenciado que integra o OpenAI aos modelos de filtragem de conteúdo e detecção de abuso desenvolvidos pela Microsoft. Saiba mais em Nota de transparência do Azure OpenAI.

Existe um processo definido para comunicar quaisquer alterações em modelos, modelos upstream ou saídas que são usadas de outras soluções de IA/ML ou modelo?

Quaisquer alterações planejadas nos recursos do Copilot são comunicadas por meio de documentação pública. No entanto, as alterações referentes à versão do modelo ou prompts são regidas pelos processos internos de IA responsável. Essas mudanças não são comunicadas, pois são melhorias funcionais incrementais e contínuas.

O feedback integral do usuário está disponível para Microsoft para melhorar o produto?

Não.

O Microsoft tem políticas e procedimentos que definem e diferenciam os vários papéis e responsabilidades humanas quando interagem ou monitoram sistemas de IA?

Sim. No processo de IA responsável, todas as partes interessadas e usuários envolvidos são considerados, e seu uso ou uso não intencional do sistema é discutido. Com base nos cenários identificados, as mitigações necessárias são trazidas dentro do produto ou por meio de documentação. Saiba mais em Relatório de Transparência de IA Responsável.

O Microsoft identifica e documenta abordagens para engajar, capturar e incorporar contribuições de outros usuários finais e principais partes interessadas para ajudar no monitoramento contínuo de impactos potenciais e riscos emergentes?

Sim. Saiba mais em Relatório de Transparência de IA Responsável.

O Microsoft documenta, pratica e mede planos de resposta a incidentes para incidentes do sistema de IA, incluindo a medição de tempos de resposta e de inatividade?

Sim. O processo de IA responsável exige que a equipe tenha um plano de resposta a incidentes para problemas de IA, semelhante ao que é feito para problemas funcionais. As equipes de recurso monitoram continuamente o desempenho e a confiabilidade do sistema. Saiba mais em Relatório de Transparência de IA Responsável.

O Microsoft estabelece procedimentos para compartilhar informações sobre incidências de erros e impactos negativos com partes interessadas relevantes, operadores, profissionais, usuários e partes afetadas?

Sim. Para problemas de alta gravidade, as equipes de recurso devem informar a interrupção com os clientes afetados.

O Microsoft mede e monitora o desempenho do sistema em tempo real para permitir uma resposta rápida quando um incidente no sistema de IA é detectado?

Sim. As equipes de recurso monitoram continuamente o desempenho e a confiabilidade do sistema.

O Microsoft testa a qualidade das explicações dos sistemas com os usuários finais e outras partes interessadas?

Sim. Saiba mais em Relatório de Transparência de IA Responsável.

O Microsoft estabeleceu políticas e procedimentos para monitorar e abordar o desempenho e a confiabilidade do sistema do modelo, incluindo vieses e problemas de segurança em todo o ciclo de vida do modelo, ao avaliar os sistemas de IA em busca de riscos e benefícios negativos?

Sim. Saiba mais em Relatório de transparência de IA responsável.

O Microsoft realiza avaliações de equidade para gerenciar formas computacionais e estatísticas de viés?

Sim. Saiba mais em Relatório de Transparência de IA Responsável.

O Microsoft monitora as saídas do sistema em busca de problemas de desempenho ou viés?

Sim. Os filtros de moderação são aplicados em várias camadas, inclusive na saída, para garantir que não haja conteúdo nocivo na resposta. Saiba mais em Relatório de Transparência de IA Responsável.

Qual o nível de resiliência na operação do modelo? Por exemplo, há um plano de contingência e recuperação de desastres para instâncias em que o modelo não está disponível?

Semelhante a todos os serviços Azure, o backup e a recuperação são suportados por meio de vários data centers para alta disponibilidade.

O modelo é dependente, incorporado em ferramentas ou soluções de terceiros que dificultam a migração do modelo para um ambiente diferente (incluindo variáveis como provedor de hospedagem, hardware, sistemas de software) que impediriam a explicabilidade do modelo?

Não.

Existe um modelo estabelecido de política de governança?

Sim, há uma política de governança estabelecida apoiada pelo Azure OpenAI. Saiba mais em Relatório de Transparência de IA Responsável.

Existem protocolos estabelecidos e documentados (autorização, duração, tipo) e controles de acesso para conjuntos de dados de treinamento ou produção contendo PII de acordo com políticas de privacidade e governança de dados?

Atualmente, não há treinamento de modelo, portanto, nenhum requisito em torno do conjunto de dados. No entanto, quando um representante do serviço de atendimento ao consumidor se envolve com Copilot, dependendo do recurso, os dados de contexto (caso ou chat) são usados para gerar uma resposta.

As divulgações de PII e a inferência de atributos sensíveis ou legalmente protegidos são monitoradas?

Sim, a revisão de privacidade é feita para todos os recursos.

Sim. A revisão legal é feita para cada recurso para ajudar com requisitos regulatórios e outras questões legais.

Usar recursos do Copilot
Usar o Copilot para gerar rascunhos de conhecimento com base em casos
Disponibilidade da região do Copilot
Perguntas frequentes sobre segurança e privacidade de dados do Copilot no Microsoft Power Platform