Perguntas frequentes sobre a segurança e a privacidade dos dados do Copilot no Dynamics 365 e no Power Platform
Os recursos do Copilot para Dynamics 365 e do Power Platform seguem um conjunto de práticas básicas de segurança e privacidade e o Padrão da IA Responsável da Microsoft. Os dados do Dynamics 365 e do Power Platform são protegidos por controles de conformidade, segurança e privacidade abrangentes e líderes do setor.
O Copilot é baseado no Serviço OpenAI do Microsoft Azure e é executado completamente na nuvem do Azure. O Serviço OpenAI do Azure oferece disponibilidade regional e filtragem de conteúdo de IA responsável. O Copilot usa modelos do OpenAI com todas as capacidades de segurança do Microsoft Azure. A OpenAI é uma organização independente. Não compartilhamos seus dados com a OpenAI.
Os recursos do Copilot não estão disponíveis em todas as regiões geográficas e idiomas do Azure. Dependendo de onde seu ambiente estiver hospedado, talvez seja necessário permitir a movimentação de dados entre regiões geográficas para usá-los. Para obter mais informações, consulte os artigos listados em Movimentação de dados entre geografias.
O que acontece com meus dados quando uso o Copilot?
Você tem o controle de seus dados. A Microsoft não compartilha seus dados com terceiros, a menos que você dê permissão. Além disso, nós não usamos seus dados de cliente para treinar ou melhorar o Copilot ou seus recursos de IA, a menos que você tenha dado consentimento para isso. O Copilot segue as permissões e políticas de dados existentes, e as respostas dele para você se baseiam somente nos dados aos quais você tem acesso. Para obter mais informações sobre como você pode controlar seus dados e como seus dados são tratados, consulte os artigos listados em Copilot em aplicativos do Dynamics 365 e no Power Platform.
O Copilot monitora usos abusivos ou prejudiciais do serviço com processamento transitório. Não armazenamos nem realizamos análise ocular de entradas e saídas do Copilot para fins de monitoramento de abuso.
Como o Copilot usa meus dados?
Cada serviço ou recurso usa o Copilot com base nos dados que você fornece ou configura para o Copilot processar.
Seus prompts (entradas) e respostas do Copilot (saídas ou resultados):
NÃO estão disponíveis para outros clientes.
NÃO são usados para treinar ou melhorar produtos ou serviços de terceiros (como os modelos do OpenAI).
NÃO são usados para treinar ou melhorar modelos de IA da Microsoft, a menos que o administrador do seu locatário aceite compartilhar os dados conosco. Saiba mais em Perguntas frequentes sobre compartilhamento de dados opcionais de recursos de IA do Copilot no Dynamics 365 e Power Platform.
Saiba mais sobre os dados, a privacidade e a segurança do serviço OpenAI do Azure. Para saber mais sobre como a Microsoft protege e usa seus dados de forma mais geral, leia nossa Política de Privacidade.
Para onde vão meus dados?
Microsoft Runs on Trust. Estamos comprometidos com a segurança, privacidade e conformidade em tudo o que fazemos, e nossa abordagem à IA não é diferente. Os dados do cliente, incluindo entradas e saídas do Copilot, são armazenados dentro do limite de confiança do Microsoft Cloud.
Em alguns cenários, como recursos desenvolvidos pelo Bing e plug-ins do copiloto de terceiros, os dados do cliente podem ser transmitidos fora do limite de confiança do Microsoft Cloud.
O Copilot pode acessar conteúdo criptografado?
Os dados são fornecidos ao Copilot com base no nível de acesso do usuário atual. Se um usuário tiver acesso aos dados criptografados no Dynamics 365 e no Power Platform e o usuário os fornece ao Copilot, e então o Copilot poderá acessá-los.
Como o Copilot protege os dados do cliente?
A Microsoft está posicionada exclusivamente para fornecer IA pronta para uso corporativo. O Copilot é da plataforma Serviço OpenAI do Azure e está em conformidade com nossos compromissos existentes de privacidade, segurança e regulamento com nossos clientes.
Criado com base na abordagem abrangente da Microsoft para segurança, privacidade e conformidade. O Copilot está integrado aos serviços da Microsoft, como o Dynamics 365 e o Power Platform, e herda suas valiosas políticas e processos de segurança, privacidade e conformidade, como a autenticação multifator e limites de conformidade.
Múltiplas formas de proteção de dados organizacionais. As tecnologias do lado do serviço criptografam o conteúdo organizacional em repouso e em trânsito para uma segurança robusta. As conexões são protegidas por TLS (Transport Layer Security) e as transferências de dados entre o Dynamics 365, o Power Platform e o OpenAI do Azure ocorrem pela rede backbone da Microsoft, garantindo confiabilidade e segurança. Saiba mais sobre criptografia no Microsoft Cloud.
Projetado para proteger seus dados no nível do locatário e do ambiente. Sabemos que o vazamento de dados é uma preocupação para os clientes. Os modelos de IA da Microsoft não são treinados e não aprendem com os dados do locatário ou seus prompts, a menos que o administrador do locatário tenha optado por compartilhar dados conosco. Em seus ambientes, você pode controlar o acesso por meio de permissões configuradas. Os mecanismos de autenticação e autorização segregam as solicitações para o modelo compartilhado entre os locatários. O Copilot utiliza dados que somente você pode acessar usando a mesma tecnologia que estamos usando durante anos para proteger os dados dos clientes.
As respostas do Copilot são sempre factuais?
Assim como qualquer IA generativa, as respostas do Copilot não são 100% factuais. Embora continuemos a melhorar as respostas a perguntas baseadas em fatos, você ainda deve usar o bom senso e revisar a saída antes de enviá-la a outras pessoas. O Copilot fornece rascunhos e resumos úteis para ajudar você a fazer mais, mas é totalmente automático. Você sempre tem a chance de revisar o conteúdo gerado por IA.
Nossas equipes estão trabalhando para resolver problemas de forma proativa, como informações incorretas e desinformação, bloqueio de conteúdo, segurança de dados e promoção de conteúdo prejudicial ou discriminatório, de acordo com nossos princípios da IA responsável.
Também oferecemos orientações na experiência do usuário para reforçar o uso responsável de conteúdo gerado pela IA e as ações sugeridas.
Instruções e prompts. Ao usar o Copilot, os prompts e outros elementos informativos lembram você de revisar e editar respostas conforme necessário antes do uso e para verificar manualmente a precisão de fatos, dados e texto antes de usar o conteúdo gerado pela IA.
Fontes citadas. Quando aplicável, o Copilot cita suas fontes de informação, sejam públicas ou internas, para que você mesmo possa revisá-las a fim de confirmar as respostas.
Para obter mais informações, consulte as perguntas frequentes sobre IA Responsável para seu produto no Microsoft Learn.
Como o Copilot bloqueia conteúdo perigoso?
O Serviço OpenAI do Azure inclui um sistema de filtragem de conteúdo que funciona em conjunto com os modelos principais. Os modelos de filtragem de conteúdo para as categorias Ódio e Imparcialidade, Sexual, Violência e Automutilação foram especificamente treinados e testados em vários idiomas. Esse sistema funciona executando o prompt de entrada e a resposta por meio de modelos de classificação projetados para identificar e bloquear a saída de conteúdo nocivo.
Os danos relacionados ao ódio e à justiça referem-se a qualquer conteúdo que use linguagem pejorativa ou discriminatória com base em atributos como raça, etnia, nacionalidade, identidade e expressão de gênero, orientação sexual, religião, status de imigração, status de habilidade, aparência pessoal e tamanho corporal. A imparcialidade está preocupada em garantir que os sistemas de IA tratem todos os grupos de pessoas de forma equitativa sem contribuir para as desigualdades sociais existentes. O conteúdo sexual envolve discussões sobre órgãos reprodutivos humanos, relacionamentos amorosos, atos retratados em termos eróticos ou afetivos, gravidez, atos sexuais físicos, incluindo aqueles retratados como uma agressão ou um ato forçado de violência sexual, prostituição, pornografia e abuso. A violência descreve a linguagem relacionada a ações físicas que têm a intenção de prejudicar ou matar, incluindo ações, armas e entidades relacionadas. A linguagem de automutilação refere-se a ações deliberadas que têm a intenção de ferir ou matar a si mesmo.
Saiba mais sobre a filtragem de conteúdo do OpenAI do Azure.
O Copilot bloqueia injeções de prompts (ataques de jailbreak)?
Ataques de jailbreak são prompts de usuário desenvolvidos para provocar o modelo de IA generativa para que ele se comporte das formas como foi treinado para evitar ou quebrar as regras que ele deve seguir. Os serviços no Dynamics 365 e no Power Platform são necessários para a proteção contra injeções de prompt. Saiba mais sobre ataques de jailbreak e como usar a Segurança de Conteúdo de IA do Azure para detectá-los.
O Copilot bloqueia injeções de prompts indiretas (ataques indiretos)?
Os ataques indiretos, também conhecidos como ataques de prompt indiretos ou ataques de injeção de prompt entre domínios, são uma vulnerabilidade potencial em que terceiros colocam instruções maliciosas dentro de documentos que o sistema de IA generativo pode acessar e processar. Os serviços no Dynamics 365 e no Power Platform são necessários para a proteção contra injeções de prompts indiretas. Saiba mais sobre ataques indiretos e como usar a Segurança de Conteúdo de IA do Azure para detectá-los.
Como a Microsoft testa e valida a qualidade do Copilot, incluindo proteção imediata contra injeção e respostas fundamentadas?
Cada nova iteração de produto e modelo de linguagem do Copilot deve passar por uma revisão interna da IA responsável antes de poder ser lançada. Antes do lançamento, usamos um processo chamado "red teaming" (no qual uma equipe simula um ataque inimigo, encontrando e explorando fraquezas para ajudar a organização a melhorar suas defesas) para avaliar riscos potenciais em conteúdo prejudicial, cenários de jailbreak e respostas fundamentadas. Após o lançamento, usamos testes automatizados e ferramentas de avaliação manuais e automatizadas para avaliar a qualidade das respostas do Copilot.
Como a Microsoft aprimora o modelo básico e mede as melhorias nas respostas fundamentadas?
No contexto da IA, especialmente a IA que lida com modelos de linguagem como aquele em que o Copilot se baseia, a fundamentação ajuda a IA a gerar respostas mais relevantes e que façam sentido no mundo real. A fundamentação ajuda a garantir que as respostas da IA sejam baseadas em informações confiáveis e tão precisas e relevantes quanto possível. As métricas de resposta fundamentada nos dados avaliam com que precisão os fatos declarados no conteúdo de aterramento fornecido ao modelo são representados na resposta final.
Modelos de fundação como GPT-4 são aprimorados por técnicas de RAG (Geração Aumentada de Recuperação). Essas técnicas permitem que os modelos usem mais informações do que foram treinadas para entender o cenário de um usuário. O RAG funciona identificando primeiro os dados que são relevantes para o cenário, semelhante a como um mecanismo de pesquisa identifica páginas da Web que são relevantes para os termos de pesquisa do usuário. Ele usa várias abordagens para identificar qual conteúdo é relevante para o prompt do usuário e deve ser usado para fundamentar a resposta. As abordagens incluem pesquisar diferentes tipos de índices, como índices invertidos usando técnicas de recuperação de informações, como correspondência de termos, ou índices vetoriais usando comparações vetoriais de distância para similaridade semântica. Depois de identificar os documentos relevantes, o RAG passa os dados para o modelo junto com a conversa atual, dando ao modelo mais contexto para entender melhor as informações que ele já tem e gerar uma resposta fundamentada no mundo real. Por fim, o RAG verifica a resposta para certificar-se de que ela tem suporte do conteúdo de origem fornecido ao modelo. Os recursos de IA generativa do Copilot incorporam o RAG de várias maneiras. Um exemplo é o uso de chat com dados, em que um chatbot é fundamentado com as próprias fontes de dados do cliente.
Outro método para aprimorar os modelos fundamentais é conhecido como ajuste fino. Um grande conjunto de dados de pares consulta-resposta é mostrado a um modelo fundamental para aumentar seu treinamento original com novos exemplos direcionados a um cenário específico. O modelo pode então ser implantado como um modelo separado – que é ajustado para esse cenário. Enquanto o aterramento é sobre tornar o conhecimento da IA relevante para o mundo real, o ajuste fino é sobre tornar o conhecimento da IA mais específico para uma tarefa ou domínio específico. A Microsoft usa o ajuste fino de várias maneiras. Por exemplo, usamos a criação de fluxo do Power Automate de descrições em linguagem natural fornecidas pelo usuário.
O Copilot atende às necessidades da conformidade regulatória?
O Microsoft Copilot faz parte do ecossistema do Dynamics 365 e do Power Platform e atende aos mesmos requisitos de conformidade regulatória. Para obter mais informações sobre as certificações regulatórias de serviços da Microsoft, acesse o Portal de Confiança do Serviço. Além disso, o Copilot adere ao nosso compromisso com a IA responsável, que está descrito em nossa Norma de IA responsável. Conforme a regulamentação na área de IA evolui, a Microsoft continua a se adaptar e a responder a novos requisitos.
Saiba mais
Copilot em aplicativos do Dynamics 365 e o Power Platform
Produto | Recurso | Ambientes Gerenciados necessários? | Como desativar o recurso |
---|---|---|---|
AI Builder | Cenários na versão preliminar | Não | Cenários na versão preliminar |
Copilot Studio | Conhecimento geral da IA | Não | Segurança e governança do Copilot Studio |
Copilot Studio | Criar e editar tópicos com o Copilot | Não | Segurança e governança do Copilot Studio |
Copilot Studio | Ações generativas | Não | Segurança e governança do Copilot Studio |
Copilot Studio | Respostas generativas | Não | Segurança e governança do Copilot Studio |
Dynamics 365 Business Central | Todos (veja a lista completa em aka.ms/bcAI.) | Não | Ativar recursos |
Dynamics 365 Customer Insights - Data | Criar segmentos com o Copilot para Customer Insights - Data (versão preliminar) | Não | O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure. Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Visão geral do relatório de preparação de dados (versão preliminar) | Não | O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure. Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Obter respostas para perguntas sobre recursos do Copilot (versão preliminar) | Não | O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure. Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data |
Dynamics 365 Customer Insights (Dados) | Tenha um diálogo com dados usando o Copilot no Customer Insights | Não | O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure. Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Exibir configuração do sistema | Não | O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure. Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data |
Dynamics 365 Customer Insights - Journeys | O Copilot ajuda você a aprender e a produzir mais (revisão) | Não | As configurações do administrador do Power Platform determinam se este copiloto está disponível em seu ambiente. Saiba como adicionar o Copilot para aplicativos baseados em modelo. Esse recurso é o "copiloto do aplicativo no Customer Insights - Journeys" e, por isso, está habilitado no centro de administração do Power Platform. Saiba mais: Perguntas frequentes sobre a IA responsável |
Dynamics 365 Customer Insights - Journeys | Criar percursos usando a assistência da IA | Não | O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot. Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Atualizar e aperfeiçoar a mensagem | Não | O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot. Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Criar estilos para seus emails com temas assistidos por IA | Não | O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot. Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Segmentar os clientes certos usando o assistente de consulta |
Não | O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot. Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Usar a IA para iniciar a criação de emails | Não | O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot. Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Usar imagens em seu conteúdo | Não | O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot. Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys |
Dynamics 365 Customer Service | Redigir um email | Não | Gerenciar recursos do Copilot no Customer Service |
Dynamics 365 Customer Service | Rascunho de uma resposta do chat | Não | Gerenciar recursos do Copilot no Customer Service |
Dynamics 365 Customer Service | Responder a dúvidas | Não | Gerenciar recursos do Copilot no Customer Service |
Dynamics 365 Customer Service | Resumir um caso e uma conversa | Não | Gerenciar recursos do Copilot no Customer Service |
Power Apps | Criar aplicativos por meio de conversa | Não | Gerenciar configurações de recursos |
Power Apps | Assistência do Copilot para o preenchimento de formulários em aplicativos baseados em modelo | Não | Gerenciar configurações de recursos |
Power Apps | Fazer rascunho de texto de entrada bem escrito com o Copilot | Não, licença de usuário premium | Fazer rascunho de texto de entrada bem escrito com o Copilot |
Power Apps | Excel em Tabela | Não | Gerenciar configurações de recursos |
Power Apps | Usar linguagem natural para editar um aplicativo usando o painel Copilot | Não | Gerenciar configurações de recursos |
Power Automate | Copiloto em fluxos de nuvem na Página Inicial e no designer (consulte Introdução ao Copilot nos fluxos de nuvem para obter detalhes.) | Não | Entre em contato com o suporte para executar um script do PowerShell. |
Power Pages | Tudo (consulte Visão geral do Copilot no Power Pages para obter detalhes.) | Não | Desativar o Copilot no Power Pages |
Saiba mais em Perguntas frequentes sobre compartilhamento de dados opcionais de recursos de IA do Copilot no Dynamics 365 e Power Platform.
Disponibilidade de idiomas e regional
Disponibilidade internacional do Copilot
Movimentação de dados entre regiões geográficas
- Como funciona a movimentação de dados entre regiões
- Configurar a movimentação de dados entre locais geográficos para recursos de IA generativa fora dos Estados Unidos
- Movimentação de dados do Copilot entre regiões geográficas no Dynamics 365 Sales
- Movimentação de dados do Copilot entre regiões geográficas no Dynamics 365 Business Central
Segurança na Microsoft
- Introdução à segurança do Azure
- Criptografia no Microsoft Cloud
- Dados, privacidade e segurança do Serviço OpenAI do Azure – Serviços de IA do Azure
Privacidade da Microsoft
Política de Privacidade da Microsoft