Privacidade, segurança e uso responsável do Copilot no Fabric
Antes de sua empresa começar a usar o Copilot no Fabric, você pode ter dúvidas sobre como ele funciona, como ele mantém seus dados corporativos seguros e segue os requisitos de privacidade e como usar a IA generativa de forma responsável.
Este artigo fornece respostas a perguntas comuns relacionadas à segurança e à privacidade de dados empresariais para ajudar sua organização a começar a usar o Copilot no Fabric. O artigo Privacidade, segurança e uso responsável para Copilot no Power BI (versão prévia) fornece uma visão geral do Copilot no Power BI. Leia mais sobre o Copilot para Fabric.
Observação
- Seu administrador precisa habilitar a opção de locatário antes de você começar a usar o Copilot. Consulte o artigo Configurações de locatário do Copilot para obter detalhes.
- Sua capacidade F64 ou P1 precisa estar em uma das regiões listadas neste artigo, Disponibilidade da região Fabric.
- Se seu locatário ou capacidade estiver fora dos EUA ou da França, o Copilot estará desabilitado por padrão, a menos que o administrador do locatário do Fabric habilite a configuração de locatário Dados enviados para o Azure OpenAI podem ser processados fora da região geográfica, do limite de conformidade ou da instância de nuvem nacional do seu locatário no portal do Administrador do Fabric.
- Não há suporte para o Copilot no Microsoft Fabric em SKUs de avaliação. Há suporte apenas para SKUs pagos (F64 ou superior ou P1 ou superior).
- Atualmente, o Copilot no Fabric está sendo lançado em visualização pública e deve estar disponível para todos os clientes até o final de março de 2024.
- Consulte o artigo Visão geral do Copilot no Fabric e no Power BI para obter mais informações.
Seus dados de negócios estão seguros
- Os recursos do Copilot usam o Serviço OpenAI do Azure, que é totalmente controlado pela Microsoft. Seus dados não são usados para treinar modelos nem ficam disponíveis para outros clientes.
- Você mantém o controle sobre onde os dados são processados. Os dados processados pelo Copilot no Fabric permanecem dentro da região geográfica do locatário, a menos que você permita explicitamente que os dados sejam processados fora de sua região, por exemplo, para permitir que os usuários usem o Copilot quando o Azure OpenAI não está disponível em sua região ou a disponibilidade fica limitada devido à alta demanda. Saiba mais sobre as configurações de administrador do Copilot.
- Copilot não armazena seus dados para monitoramento de abuso. Para aumentar a privacidade e a confiança, atualizamos nossa abordagem para o monitoramento de abusos: anteriormente, retivemos dados do Copilot no Fabric, contendo entradas e saídas de prompt, por até 30 dias para verificar se há abuso ou uso indevido. Após os comentários dos clientes, eliminamos essa retenção de 30 dias. Agora, não armazenamos mais dados relacionados imediatos, demonstrando nosso compromisso inabalável com sua privacidade e segurança.
Verificar as saídas do Copilot antes de usá-las
- As respostas do Copilot podem incluir conteúdo impreciso ou de baixa qualidade. Portanto, revise os resultados antes de usá-los no seu trabalho.
- As pessoas aptas a avaliar significativamente a precisão e a adequação do conteúdo devem analisar as saídas.
- Hoje, os recursos do Copilot funcionam melhor no idioma inglês. Outros idiomas podem não ter um bom desempenho.
Importante
Examine os termos de visualização complementares do Fabric, que incluem os termos de uso para a Versão prévia do Serviço de IA Generativa da Microsoft.
Como funciona Copilot
Neste artigo, Copilot refere-se a uma variedade de recursos e funcionalidades de IA generativa no Fabric que são alimentados pelo Serviço OpenAI do Azure.
Em geral, esses recursos são projetados para gerar linguagem natural, código ou outro conteúdo com base em:
(a) entradas que você fornece e
(b) dados de fundamentação aos quais o recurso tem acesso.
Por exemplo, o Power BI, o Data Factory e a ciência de dados oferecem chats do Copilot nos quais você pode fazer perguntas e obter respostas contextualizadas sobre seus dados. O Copilot para Power BI também pode criar relatórios e outras visualizações. O Copilot para Data Factory pode transformar seus dados e explicar quais etapas ele aplicou. A ciência de dados oferece recursos do Copilot fora do painel de chat, como comandos mágicos IPython personalizados em notebooks. Os chats do Copilot podem ser adicionados a outras experiências no Fabric, juntamente com outros recursos que são alimentados pelo Azure OpenAI nos bastidores.
Essas informações são enviadas ao Serviço OpenAI do Azure, onde são processadas e geram uma saída. Portanto, os dados processados pelo Azure OpenAI podem incluir:
- O prompt ou a entrada do usuário.
- Dados de fundamentação.
- A resposta ou saída da IA.
Os dados de fundamentação podem incluir uma combinação de esquema de conjunto de dados, pontos de dados específicos e outras informações relevantes para a tarefa atual do usuário. Examine cada seção de experiência para obter detalhes sobre quais dados podem ser acessados pelos recursos do Copilot nesse cenário.
As interações com o Copilot são específicas de cada usuário. Isso significa que o Copilot só pode acessar dados que o usuário atual tem permissão para acessar e suas saídas só ficam visíveis para esse usuário, a menos que o usuário compartilhe a saída com outras pessoas, por exemplo, compartilhar um relatório gerado pelo Power BI ou código gerado. O Copilot não usa dados de outros usuários no mesmo locatário ou em outros locatários.
O Copilot usa o Azure OpenAI, não os serviços OpenAI disponíveis publicamente, para processar todos os dados, incluindo entradas de usuário, dados de fundamentação e saídas do Copilot. Atualmente, o Copilot usa uma combinação de modelos GPT, incluindo GPT 3.5. A Microsoft hospeda os modelos OpenAI no ambiente do Microsoft Azure e o Serviço não interage com nenhum serviço do OpenAI, como ChatGPT ou a API OpenAI. Seus dados não são usados para treinar modelos nem ficam disponíveis para outros clientes. Saiba mais sobre o OpenAI do Azure.
O processo do Copilot
Esses recursos seguem o mesmo processo geral:
- O Copilot recebe um prompt de um usuário. Esse prompt pode estar na forma de uma pergunta que um usuário digita em um painel de chat ou na forma de uma ação, por exemplo, selecionar um botão que diz "Criar um relatório".
- O Copilot processa previamente o prompt por meio de uma abordagem chamada de fundamentação. Dependendo do cenário, isso pode incluir a recuperação de dados relevantes, como o esquema de conjunto de dados ou o histórico de chat da sessão atual do usuário com o Copilot. O fundamentação melhora a especificidade do prompt, de modo que o usuário obtém respostas relevantes e acionáveis para sua tarefa específica. A recuperação de dados tem como escopo dados que podem ser acessados pelo usuário autenticado com base em suas permissões. Confira a seção Quais dados o Copilot usa e como eles são processados? neste artigo para obter mais informações.
- O Copilot obtém a resposta do Azure OpenAI e faz seu pós-processamento. Dependendo do cenário, esse pós-processamento pode incluir verificações de IA responsável, filtragem com moderação de conteúdo do Azure ou restrições adicionais específicas dos negócios.
- O Copilot retorna uma resposta ao usuário na forma de linguagem natural, código ou outro conteúdo. Por exemplo, uma resposta pode estar na forma de uma mensagem de chat ou código gerado, ou pode ser uma forma contextualmente apropriada, como um relatório do Power BI ou uma célula do notebook Synapse.
- O usuário analisa a resposta antes de usá-la. As respostas do Copilot podem incluir conteúdo impreciso ou de baixa qualidade, ou seja, é importante que os especialistas no assunto verifiquem as saídas antes de usá-las ou compartilhá-las.
Assim como cada experiência no Fabric é criada para determinados cenários e personas, de engenheiros de dados a analistas de dados, cada recurso do Copilot no Fabric também foi criado com cenários e usuários exclusivos em mente. Para conhecer recursos, usos pretendidos e limitações de cada recurso, examine a seção da experiência em que você está trabalhando.
Definições
Prompt ou entrada
O texto ou a ação enviada ao Copilot por um usuário. Isso pode estar na forma de uma pergunta que um usuário digita em um painel de chat ou na forma de uma ação, por exemplo, selecionar um botão que diz "Criar um relatório".
Fundamentação
Uma técnica de pré-processamento em que o Copilot recupera dados adicionais contextuais para o prompt do usuário e envia esses dados junto com o prompt do usuário ao Azure OpenAI, a fim de gerar uma resposta mais relevante e acionável.
Resposta ou saída
O conteúdo que o Copilot retorna a um usuário. Por exemplo, uma resposta pode estar na forma de uma mensagem de chat ou código gerado, ou pode ser um conteúdo contextualmente apropriado, como um relatório do Power BI ou uma célula do notebook Synapse.
Quais dados o Copilot usa e como eles são processados?
Para gerar uma resposta, Copilot usa:
- O prompt ou a entrada do usuário e, quando apropriado,
- Dados adicionais recuperados por meio do processo de fundamentação.
Essas informações são enviadas ao Serviço OpenAI do Azure, onde são processadas e geram uma saída. Portanto, os dados processados pelo Azure OpenAI podem incluir:
- O prompt ou a entrada do usuário.
- Dados de fundamentação.
- A resposta ou saída da IA.
Os dados de fundamentação podem incluir uma combinação de esquema de conjunto de dados, pontos de dados específicos e outras informações relevantes para a tarefa atual do usuário. Examine cada seção de experiência para obter detalhes sobre quais dados podem ser acessados pelos recursos do Copilot nesse cenário.
As interações com o Copilot são específicas de cada usuário. Isso significa que o Copilot só pode acessar dados que o usuário atual tem permissão para acessar e suas saídas só ficam visíveis para esse usuário, a menos que o usuário compartilhe a saída com outras pessoas, por exemplo, compartilhar um relatório gerado pelo Power BI ou código gerado. O Copilot não usa dados de outros usuários no mesmo locatário ou em outros locatários.
O Copilot usa o Azure OpenAI, não os serviços OpenAI disponíveis publicamente, para processar todos os dados, incluindo entradas de usuário, dados de fundamentação e saídas do Copilot. Atualmente, o Copilot usa uma combinação de modelos GPT, incluindo GPT 3.5. A Microsoft hospeda os modelos OpenAI no ambiente do Microsoft Azure e o Serviço não interage com nenhum serviço do OpenAI, por exemplo, o ChatGPT ou a API OpenAI. Seus dados não são usados para treinar modelos nem ficam disponíveis para outros clientes. Saiba mais sobre o OpenAI do Azure.
Conformidade e residência de dados
Você mantém o controle sobre onde os dados são processados. Os dados processados pelo Copilot no Fabric permanecem dentro da região geográfica do locatário, a menos que você permita explicitamente que os dados sejam processados fora de sua região, por exemplo, para permitir que os usuários usem o Copilot quando o Azure OpenAI não está disponível em sua região ou a disponibilidade fica limitada devido à alta demanda. (Veja onde o Azure OpenAI está disponível no momento.)
Para permitir que os dados sejam processados em outro lugar, o administrador pode ativar a configuração Os dados enviados ao Azure OpenAI podem ser processados fora da região geográfica, do limite de conformidade ou da instância de nuvem nacional do locatário. Saiba mais sobre as configurações de administrador do Copilot.
O que devo saber para usar o Copilot com responsabilidade?
A Microsoft tem como compromisso garantir que nossos sistemas de IA sejam guiados por nossos Princípios de IA e por nosso Padrão de IA Responsável. Esses princípios incluem preparar nossos clientes para utilizar esses sistemas de forma eficaz e alinhada aos usos pretendidos. Nossa abordagem em relação à IA responsável está evoluindo continuamente para resolver proativamente os problemas que surgirem.
Os recursos do Copilot no Fabric foram criados para atender ao Padrão de IA Responsável, o que significa que eles são revisados por equipes multidisciplinares quanto a possíveis danos e, em seguida, refinados para incluir mitigações para esses danos.
Antes de usar o Copilot, tenha em mente as limitações do Copilot:
- As respostas do Copilot podem incluir conteúdo impreciso ou de baixa qualidade. Portanto, revise os resultados antes de usá-los no seu trabalho.
- As pessoas aptas a avaliar significativamente a precisão e a adequação do conteúdo devem analisar as saídas.
- Atualmente, os recursos do Copilot funcionam melhor no idioma inglês. Outros idiomas podem não ter um bom desempenho.
Cargas de trabalho do Copilot para Fabric
Privacidade, segurança e uso responsável do:
- Copilot para Data Factory (versão prévia)
- Copilot para Ciência de Dados (versão prévia)
- Copilot para Data Warehouse (versão prévia)
- Copilot para Bancos de Dados SQL (versão prévia)
- Copilot para Power BI
- Copilot para Inteligência em Tempo Real (preview)