Privacidade, segurança e uso responsável de Copilot no Fabric
Antes de sua empresa começar a usar Copilot no Fabric, você pode ter dúvidas sobre como ele funciona, como ele mantém seus dados empresariais seguros e adere aos requisitos de privacidade e como usar a IA gerativa de forma responsável.
Este artigo fornece respostas para perguntas comuns relacionadas à segurança e privacidade de dados empresariais para ajudar sua organização a começar a usar Copilot no Fabric. O artigo Privacidade, segurança e uso responsável para Copilot no Power BI (versão prévia) fornece uma visão geral de Copilot no Power BI. Continue lendo para obter detalhes sobre o Copilot para o Fabric.
Nota
- Seu administrador precisa habilitar a opção de locatário antes de você começar a usar o Copilot. Leia o artigo Configurações de locatário do Copilot para obter detalhes.
- Sua capacidade F64 ou P1 precisa estar em uma das regiões listadas neste artigo, Disponibilidade da região Fabric.
- Se seu locatário ou capacidade estiver fora dos EUA ou da França, o Copilot estará desabilitado por padrão, a menos que o administrador do locatário do Fabric habilite a configuração de locatário Dados enviados para o Azure OpenAI podem ser processados fora da região geográfica, do limite de conformidade ou da instância de nuvem nacional do seu locatário no portal do Administrador do Fabric.
- Copilot no Fabric da Microsoft não é suportado em versões de teste. Há suporte apenas para SKUs pagos (F64 ou superior ou P1 ou superior).
- Copilot no Fabric está sendo lançado em versão prévia pública e deve estar disponível para todos os clientes até o final de março de 2024.
- Confira o artigo Visão geral do Copilot no Fabric e no Power BI para obter mais informações.
Seus dados de negócios são seguros
- Os recursos do Copilot usam o Serviço OpenAI do Azure, que é totalmente controlado pela Microsoft. Seus dados não são usados para treinar modelos e não estão disponíveis para outros clientes.
- Você mantém o controle sobre onde os dados são processados. Os dados processados por Copilot no Fabric permanecem dentro da região geográfica do locatário, a menos que você permita explicitamente que os dados sejam processados fora de sua região, por exemplo, para permitir que os usuários usem Copilot quando o Azure OpenAI não estiver disponível em sua região ou a disponibilidade for limitada devido à alta demanda. Saiba mais sobre as configurações de administrador do Copilot.
- Copilot não armazena seus dados para monitoramento de abuso. Para aprimorar a privacidade e a confiança, atualizamos nossa abordagem para o monitoramento de abusos: anteriormente, retivemos dados de Copilot no Fabric, contendo entradas e saídas de prompt, por até 30 dias para verificar se há abuso ou uso indevido. Após os comentários dos clientes, eliminamos essa retenção de 30 dias. Agora, não armazenamos mais dados relacionados à solicitação, demonstrando nosso compromisso inabalável com sua privacidade e segurança.
Verificar as saídas do Copilot antes de usá-las
- As respostas do Copilot podem incluir conteúdo impreciso ou de baixa qualidade. Portanto, revise os resultados antes de usá-los em seu trabalho.
- As pessoas que podem avaliar significativamente a precisão e a adequação do conteúdo devem examinar as saídas.
- Hoje, os recursos do Copilot funcionam melhor no idioma inglês. Outros idiomas podem não ter um bom desempenho.
Importante
Examine os termos de versão prévia complementares do Fabric, que incluem os termos de uso da versão prévia do Serviço de IA Generativa da Microsoft.
Como Copilot funciona
Neste artigo, Copilot refere-se a uma variedade de recursos e funcionalidades de IA generativos no Fabric que são alimentados pelo Serviço OpenAI do Azure.
Em geral, esses recursos são projetados para gerar linguagem natural, código ou outro conteúdo com base em:
(a) entradas que você fornece e
(b) dados de fundamentação aos quais o recurso tem acesso.
Por exemplo, o Power BI, o Data Factory e a ciência de dados oferecem chats Copilot em que você pode fazer perguntas e obter respostas contextualizadas em seus dados. Copilot do Power BI também pode criar relatórios e outras visualizações. O Copilot para Data Factory pode transformar seus dados e explicar quais etapas ele aplicou. A ciência de dados oferece recursos do Copilot fora do painel de chat, como comandos mágicos IPython personalizados em notebooks. Os chats do Copilot podem ser adicionados a outras experiências no Fabric, juntamente com outros recursos que são alimentados pelo Azure OpenAI nos bastidores.
Essas informações são enviadas ao Serviço OpenAI do Azure, onde são processadas e uma saída é gerada. Portanto, os dados processados pelo Azure OpenAI podem incluir:
- O prompt ou a entrada do usuário.
- Dados de fundamentação.
- A resposta ou saída da IA.
Os dados de aterramento podem incluir uma combinação de esquema de conjunto de dados, pontos de dados específicos e outras informações relevantes para a tarefa atual do usuário. Revise cada seção de experiência para obter detalhes sobre quais dados podem ser acessados pelas funções Copilot nesse cenário.
As interações com Copilot são específicas para cada usuário. Isso significa que Copilot só pode acessar dados que o usuário atual tem permissão para acessar, e suas saídas só são visíveis para esse usuário, a menos que esse usuário compartilhe a saída com outras pessoas, como compartilhar um relatório gerado do Power BI ou código gerado. Copilot não usa dados de outros usuários no mesmo locatário ou em outros locatários.
Copilot utiliza o Azure OpenAI—e não os serviços OpenAI disponíveis publicamente—para processar todos os dados, incluindo as entradas do usuário, dados de referência e as saídas de Copilot. Copilot atualmente usa uma combinação de modelos GPT, incluindo GPT 3.5. A Microsoft hospeda os modelos OpenAI no ambiente do Microsoft Azure e o Serviço não interage com nenhum serviço do OpenAI, como ChatGPT ou a API OpenAI. Seus dados não são usados para treinar modelos e não estão disponíveis para outros clientes. Saiba mais sobre do Azure OpenAI.
O processo de Copilot
Essas funcionalidades seguem o mesmo processo geral:
- Copilotrecebe um prompt de um usuário. Esse prompt pode estar na forma de uma pergunta que um usuário digita em um painel de chat ou na forma de uma ação, como selecionar um botão que diz "Criar um relatório".
- O Copilot processa previamente o prompt por meio de uma abordagem chamada de fundamentação. Dependendo do cenário, isso pode incluir a recuperação de dados relevantes, como esquema de conjunto de dados ou histórico de chat da sessão atual do usuário com Copilot. A fundamentação melhora a especificidade do prompt, de modo que o usuário obtém respostas relevantes e acionáveis para sua tarefa específica. A recuperação de dados tem como escopo dados acessíveis ao usuário autenticado com base em suas permissões. Veja a seção Quais dados Copilot usam e como são processados? neste artigo para obter mais informações.
- O Copilot obtém a resposta do OpenAI do Azure e a pós-processa. Dependendo do cenário, esse pós-processamento pode incluir verificações de IA responsáveis, filtragem com moderação de conteúdo do Azure ou restrições específicas de negócios adicionais.
- O Copilot retorna uma resposta ao usuário na forma de linguagem natural, código ou outro conteúdo. Por exemplo, uma resposta pode estar na forma de uma mensagem de chat ou código gerado, ou pode ser uma forma contextualmente apropriada, como um relatório do Power BI ou uma célula do notebook Synapse.
- O usuário analisa a resposta antes de usá-la. Copilot respostas podem incluir conteúdo impreciso ou de baixa qualidade, portanto, é importante que os especialistas no assunto verifiquem os resultados antes de usá-los ou compartilhá-los.
Assim como cada experiência no Fabric é criada para determinados cenários e personas, de engenheiros de dados a analistas de dados, cada Copilot recurso no Fabric também foi criado com cenários e usuários exclusivos em mente. Para capacidades, usos pretendidos e limitações de cada recurso, consulte a seção relacionada à experiência em que você está trabalhando.
Definições
Prompt ou entrada
O texto ou ação enviada ao Copilot por um usuário. Isso pode estar na forma de uma pergunta que um usuário digita em um painel de chat ou na forma de uma ação, como selecionar um botão que diz "Criar um relatório".
Fundamentação
Uma técnica de pré-processamento em que Copilot recupera dados adicionais contextuais para o prompt do usuário e envia esses dados junto com o prompt do usuário para o Azure OpenAI, a fim de gerar uma resposta mais relevante e acionável.
Resposta ou saída
O conteúdo que o Copilot retorna a um usuário. Por exemplo, uma resposta pode estar na forma de uma mensagem de chat ou código gerado, ou pode ser conteúdo contextualmente apropriado, como um relatório do Power BI ou uma célula do notebook Synapse.
Quais dados Copilot usam e como são processados?
Para gerar uma resposta, Copilot usa:
- O prompt ou a entrada do usuário e, quando apropriado,
- Dados adicionais recuperados por meio do processo de fundamentação.
Essas informações são enviadas ao Serviço OpenAI do Azure, onde são processadas e uma saída é gerada. Portanto, os dados processados pelo Azure OpenAI podem incluir:
- O prompt ou a entrada do usuário.
- Dados de fundamentação.
- A resposta ou saída da IA.
Os dados de aterramento podem incluir uma combinação de esquema de conjunto de dados, pontos de dados específicos e outras informações relevantes para a tarefa atual do usuário. Analise cada seção de experiência para obter detalhes sobre quais dados podem ser acessados aos recursos Copilot nesse cenário.
As interações com Copilot são específicas para cada usuário. Isso significa que Copilot só pode acessar dados que o usuário atual tem permissão para acessar, e suas saídas só são visíveis para esse usuário, a menos que esse usuário compartilhe a saída com outras pessoas, como compartilhar um relatório gerado do Power BI ou código gerado. Copilot não usa dados de outros usuários no mesmo locatário ou em outros locatários.
Copilot usa o Azure OpenAI, não os serviços publicamente disponíveis do OpenAI, para processar todos os dados, incluindo entradas do usuário, dados de referência e saídas de Copilot. Copilot atualmente usa uma combinação de modelos GPT, incluindo GPT 3.5. A Microsoft hospeda os modelos OpenAI no ambiente do Azure da Microsoft e o Serviço não interage com nenhum serviço pelo OpenAI (por exemplo, ChatGPT ou a API OpenAI). Seus dados não são usados para treinar modelos e não estão disponíveis para outros clientes. Saiba mais sobre do Azure OpenAI.
Residência e conformidade de dados
Você mantém o controle sobre onde os dados são processados. Os dados processados por Copilot no Fabric permanecem dentro da região geográfica do locatário, a menos que você permita explicitamente que os dados sejam processados fora de sua região, por exemplo, para permitir que os usuários usem Copilot quando o Azure OpenAI não estiver disponível em sua região ou a disponibilidade for limitada devido à alta demanda. (Consulte onde o Azure OpenAI está disponível.)
Para permitir que os dados sejam processados em outro lugar, o administrador pode ativar a configuração Os dados enviados ao Azure OpenAI podem ser processados fora da região geográfica do locatário, do limite de conformidade ou da instância de nuvem nacional. Saiba mais sobre as configurações de administrador do Copilot.
O que devo saber para usar Copilot com responsabilidade?
A Microsoft está comprometida em garantir que nossos sistemas de IA sejam guiados por nossos princípios de IA e Padrão de IA Responsável. Esses princípios incluem capacitar nossos clientes a usar esses sistemas de forma eficaz e alinhada com seus usos pretendidos. Nossa abordagem para IA responsável está evoluindo continuamente para resolver proativamente problemas emergentes.
Os recursos do Copilot no Fabric foram criados para atender ao Padrão de IA Responsável, o que significa que eles são revisados por equipes multidisciplinares quanto a possíveis danos e, em seguida, refinados para incluir mitigações para esses danos.
Antes de usar Copilot, tenha em mente as limitações de Copilot:
- As respostas do Copilot podem incluir conteúdo impreciso ou de baixa qualidade. Portanto, revise os resultados antes de usá-los no seu trabalho.
- As pessoas que são capazes de avaliar significativamente a precisão e a adequação do conteúdo devem examinar as saídas.
- Atualmente, os recursos de Copilot funcionam melhor no idioma inglês. Outros idiomas podem não ter um bom desempenho.
Copilot para cargas de trabalho do Fabric
Privacidade, segurança e uso responsável para:
- Copilot do Data Factory (versão prévia)
- Copilot para ciência de dados (versão prévia)
- Copilot para o Data Warehouse (versão prévia)
- Copilot para bancos de dados SQL (versão prévia)
- Copilot para o Power BI
- Copilot para Real-Time Intelligence (versão prévia)