Privacidade, segurança e uso responsável do Copilot in Fabric
Antes de sua empresa começar a usar Copilot o Fabric, você pode ter dúvidas sobre como ele funciona, como mantém seus dados corporativos seguros e adere aos requisitos de privacidade e como usar a IA generativa de forma responsável.
Este artigo fornece respostas a perguntas comuns relacionadas à segurança e privacidade de dados corporativos para ajudar sua organização a começar a usar Copilot o Fabric. O artigo Privacidade, segurança e uso responsável para Copilot no Power BI (visualização) fornece uma visão geral do Copilot Power BI. Continue lendo para obter detalhes sobre Copilot o Fabric.
Nota
- O administrador precisa habilitar a opção de locatário antes de começar a usar Copiloto . Consulte o artigo Copilot Configurações do locatário para obter detalhes.
- Sua capacidade F64 ou P1 precisa estar em uma das regiões listadas neste artigo, Disponibilidade da região de malha.
- Se o seu locatário ou capacidade estiver fora dos EUA ou da França, será desabilitado por padrão, Copilot a menos que o administrador do locatário do Fabric habilite os Dados enviados para o Azure OpenAI podem ser processados fora da região geográfica, do limite de conformidade ou da configuração de locatário da instância de nuvem nacional do seu locatário no portal de Administração do Fabric.
- Copilot no Microsoft Fabric não é suportado em SKUs de avaliação. Apenas SKUs pagas (F64 ou superior, ou P1 ou superior) são suportadas.
- Copilot in Fabric está atualmente sendo lançado em visualização pública e espera-se que esteja disponível para todos os clientes até o final de março de 2024.
- Consulte o artigo Visão geral do in Fabric e do Copilot Power BI para obter mais informações.
Os dados da sua empresa estão seguros
- Copilotusam o Serviço OpenAI do Azure, que é totalmente controlado pela Microsoft. Seus dados não são usados para treinar modelos e não estão disponíveis para outros clientes.
- Você mantém o controle sobre onde seus dados são processados. Os dados processados pelo Copilot in Fabric permanecem dentro da região geográfica do seu locatário, a menos que você permita explicitamente que os dados sejam processados fora da sua região, por exemplo, para permitir que seus usuários usem Copilot quando o Azure OpenAI não estiver disponível em sua região ou a disponibilidade for limitada devido à alta demanda. Saiba mais sobre as configurações de administrador do Copilot.
- Copilot não armazena os seus dados para monitorização de abusos. Para aumentar a privacidade e a confiança, atualizamos nossa abordagem de monitoramento de abuso: anteriormente, retínhamos dados do Copilot Fabric, contendo entradas e saídas imediatas, por até 30 dias para verificar se havia abuso ou uso indevido. Após o feedback dos clientes, eliminamos essa retenção de 30 dias. Agora, não armazenamos mais dados relacionados imediatos, demonstrando nosso compromisso inabalável com sua privacidade e segurança.
Verifique Copilot as saídas antes de usá-las
- Copilot As respostas podem incluir conteúdo impreciso ou de baixa qualidade, por isso certifique-se de que revê os resultados antes de os utilizar no seu trabalho.
- As pessoas que podem avaliar significativamente a precisão e adequação do conteúdo devem rever os resultados.
- Hoje, Copilot os recursos funcionam melhor na língua inglesa. Outros idiomas podem não funcionar tão bem.
Importante
Analise os termos de visualização suplementares do Fabric, que incluem os termos de uso do Microsoft Generative AI Service Previews.
Como Copilot funciona
Neste artigo, Copilot refere-se a uma variedade de recursos e capacidades de IA generativa no Fabric que são alimentados pelo Serviço OpenAI do Azure.
Em geral, esses recursos são projetados para gerar linguagem natural, código ou outro conteúdo com base em:
(a) insumos que você fornece, e,
(b) dados de aterramento aos quais o recurso tem acesso.
Por exemplo, o Power BI, o Data Factory e a ciência de dados oferecem Copilot chats onde você pode fazer perguntas e obter respostas contextualizadas em seus dados. Copilot para o Power BI também pode criar relatórios e outras visualizações. Copilot para o Data Factory pode transformar seus dados e explicar quais etapas ele aplicou. A ciência de dados oferece Copilot recursos fora do painel de chat, como comandos mágicos IPython personalizados em notebooks. Copilot os chats podem ser adicionados a outras experiências no Fabric, juntamente com outros recursos que são alimentados pelo Azure OpenAI sob o capô.
Essas informações são enviadas para o Serviço OpenAI do Azure, onde são processadas e uma saída é gerada. Portanto, os dados processados pelo Azure OpenAI podem incluir:
- O prompt ou entrada do usuário.
- Dados de aterramento.
- A resposta ou saída da IA.
Os dados de aterramento podem incluir uma combinação de esquema de conjunto de dados, pontos de dados específicos e outras informações relevantes para a tarefa atual do usuário. Analise cada seção de experiência para obter detalhes sobre quais dados são acessíveis aos Copilot recursos nesse cenário.
As interações com Copilot são específicas para cada usuário. Isso significa que Copilot só pode acessar dados que o usuário atual tem permissão para acessar, e suas saídas só são visíveis para esse usuário, a menos que esse usuário compartilhe a saída com outras pessoas, como compartilhar um relatório do Power BI gerado ou código gerado. Copilot não usa dados de outros usuários no mesmo locatário ou de outros locatários.
Copilot usa o Azure OpenAI, não os serviços OpenAI disponíveis publicamente, para processar todos os dados, incluindo entradas do usuário, dados de aterramento e Copilot saídas. Copilot atualmente usa uma combinação de modelos GPT, incluindo GPT 3.5. A Microsoft hospeda os modelos OpenAI no ambiente do Microsoft Azure e o Serviço não interage com nenhum serviço da OpenAI, como o ChatGPT ou a API do OpenAI. Seus dados não são usados para treinar modelos e não estão disponíveis para outros clientes. Saiba mais sobre o Azure OpenAI.
O Copilot processo
Esses recursos seguem o mesmo processo geral:
- Copilotrecebe um prompt de um usuário. Esse prompt pode ser na forma de uma pergunta que um usuário digita em um painel de bate-papo ou na forma de uma ação, como selecionar um botão que diz "Criar um relatório".
- Copilot pré-processa o prompt por meio de uma abordagem chamada aterramento. Dependendo do cenário, isso pode incluir a recuperação de dados relevantes, como esquema de conjunto de dados ou histórico de bate-papo, da sessão atual do usuário com Copiloto . O aterramento melhora a especificidade do prompt, para que o usuário obtenha respostas relevantes e acionáveis para sua tarefa específica. A recuperação de dados tem como escopo os dados acessíveis ao usuário autenticado com base em suas permissões. Consulte a secção Que dados são Copilot utilizados e como são processados?, neste artigo, para obter mais informações.
- Copilot pega a resposta do Azure OpenAI e a pós-processa. Dependendo do cenário, esse pós-processamento pode incluir verificações de IA responsáveis, filtragem com moderação de conteúdo do Azure ou restrições adicionais específicas do negócio.
- CopilotRetorna uma resposta ao usuário na forma de linguagem natural, código ou outro conteúdo. Por exemplo, uma resposta pode estar na forma de uma mensagem de chat ou código gerado, ou pode ser um formulário contextualmente apropriado, como um relatório do Power BI ou uma célula de bloco de anotações Sinapse.
- O usuário analisa a resposta antes de usá-la. Copilot As respostas podem incluir conteúdo impreciso ou de baixa qualidade, por isso é importante que os especialistas no assunto verifiquem os resultados antes de usá-los ou compartilhá-los.
Assim como cada experiência no Fabric é criada para determinados cenários e personas, de engenheiros de dados a analistas de dados, cada Copilot recurso no Fabric também foi criado com cenários e usuários exclusivos em mente. Para recursos, usos pretendidos e limitações de cada recurso, revise a seção para a experiência em que você está trabalhando.
Definições
Prompt ou entrada
O texto ou ação Copilot enviado por um usuário. Isso pode ser na forma de uma pergunta que um usuário digita em um painel de bate-papo ou na forma de uma ação, como selecionar um botão que diz "Criar um relatório".
Aterramento
Uma técnica de pré-processamento em Copilot que recupera dados adicionais contextuais ao prompt do usuário e, em seguida, envia esses dados junto com o prompt do usuário para o Azure OpenAI para gerar uma resposta mais relevante e acionável.
Resposta ou saída
O conteúdo que Copilot retorna a um usuário. Por exemplo, uma resposta pode estar na forma de uma mensagem de chat ou código gerado, ou pode ser conteúdo contextualmente apropriado, como um relatório do Power BI ou uma célula do bloco de anotações Sinapse.
Que dados são Copilot utilizados e como são tratados?
Para gerar uma resposta, Copilot use:
- O prompt ou entrada do usuário e, quando apropriado,
- Dados adicionais que são recuperados através do processo de aterramento.
Essas informações são enviadas para o Serviço OpenAI do Azure, onde são processadas e uma saída é gerada. Portanto, os dados processados pelo Azure OpenAI podem incluir:
- O prompt ou entrada do usuário.
- Dados de aterramento.
- A resposta ou saída da IA.
Os dados de aterramento podem incluir uma combinação de esquema de conjunto de dados, pontos de dados específicos e outras informações relevantes para a tarefa atual do usuário. Analise cada seção de experiência para obter detalhes sobre quais dados são acessíveis aos Copilot recursos nesse cenário.
As interações com Copilot são específicas para cada usuário. Isso significa que Copilot só pode acessar dados que o usuário atual tem permissão para acessar, e suas saídas só são visíveis para esse usuário, a menos que esse usuário compartilhe a saída com outras pessoas, como compartilhar um relatório do Power BI gerado ou código gerado. Copilot não usa dados de outros usuários no mesmo locatário ou de outros locatários.
Copilot usa o Azure OpenAI, não os serviços publicamente disponíveis da OpenAI, para processar todos os dados, incluindo entradas de usuário, dados de aterramento e Copilot saídas. Copilot atualmente usa uma combinação de modelos GPT, incluindo GPT 3.5. A Microsoft hospeda os modelos OpenAI no ambiente Azure da Microsoft e o Serviço não interage com nenhum serviço da OpenAI (por exemplo, ChatGPT ou a API OpenAI). Seus dados não são usados para treinar modelos e não estão disponíveis para outros clientes. Saiba mais sobre o Azure OpenAI.
Residência e conformidade de dados
Você mantém o controle sobre onde seus dados são processados. Os dados processados pelo Copilot in Fabric permanecem dentro da região geográfica do seu locatário, a menos que você permita explicitamente que os dados sejam processados fora da sua região, por exemplo, para permitir que seus usuários usem Copilot quando o Azure OpenAI não estiver disponível em sua região ou a disponibilidade for limitada devido à alta demanda. (Veja onde o Azure OpenAI está disponível no momento.)
Para permitir que os dados sejam processados em outro lugar, seu administrador pode ativar a configuração Os dados enviados para o Azure OpenAI podem ser processados fora da região geográfica, do limite de conformidade ou da instância de nuvem nacional do seu locatário. Saiba mais sobre as configurações de administrador do Copilot.
O que devo saber para usar Copilot com responsabilidade?
A Microsoft está comprometida em garantir que nossos sistemas de IA sejam guiados por nossos princípios de IA e Padrão de IA Responsável. Estes princípios incluem capacitar os nossos clientes para utilizarem estes sistemas de forma eficaz e de acordo com as utilizações pretendidas. A nossa abordagem à IA responsável está em constante evolução para abordar proativamente questões emergentes.
Copilot os recursos do Fabric são criados para atender ao Padrão de IA Responsável, o que significa que eles são revisados por equipes multidisciplinares quanto a possíveis danos e, em seguida, refinados para incluir mitigações para esses danos.
Antes de usar Copilot, tenha em mente as limitações de Copilot:
- Copilot As respostas podem incluir conteúdo impreciso ou de baixa qualidade, portanto, certifique-se de revisar as saídas antes de usá-las em seu trabalho.
- As pessoas que são capazes de avaliar significativamente a precisão e adequação do conteúdo devem rever os resultados.
- Atualmente, Copilot os recursos funcionam melhor na língua inglesa. Outros idiomas podem não funcionar tão bem.
Copilot para cargas de trabalho de malha
Privacidade, segurança e uso responsável para:
- Copilot para Data Factory (visualização)
- Copilot para Ciência de Dados (visualização)
- Copilot para Data Warehouse (visualização)
- Copilot para bancos de dados SQL (visualização)
- Copilot para o Power BI
- Copilot para Inteligência em Tempo Real (pré-visualização)