Confiança e segurança do DatabricksIQ
O Databricks reconhece a importância de seus dados e a confiança que você coloca em nós quando você usa os serviços do Databricks. O Databricks está comprometido com os mais altos padrões de proteção de dados e tem implementado medidas rigorosas para garantir a proteção de suas informações.
- Seus dados não são usados para treinamento e nossos parceiros de modelo não retêm seus dados.
- Nem o Databricks nem nosso parceiro de modelos (OpenAI do Azure) treinam modelos usando dados de clientes. Seu código e a entrada não são usados para gerar sugestões exibidas para outros clientes.
- Os dados enviados pelo Databricks nesses recursos não são retidos pelo OpenAI do Azure, nem mesmo para monitoramento de abuso. Esses recursos foram excluídos da retenção de dados do Azure para essa finalidade.
- Proteção contra saída prejudicial. O Databricks também usa filtragem de conteúdo do OpenAI do Azure para proteger usuários contra conteúdo prejudicial. Além disso, o Databricks executou uma ampla avaliação com milhares de interações simuladas do usuário para garantir que as proteções implementadas para proteger contra conteúdo nocivo, jailbreaks, geração de código inseguro e uso de conteúdo de direitos autorais de terceiros sejam eficazes.
- O Databricks usa apenas os dados necessários para fornecer o serviço. Os dados só são enviados quando você interage com recursos assistivos de IA. O Databricks envia sua entrada de linguagem natural, metadados de tabela relevantes, erros, bem como código de entrada ou consultas para ajudar a retornar resultados mais relevantes para seus dados. O Databricks não envia dados em nível de linha.
- Os dados estão protegidos em trânsito. Todo o tráfego entre o Databricks e o OpenAI do Azure é criptografado em trânsito com a criptografia TLS padrão do setor.
- Dados da UE permanecem na UE. Para workspaces da União Europeia (UE), os recursos assistivos de IA usam um modelo OpenAI do Azure hospedado na UE. Consulte Geografias do Azure: residência de dados e Serviços Designados do Databricks.
Para obter mais informações sobre a privacidade do Assistente do Databricks, consulte Privacidade e segurança.
Recursos regidos pela configuração de recursos assistivos de IA com tecnologia de parceiro
A IA baseada em parceiros refere-se ao serviço OpenAI do Azure. Veja a seguir um detalhamento dos recursos regidos pela configuração de recursos assistivos de IA com tecnologia de parceiro:
Recurso | Onde o modelo está hospedado? | Controlado pela configuração de IA com tecnologia de parceiro? |
---|---|---|
Chat do Assistente do Databricks | Serviço OpenAI do Azure | Sim |
Correção rápida | Serviço OpenAI do Azure | Sim |
Comentários de UC gerados por IA | Workspaces do CSP (perfil de segurança de conformidade): serviço OpenAI do Azure | Sim, para todos os workspaces do CSP. |
Visualizações assistidas por IA/BI no painel de controle de IA e espaços complementares do Genie | Serviço OpenAI do Azure | Sim |
Genie | Serviço OpenAI do Azure | Sim |
Preenchimento automático do Assistente do Databricks | Modelo hospedado pelo Databricks | Não |
Pesquisa inteligente | Serviço OpenAI do Azure | Sim |
Usar um modelo hospedado no Databricks para o Assistente do Databricks
Importante
Esse recurso está em uma versão prévia.
Saiba mais sobre como usar um modelo hospedado pelo Databricks para alimentar o Assistente do Databricks. Esta seção explica como funciona e como usá-la.
Como funciona
O diagrama a seguir fornece uma visão geral de como um modelo hospedado pelo Databricks alimenta o Assistente do Databricks.
- Um usuário solicita ao Assistente do Databricks digitando código ou uma pergunta, selecionando Diagnosticar Erro ou destacando uma célula.
- O Databricks anexa metadados a uma solicitação e os envia para um LLM (modelo de linguagem grande) hospedado pelo Databricks. Todos os dados são criptografados em repouso. Os clientes podem usar uma CMK (chave gerenciada pelo cliente).
- A solicitação do usuário é enviada para o modelo hospedado pelo Databricks.
Os modelos hospedados pelo Databricks usam o Meta Llama 3.x
O Assistente do Databricks com modelos hospedados pelo Databricks atualmente é desenvolvido com o Meta Llama 3. O Meta Llama 3 é licenciado sob a Licença da Comunidade Meta Llama 3, Direitos autorais© Meta Platforms, Inc. Todos os direitos reservados.
Perguntas frequentes sobre modelos hospedados pelo Databricks para Assistente
Posso ter minha própria instância de servidor de modelo privado?
Não neste momento. Esta versão prévia usa Pontos de extremidade de serviço de modelo que são gerenciados e protegidos pelo Databricks. Os pontos de extremidade de serviço do modelo são sem estado, são protegidos por várias camadas de isolamento e implementam os seguintes controles de segurança para proteger seus dados:
- Cada solicitação do cliente para Model Serving é logicamente isolada, autenticada e autorizada.
- O Mosaic AI Model Serving criptografa todos os dados em repouso (AES-256) e em trânsito (TLS 1.2+).
Os metadados enviados aos modelos respeitam as permissões do Catálogo do Unity do usuário?
Sim, todos os dados enviados para o modelo respeitam as permissões do Catálogo do Unity do usuário. Por exemplo, ele não envia metadados relacionados a tabelas que o usuário não tem permissão para ver.
Onde os dados são armazenados?
O histórico de chat do Assistente do Databricks é armazenado no banco de dados do plano de controle, juntamente com o notebook. O banco de dados do plano de controle é criptografado a 256 bits do AES e os clientes que exigem controle sobre a chave de criptografia podem utilizar nosso recurso Customer-Managed Key.
Nota
- Assim como outros objetos de workspace, o período de retenção para o histórico de chat do Assistente do Databricks é definido pelo ciclo de vida do objeto. Se um usuário excluir o bloco de anotações, ele e qualquer histórico de chat associado será excluído em 30 dias.
- Se o bloco de anotações for compartilhado com outro usuário, o histórico de chat também ficará visível para esse usuário, a menos que ele seja limpo primeiro.
- Se o notebook for exportado, o histórico de chat não será exportado com ele.
- Se um administrador tiver acesso ao bloco de anotações, ele poderá abri-lo e ver o histórico de chat.
Posso trazer minha própria chave de API para meu modelo ou hospedar meus próprios modelos?
Não neste momento. O Assistente do Databricks é totalmente gerenciado e hospedado pelo Databricks. A funcionalidade do assistente depende fortemente das características de servimento de modelo (por exemplo, chamada de função), assim como do desempenho e qualidade. O Databricks avalia continuamente novos modelos para o melhor desempenho e pode atualizar o modelo em versões futuras desse recurso.
Quem é o proprietário dos dados de saída? Se o Assistente gerar código, quem será o proprietário desse IP?
O cliente tem uma saída própria.
Recusar o uso de modelos hospedados pelo Databricks
Para recusar o uso de modelos hospedados pelo Databricks:
- Clique no nome de usuário na barra superior do workspace do Databricks.
- No menu, selecione Versões Prévias.
- Desative Usar o Assistente com os modelos hospedados pelo Databricks.
Para saber mais sobre como gerenciar visualizações, consulte Gerenciar visualizações do Azure Databricks.