Compartilhar via


Perfis de configuração da CLI do Databricks

Observação

Essas informações se aplicam às versões 0.205 e superiores da CLI do Databricks. A CLI do Databricks está em Visualização Pública.

O uso da CLI do Databricks está sujeito à Licença do Databricks e ao Aviso de Privacidade do Databricks, incluindo quaisquer disposições de Dados de Uso.

Este artigo descreve como usar a CLI do Databricks com perfis de configuração. Ele pressupõe que você já instalou a CLI do Databricks e criou um arquivo de perfis de configuração do Databricks. Confira Instalar ou atualizar a CLI do Databricks e perfis de configuração do Azure Databricks.

Obter informações sobre perfis de configuração

Adicionar vários perfis de configuração ao arquivo .databrickscfg permite executar comandos rapidamente em vários workspaces especificando o nome do perfil de configuração de destino no sinalizador --profile ou -p do comando. Se não for especificado, o perfil de configuração DEFAULT será usado.

Dica

Você pode pressionar Tab após --profile ou -p para exibir uma lista de perfis de configuração disponíveis existentes dos quais escolher.

Por exemplo, você pode ter um perfil de configuração chamado DEV que faz referência a um workspace do Azure Databricks que você usa para cargas de trabalho de desenvolvimento e um perfil de configuração separado chamado PROD que faz referência a um workspace do Azure Databricks diferente que você usa para cargas de trabalho de produção.

Por padrão, a CLI do Databricks procura esse arquivo .databrickscfg na pasta ~ (sua página inicial do usuário) no Unix, Linux ou macOS ou sua pasta %USERPROFILE% (sua página inicial do usuário) no Windows. Para alterar o caminho padrão do arquivo .databrickscfg, defina a variável de ambiente DATABRICKS_CONFIG_FILE para um caminho diferente. Confira as variáveis de ambiente e os campos específicos do .databrickscfg .

Para obter informações sobre um perfil de configuração existente, execute o comando auth env:

databricks auth env --profile <configuration-profile-name>

# Or:
databricks auth env --host <account-console-url>

# Or:
databricks auth env --host <workspace-url>

Por exemplo, aqui está a saída para um perfil configurado com a autenticação de token de acesso pessoal do Azure Databricks:

{
  "env": {
    "DATABRICKS_AUTH_TYPE": "pat",
    "DATABRICKS_CONFIG_PROFILE": "DEFAULT",
    "DATABRICKS_HOST": "https://dbc-a1b2345c-d6e7.cloud.databricks.com",
    "DATABRICKS_TOKEN": "dapi123..."
  }
}

Para obter informações sobre todos os perfis disponíveis, execute o comando auth profiles:

databricks auth profiles
Name                     Host                                            Valid
DEFAULT                  https://dbc-a1b2345c-d6e7.cloud.databricks.com  YES
Development              https://dbc-a1b2345c-d6e7.cloud.databricks.com  YES
Staging                  https://dbc-a1b2345c-d6e7.cloud.databricks.com  YES
Production               https://dbc-a1b2345c-d6e7.cloud.databricks.com  YES

A saída do comando auth profiles não exibe nenhum token de acesso. Para exibir um token de acesso, execute o comando anterior auth env.

Importante

A CLI do Databricks não funciona com um arquivo .netrc. Você pode ter um arquivo .netrc no seu ambiente para outras finalidades, mas a CLI do Databricks não usará esse arquivo .netrc.

Teste seus perfis de configuração

Para testar seus perfis de configuração e verificar se você configurou a autenticação corretamente, execute um comando que se conecta a um workspace.

Se você não especificar um perfil, o perfil padrão será usado. Por exemplo, o comando a seguir lista as versões disponíveis do Databricks Runtime para o workspace do Azure Databricks associado ao seu perfil de DEFAULT.

Observação

Esse comando pressupõe que você não tenha nenhuma variável de ambiente definida que tenha precedência sobre as configurações em seu perfil de DEFAULT. Para obter mais informações, consulte Ordem de avaliação de autenticação.

databricks clusters spark-versions

Para verificar um perfil de configuração específico, forneça o nome do perfil usando o sinalizador -p.

databricks clusters spark-versions -p PROD