Schema execução
O Azure Databricks valida a qualidade dos dados impondo schema na gravação.
Observação
Este artigo descreve o comportamento padrão para tables no Azure Databricks, que são apoiados pelo Delta Lake. A aplicação da Schema não se aplica a tables apoiada por dados externos.
Schema execução para operações insert
O Azure Databricks impõe as seguintes regras ao inserir dados em um table:
- Todos os columns inseridos devem existir no tablede destino.
- Todos os tipos de dados column devem corresponder aos tipos de dados column no destino table.
Observação
Azure Databricks tenta converter com segurança column tipos de dados para que correspondam ao tablede destino.
Schema validação durante MERGE
operações
O Azure Databricks impõe as seguintes regras ao inserir ou atualizar dados como parte de uma operação de MERGE
:
- Se o tipo de dados na instrução de origem não corresponder ao columnde destino,
MERGE
tentará converter com segurança column tipos de dados para corresponder ao tablede destino. - Os columns que são o alvo de uma ação
UPDATE
ouINSERT
devem existir no tablede destino. - Ao usar a sintaxe
INSERT *
ouUPDATE SET *
:- Columns no conjunto de dados de origem não presentes no table de destino são ignorados.
- O conjunto de dados de origem deve conter todos os columns presentes no tablede destino.
Modificar tableschema
Você pode update o schema de um table usando instruções ALTER TABLE
explícitas ou evolução schema automática. Veja Update Delta Lake tableschema.
A evolução do Schema tem semântica especial para operações MERGE
. Consulte Evolução automática do schema para a fusão Delta Lake.