Classes de erro no Azure Databricks
Aplica-se a: Databricks SQL Databricks Runtime 12.2 e superior
As classes de erro são cadeias de caracteres descritivas, legíveis por humanos, exclusivas para a condição de erro.
Você pode usar classes de erro para manipular programaticamente erros em seu aplicativo sem a necessidade de analisar a mensagem de erro.
Esta é uma lista de condições de erro nomeadas comuns retornadas pelo Azure Databricks.
Databricks Runtime e Databricks SQL
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
A expressão <sqlExpr>
não-determinística não deve aparecer nos argumentos de uma função agregada.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Falha ao analisar a saída do modelo ao transmitir para o returnType especificado: "<dataType>
", a resposta JSON foi: "<responseString>
". Atualize o returnType para corresponder ao conteúdo do tipo representado pelo JSON de resposta e, em seguida, tente novamente a consulta.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
A saída do modelo real tem mais de uma coluna "<responseString>
". No entanto, o tipo de retorno especificado["<dataType>
"] tem apenas uma coluna. Atualize o returnType para conter o mesmo número de colunas que a saída do modelo e, em seguida, tente novamente a consulta.
AI_FUNCTION_HTTP_REQUEST_ERROR
Ocorreu um erro ao fazer uma solicitação HTTP para a função <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Resposta HTTP inválida para a função <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
O número máximo de palavras deve ser um número inteiro não negativo, mas tem <maxWords>
.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Os parâmetros de modelo fornecidos (<modelParameters>
) são inválidos na função AI_QUERY para servir o ponto de extremidade "<endpointName>
".
Para mais detalhes, consulte AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_JSON_PARSE_ERROR
Ocorreu um erro ao analisar a resposta JSON para a função <funcName>
: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Falha ao analisar o esquema para o ponto de extremidade de serviço "<endpointName>
": <errorMessage>
, a resposta JSON foi: "<responseJson>
".
Defina o returnType
parâmetro manualmente na função AI_QUERY para substituir a resolução do esquema.
AI_FUNCTION_UNSUPPORTED_ERROR
A função <funcName>
não é suportada no ambiente atual. Ele só está disponível em Databricks SQL Pro e Serverless.
AI_FUNCTION_UNSUPPORTED_REQUEST
Falha ao avaliar a função SQL "<functionName>
" porque o argumento fornecido de tem "<invalidDataType>
", mas apenas os seguintes tipos são suportados<invalidValue>
: <supportedDataTypes>
. Atualize a chamada de função para fornecer um argumento do tipo string e tente novamente a consulta.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
Função AI: "<functionName>
" não suporta o seguinte tipo como tipo de retorno: "<typeName>
". O tipo de retorno deve ser um tipo SQL válido compreendido pelo Catalyst e suportado pela função AI. Os tipos suportados atuais incluem: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
O valor fornecido "<argValue>
" não é suportado pelo argumento "<argName>
". Os valores suportados são: <supportedValues>
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Desde que "<sqlExpr>
" não seja suportado pelo argumento returnType.
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
A Pesquisa Vetorial com tipo <embeddingColumnType>
de coluna incorporada não é suportada.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
A Pesquisa Vetorial com tipo <indexType>
de índice não é suportada.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Falha ao materializar a consulta de pesquisa vetorial do tipo <dataType>
spark para objetos nativos de scala durante a codificação de solicitação com erro: <errorMessage>
.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
A Pesquisa Vetorial com num_results maior do que não é suportada <maxLimit>
. O limite especificado foi <requestedLimit>
. Pleaase tente novamente com num_results <= <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
O uso de consultas parametrizadas de nome requer que todos os parâmetros sejam nomeados. Parâmetros em falta de nomes: <exprs>
.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Não é possível usar todas as colunas para colunas de partição.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
A coluna ALTER TABLE <type>
especifica o descritor "<optionName>
" mais de uma vez, o que é inválido.<columnName>
AMBIGUOUS_ALIAS_IN_NESTED_CTE
O nome <name>
é ambíguo no CTE aninhado.
Por favor, defina <config>
como "CORRIGIDO" para que o nome definido no CTE interno tenha precedência. Se definido como "LEGADO", as definições externas de CTE terão precedência.
Ver https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine«.
AMBIGUOUS_COLUMN_OR_FIELD
Coluna ou campo <name>
é ambíguo e tem <n>
correspondências.
AMBIGUOUS_COLUMN_REFERENCE
A coluna <name>
é ambígua. É porque você juntou vários DataFrames, e alguns desses DataFrames são os mesmos.
Esta coluna aponta para um dos DataFrames, mas o Spark não consegue descobrir qual.
Por favor, alias os DataFrames com nomes diferentes via DataFrame.alias
antes de se juntar a eles,
e especificar a coluna usando nome qualificado, por exemplo, df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
AMBIGUOUS_CONSTRAINT
Referência ambígua à restrição <constraint>
.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
O alias da coluna lateral é ambíguo <name>
e tem <n>
correspondências.
AMBIGUOUS_REFERENCE
A referência <name>
é ambígua, poderia ser: <referenceNames>
.
AMBIGUOUS_REFERENCE_TO_FIELDS
Referência ambígua ao campo <field>
. Aparece <count>
vezes no esquema.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS não é suportado.
ANSI_CONFIG_CANNOT_BE_DISABLED
A configuração <config>
ANSI SQL não pode ser desabilitada neste produto.
AQE_THREAD_INTERRUPTED
O thread AQE é interrompido, provavelmente devido ao cancelamento da consulta pelo usuário.
ARGUMENT_NOT_CONSTANT
A função <functionName>
inclui um parâmetro <parameterName>
na posição <pos>
que requer um argumento constante. Calcule o argumento <sqlExpr>
separadamente e passe o resultado como uma constante.
ARITHMETIC_OVERFLOW
<message>
.<alternative>
Se necessário, defina <config>
como "false" para ignorar esse erro.
Para mais detalhes, ver ARITHMETIC_OVERFLOW
ASSIGNMENT_ARITY_MISMATCH
O número de colunas ou variáveis atribuídas ou aliased: <numTarget>
não corresponde ao número de expressões de origem: <numExpr>
.
AS_OF_JOIN
Inválido como de adesão.
Para mais detalhes, ver AS_OF_JOIN
AVRO_DEFAULT_VALUES_UNSUPPORTED
O uso de valores padrão não é suportado quandorescuedDataColumn
está habilitado. Talvez seja possível remover essa verificação definindo spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
como false, mas os valores padrão não serão aplicados e os valores nulos ainda serão usados.
AVRO_INCOMPATIBLE_READ_TYPE
Não é possível converter Avro <avroPath>
para SQL <sqlPath>
porque o tipo de dados codificado original é <avroType>
, no entanto, você está tentando ler o campo como <sqlType>
, o que levaria a uma resposta incorreta.
Para permitir a leitura deste campo, habilite a configuração SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
O uso de correspondência de campo posicional não é suportado quando um ou rescuedDataColumn
failOnUnknownFields
está habilitado. Remova essas opções para continuar.
BATCH_METADATA_NOT_FOUND
Não é possível encontrar o lote <batchMetadataFile>
.
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
As credenciais de conexão do BigQuery devem ser especificadas com o parâmetro 'GoogleServiceAccountKeyJson' ou todos os 'projectId', 'OAuthServiceAcctEmail', 'OAuthPvtKey'
BINARY_ARITHMETIC_OVERFLOW
<value1>
<symbol>
<value2>
causou transbordamento.
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
A instrução <invalidStatement>
booleana é inválida. Linha única esperada com um valor do BOOLEAN
tipo, mas com uma linha vazia.
BUILT_IN_CATALOG
<operation>
não suporta catálogos incorporados.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
O método <methodName>
não pode ser chamado no streaming Dataset/DataFrame.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
TABELA ALTER (ALTER|CHANGE) COLUMN não pode alterar o agrupamento de tipos/subtipos de colunas de bucket, mas encontrou a coluna <columnName>
de bucket na tabela <tableName>
.
CANNOT_ALTER_PARTITION_COLUMN
TABELA ALTER (ALTER|CHANGE) COLUMN não é suportado para colunas de partição, mas encontrou a coluna <columnName>
de partição na tabela <tableName>
.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
A marca d'água precisa ser definida para reatribuir a coluna de tempo do evento. Falha ao encontrar a definição de marca d'água na consulta de streaming.
CANNOT_CAST_DATATYPE
Não é possível converter <sourceType>
para <targetType>
.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Não é possível converter Protobuf <protobufColumn>
para SQL <sqlColumn>
porque o esquema é incompatível (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Não é possível converter <protobufType>
de Protobuf para o tipo <toType>
SQL.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Não é possível converter SQL <sqlColumn>
para Protobuf <protobufColumn>
porque o esquema é incompatível (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Não é possível converter SQL <sqlColumn>
para Protobuf <protobufColumn>
porque <data>
não está em valores definidos para enum: <enumString>
.
CANNOT_COPY_STATE
Não é possível copiar o estado do catálogo, como o banco de dados atual e as exibições temporárias, do Unity Catalog para um catálogo herdado.
CANNOT_CREATE_DATA_SOURCE_TABLE
Falha ao criar tabela <tableName>
de fonte de dados :
Para mais detalhes, ver CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
O URL fornecido não pode ser decodificado: <url>
. Certifique-se de que o URL está formatado corretamente e tente novamente.
CANNOT_DELETE_SYSTEM_OWNED
A propriedade do <resourceType>
sistema não pode ser excluída.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Não é possível descartar a restrição com o nome <constraintName>
compartilhado por uma restrição CHECK
e uma restrição de CHAVE PRIMÁRIA ou CHAVE ESTRANGEIRA. Você pode soltar a CHAVE PRIMÁRIA ou
Restrição de CHAVE ESTRANGEIRA por consultas:
- TABELA ALTER .. DROP PRIMARY KEY ou
- TABELA ALTER .. SOLTAR CHAVE ESTRANGEIRA ..
CANNOT_ESTABLISH_CONNECTION
Não é possível estabelecer conexão com o banco de dados remoto <jdbcDialectName>
. Verifique as informações de conexão e credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, verifique a configuração de rede do seu espaço de trabalho e certifique-se de que ele não tenha restrições de saída para o host. Verifique também se o host não bloqueia conexões de entrada da rede onde os clusters Spark do espaço de trabalho estão implantados. ** Mensagem de erro detalhada: <causeErrorMessage>
.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Não é possível estabelecer conexão com o banco de dados remoto <jdbcDialectName>
. Verifique as informações de conexão e credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, permita o tráfego de entrada da Internet para o seu host, pois você está usando o Serverless Compute. Se suas políticas de rede não permitirem tráfego de entrada na Internet, use computação sem servidor ou entre em contato com seu representante Databricks para saber mais sobre a rede privada sem servidor. ** Mensagem de erro detalhada: <causeErrorMessage>
.
CANNOT_INVOKE_IN_TRANSFORMATIONS
As transformações e ações do conjunto de dados só podem ser invocadas pelo driver, não dentro de outras transformações do conjunto de dados; Por exemplo, DataSet1.Map(X => DataSet2.Values.Count() * X) é inválido porque a transformação de valores e a ação de contagem não podem ser executadas dentro da transformação DataSet1.Map. Para obter mais informações, consulte SPARK-28702.
CANNOT_LOAD_FUNCTION_CLASS
Não é possível carregar a classe <className>
ao registrar a função <functionName>
, certifique-se de que ela esteja no classpath.
CANNOT_LOAD_PROTOBUF_CLASS
Não foi possível carregar a classe Protobuf com o nome <protobufClassName>
. <explanation>
.
CANNOT_LOAD_STATE_STORE
Ocorreu um erro durante o estado de carregamento.
Para mais detalhes, ver CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Falha ao mesclar tipos <left>
de dados incompatíveis e <right>
. Verifique os tipos de dados das colunas que estão sendo mescladas e verifique se elas são compatíveis. Se necessário, considere converter as colunas para tipos de dados compatíveis antes de tentar a mesclagem.
CANNOT_MERGE_SCHEMAS
Esquemas de mesclagem com falha:
Esquema inicial:
<left>
Esquema que não pode ser mesclado com o esquema inicial:
<right>
.
CANNOT_MODIFY_CONFIG
Não é possível modificar o valor da configuração do Spark: <key>
.
Ver também https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements«.
CANNOT_PARSE_DECIMAL
Não é possível analisar decimal. Certifique-se de que a entrada é um número válido com separadores opcionais de vírgula ou vírgula.
CANNOT_PARSE_INTERVAL
Não é possível analisar <intervalString>
. Certifique-se de que o valor fornecido está em um formato válido para definir um intervalo. Você pode consultar a documentação para o formato correto. Se o problema persistir, verifique se o valor de entrada não é nulo ou vazio e tente novamente.
CANNOT_PARSE_JSON_FIELD
Não é possível analisar o nome <fieldName>
do campo e o valor <fieldValue>
do tipo <jsonType>
de token JSON para o tipo <dataType>
de dados Spark de destino.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Erro ao analisar bytes descritores em Protobuf FileDescriptorSet.
CANNOT_PARSE_TIMESTAMP
<message>
. Se necessário, defina <ansiConfig>
como "false" para ignorar esse erro.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Não é possível consultar MV/ST durante a inicialização.
Para mais detalhes, ver CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Não é possível ler o arquivo no caminho <path>
porque ele foi arquivado. Ajuste os filtros de consulta para excluir ficheiros arquivados.
CANNOT_READ_FILE
Não é possível ler <format>
o arquivo no caminho: <path>
.
Para mais detalhes, ver CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Não é possível ler a chave sensível '<key>
' do provedor seguro.
CANNOT_RECOGNIZE_HIVE_TYPE
Não é possível reconhecer a cadeia de caracteres do tipo hive: <fieldType>
, coluna: <fieldName>
. O tipo de dados especificado para o campo não pode ser reconhecido pelo Spark SQL. Verifique o tipo de dados do campo especificado e certifique-se de que é um tipo de dados Spark SQL válido. Consulte a documentação do Spark SQL para obter uma lista de tipos de dados válidos e seu formato. Se o tipo de dados estiver correto, certifique-se de que você está usando uma versão suportada do Spark SQL.
CANNOT_REFERENCE_UC_IN_HMS
Não é possível fazer referência a um catálogo <objType>
Unity em objetos do Hive Metastore.
CANNOT_RENAME_ACROSS_CATALOG
Não é permitido renomear um <type>
entre catálogos.
CANNOT_RENAME_ACROSS_SCHEMA
Não é permitido renomear um <type>
entre esquemas.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Não é possível resolver a coluna <name>
do quadro de dados . É provavelmente por causa de referências ilegais como df1.select(df2.col("a"))
.
CANNOT_RESOLVE_STAR_EXPAND
Não é possível resolver <targetString>
.* determinadas colunas <columns>
de entrada. Verifique se a tabela ou estrutura especificada existe e está acessível nas colunas de entrada.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Falha ao definir permissões no caminho <path>
criado de volta para <permission>
.
CANNOT_SAVE_VARIANT
Não é possível salvar o tipo de dados variante no armazenamento externo.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Não é possível clonar tabelas superficiais no Unity Catalog e no Hive Metastore.
CANNOT_SHALLOW_CLONE_NESTED
Não é possível clonar superficialmente uma tabela <table>
que já é um clone superficial.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
O clone superficial só é suportado para o tipo de tabela MANAGED. A tabela <table>
não é tabela GERENCIADA.
CANNOT_UPDATE_FIELD
Não é possível atualizar o <table>
tipo de campo <fieldName>
:
Para mais detalhes, consulte CANNOT_UPDATE_FIELD
CANNOT_UP_CAST_DATATYPE
Não é possível lançar <expression>
<sourceType>
de para <targetType>
.
<details>
CANNOT_VALIDATE_CONNECTION
A validação da conexão não é suportada <jdbcDialectName>
. Entre em contato com o suporte do Databricks para obter soluções alternativas ou defina "spark.databricks.testConnectionBeforeCreation" como "false" para ignorar o teste de conexão antes de criar um objeto de conexão.
CANNOT_WRITE_STATE_STORE
Erro ao gravar arquivos de armazenamento de estado para o provedor <providerClass>
.
Para mais detalhes, ver CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
O valor <expression>
do tipo <sourceType>
não pode ser convertido para <targetType>
porque está malformado. Corrija o valor de acordo com a sintaxe ou altere seu tipo de destino. Use try_cast
para tolerar entrada malformada e retornar NULL em vez disso.
Para mais detalhes, ver CAST_INVALID_INPUT
CAST_OVERFLOW
O valor <value>
do tipo <sourceType>
não pode ser convertido para <targetType>
devido a um estouro. Use try_cast
para tolerar estouro e retornar NULL em vez disso.
CAST_OVERFLOW_IN_TABLE_INSERT
Falha ao atribuir um valor de tipo à <targetType>
coluna ou variável <columnName>
de <sourceType>
tipo devido a um estouro. Use try_cast
no valor de entrada para tolerar estouro e retornar NULL em vez disso.
CATALOG_NOT_FOUND
O catálogo <catalogName>
não foi encontrado. Considere definir a configuração <config>
SQL para um plug-in de catálogo.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Bloco de <rddBlockId>
ponto de verificação não encontrado!
O executor que originalmente marcou essa partição não está mais vivo ou o RDD original não é mais persistente.
Se esse problema persistir, você pode considerar usar rdd.checkpoint()
em vez disso, que é mais lento do que o ponto de verificação local, mas mais tolerante a falhas.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
deve substituir um <method1>
ou <method2>
.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
não suporta a classe <cls>
como coleção resultante.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Os comandos de Sala Limpa não são suportados
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Nome inválido para fazer referência a um <type>
dentro de uma Sala Limpa. Use o nome de um <type>
's dentro da sala limpa seguindo o formato de [catalog].[ esquema]. [<type>
].
Se não tiver certeza sobre qual nome usar, você pode executar "MOSTRAR TUDO NA SALA LIMPA [clean_room]" e usar o valor na coluna "nome".
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Uma notificação de arquivo foi recebida para o arquivo: <filePath>
mas ele não existe mais. Certifique-se de que os ficheiros não são eliminados antes de serem processados. Para continuar seu fluxo, você pode definir a configuração <config>
do Spark SQL como true.
CLOUD_PROVIDER_ERROR
Erro do provedor de nuvem: <message>
CLUSTERING_COLUMNS_MISMATCH
O clustering especificado não corresponde ao da tabela <tableName>
existente.
Colunas de agrupamento especificadas: [<specifiedClusteringString>
].
Colunas de agrupamento existentes: [<existingClusteringString>
].
CLUSTERING_NOT_SUPPORTED
'<operation>
' não suporta clustering.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Entre em contato com seu representante Databricks para ativar o recurso cluster por automático.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Habilite clusteringTable.enableClusteringTableFeature para usar CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
O CLUSTER BY AUTO requer que a Otimização Preditiva esteja ativada.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO só é suportado em tabelas UC Managed .
CODEC_NOT_AVAILABLE
O codec <codecName>
não está disponível.
Para mais detalhes, ver CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Não é possível encontrar um nome curto para o codec <codecName>
.
COLLATION_INVALID_NAME
O valor <collationName>
não representa um nome de agrupamento correto. Nomes de agrupamento válidos sugeridos: [<proposals>
].
COLLATION_INVALID_PROVIDER
O valor <provider>
não representa um provedor de agrupamento correto. Os fornecedores suportados são: [<supportedProviders>
].
COLLATION_MISMATCH
Não foi possível determinar qual agrupamento usar para funções e operadores de cadeia de caracteres.
Para mais detalhes, ver COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Não é possível criar matriz com <numberOfElements>
elementos que excedam o limite <maxRoundedArrayLength>
de tamanho da matriz,
Para mais detalhes, ver COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
Aliases de coluna não são permitidos em <op>
.
COLUMN_ALREADY_EXISTS
A coluna <columnName>
já existe. Escolha outro nome ou renomeie a coluna existente.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
Não há suporte para a criação de restrições CHECK na tabela <tableName>
com políticas de máscara de coluna.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
Uma <statementType>
instrução tentou atribuir uma política de máscara de coluna a uma coluna que incluía duas ou mais outras colunas referenciadas na lista USING COLUMNS com o mesmo nome <columnName>
, que é inválida.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
Não há suporte para políticas de máscara de <tableName>
coluna:
Para mais detalhes, ver COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
Não é possível a <statementType>
<columnName>
partir da tabela <tableName>
porque ela é referenciada em uma política de máscara de coluna para coluna <maskedColumn>
. O proprietário da tabela deve remover ou alterar esta política antes de prosseguir.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
As operações MERGE INTO não suportam políticas de máscara de coluna na tabela <tableName>
de origem.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
As operações MERGE INTO não suportam a escrita em tabelas <tableName>
com políticas de máscara de coluna.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Esta instrução tentou atribuir uma política de máscara de coluna a uma coluna <columnName>
com várias partes de nome, o que é inválido.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Esta instrução tentou atribuir uma política de máscara de coluna a uma coluna e a lista USING COLUMNS incluiu o nome <columnName>
com várias partes de nome, o que é inválido.
COLUMN_MASKS_NOT_ENABLED
O suporte para definir máscaras de coluna não está habilitado
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
As políticas de máscara de coluna só são suportadas no Unity Catalog.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
Não há suporte para clone da tabela <tableName>
com políticas de máscara de coluna.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
Não há suporte para políticas de clonagem para tabela <tableName>
com máscara de coluna.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
Não há suporte para o uso de uma constante como parâmetro em uma política de máscara de coluna. Atualize o comando SQL para remover a constante da definição de máscara de coluna e tente novamente o comando.
COLUMN_MASKS_UNSUPPORTED_PROVIDER
Falha ao executar <statementType>
o comando porque a atribuição de políticas de máscara de coluna não é suportada para a fonte de dados de destino com o provedor de tabela: "<provider>
".
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
Não é possível executar <operation>
para tabela <tableName>
porque contém uma ou mais políticas de máscara de coluna com expressão(ões) de subconsulta, que ainda não são suportadas. Entre em contato com o proprietário da tabela para atualizar as políticas de máscara de coluna para continuar.
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
A coluna <columnName>
tinha o mesmo nome da coluna de destino, o que é inválido, remova a coluna da lista USANDO COLUNAS e tente novamente o comando.
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
coluna <colName>
não está definida na tabela <tableName>
, as colunas da tabela definidas são: <tableCols>
.
COLUMN_NOT_FOUND
A coluna <colName>
não pode ser encontrada. Verifique a ortografia e a correção do nome da coluna de acordo com a configuração <caseSensitiveConfig>
do SQL.
COMMA_PRECEDING_CONSTRAINT_ERROR
Inesperado '', antes da definição da(s) restrição(ões). Certifique-se de que a cláusula de restrição não comece com uma vírgula quando as colunas (e expectativas) não estiverem definidas.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
O comando COMMENT ON CONNECTION ainda não foi implementado
COMPARATOR_RETURNS_NULL
O comparador retornou um NULL para uma comparação entre <firstValue>
e <secondValue>
.
Ele deve retornar um inteiro positivo para "maior que", 0 para "igual" e um inteiro negativo para "menor que".
Para reverter para um comportamento preterido em que NULL é tratado como 0 (igual), você deve definir "spark.sql.legacy.allowNullComparisonResultInArraySort" como "true".
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Não é possível processar tipos de dados de entrada para a expressão: <expression>
.
Para mais detalhes, ver COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Outra instância desta consulta [id: <queryId>
] acabou de ser iniciada por uma sessão simultânea [runId existente: <existingQueryRunId>
new runId: <newQueryRunId>
].
CONCURRENT_STREAM_LOG_UPDATE
Atualização simultânea do log. Vários trabalhos de streaming detetados para <batchId>
o .
Certifique-se de que apenas um trabalho de streaming é executado em um local de ponto de verificação específico de cada vez.
CONFIG_NOT_AVAILABLE
A configuração <config>
não está disponível.
CONFLICTING_PARTITION_COLUMN_NAMES
Nomes de colunas de partição conflitantes detetados:
<distinctPartColLists>
Para diretórios de tabela particionados, os arquivos de dados devem viver apenas em diretórios folha.
E diretórios no mesmo nível devem ter o mesmo nome de coluna de partição.
Verifique os seguintes diretórios para arquivos inesperados ou nomes de colunas de partição inconsistentes:
<suspiciousPaths>
CONFLICTING_PROVIDER
O provedor <provider>
especificado é inconsistente com o provedor <expectedProvider>
de catálogo existente. Por favor, use 'USING <expectedProvider>
' e tente novamente o comando.
CONECTE-SE
Erro genérico do Spark Connect.
Para mais detalhes, consulte CONNECT
CONNECTION_ALREADY_EXISTS
Não é possível criar conexão <connectionName>
porque ela já existe.
Escolha um nome diferente, solte ou substitua a conexão existente ou adicione a cláusula SE NÃO EXISTE para tolerar conexões pré-existentes.
CONNECTION_NAME_CANNOT_BE_EMPTY
Não é possível executar este comando porque o nome da conexão deve estar não vazio.
CONNECTION_NOT_FOUND
Não é possível executar este comando porque o nome <connectionName>
da conexão não foi encontrado.
CONNECTION_OPTION_NOT_SUPPORTED
As ligações do tipo '<connectionType>
' não suportam a(s) seguinte(s) opção(ões): <optionsNotSupported>
. Opções suportadas: <allowedOptions>
.
CONNECTION_TYPE_NOT_SUPPORTED
Não é possível criar conexão do tipo '<connectionType>
. Tipos de ligação suportados: <allowedTypes>
.
CONSTRAINTS_REQUIRE_UNITY_CATALOG
As restrições de tabela só são suportadas no Unity Catalog.
CONVERSION_INVALID_INPUT
O valor <str>
(<fmt>
) não pode ser convertido em <targetType>
porque está malformado. Corrija o valor de acordo com a sintaxe ou altere seu formato. Use <suggestion>
para tolerar entrada malformada e retornar NULL em vez disso.
COPY_INTO_COLUMN_ARITY_MISMATCH
Não é possível escrever para <tableName>
, o motivo é
Para mais detalhes, ver COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Esquema <scheme>
inválido . COPY INTO credenciais de origem atualmente suporta apenas s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
As credenciais de origem COPY INTO devem especificar <keyList>
.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Arquivos duplicados foram confirmados em uma operação simultânea COPY INTO. Tente novamente mais tarde.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Esquema <scheme>
inválido . A encriptação de origem COPY INTO suporta apenas s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
A encriptação COPY INTO suporta apenas ADLS Gen2 ou abfss:// esquema de ficheiros
COPY_INTO_ENCRYPTION_REQUIRED
A encriptação COPY INTO source deve especificar '<key>
'.
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Opção <requiredKey>
de encriptação inválida . A criptografia COPY INTO source deve especificar '<requiredKey>
' = '<keyValue>
'.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
A funcionalidade COPY INTO '<feature>
' não é compatível com '<incompatibleSetting>
'.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO diferente de anexar dados não pode ser executado simultaneamente com outras transações. Tente novamente mais tarde.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO falhou ao carregar seu estado, o máximo de tentativas foi excedido.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Uma incompatibilidade de esquema foi detetada durante a cópia para a tabela Delta (Tabela: <table>
).
Isso pode indicar um problema com os dados de entrada ou o esquema da tabela Delta pode ser evoluído automaticamente de acordo com os dados de entrada pela configuração:
COPY_OPTIONS ('mergeSchema' = 'true')
Diferença de esquema:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
O formato dos arquivos de origem deve ser um dos CSV, JSON, AVRO, ORC, PARQUET, TEXT ou BINARYFILE. O uso de COPY INTO em tabelas Delta como fonte não é suportado, pois dados duplicados podem ser ingeridos após operações OTIMIZE. Essa verificação pode ser desativada executando o comando set spark.databricks.delta.copyInto.formatCheck.enabled = false
SQL .
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
O diretório de origem não continha nenhum arquivo analisável do tipo <format>
. Por favor, verifique o conteúdo de '<source>
'.
O erro pode ser silenciado definindo '<config>
' como 'false'.
COPY_INTO_STATE_INTERNAL_ERROR
Ocorreu um erro interno durante o processamento do estado COPY INTO.
Para mais detalhes, ver COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Falha ao analisar o comando COPY INTO.
Para mais detalhes, ver COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
O recurso COPY INTO '<feature>
' não é suportado.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Não é possível descarregar dados no formato '<formatType>
'. Os formatos suportados são <connectionType>
: <allowedFormats>
.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
O comando CREATE FOREIGN SCHEMA ainda não foi implementado
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
O comando CREATE FOREIGN TABLE ainda não foi implementado
CREATE_OR_REFRESH_MV_ST_ASYNC
Não é possível CRIAR OU ATUALIZAR exibições materializadas ou tabelas de streaming com ASYNC especificado. Remova ASYNC da instrução CREATE OR REFRESH ou use REFRESH ASYNC para atualizar exibições materializadas existentes ou tabelas de streaming de forma assíncrona.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Não é permitido criar o modo de exibição <name>
permanente sem atribuir explicitamente um alias para a expressão <attr>
.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
A coluna <columnName>
CREATE TABLE especifica o descritor "<optionName>
" mais de uma vez, o que é inválido.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Não é possível criar vista <viewName>
, a razão é
Para mais detalhes, ver CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Forneça credenciais ao criar ou atualizar locais externos.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
A opção enforceSchema
CSV não pode ser definida ao usar rescuedDataColumn
ou failOnUnknownFields
, pois as colunas são lidas pelo nome em vez de ordinal.
CYCLIC_FUNCTION_REFERENCE
Referência da função cíclica detetada: <path>
.
DATABRICKS_DELTA_NOT_ENABLED
O Databricks Delta não está ativado na sua conta.<hints>
DATATYPE_MISMATCH
Não é possível resolver <sqlExpr>
devido a incompatibilidade de tipo de dados:
Para mais detalhes, ver DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type>
requer um parâmetro length, por exemplo <type>
(10). Por favor, especifique o comprimento.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Write Lineage sem êxito: falta a relação correspondente com as políticas para CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
A fonte de dados '<provider>
' já existe. Escolha um nome diferente para a nova fonte de dados.
DATA_SOURCE_EXTERNAL_ERROR
Erro encontrado ao salvar em fonte de dados externa.
DATA_SOURCE_NOT_EXIST
Fonte de dados '<provider>
' não encontrada. Certifique-se de que a fonte de dados está registada.
DATA_SOURCE_NOT_FOUND
Falha ao localizar a fonte de dados: <provider>
. Verifique se o nome do provedor está correto e se o pacote está registrado corretamente e é compatível com sua versão do Spark.
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
A opção <option>
não deve estar vazia e não deve conter caracteres inválidos, cadeias de caracteres de consulta ou parâmetros.
DATA_SOURCE_OPTION_IS_REQUIRED
A opção <option>
é obrigatória.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
O esquema da tabela da fonte de dados não corresponde ao esquema esperado. Se você estiver usando a API DataFrameReader.schema ou criando uma tabela, evite especificar o esquema.
Esquema da fonte de dados: <dsSchema>
Esquema esperado: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
O URL JDBC não é permitido nas opções de fonte de dados, especifique as opções 'host', 'port' e 'database'.
DATETIME_OVERFLOW
Estouro da operação datetime: <operation>
.
DC_API_QUOTA_EXCEEDED
Você excedeu a cota da API para a fonte <sourceName>
de dados.
Para mais detalhes, ver DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Falha ao fazer uma conexão com a <sourceName>
fonte. Código de erro: <errorCode>
.
Para mais detalhes, ver DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Ocorreu um erro nas chamadas da API do Dynamics, errorCode: <errorCode>
.
Para mais detalhes, consulte DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Ocorreu um erro nas chamadas JDBC do Netsuite, errorCode: <errorCode>
.
Para mais detalhes, ver DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: nenhum atribuído
Ocorreu uma alteração de esquema na tabela <tableName>
da <sourceName>
fonte.
Para mais detalhes, ver DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Ocorreu um erro nas chamadas de API do ServiceNow, errorCode: <errorCode>
.
Para mais detalhes, ver DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
A ingestão do objeto <objName>
está incompleta porque o trabalho de consulta da API do Salesforce demorou muito, falhou ou foi cancelado manualmente.
Para tentar novamente, você pode executar novamente todo o pipeline ou atualizar esta tabela de destino específica. Se o erro persistir, registre um ticket. ID do trabalho: <jobId>
. Situação profissional: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Ocorreu um erro em chamadas de API do Sharepoint, errorCode: <errorCode>
.
Para mais detalhes, ver DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Ocorreu um erro na chamada da <sourceName>
API. Tipo de API de origem: <apiType>
. Código de erro: <errorCode>
.
Às vezes, isso pode acontecer quando você atinge um <sourceName>
limite de API. Se você não tiver excedido o limite da API, tente executar novamente o conector. Se o problema persistir, envie um ticket.
DC_UNSUPPORTED_ERROR
Erro não suportado aconteceu na fonte de <sourceName>
dados .
Para mais detalhes, ver DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Ocorreu um erro em chamadas de API RAAS do Workday, errorCode: <errorCode>
.
Para mais detalhes, ver DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
A precisão <precision>
decimal excede a precisão <maxPrecision>
máxima.
DEFAULT_DATABASE_NOT_EXISTS
O banco de dados <defaultDatabase>
padrão não existe, crie-o primeiro ou altere o banco de dados padrão para <defaultDatabase>
.
DEFAULT_FILE_NOT_FOUND
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando 'REFRESH TABLE tableName' no SQL ou recriando o Dataset/DataFrame envolvido. Se o cache de disco estiver obsoleto ou os arquivos subjacentes tiverem sido removidos, você poderá invalidar o cache de disco manualmente reiniciando o cluster.
DEFAULT_PLACEMENT_INVALID
Uma palavra-chave DEFAULT em um comando MERGE, INSERT, UPDATE ou SET VARIABLE não pôde ser atribuída diretamente a uma coluna de destino porque fazia parte de uma expressão.
Por exemplo: UPDATE SET c1 = DEFAULT
é permitido, mas UPDATE T SET c1 = DEFAULT + 1
não é permitido.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
A consulta de streaming foi lida a partir de uma tabela Delta inesperada (id = '<newTableId>
').
Ele costumava ler de outra tabela Delta (id = '<oldTableId>
') de acordo com o ponto de verificação.
Isso pode acontecer quando você alterou o código para ler de uma nova tabela ou excluiu e
recriou uma tabela. Reverta a alteração ou exclua o ponto de verificação da consulta de streaming
para reiniciar a partir do zero.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Não há suporte para funções de janela distintas: <windowExpr>
.
DIVIDE_BY_ZERO
Divisão por zero. Use try_divide
para tolerar divisor sendo 0 e retornar NULL em vez disso. Se necessário, defina <config>
como "false" para ignorar esse erro.
Para mais detalhes, ver DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
As expectativas só são suportadas dentro de um pipeline Delta Live Tables.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
VISUALIZAÇÕES MATERIALIZADAS com uma cláusula CLUSTER BY são suportadas apenas em um pipeline Delta Live Tables.
DLT_VIEW_LOCATION_NOT_SUPPORTED
Os locais MATERIALIZED VIEW são suportados apenas em um pipeline Delta Live Tables.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
Os esquemas MATERIALIZED VIEW com um tipo especificado são suportados apenas em um pipeline Delta Live Tables.
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
As cláusulas CONSTRAINT em uma exibição só são suportadas em um pipeline Delta Live Tables.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Nomes de campos duplicados em Arrow Struct não são permitidos, got <fieldNames>
.
DUPLICATED_MAP_KEY
Chave <key>
de mapa duplicada foi encontrada, por favor, verifique os dados de entrada.
Se você quiser remover as chaves duplicadas, você pode definir <mapKeyDedupPolicy>
como "LAST_WIN" para que a chave inserida finalmente tenha precedência.
DUPLICATED_METRICS_NAME
O nome da métrica não é exclusivo: <metricName>
. O mesmo nome não pode ser usado para métricas com resultados diferentes.
No entanto, várias instâncias de métricas com o mesmo resultado e nome são permitidas (por exemplo, auto-junções).
DUPLICATE_ASSIGNMENTS
As colunas ou variáveis <nameList>
aparecem mais de uma vez como destinos de atribuição.
DUPLICATE_CLAUSES
Encontradas cláusulas duplicadas: <clauseName>
. Por favor, remova um deles.
DUPLICATE_KEY
Encontradas chaves <keyColumn>
duplicadas .
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
A chamada para rotina <functionName>
é inválida porque inclui várias atribuições de argumento para o mesmo nome <parameterName>
de parâmetro.
Para mais detalhes, ver DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Encontrado(s) nome(s) duplicado(s) na lista de parâmetros da rotina <routineName>
definida pelo usuário: <names>
.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Encontradas coluna(s) duplicada(s) na lista de colunas da cláusula RETURNS da rotina <routineName>
definida pelo usuário: <columns>
.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
O nó anterior emitiu uma linha com eventTime=<emittedRowEventTime>
que é mais antiga que current_watermark_value=<currentWatermark>
Isso pode levar a problemas de correção nos operadores com estado a jusante no pipeline de execução.
Corrija a lógica do operador para emitir linhas após o valor atual da marca d'água global.
EMPTY_JSON_FIELD_VALUE
Falha ao analisar uma cadeia de caracteres vazia para o tipo de dados <dataType>
.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Arquivo local vazio na consulta de preparo <operation>
ENCODER_NOT_FOUND
Não foi encontrado um codificador do tipo <typeName>
para representação interna do Spark SQL.
Considere alterar o tipo de entrada para um dos suportados em '<docroot>
/sql-ref-datatypes.html'.
END_LABEL_WITHOUT_BEGIN_LABEL
O rótulo <endLabel>
final não pode existir sem o rótulo inicial.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Algumas das partições no(s) tópico(s) Kafka relatam deslocamento disponível que é menor do que o deslocamento final durante a execução da consulta com Trigger.AvailableNow. O erro pode ser transitório - reinicie a consulta e relate se ainda vir o mesmo problema.
última compensação: <latestOffset>
, compensação final: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Para a fonte de dados Kafka com Trigger.AvailableNow, o deslocamento final deve ter deslocamento menor ou igual por cada partição de tópico do que o deslocamento pré-buscado. O erro pode ser transitório - reinicie a consulta e relate se ainda vir o mesmo problema.
compensação pré-buscada: <prefetchedOffset>
, compensação final: <endOffset>
.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Erro ao ler dados avro – encontrou uma impressão digital desconhecida: <fingerprint>
, não tenho certeza de qual esquema usar.
Isso pode acontecer se você registrar esquemas adicionais depois de iniciar seu contexto de faísca.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Não é possível consultar logs de eventos de um cluster compartilhado atribuído ou sem isolamento, use um cluster compartilhado ou um armazém SQL Databricks.
EVENT_LOG_UNAVAILABLE
Não há logs de eventos disponíveis para <tableOrPipeline>
o . Tente novamente mais tarde depois que os eventos forem gerados
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
O tipo de tabela de <tableIdentifier>
é <tableType>
.
A consulta de logs de eventos oferece suporte apenas a exibições materializadas, tabelas de streaming ou pipelines Delta Live Tables
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
A hora <eventName>
do evento tem o tipo <eventType>
inválido, mas esperado "TIMESTAMP
".
EXCEED_LIMIT_LENGTH
Excede a limitação de comprimento do tipo char/varchar: <limit>
.
EXCEPT_NESTED_COLUMN_INVALID_TYPE
A coluna <columnName>
EXCEPT foi resolvida e esperava-se que fosse StructType, mas encontrou o tipo <dataType>
.
EXCEPT_OVERLAPPING_COLUMNS
As colunas em uma lista EXCEPT devem ser distintas e não sobrepostas, mas têm (<columns>
).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCETO colunas [<exceptColumns>
] foram resolvidas, mas não correspondem a nenhuma das colunas [<expandedColumns>
] da expansão em estrela.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
O nome <objectName>
da coluna/campo na cláusula EXCEPT não pode ser resolvido. Referiu-se a um dos seguintes: [<objectList>
]?
Nota: as colunas aninhadas na cláusula EXCEPT podem não incluir qualificadores (nome da tabela, nome da coluna struct pai, etc.) durante uma expansão struct; Tente remover qualificadores se eles forem usados com colunas aninhadas.
EXECUTOR_BROADCAST_JOIN_OOM
Não há memória suficiente para construir a relação <relationClassName>
de transmissão. Tamanho da relação = <relationSize>
. Memória total utilizada por esta tarefa = <taskMemoryUsage>
. Métricas do Gerenciador de Memória do Executor: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
]
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
A cláusula USING deste comando EXECUTE IMMEDIATE continha vários argumentos com o mesmo alias (<aliases>
), o que é inválido, atualize o comando para especificar aliases exclusivos e tente novamente.
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>
' espera uma visão permanente, mas <viewName>
é uma visão temporária.
EXPECT_TABLE_NOT_VIEW
'<operation>
' espera uma tabela, mas <viewName>
é uma vista.
Para mais detalhes, ver EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
A tabela <tableName>
não suporta <operation>
.
Para mais detalhes, ver EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
Falha ao decodificar uma linha para um valor das expressões: <expressions>
.
EXPRESSION_ENCODING_FAILED
Falha ao codificar um valor das expressões: <expressions>
para uma linha.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
A expressão <expr>
de coluna não pode ser classificada porque seu tipo <exprType>
não pode ser ordenado.
EXTERNAL_TABLE_INVALID_SCHEME
As tabelas externas não suportam o <scheme>
esquema.
FABRIC_REFRESH_INVALID_SCOPE
Erro ao executar 'REFRESH FOREIGN <scope>
<name>
'. Não é possível atualizar uma malha <scope>
diretamente, use 'ATUALIZAR CATÁLOGO <catalogName>
ESTRANGEIRO' para atualizar o catálogo de malha.
FAILED_EXECUTE_UDF
A função definida pelo usuário (: (<signature>
) =><result>
) falhou devido a: <reason>
.<functionName>
FAILED_FUNCTION_CALL
Falha na preparação da função <funcName>
para chamada. Por favor, verifique os argumentos da função.
FAILED_JDBC
JDBC <url>
com falha na operação:
Para mais detalhes, ver FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Falha ao analisar struct: <raw>
.
FAILED_READ_FILE
Erro ao ler o arquivo <path>
.
Para mais detalhes, consulte FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Falha ao registrar classes com Kryo.
FAILED_RENAME_PATH
Falha ao renomear <sourcePath>
para <targetPath>
como destino já existe.
FAILED_RENAME_TEMP_FILE
Falha ao renomear o arquivo <srcPath>
temporário para <dstPath>
como FileSystem.rename retornou false.
FAILED_ROW_TO_JSON
Falha ao converter o valor <value>
da linha da classe <class>
para o tipo <sqlType>
SQL de destino no formato JSON.
FAILED_TO_PARSE_TOO_COMPLEX
A instrução, incluindo possíveis funções SQL e exibições referenciadas, era muito complexa para ser analisada.
Para atenuar esse erro, divida a instrução em várias partes menos complexas.
FEATURE_NOT_ENABLED
O recurso <featureName>
não está habilitado. Considere definir a configuração <configKey>
para <configValue>
habilitar esse recurso.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
não é suportado em armazéns SQL clássicos. Para usar esse recurso, use um SQL warehouse Pro ou Serverless. Para saber mais sobre os tipos de depósito, consulte <docLink>
FEATURE_REQUIRES_UC
<feature>
não é suportado sem o Unity Catalog. Para usar esse recurso, ative o Unity Catalog. Para saber mais sobre o Catálogo Unity, consulte <docLink>
FEATURE_UNAVAILABLE
<feature>
não é suportado no seu ambiente. Para usar esse recurso, entre em contato com o Suporte da Databricks.
FIELD_ALREADY_EXISTS
Não é possível <op>
coluna, porque <fieldNames>
já existe em <struct>
.
FIELD_NOT_FOUND
Não há tal campo <fieldName>
struct em <fields>
.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
O arquivo no caminho <path>
de preparo já existe, mas OVERWRITE não está definido
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Ocorreu um erro na função fornecida pelo usuário em flatMapGroupsWithState. Motivo: <reason>
FORBIDDEN_OPERATION
A operação <statement>
não é permitida no <objectType>
: <objectName>
.
FOREACH_BATCH_USER_FUNCTION_ERROR
Ocorreu um erro na função fornecida pelo usuário no coletor de lote foreach. Motivo: <reason>
FOREACH_USER_FUNCTION_ERROR
Ocorreu um erro na função fornecida pelo usuário no coletor foreach. Motivo: <reason>
FOREIGN_KEY_MISMATCH
As colunas <parentColumns>
pai de chave estrangeira não correspondem às colunas <childColumns>
filhas de chave primária.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Não é possível executar este comando porque o nome estrangeiro <objectType>
deve estar não vazio.
FOUND_MULTIPLE_DATA_SOURCES
Detetadas várias fontes de dados com o nome '<provider>
'. Verifique se a fonte de dados não está registrada simultaneamente e localizada no classpath.
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json inferência encontrou atualizações de esquema conflitantes em: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json encontrado columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) presente
em um objeto JSON e não pode mais continuar. Configure um valor diferente para
a opção 'columnNameOfCorruptRecord'.
FROM_JSON_CORRUPT_SCHEMA
from_json inferência não pôde ler o esquema armazenado em: <location>
FROM_JSON_INFERENCE_FAILED
from_json foi incapaz de inferir o esquema. Por favor, forneça um em vez disso.
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json inferência só é suportada ao definir tabelas de streaming
FROM_JSON_INVALID_CONFIGURATION
from_json configuração é inválida:
Para mais detalhes, ver FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json não pôde evoluir de <old>
para <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
A função <function>
requer parâmetros nomeados. Parâmetros em falta de nomes: <exprs>
. Atualize a chamada de função para adicionar nomes para todos os parâmetros, por exemplo, <function>
(param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Uma coluna não pode ter um valor padrão e uma expressão de geração, mas a coluna <colName>
tem o valor padrão: (<defaultValue>
) e a expressão de geração: (<genExpr>
).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
O Hive 2.2 e versões inferiores não suportam getTablesByType. Use o Hive 2.3 ou versão superior.
GET_WARMUP_TRACING_FAILED
Falha ao obter rastreamento de aquecimento. Causa: <cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
A função get_warmup_tracing() não é permitida.
GRAPHITE_SINK_INVALID_PROTOCOL
Protocolo de grafite inválido: <protocol>
.
GRAPHITE_SINK_PROPERTY_MISSING
Pia de grafite requer propriedade '<property>
'.
GROUPING_COLUMN_MISMATCH
A coluna de agrupamento (<grouping>
) não pode ser encontrada em colunas <groupingColumns>
de agrupamento .
GROUPING_ID_COLUMN_MISMATCH
As colunas de grouping_id (<groupingIdColumn>
) não correspondem ao agrupamento de colunas (<groupByColumns>
).
GROUPING_SIZE_LIMIT_EXCEEDED
O tamanho dos conjuntos de agrupamento não pode ser maior que <maxSize>
.
GROUP_BY_AGGREGATE
Funções agregadas não são permitidas em GROUP BY, mas encontradas <sqlExpr>
.
Para mais detalhes, ver GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
refere-se a uma expressão <aggExpr>
que contém uma função agregada. Funções agregadas não são permitidas em GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
A posição <index>
GROUP BY não está na lista de seleção (o intervalo válido é [1, <size>
]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
A expressão <sqlExpr>
não pode ser usada como uma expressão de agrupamento porque seu tipo <dataType>
de dados não é um tipo de dados ordenável.
HDFS_HTTP_ERROR
Ao tentar ler a partir do HDFS, a solicitação HTTP falhou.
Para mais detalhes, ver HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
Chamada inválida para <function>
; apenas buffers de esboço HLL válidos são suportados como entradas (como aqueles hll_sketch_agg
produzidos pela função).
HLL_INVALID_LG_K
Chamada inválida para <function>
; o lgConfigK
valor deve estar entre <min>
e <max>
, inclusive: <value>
.
HLL_UNION_DIFFERENT_LG_K
Os esboços têm valores diferentes lgConfigK
: <left>
e <right>
. Defina o allowDifferentLgConfigK
parâmetro como true para chamar <function>
com valores diferentes lgConfigK
.
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
não é um identificador válido, pois tem mais de 2 partes de nome.
ILLEGAL_STATE_STORE_VALUE
Valor ilícito fornecido ao Espólio do Estado
Para mais detalhes, ver ILLEGAL_STATE_STORE_VALUE
INCOMPARABLE_PIVOT_COLUMN
Coluna <columnName>
dinâmica inválida . As colunas dinâmicas devem ser comparáveis.
INCOMPATIBLE_COLUMN_TYPE
<operator>
só pode ser executado em tabelas com tipos de coluna compatíveis. A <columnOrdinalNumber>
coluna da tabela é <dataType1>
um <tableOrdinalNumber>
tipo que não é compatível com <dataType2>
a mesma coluna da primeira tabela.<hint>
.
INCOMPATIBLE_DATASOURCE_REGISTER
Detetado um DataSourceRegister incompatível. Remova a biblioteca incompatível do classpath ou atualize-a. Erro: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Não é possível gravar dados incompatíveis para a tabela <tableName>
:
Para mais detalhes, ver INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
Os tipos <joinType1>
de junção e <joinType2>
são incompatíveis.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
A consulta SQL de exibição <viewName>
tem uma alteração de esquema incompatível e a coluna <colName>
não pode ser resolvida. Colunas esperadas <expectedNum>
nomeadas <colName>
, mas obtêm <actualCols>
.
Tente recriar a vista executando: <suggestion>
.
INCOMPLETE_TYPE_DEFINITION
Tipo complexo incompleto:
Para mais detalhes, ver INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Você pode obter um resultado diferente devido à atualização para
Para mais detalhes, ver INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
, requer pelo menos <minArgs>
argumentos e, no máximo<maxArgs>
, <functionName>
argumentos.
INCORRECT_RAMP_UP_RATE
Max offset com <rowsPerSecond>
rowsPerSecond é <maxSeconds>
, mas 'rampUpTimeSeconds' é <rampUpTimeSeconds>
.
INDETERMINATE_COLLATION
A função chamada requer conhecimento do agrupamento que deve aplicar, mas o agrupamento indeterminado foi encontrado. Use a função COLLATE para definir o agrupamento explicitamente.
INDEX_ALREADY_EXISTS
Não é possível criar o índice <indexName>
na tabela <tableName>
porque ele já existe.
INDEX_NOT_FOUND
Não é possível encontrar o índice <indexName>
na tabela <tableName>
.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
O tipo <trigger>
de gatilho não é suportado para este tipo de cluster.
Use um tipo de gatilho diferente, por exemplo, AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Não é possível escrever para <tableName>
, o motivo é
Para mais detalhes, ver INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Não é possível escrever em '<tableName>
', <reason>
:
Colunas da tabela: <tableColumns>
.
Colunas de partição com valores estáticos: <staticPartCols>
.
Colunas de dados: <dataColumns>
.
INSUFFICIENT_PERMISSIONS
Privilégios insuficientes:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
O usuário <user>
tem privilégios insuficientes para localização <location>
externa.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Não há proprietário para <securableName>
. Peça ao administrador para definir um proprietário.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
O usuário não possui <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE
O usuário não tem permissão <action>
em <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
O proprietário de <securableName>
é diferente do proprietário de <parentSecurableName>
.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
A credencial <credentialName>
de armazenamento tem privilégios insuficientes.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
O usuário não pode <action>
ativar <securableName>
devido a permissões em protegíveis subjacentes.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
O usuário não pode <action>
ativar <securableName>
devido a permissões em protegíveis subjacentes:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
<message>
.<alternative>
INTERVAL_DIVIDED_BY_ZERO
Divisão por zero. Use try_divide
para tolerar divisor sendo 0 e retornar NULL em vez disso.
INVALID_AGGREGATE_FILTER
A expressão <filterExpr>
FILTER em uma função agregada é inválida.
Para mais detalhes, consulte INVALID_AGGREGATE_FILTER
INVALID_ARRAY_INDEX
O índice <indexValue>
está fora dos limites. A matriz tem <arraySize>
elementos. Use a função get()
SQL para tolerar o elemento de acesso em índice inválido e retornar NULL em vez disso. Se necessário, defina <ansiConfig>
como "false" para ignorar esse erro.
Para mais detalhes, ver INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
O índice <indexValue>
está fora dos limites. A matriz tem <arraySize>
elementos. Use try_element_at
para tolerar o elemento de acesso no índice inválido e retornar NULL em vez disso. Se necessário, defina <ansiConfig>
como "false" para ignorar esse erro.
Para mais detalhes, ver INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_BITMAP_POSITION
A posição <bitPosition>
de bitmap indexado 0 está fora dos limites. O bitmap tem <bitmapNumBits>
bits (<bitmapNumBytes>
bytes).
INVALID_BOOLEAN_STATEMENT
Declaração booleana é esperada na condição, mas <invalidStatement>
foi encontrada.
INVALID_BOUNDARY
O limite <boundary>
é inválido: <invalidValue>
.
Para mais detalhes, ver INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Não é possível usar <type>
para coluna de bucket. Não há suporte para tipos de dados agrupados para bucketing.
INVALID_BUCKET_FILE
Arquivo de bucket inválido: <path>
.
INVALID_BYTE_STRING
O formato esperado é ByteString, mas foi <unsupported>
(<class>
).
INVALID_COLUMN_NAME_AS_PATH
A fonte <datasource>
de dados não pode salvar a coluna <columnName>
porque seu nome contém alguns caracteres que não são permitidos em caminhos de arquivo. Por favor, use um alias para renomeá-lo.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Coluna ou campo <name>
é do tipo <type>
enquanto é necessário ser <expectedType>
.
INVALID_CONF_VALUE
O valor '<confValue>
' na configuração "<confName>
" é inválido.
Para mais detalhes, consulte INVALID_CONF_VALUE
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient
só pode ser usada na CREATE VIEW
instrução ou na ALTER VIEW
instrução para definir uma exibição somente compartilhamento no Unity Catalog.
INVALID_CURSOR
O cursor é inválido.
Para mais detalhes, ver INVALID_CURSOR
INVALID_DATETIME_PATTERN
Padrão datetime não reconhecido: <pattern>
.
Para mais detalhes, ver INVALID_DATETIME_PATTERN
INVALID_DEFAULT_VALUE
Falha ao executar <statement>
o comando porque a coluna ou variável <colName>
de destino tem um valor <defaultValue>
DEFAULT ,
Para mais detalhes, ver INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Valor inválido para delimitador.
Para mais detalhes, ver INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
O catálogo de destino do comando SYNC deve estar dentro do Unity Catalog. Encontrado <catalog>
.
INVALID_DRIVER_MEMORY
A memória <systemMemory>
do sistema deve ser, pelo menos <minSystemMemory>
, .
Aumente o tamanho da pilha usando a opção –driver-memory ou "<config>
" na configuração do Spark.
INVALID_DYNAMIC_OPTIONS
Opções passadas <option_list> são proibidas para table_name> de mesa <estrangeiras.
INVALID_EMPTY_LOCATION
O nome do local não pode ser uma cadeia de caracteres vazia, mas <location>
foi fornecido.
INVALID_ESC
Encontrada uma cadeia de escape inválida: <invalidEscape>
. A cadeia de escape deve conter apenas um caractere.
INVALID_ESCAPE_CHAR
EscapeChar
deve ser uma string literal de comprimento um, mas tem <sqlExpr>
.
INVALID_EXECUTOR_MEMORY
A memória <executorMemory>
do executor deve ser pelo menos <minSystemMemory>
.
Aumente a memória do executor usando a opção –executor-memory ou "<config>
" na configuração do Spark.
INVALID_EXPRESSION_ENCODER
Encontrado um codificador de expressão inválido. Espera uma instância de ExpressionEncoder, mas obteve <encoderType>
. Para mais informações, consultar «<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html».
INVALID_EXTRACT_BASE_FIELD_TYPE
Não é possível extrair um valor de <base>
. Precisa de um tipo complexo [STRUCT
, ARRAY
, MAP
] mas tem <other>
.
INVALID_EXTRACT_FIELD
Não é possível extrair <field>
de <expr>
.
INVALID_EXTRACT_FIELD_TYPE
O nome do <extraction>
campo deve ser uma cadeia de caracteres não nula literal, mas é .
INVALID_FIELD_NAME
O nome <fieldName>
do campo é inválido: <path>
não é uma struct.
INVALID_FORMAT
O formato é inválido: <format>
.
Para mais detalhes, ver INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
A fração de segundo deve ser zero. O intervalo válido é [0, 60]. Se necessário, defina <ansiConfig>
como "false" para ignorar esse erro.
INVALID_HANDLE
O identificador <handle>
é inválido.
Para mais detalhes, ver INVALID_HANDLE
INVALID_IDENTIFIER
O identificador <ident>
não citado é inválido e deve ser novamente citado como: <ident>
.
Os identificadores não citados só podem conter letras ASCII ('a' - 'z', 'A' - 'Z'), dígitos ('0' - '9') e barra inferior ('_').
Os identificadores não cotados também não devem começar com um dígito.
Diferentes fontes de dados e meta-armazenamentos podem impor restrições adicionais a identificadores válidos.
INVALID_INDEX_OF_ZERO
O índice 0 é inválido. Um índice deve ser 0 < ou > 0 (o primeiro elemento tem o índice 1).
INVALID_INLINE_TABLE
Tabela embutida inválida.
Para mais detalhes, ver INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Erro ao analisar '<input>
' para intervalo. Certifique-se de que o valor fornecido está em um formato válido para definir um intervalo. Você pode consultar a documentação para o formato correto.
Para mais detalhes, ver INVALID_INTERVAL_FORMAT
INVALID_INVERSE_DISTRIBUTION_FUNCTION
Função <funcName>
de distribuição inversa inválida .
Para mais detalhes, ver INVALID_INVERSE_DISTRIBUTION_FUNCTION
INVALID_JOIN_TYPE_FOR_JOINWITH
Tipo de junção inválido em joinWith: <joinType>
.
INVALID_JSON_DATA_TYPE
Falha ao converter a cadeia de caracteres JSON '<invalidType>
' em um tipo de dados. Introduza um tipo de dados válido.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Os agrupamentos só podem ser aplicados a tipos de cadeia de caracteres, mas o tipo de dados JSON é <jsonType>
.
INVALID_JSON_ROOT_FIELD
Não é possível converter o campo raiz JSON para o tipo Spark de destino.
INVALID_JSON_SCHEMA_MAP_TYPE
O esquema <jsonSchema>
de entrada só pode conter STRING
como um tipo de chave para um MAP
arquivo .
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
O valor da configuração "<bufferSizeConfKey>
" deve ser inferior a 2048 MiB, mas tem <bufferSizeConfValue>
MiB.
INVALID_LABEL_USAGE
O uso do rótulo <labelName>
é inválido.
Para mais detalhes, consulte INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Chamada de função lambda inválida.
Para mais detalhes, ver INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
A <joinType>
correlação JOIN com LATERAL não é permitida porque uma subconsulta OUTER não pode ser correlacionada com seu parceiro de junção. Remova a correlação LATERAL ou use uma JUNÇÃO INTERNA ou uma JUNÇÃO EXTERNA ESQUERDA.
INVALID_LIMIT_LIKE_EXPRESSION
A expressão limite como é <expr>
inválida.
Para mais detalhes, ver INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOCATION
O nome do local não pode ser um URI inválido, mas <location>
foi fornecido.
INVALID_NON_ABSOLUTE_PATH
O caminho <path>
não absoluto fornecido não pode ser qualificado. Atualize o caminho para ser um local de montagem dbfs válido.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
O operador espera uma expressão determinística, mas a expressão real é <sqlExprs>
.
INVALID_NUMERIC_LITERAL_RANGE
O literal <rawStrippedQualifier>
numérico está fora do intervalo válido para <typeName>
com valor mínimo de <minValue>
e valor máximo de <maxValue>
. Por favor, ajuste o valor em conformidade.
INVALID_OBSERVED_METRICS
Métricas observadas inválidas.
Para mais detalhes, ver INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Opções inválidas:
Para mais detalhes, ver INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
O grupo agregado pandas UDF <functionList>
não pode ser invocado juntamente com outras funções agregadas não-pandas.
INVALID_PARAMETER_MARKER_VALUE
Um mapeamento de parâmetros inválido foi fornecido:
Para mais detalhes, ver INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
O valor do(s) parâmetro(s) <parameter>
em <functionName>
é inválido:
Para mais detalhes, ver INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Não é possível usar <type>
para coluna de partição.
INVALID_PARTITION_OPERATION
O comando partition é inválido.
Para mais detalhes, ver INVALID_PARTITION_OPERATION
INVALID_PIPELINE_ID
A ID <pipelineId>
do pipeline não é válida.
Um ID de pipeline deve ser um UUID no formato 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'
INVALID_PRIVILEGE
O privilégio <privilege>
não é válido para <securable>
.
INVALID_PROPERTY_KEY
<key>
é uma chave de propriedade inválida, por favor, use aspas, por exemplo, SET <key>
=<value>
.
INVALID_PROPERTY_VALUE
<value>
é um valor de propriedade inválido, por favor, use aspas, por exemplo, SET <key>
=<value>
INVALID_QUERY_MIXED_QUERY_PARAMETERS
A consulta parametrizada deve usar parâmetros posicionais ou nomeados, mas não ambos.
INVALID_S3_COPY_CREDENTIALS
As credenciais COPY INTO devem incluir AWS_ACCESS_KEY, AWS_SECRET_KEY e AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
O modo <mode>
de gravação especificado é inválido. Os modos de salvamento válidos incluem "append", "overwrite", "ignore", "error", "errorifexists" e "default".
INVALID_SCHEMA
O esquema <inputSchema>
de entrada não é uma cadeia de caracteres de esquema válida.
Para mais detalhes, ver INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name>
não é um nome válido para tabelas/esquemas. Os nomes válidos contêm apenas caracteres do alfabeto, números e _.
INVALID_SCHEME
O catálogo Unity não suporta <name>
como o esquema de arquivo padrão.
INVALID_SECRET_LOOKUP
Pesquisa secreta inválida:
Para mais detalhes, ver INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
O formato esperado é 'SET', 'SET key' ou 'SET key=value'. Se você quiser incluir caracteres especiais na chave ou incluir ponto-e-vírgula no valor, use aspas invertidas, por exemplo, SET key
=value
.
INVALID_SHARED_ALIAS_NAME
O <sharedObjectType>
nome do alias deve ter a forma "schema.name".
INVALID_SINGLE_VARIANT_COLUMN
A singleVariantColumn
opção não pode ser usada se houver também um esquema especificado pelo usuário.
INVALID_SOURCE_CATALOG
O catálogo de origem não deve estar dentro do Unity Catalog para o comando SYNC. Encontrado <catalog>
.
INVALID_SQL_ARG
O argumento <name>
de sql()
é inválido. Considere substituí-lo por um literal SQL ou por funções do construtor de coleção, como map()
, array()
, struct()
.
INVALID_SQL_SYNTAX
Sintaxe SQL inválida:
Para mais detalhes, ver INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Caminho de preparo inválido na consulta de preparo <operation>
: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
A cláusula INTO de EXECUTE IMMEDIATE só é válida para consultas, mas a instrução dada não é uma consulta: <sqlString>
.
INVALID_STATEMENT_OR_CLAUSE
A declaração ou cláusula: <operation>
não é válida.
INVALID_SUBQUERY_EXPRESSION
Subconsulta inválida:
Para mais detalhes, ver INVALID_SUBQUERY_EXPRESSION
INVALID_TEMP_OBJ_REFERENCE
Não é possível criar o objeto <objName>
persistente do tipo <obj>
porque ele faz referência ao objeto <tempObjName>
temporário do tipo <tempObj>
. Torne o objeto <tempObjName>
temporário persistente ou torne o objeto <objName>
persistente temporário.
INVALID_TIMESTAMP_FORMAT
O carimbo de data/hora <timestamp>
fornecido não corresponde à sintaxe <format>
esperada.
INVALID_TIME_TRAVEL_SPEC
Não é possível especificar a versão e o carimbo de data/hora quando a tabela percorre o tempo.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
A expressão <expr>
de carimbo de data/hora de viagem no tempo é inválida.
Para mais detalhes, ver INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
O valor do literal <valueType>
digitado é inválido: <value>
.
INVALID_UDF_IMPLEMENTATION
Function <funcName>
não implementa um ScalarFunction ou AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command>
<supportedOrNot>
a tabela de origem está no Hive Metastore e a tabela de destino está no Unity Catalog.
INVALID_URL
O url é inválido: <url>
. Se necessário, defina <ansiConfig>
como "false" para ignorar esse erro.
INVALID_USAGE_OF_STAR_OR_REGEX
Uso inválido de <elem>
in <prettyName>
.
INVALID_UTF8_STRING
Sequência de bytes UTF8 inválida encontrada na cadeia de caracteres: <str>
.
INVALID_UUID
A entrada <uuidInput>
não é um UUID válido.
O UUID deve ter o formato 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'
Por favor, verifique o formato do UUID.
INVALID_VARIABLE_DECLARATION
Declaração de variável inválida.
Para mais detalhes, ver INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Tipo de variável deve ser tipo de cadeia de caracteres, mas tem <varType>
.
INVALID_VARIANT_CAST
O valor <value>
da variante não pode ser convertido em <dataType>
. Por favor, use try_variant_get
em vez disso.
INVALID_VARIANT_FROM_PARQUET
Variante inválida.
Para mais detalhes, ver INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
O caminho <path>
não é um caminho de extração de variante válido no <functionName>
.
Um caminho válido deve começar com $
e é seguido por zero ou mais segmentos como [123]
, .name
, ['name']
, ou ["name"]
.
INVALID_WHERE_CONDITION
A condição <condition>
WHERE contém expressões inválidas: <expressionList>
.
Reescreva a consulta para evitar funções de janela, funções de agregação e funções de gerador na cláusula WHERE.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Não é possível especificar ORDER BY ou uma moldura de janela para <aggFunc>
.
INVALID_WRITER_COMMIT_MESSAGE
O gravador da fonte de dados gerou um número inválido de mensagens de confirmação. Esperava exatamente uma mensagem de confirmação do gravador de cada tarefa, mas recebeu <detail>
.
INVALID_WRITE_DISTRIBUTION
A distribuição de gravação solicitada é inválida.
Para mais detalhes, ver INVALID_WRITE_DISTRIBUTION
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
A condição <joinCondition>
de junção tem o tipo <conditionType>
inválido, esperado "BOOLEAN
".
KAFKA_DATA_LOSS
Alguns dados podem ter sido perdidos porque já não estão disponíveis em Kafka;
ou os dados foram envelhecidos por Kafka ou o tópico pode ter sido excluído antes de todos os dados no
tópico foi processado.
Se você não quiser que sua consulta de streaming falhe nesses casos, defina a opção de origem failOnDataLoss como false.
Motivo:
Para mais detalhes, ver KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Não foi possível ler até o número <endSeqNum>
de sequência desejado para fragmento <shardId>
em
kinesis stream <stream>
com modo <consumerMode>
de consumidor . A consulta falhará devido a
potencial perda de dados. O último registro lido foi no número sequencial <lastSeqNum>
.
Isso pode acontecer se os dados com endSeqNum já tiverem sido envelhecidos ou se o fluxo do Kinesis tiver sido
suprimido e reconstruído com o mesmo nome. O comportamento de falha pode ser substituído
definindo spark.databricks.kinesis.failOnDataLoss como false na configuração do spark.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
O shardId mínimo obtido do Kinesis (<fetchedShardId>
)
é inferior ao shardId mínimo rastreado (<trackedShardId>
).
Isso é inesperado e ocorre quando um fluxo do Kinesis é excluído e recriado com o mesmo nome,
e uma consulta de streaming usando esse fluxo do Kinesis é reiniciada usando um local de ponto de verificação existente.
Reinicie a consulta de streaming com um novo local de ponto de verificação ou crie um fluxo com um novo nome.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Para estilhaços <shard>
, o último registro lido do Kinesis em buscas anteriores tem número <lastSeqNum>
de sequência,
que é maior do que o registro lido na busca atual com número <recordSeqNum>
de seqüência.
Isso é inesperado e pode acontecer quando a posição inicial de nova tentativa ou próxima busca é inicializada incorretamente e pode resultar em registros duplicados a jusante.
KRYO_BUFFER_OVERFLOW
Falha na serialização do Kryo: <exceptionMsg>
. Para evitar isso, aumente o valor "<bufferSizeConfKey>
".
LABELS_MISMATCH
O rótulo <beginLabel>
Begin não corresponde ao rótulo <endLabel>
final.
LOAD_DATA_PATH_NOT_EXISTS
O caminho de entrada LOAD DATA não existe: <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL deve ser usado juntamente com o esquema de file
, mas obteve: <actualSchema>
.
LOCATION_ALREADY_EXISTS
Não é possível nomear a tabela gerenciada como <identifier>
, pois seu local <location>
associado já existe. Escolha um nome de tabela diferente ou remova primeiro o local existente.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Algumas das partições no(s) tópico(s) Kafka foram perdidas durante a execução da consulta com Trigger.AvailableNow. O erro pode ser transitório - reinicie a consulta e relate se ainda vir o mesmo problema.
topic-partitions for latest offset: <tpsForLatestOffset>
, topic-partitions for end offset: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Mensagens Avro malformadas são detetadas na desserialização de mensagens. Modo de análise: <mode>
. Para processar a mensagem Avro malformada como resultado nulo, tente definir a opção 'modo' como 'PERMISSIVO'.
MALFORMED_CHARACTER_CODING
Valor inválido encontrado ao executar <function>
com <charset>
MALFORMED_CSV_RECORD
Registro CSV malformado: <badRecord>
MALFORMED_RECORD_IN_PARSING
Registros malformados são detetados na análise de registros: <badRecord>
.
Modo de análise: <failFastMode>
. Para processar registros malformados como resultado nulo, tente definir a opção 'modo' como 'PERMISSIVO'.
Para mais detalhes, ver MALFORMED_RECORD_IN_PARSING
MALFORMED_VARIANT
O binário variante está malformado. Verifique se a fonte de dados é válida.
MANAGED_TABLE_WITH_CRED
Não há suporte para a criação de tabela gerenciada com credencial de armazenamento.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Não é possível <refreshType>
a visualização materializada porque é anterior a ter um pipelineId. Para ativar <refreshType>
, solte e recrie a visualização materializada.
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
A operação <operation>
de visualização materializada não é permitida:
Para mais detalhes, ver MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
A expressão <expression>
de saída em uma exibição materializada deve ser explicitamente aliased.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
Não foi possível criar uma vista <name>
materializada com a consulta de streaming. Use CREATE [OR REFRESH] STREAMING TABLE ou remova a palavra-chave STREAM para sua cláusula FROM para transformar essa relação em uma consulta em lote.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
A operação <operation>
não é suportada em visualizações materializadas para esta versão.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Não é possível criar a nova variável <variableName>
porque o número de variáveis na sessão excede o número máximo permitido (<maxNumVariables>
).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch precisa ser um número inteiro positivo menor ou igual a <kinesisRecordLimit>
MERGE_CARDINALITY_VIOLATION
A condição de pesquisa ON da instrução MERGE correspondia a uma única linha da tabela de destino com várias linhas da tabela de origem.
Isso pode resultar na operação da linha de destino mais de uma vez com uma operação de atualização ou exclusão e não é permitido.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT não está habilitado.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
O valor fornecido "<argValue>
" não é suportado pelo argumento "<argName>
" para a função de tabela METRIC_STORE.
Para mais detalhes, ver METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
A função <functionName>
Metric Store está atualmente desativada neste ambiente.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
A fonte de dados Kafka em Trigger.AvailableNow deve fornecer as mesmas partições de tópico em deslocamento pré-buscado para deslocamento final para cada microlote. O erro pode ser transitório - reinicie a consulta e relate se ainda vir o mesmo problema.
topic-partitions for pre-fetched offset: <tpsForPrefetched>
, topic-partitions for end offset: <tpsForEndOffset>
.
MISSING_AGGREGATION
A expressão <expression>
não agregante baseia-se em colunas que não participam na cláusula GROUP BY.
Adicione as colunas ou a expressão ao GRUPO POR, agregue a expressão ou use <expressionAnyValue>
se você não se importar com qual dos valores dentro de um grupo é retornado.
Para mais detalhes, consulte MISSING_AGGREGATION
MISSING_CONNECTION_OPTION
As ligações do tipo '<connectionType>
' devem incluir a(s) seguinte(s) opção(ões): <requiredOptions>
.
MISSING_GROUP_BY
A consulta não inclui uma cláusula GROUP BY. Adicione GROUP BY ou transforme-o nas funções de janela usando cláusulas OVER.
MISSING_NAME_FOR_CHECK_CONSTRAINT
A restrição CHECK deve ter um nome.
MISSING_PARAMETER_FOR_KAFKA
O parâmetro <parameterName>
é necessário para Kafka, mas não é especificado em <functionName>
.
MISSING_PARAMETER_FOR_ROUTINE
O parâmetro <parameterName>
é obrigatório, mas não é especificado em <functionName>
.
MISSING_WINDOW_SPECIFICATION
A especificação da janela não está definida na cláusula WINDOW para <windowName>
. Para obter mais informações sobre as cláusulas WINDOW, consulte '<docroot>
/sql-ref-syntax-qry-select-window.html'.
MODIFY_BUILTIN_CATALOG
Não há suporte para a modificação do catálogo <catalogName>
interno.
MULTIPLE_LOAD_PATH
O Databricks Delta não suporta vários caminhos de entrada na API load().
caminhos: <pathList>
. Para criar um único DataFrame carregando
vários caminhos da mesma tabela Delta, carregue o caminho raiz de
a tabela Delta com os filtros de partição correspondentes. Se os vários caminhos
são de diferentes tabelas Delta, use as APIs union()/unionByName() do Dataset
para combinar os DataFrames gerados por chamadas de API load() separadas.
MULTIPLE_MATCHING_CONSTRAINTS
Encontrado pelo menos duas restrições correspondentes com a condição dada.
MULTIPLE_TIME_TRAVEL_SPEC
Não é possível especificar a viagem no tempo na cláusula e nas opções de viagem no tempo.
MULTIPLE_XML_DATA_SOURCE
Detetadas várias fontes de dados com o nome <provider>
(<sourceNames>
). Especifique o nome da classe totalmente qualificada ou remova <externalSource>
do classpath.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
A expressão <expr>
não suporta mais de uma fonte.
MULTI_UDF_INTERFACE_ERROR
Não é permitido implementar várias interfaces UDF, classe <className>
UDF.
MUTUALLY_EXCLUSIVE_CLAUSES
Cláusulas ou opções <clauses>
mutuamente exclusivas . Por favor, remova uma destas cláusulas.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
A consulta de entrada espera um <expectedType>
, mas a tabela subjacente é um <givenType>
arquivo .
NAMED_PARAMETERS_NOT_SUPPORTED
Parâmetros nomeados não são suportados para a função <functionName>
, tente novamente a consulta com argumentos posicionais para a chamada de função.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Não é possível chamar a função <functionName>
porque as referências de argumento nomeado não são suportadas. Neste caso, a referência do argumento nomeado foi <argument>
.
NAMED_PARAMETER_SUPPORT_DISABLED
Não é possível chamar a função <functionName>
porque as referências de argumento nomeado não estão habilitadas aqui.
Neste caso, a referência do argumento nomeado foi <argument>
.
Defina "spark.sql.allowNamedFunctionArguments" como "true" para ativar o recurso.
NAMESPACE_ALREADY_EXISTS
Não é possível criar namespace <nameSpaceName>
porque ele já existe.
Escolha um nome diferente, solte o namespace existente ou adicione a cláusula SE NÃO EXISTE para tolerar namespace pré-existente.
NAMESPACE_NOT_EMPTY
Não é possível soltar um namespace <nameSpaceNameName>
porque ele contém objetos.
Use DROP NAMESPACE ... CASCADE para soltar o namespace e todos os seus objetos.
NAMESPACE_NOT_FOUND
O namespace <nameSpaceName>
não pode ser encontrado. Verifique a ortografia e a correção do namespace.
Se você não qualificou o nome com, verifique a saída current_schema() ou qualifique o nome com o corretamente.
Para tolerar o erro ao soltar, use DROP NAMESPACE, SE EXISTIR.
NATIVE_IO_ERROR
Falha na solicitação nativa. requestId: <requestId>
, nuvem: <cloud>
, operação: <operation>
solicitação: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
erro: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
A Fonte de Dados XML Nativa não está habilitada neste cluster.
NESTED_AGGREGATE_FUNCTION
Não é permitido usar uma função agregada no argumento de outra função agregada. Use a função de agregação interna em uma subconsulta.
NESTED_EXECUTE_IMMEDIATE
Não são permitidos comandos aninhados EXECUTE IMMEDIATE . Certifique-se de que a consulta SQL fornecida (<sqlString>
) não contém outro comando EXECUTE IMMEDIATE .
NONEXISTENT_FIELD_NAME_IN_LIST
O(s) campo(s) <nonExistFields>
não existe(m). Campos disponíveis: <fieldNames>
NON_FOLDABLE_ARGUMENT
A função <funcName>
requer que o parâmetro <paramName>
seja uma expressão dobrável do tipo <paramType>
, mas o argumento real é um não-dobrável.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula MATCHED em uma instrução MERGE, somente a última cláusula MATCHED pode omitir a condição.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quando houver mais de uma cláusula NOT MATCHED BY SOURCE em uma instrução MERGE, somente a última cláusula NOT MATCHED BY SOURCE poderá omitir a condição.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED [BY TARGET] em uma instrução MERGE, somente a última cláusula NOT MATCHED [BY TARGET] pode omitir a condição.
NON_LITERAL_PIVOT_VALUES
Expressões literais necessárias para valores de pivô, encontradas <expression>
.
NON_PARTITION_COLUMN
A cláusula PARTITION não pode conter a coluna não-partição: <columnName>
.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
A função de janela não é suportada em <windowFunc>
(como coluna <columnName>
) no streaming de DataFrames/Datasets.
O Streaming Estruturado suporta apenas a agregação de janelas de tempo usando a função WINDOW. (especificação da janela: <windowSpec>
)
NOT_ALLOWED_IN_FROM
Não permitido na cláusula FROM:
Para mais detalhes, consulte NOT_ALLOWED_IN_FROM
NOT_A_CONSTANT_STRING
A expressão <expr>
usada para a rotina ou cláusula <name>
deve ser uma constante STRING
que NÃO é NULA.
Para mais detalhes, ver NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
A operação <operation>
não é permitida porque <tableIdentWithDB>
não é uma tabela particionada.
NOT_A_SCALAR_FUNCTION
<functionName>
aparece como uma expressão escalar aqui, mas a função foi definida como uma função de tabela. Atualize a consulta para mover a chamada de função para a cláusula FROM ou redefina <functionName>
como uma função escalar.
NOT_A_TABLE_FUNCTION
<functionName>
aparece como uma função de tabela aqui, mas a função foi definida como uma função escalar. Atualize a consulta para mover a chamada de função para fora da cláusula FROM ou redefina <functionName>
como uma função de tabela.
NOT_NULL_ASSERT_VIOLATION
O valor NULL apareceu no campo não anulável: <walkedTypePath>
Se o esquema for inferido a partir de uma classe de tupla/caso Scala ou de um bean Java, tente usar scala. Option[_] ou outros tipos anuláveis (como java.lang.Integer em vez de int/scala. Int).
NOT_NULL_CONSTRAINT_VIOLATION
Atribuir um NULL não é permitido aqui.
Para mais detalhes, ver NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER/CHANGE COLUMN não é suportado para alterar a coluna <originName>
de 's com type <originType>
para <newName>
com type <newType>
.<table>
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
não é suportado para tabelas v2.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
não é suportado, se você quiser ativá-lo, defina "spark.sql.catalogImplementation" como "hive".
NOT_SUPPORTED_IN_JDBC_CATALOG
Comando não suportado no catálogo JDBC:
Para mais detalhes, ver NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>
não é suportado em um SQL <endpoint>
.
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
não é suportado em computação sem servidor.
NOT_UNRESOLVED_ENCODER
Codificador não resolvido esperado, mas <attr>
foi encontrado.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Não é possível determinar o valor padrão para <colName>
uma vez que não é anulável e não tem valor padrão.
NO_HANDLER_FOR_UDAF
Nenhum manipulador para UDAF '<functionName>
'. Use sparkSession.udf.register(...) em vez disso.
NO_MERGE_ACTION_SPECIFIED
df.mergeInto precisa ser seguido por pelo menos um de whenMatched/whenNotMatched/whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: nenhum atribuído
Nenhum local externo pai foi encontrado para o caminho '<path>
'. Crie um local externo em um dos caminhos pai e tente novamente a consulta ou o comando.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Não é possível encontrar <catalystFieldPath>
no esquema Protubuf.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: nenhum atribuído
Nenhum local de armazenamento foi encontrado para a tabela '<tableId>
' ao gerar credenciais de tabela. Verifique o tipo de tabela e o URL do local da tabela e, em seguida, tente novamente a consulta ou o comando.
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE: nenhum atribuído
O catálogo '<catalog>
' não foi encontrado. Verifique o nome do catálogo e tente novamente a consulta ou o comando.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: nenhum atribuído
A sala limpa '<cleanroom>
' não existe. Verifique se o nome da sala limpa está escrito corretamente e corresponde ao nome de uma sala limpa existente válida e, em seguida, tente novamente a consulta ou o comando.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: nenhum atribuído
A localização externa '<externalLocation>
' não existe. Verifique se o nome do local externo está correto e tente novamente a consulta ou o comando.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: nenhum atribuído
O metastore não foi encontrado. Peça ao administrador da conta para atribuir um metastore ao espaço de trabalho atual e, em seguida, tente novamente a consulta ou o comando.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: nenhum atribuído
O provedor de compartilhamento '<providerName>
' não existe. Verifique se o nome do provedor de compartilhamento está escrito corretamente e corresponde ao nome de um nome de provedor existente válido e, em seguida, tente novamente a consulta ou o comando novamente.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: nenhum atribuído
O destinatário '<recipient>
' não existe. Verifique se o nome do destinatário está escrito corretamente e corresponde ao nome de um destinatário existente válido e, em seguida, tente novamente a consulta ou o comando novamente.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: nenhum atribuído
A partilha '<share>
' não existe. Verifique se o nome do compartilhamento está escrito corretamente e corresponde ao nome de um compartilhamento existente válido e, em seguida, tente novamente a consulta ou o comando novamente.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: nenhum atribuído
A credencial de armazenamento '<storageCredential>
' não existe. Verifique se o nome da credencial de armazenamento está escrito corretamente e corresponde ao nome de uma credencial de armazenamento existente válida e, em seguida, tente novamente a consulta ou o comando.
NO_SUCH_USER_EXCEPTION
SQLSTATE: nenhum atribuído
O usuário '<userName>
' não existe. Verifique se o usuário ao qual você concede permissão ou altera a propriedade está escrito corretamente e corresponde ao nome de um usuário existente válido e, em seguida, tente novamente a consulta ou o comando novamente.
NO_UDF_INTERFACE
A classe <className>
UDF não implementa nenhuma interface UDF.
NULLABLE_COLUMN_OR_FIELD
A coluna ou campo <name>
é anulável enquanto é necessário que não seja anulável.
NULLABLE_ROW_ID_ATTRIBUTES
Os atributos de ID de linha não podem ser anulados: <nullableRowIdAttrs>
.
NULL_DATA_SOURCE_OPTION
A opção <option>
de leitura/gravação da fonte de dados não pode ter valor nulo.
NULL_MAP_KEY
Não é possível usar null como chave de mapa.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Executar imediatamente requer uma variável não nula como a cadeia de caracteres de consulta, mas a variável <varName>
fornecida é nula.
NUMERIC_OUT_OF_SUPPORTED_RANGE
O valor <value>
não pode ser interpretado como numérico, uma vez que tem mais de 38 dígitos.
NUMERIC_VALUE_OUT_OF_RANGE
Para mais detalhes, ver NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator>
só pode ser realizada em entradas com o mesmo número de colunas, mas a primeira entrada tem <firstNumColumns>
colunas e a <invalidOrdinalNum>
entrada tem <invalidNumColumns>
colunas.
NUM_TABLE_VALUE_ALIASES_MISMATCH
O número de aliases fornecidos não corresponde ao número de colunas de saída.
Nome da função: <funcName>
; número de aliases: <aliasesNum>
; número de colunas de saída: <outColsNum>
.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Nenhuma declaração de identidade personalizada foi fornecida.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
A função <functionName>
de chamada não é suportada neste <location>
, <supportedFunctions>
suportada aqui.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
A operação <operation>
SQL só é suportada em conectores SQL Databricks com suporte ao Catálogo Unity.
OPERATION_CANCELED
A operação foi cancelada.
OPERATION_REQUIRES_UNITY_CATALOG
A operação <operation>
requer o Unity Catalog ativado.
OP_NOT_SUPPORTED_READ_ONLY
<plan>
não é suportado no modo de sessão somente leitura.
ORDER_BY_POS_OUT_OF_RANGE
A posição <index>
ORDER BY não está na lista de seleção (intervalo válido é [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Não é possível criar um conversor Parquet para o tipo <dataType>
de dados cujo tipo Parquet é <parquetType>
.
Para mais detalhes, ver PARQUET_CONVERSION_FAILURE
PARSE_EMPTY_STATEMENT
Erro de sintaxe, instrução vazia inesperada.
PARSE_SYNTAX_ERROR
Erro de sintaxe em ou perto de <error>
<hint>
.
PARTITIONS_ALREADY_EXIST
Não é possível ADICIONAR ou RENOMEAR TO partição(ões) <partitionList>
na tabela <tableName>
porque eles já existem.
Escolha um nome diferente, solte a partição existente ou adicione a cláusula SE NÃO EXISTE para tolerar uma partição pré-existente.
PARTITIONS_NOT_FOUND
A(s) partição(ões) não pode(m) ser encontrada(s) <partitionList>
na tabela <tableName>
.
Verifique a especificação da partição e o nome da tabela.
Para tolerar o erro na queda use ALTER TABLE ... SOLTE SE EXISTIR PARTIÇÃO.
PARTITION_LOCATION_ALREADY_EXISTS
A localização <locationPath>
da partição já existe na tabela <tableName>
.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Falha ao executar a instrução ALTER TABLE SET PARTITION LOCATION, porque o
O local <location>
da partição não está sob o diretório <table>
da tabela.
Para corrigi-lo, defina o local da partição para um subdiretório de <table>
.
PARTITION_METADATA
<action>
não é permitido na tabela <tableName>
, uma vez que o armazenamento de metadados de partição não é suportado no Unity Catalog.
PATH_ALREADY_EXISTS
Caminho <outputPath>
já existe. Defina o modo como "substituir" para substituir o caminho existente.
PATH_NOT_FOUND
Caminho não existe: <path>
.
PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION
A função <expr>
de agregação não é permitida ao usar o operador de tubo |> Cláusula SELECT; Por favor, use o operador de tubo |> Em vez disso, a cláusula AGREGADA
PIVOT_VALUE_DATA_TYPE_MISMATCH
Valor de pivô inválido '<value>
': o tipo <valueType>
de dados de valor não corresponde ao tipo <pivotType>
de dados de coluna dinâmica.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
Procedimento <procedureName>
aguarda <expected>
argumentos, mas <actual>
foram fornecidos.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE com uma definição de rotina vazia não é permitido.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
O parâmetro <parameterName>
é definido com o modo <parameterMode>
de parâmetro . Os parâmetros OUT e INOUT não podem ser omitidos ao invocar uma rotina e, portanto, não suportam uma expressão DEFAULT. Para continuar, remova a cláusula DEFAULT ou altere o modo de parâmetro para IN.
PROCEDURE_NOT_SUPPORTED
O procedimento armazenado não é suportado
PROCEDURE_NOT_SUPPORTED_WITH_HMS
O procedimento armazenado não é suportado com o Hive Metastore. Em vez disso, use o Catálogo Unity.
PROTOBUF_DEPENDENCY_NOT_FOUND
Não foi possível encontrar dependência: <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Erro ao ler o arquivo descritor Protobuf no caminho: <filePath>
.
PROTOBUF_FIELD_MISSING
Procurando <field>
no esquema Protobuf em <protobufSchema>
partidas dadas <matchSize>
. Candidatos: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Encontrado <field>
no esquema Protubuf, mas não há correspondência no esquema SQL.
PROTOBUF_FIELD_TYPE_MISMATCH
Incompatibilidade de tipo encontrada para o campo: <field>
.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Não há suporte para classes Java para <protobufFunction>
. Entre em contato com o Suporte da Databricks para obter informações sobre opções alternativas.
PROTOBUF_MESSAGE_NOT_FOUND
Não é possível localizar Mensagem <messageName>
no Descritor.
PROTOBUF_TYPE_NOT_SUPPORT
Tipo de protobuf ainda não suportado: <protobufType>
.
PS_FETCH_RETRY_EXCEPTION
A tarefa no estágio de busca pubsub não pode ser repetida. Partição <partitionInfo>
em estágio <stageInfo>
, TID <taskId>
.
PS_INVALID_EMPTY_OPTION
<key>
não pode ser uma cadeia de caracteres vazia.
PS_INVALID_KEY_TYPE
Tipo de chave inválido para PubSub dedup: <key>
.
PS_INVALID_OPTION
A opção <key>
não é suportada pelo PubSub. Ele só pode ser usado em testes.
PS_INVALID_OPTION_TYPE
Tipo inválido para <key>
. Tipo esperado de <key>
ser tipo <type>
.
PS_INVALID_READ_LIMIT
Limite de leitura inválido no fluxo PubSub: <limit>
.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Inválido UnsafeRow para decodificar para PubSubMessageMetadata, o esquema proto desejado é: <protoSchema>
. A entrada UnsafeRow pode estar corrompida: <unsafeRow>
.
PS_MISSING_AUTH_INFO
Falha ao encontrar informações completas de autenticação do PubSub.
PS_MISSING_REQUIRED_OPTION
Não foi possível encontrar a opção necessária: <key>
.
PS_MOVING_CHECKPOINT_FAILURE
Falha ao mover arquivos de ponto de verificação de dados brutos do diretório de <src>
destino: <dest>
.
PS_MULTIPLE_FAILED_EPOCHS
O fluxo PubSub não pode ser iniciado, pois há mais de uma busca com falha: <failedEpochs>
.
PS_OPTION_NOT_IN_BOUNDS
<key>
deve estar dentro dos seguintes limites (<min>
, <max>
) exclusivos de ambos os limites.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Os clusters compartilhados não oferecem suporte à autenticação com perfis de instância. Forneça credenciais para o fluxo diretamente usando .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
O conector de origem PubSub só está disponível em cluster com spark.speculation
desabilitado.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Ocorreu um erro ao tentar criar uma subscrição <subId>
no tópico <topicId>
. Verifique se existem permissões suficientes para criar uma subscrição e tente novamente.
PS_UNABLE_TO_PARSE_PROTO
Não é possível analisar bytes serializados para gerar proto.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset não é suportado sem fornecer um limite.
PYTHON_DATA_SOURCE_ERROR
Falha na fonte <type>
de <action>
dados Python :<msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Falha quando a fonte de dados de streaming Python é executada <action>
: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Não é possível acessar a tabela referenciada porque uma máscara de coluna atribuída anteriormente é atualmente incompatível com o esquema da tabela; Para continuar, entre em contato com o proprietário da tabela para atualizar a política:
Para mais detalhes, ver QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Não é possível acessar a tabela referenciada porque uma diretiva de segurança de nível de linha atribuída anteriormente é atualmente incompatível com o esquema da tabela; Para continuar, entre em contato com o proprietário da tabela para atualizar a política:
Para mais detalhes, ver QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
READ_CURRENT_FILE_NOT_FOUND
<message>
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando 'REFRESH TABLE tableName' no SQL ou recriando o Dataset/DataFrame envolvido.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
A invocação da função <functionName>
tem <parameterName>
e <alternativeName>
set, que são aliases uns dos outros. Por favor, defina apenas um deles.
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
O parâmetro <parameterName>
de função <functionName>
necessário deve ser atribuído na posição <expectedPos>
sem o nome.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Apenas TIMESTAMP
os tipos /TIMESTAMP_LTZ/TIMESTAMP_NTZ são suportados para carimbo de data/hora de expiração do destinatário.
RECURSIVE_PROTOBUF_SCHEMA
Referência recursiva encontrada no esquema Protubuf, que não pode ser processado pelo Spark por padrão: <fieldDescriptor>
. Tente definir a opção recursive.fields.max.depth
1 a 10. Não é permitido ir além de 10 níveis de recursão.
RECURSIVE_VIEW
Vista recursiva detetada <viewIdent>
(ciclo: <newPath>
).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Referências a valores de coluna DEFAULT não são permitidas na cláusula PARTITION.
RELATION_LARGER_THAN_8G
Não é possível construir um que seja maior que o <relationName>
8G.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
A solicitação HTTP remota falhou com código <errorCode>
e mensagem de erro <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Falha ao avaliar a <functionName>
função SQL devido à incapacidade de analisar o resultado JSON da resposta HTTP remota; a mensagem de erro é <errorMessage>
. Verifique a documentação da API: <docUrl>
. Corrija o problema indicado na mensagem de erro e tente novamente a consulta.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Falha ao avaliar a <functionName>
função SQL devido à incapacidade de processar a resposta HTTP remota inesperada; a mensagem de erro é <errorMessage>
. Verifique a documentação da API: <docUrl>
. Corrija o problema indicado na mensagem de erro e tente novamente a consulta.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
A solicitação remota falhou após novas tentativas <N>
, o último código de erro HTTP falhou e <errorCode>
a mensagem foi <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Falha ao avaliar a <functionName>
função SQL porque <errorMessage>
. Verifique os requisitos em <docUrl>
. Corrija o problema indicado na mensagem de erro e tente novamente a consulta.
RENAME_SRC_PATH_NOT_FOUND
Falha ao renomear como <sourcePath>
não foi encontrado.
REPEATED_CLAUSE
A <clause>
cláusula pode ser utilizada no máximo uma vez por <operation>
operação.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
O parâmetro da função <functionName>
necessária foi atribuído na posição <positionalIndex>
sem o <parameterName>
nome.
Atualize a chamada de função para remover o argumento nomeado com <parameterName>
para este parâmetro ou remover o posicional
em e, em <positionalIndex>
seguida, tente a consulta novamente.
REQUIRED_PARAMETER_NOT_FOUND
Não é possível invocar a função <functionName>
porque o parâmetro nomeado <parameterName>
é necessário, mas a chamada de função não forneceu um valor. Atualize a chamada de função para fornecer um valor de argumento (posicionalmente no índice <index>
ou pelo nome) e tente novamente a consulta.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
requer um namespace de parte única, mas tem <namespace>
.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
A opção de leitor de API DataFrame 'rescuedDataColumn' é mutuamente exclusiva com a opção de API DataFrame 'singleVariantColumn'.
Remova um deles e, em seguida, tente novamente a operação DataFrame novamente.
RESERVED_CDC_COLUMNS_ON_WRITE
A gravação contém colunas <columnList>
reservadas que são usadas
internamente como metadados para o Change Data Feed. Para gravar na tabela renomear/soltar
estas colunas ou desative Alterar Feed de Dados na tabela definindo
<config>
para falsear.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
A opção <option>
tem valores restritos em clusters compartilhados para a <source>
origem.
Para mais detalhes, ver RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
Não é possível criar o <newRoutineType>
<routineName>
porque um <existingRoutineType>
desse nome já existe.
Escolha um nome diferente, solte ou substitua o existente <existingRoutineType>
, ou adicione a cláusula SE NÃO EXISTE para tolerar um pré-existente <newRoutineType>
.
ROUTINE_NOT_FOUND
A rotina <routineName>
não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e catálogo, verifique a saída current_schema() ou qualifique o nome com o esquema e catálogo corretos.
Para tolerar o erro na queda use DROP ... SE EXISTE.
ROUTINE_PARAMETER_NOT_FOUND
A função <functionName>
não suporta o parâmetro <parameterName>
especificado na posição <pos>
.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
A função <routineName>
não pode ser criada porque o nome de classe especificado '<className>
' está reservado para uso do sistema. Renomeie a classe e tente novamente.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Não há suporte para a criação de restrições CHECK na tabela <tableName>
com políticas de segurança em nível de linha.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Uma <statementType>
instrução tentou atribuir uma diretiva de segurança em nível de linha a uma tabela, mas duas ou mais colunas referenciadas tinham o mesmo nome <columnName>
, o que é inválido.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Não há suporte para políticas de segurança em nível de linha para <tableName>
:
Para mais detalhes, ver ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Não é possível fazer <statementType>
<columnName>
a partir da tabela <tableName>
porque ela é referenciada em uma diretiva de segurança em nível de linha. O proprietário da tabela deve remover ou alterar esta política antes de prosseguir.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
As operações MERGE INTO não suportam políticas de segurança ao nível da linha na tabela <tableName>
de origem.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
As operações MERGE INTO não suportam a escrita em tabela <tableName>
com políticas de segurança ao nível da linha.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Esta instrução tentou atribuir uma política de segurança em nível de linha a uma tabela, mas a coluna <columnName>
referenciada tinha várias partes de nome, o que é inválido.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
As políticas de segurança em nível de linha são suportadas apenas no Unity Catalog.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
Não há suporte para clone da tabela <tableName>
com diretiva de segurança em nível de linha.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
Não há suporte para clonar para tabela <tableName>
com diretiva de segurança em nível de linha.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Não há suporte para o uso de uma constante como parâmetro em uma diretiva de segurança em nível de linha. Atualize o comando SQL para remover a constante da definição do filtro de linha e, em seguida, tente novamente o comando.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Falha ao executar <statementType>
o comando porque a atribuição de diretiva de segurança em nível de linha não é suportada para a fonte de dados de destino com o provedor de tabela: "<provider>
".
ROW_SUBQUERY_TOO_MANY_ROWS
Mais de uma linha retornada por uma subconsulta usada como linha.
ROW_VALUE_IS_NULL
Encontrado NULL em uma linha no índice <index>
, esperado um valor não-NULL.
RULE_ID_NOT_FOUND
Não foi encontrado um id para o nome da regra "<ruleName>
". Modifique RuleIdCollection.scala se estiver adicionando uma nova regra.
SAMPLE_TABLE_PERMISSIONS
Permissões não suportadas em bancos de dados/tabelas de exemplo.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
A subconsulta escalar correlacionada '<sqlExpr>
' não está presente em GROUP BY, nem em uma função agregada.
Adicione-o ao GRUPO USANDO a posição ordinal ou envolva-o em (ou first_value
) se você não se importar com first()
o valor que você recebe.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Mais de uma linha retornada por uma subconsulta usada como expressão.
SCHEDULE_PERIOD_INVALID
O período de agendamento para <timeUnit>
deve ser um valor inteiro entre 1 e <upperBound>
(inclusive). Recebido: <actual>
.
SCHEMA_ALREADY_EXISTS
Não é possível criar esquema <schemaName>
porque ele já existe.
Escolha um nome diferente, solte o esquema existente ou adicione a cláusula SE NÃO EXISTE para tolerar o esquema pré-existente.
SCHEMA_NOT_EMPTY
Não é possível soltar um esquema <schemaName>
porque ele contém objetos.
Use DROP SCHEMA ... CASCADE para soltar o esquema e todos os seus objetos.
SCHEMA_NOT_FOUND
O esquema <schemaName>
não pode ser encontrado. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um catálogo, verifique a saída current_schema() ou qualifique o nome com o catálogo correto.
Para tolerar o erro ao soltar use DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Não foi possível inicializar o esquema do registro do esquema. <reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
O segundo argumento de <functionName>
função precisa ser um inteiro.
SECRET_FUNCTION_INVALID_LOCATION
Não é possível executar <commandType>
o comando com uma ou mais referências não criptografadas para a função SECRET, criptografe o resultado de cada chamada de função com AES_ENCRYPT e tente o comando novamente
SEED_EXPRESSION_IS_UNFOLDABLE
A expressão <seedExpr>
semente da expressão <exprWithSeed>
deve ser dobrável.
SERVER_IS_BUSY
O servidor está ocupado e não pôde lidar com a solicitação. Aguarde um momento e tente novamente.
SORT_BY_WITHOUT_BUCKETING
sortBy deve ser usado em conjunto com bucketBy.
SPARK_JOB_CANCELLED
Trabalho <jobId>
cancelado <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
Uma tabela CREATE sem lista de colunas explícita não pode especificar informações de bucketing.
Use o formulário com lista de colunas explícita e especifique as informações de bucketing.
Como alternativa, permita que as informações de bucketing sejam inferidas omitindo a cláusula.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Não é possível especificar CLUSTER BY e CLUSTERED BY EM BUCKETS.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Não é possível especificar CLUSTER BY e PARTITIONED BY.
SPECIFY_PARTITION_IS_NOT_ALLOWED
A CREATE TABLE sem lista de colunas explícita não pode especificar PARTITIONED BY.
Por favor, use o formulário com lista de colunas explícitas e especifique PARTITIONED BY.
Como alternativa, permita que o particionamento seja inferido omitindo a cláusula PARTITION BY.
SQL_CONF_NOT_FOUND
A configuração <sqlConf>
do SQL não pode ser encontrada. Verifique se a configuração existe.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Erro transitório ao acessar o caminho <path>
de preparo de destino, tente em alguns minutos
STAR_GROUP_BY_POS
A estrela (*) não é permitida em uma lista de seleção quando GROUP BY uma posição ordinal é usada.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Falha ao executar stateful processor operation=<operationType>
with invalid handle state=<handleState>
.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Falha ao executar a operação do processador com monitoração de estado=<operationType>
com timeMode inválido=<timeMode>
STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY
Não é possível reinicializar o estado na mesma chave de agrupamento durante a manipulação do estado inicial para o processador com monitoração de estado. Chave de agrupamento inválida=<groupingKey>
. Verifique o seu estado inicial, remova linhas duplicadas e reinicie a consulta.
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
A variável de estado com nome <stateVarName>
já foi definida no StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Não é possível usar TTL para state=<stateName>
em timeMode=<timeMode>
, use TimeMode.ProcessingTime() em vez disso.
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
A duração do TTL deve ser maior que zero para State store operation=<operationType>
on state=<stateName>
.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Modo <timeMode>
de tempo desconhecido . Os modos timeMode aceitos são 'none', 'processingTime', 'eventTime'
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Falha ao criar família de colunas com caractere inicial e name=<colFamilyName>
, sem suporte.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Falha ao executar a operação da família de colunas=<operationName>
com nome inválido=<colFamilyName>
. O nome da família da coluna não pode estar vazio ou incluir espaços à esquerda/à direita ou usar a palavra-chave reservada=default
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Transformação de esquema incompatível com família de coluna=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
STATE_STORE_HANDLE_NOT_INITIALIZED
O identificador não foi inicializado para este StatefulProcessor.
Use apenas o StatefulProcessor dentro do operador transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Número incorreto de ordinais de ordenação=<numOrderingCols>
para codificador de varredura de intervalo. O número de ordinais de ordenação não pode ser zero ou maior que o número de colunas de esquema.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Número incorreto de colunas de prefixo=<numPrefixCols>
para codificador de varredura de prefixo. As colunas de prefixo não podem ser zero ou maior ou igual a um número de colunas de esquema.
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Não pode mudar <configName>
de <oldConfig>
para <newConfig>
entre reinicializações. Defina <configName>
como <oldConfig>
, ou reinicie com um novo diretório de pontos de verificação.
STATE_STORE_INVALID_PROVIDER
O Provedor <inputClass>
de Armazenamento de Estado determinado não estende org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Não é possível alterar <stateVarName>
para <newType>
entre reinicializações de consulta. Defina <stateVarName>
como <oldType>
, ou reinicie com um novo diretório de pontos de verificação.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
A coluna de ordenação de tipo nulo com name=<fieldName>
at index=<index>
não é suportada pelo codificador de varredura de intervalo.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
O provedor <inputClass>
de armazenamento de estado fornecido não estende org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Portanto, ele não suporta a opção snapshotStartBatchId ou readChangeFeed na fonte de dados de estado.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
State store operation=<operationType>
não suportado na família de colunas ausente=<colFamilyName>
.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
A coluna de ordenação de tamanho variável com name=<fieldName>
at index=<index>
não é suportada para o codificador de varredura de intervalo.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
A coluna <staticName>
de partição estática também é especificada na lista de colunas.
STDS_COMMITTED_BATCH_UNAVAILABLE
Nenhum lote confirmado encontrado, local do ponto de verificação: <checkpointLocation>
. Certifique-se de que a consulta foi executada e confirmada qualquer microlote antes de parar.
STDS_CONFLICT_OPTIONS
As opções <options>
não podem ser especificadas em conjunto. Por favor, especifique um.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Falha ao ler os metadados do operador para checkpointLocation=<checkpointLocation>
e batchId=<batchId>
.
O arquivo não existe ou o arquivo está corrompido.
Execute novamente a consulta de streaming para construir os metadados do operador e relatar para as comunidades ou fornecedores correspondentes se o erro persistir.
STDS_FAILED_TO_READ_STATE_SCHEMA
Falha ao ler o esquema de estado. O arquivo não existe ou o arquivo está corrompido. Opções: <sourceOptions>
.
Execute novamente a consulta de streaming para construir o esquema de estado e relatar para as comunidades ou fornecedores correspondentes se o erro persistir.
STDS_INVALID_OPTION_VALUE
Valor inválido para a opção de origem '<optionName>
':
Para mais detalhes, ver STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
O Estado não tem qualquer partição. Verifique se a consulta aponta para o estado válido. Opções: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
O log de deslocamento para <batchId>
não existe, local do ponto de verificação: <checkpointLocation>
.
Especifique o ID do lote que está disponível para consulta - você pode consultar os IDs de lote disponíveis usando a fonte de metadados de estado.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Os metadados não estão disponíveis para o log de deslocamento para <batchId>
o local do ponto de verificação: <checkpointLocation>
.
O ponto de verificação parece ser executado apenas com versões mais antigas do Spark. Execute a consulta de streaming com a versão recente do Spark, para que o Spark construa os metadados de estado.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>
' deve ser especificado.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Não há suporte para a Execução de Consulta Adaptável para operadores com monitoração de estado no Streaming Estruturado.
STREAMING_FROM_MATERIALIZED_VIEW
Não é possível transmitir a partir da visão <viewName>
materializada. Não há suporte para streaming de visualizações materializadas.
STREAMING_OUTPUT_MODE
Modo de saída de streaming inválido: <outputMode>
.
Para mais detalhes, consulte STREAMING_OUTPUT_MODE
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
O nome do operador com estado de streaming não corresponde ao operador nos metadados de estado. Isso provavelmente acontecerá quando o usuário adicionar/remover/alterar o operador stateful da consulta de streaming existente.
Operadores com estado nos metadados: [<OpsInMetadataSeq>
]; Operadores com estado no lote atual: [<OpsInCurBatchSeq>
].
STREAMING_TABLE_NEEDS_REFRESH
A tabela <tableName>
de streaming precisa ser atualizada para ser executada <operation>
. Execute CREATE OR REFRESH STREAMING TABLE <tableName>
AS para atualizar a tabela.
STREAMING_TABLE_NOT_SUPPORTED
As tabelas de streaming só podem ser criadas e atualizadas no Delta Live Tables e no Databricks SQL Warehouses.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
A operação <operation>
não é permitida:
Para mais detalhes, ver STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
A tabela <tableName>
de streaming só pode ser criada a partir de uma consulta de streaming. Adicione a palavra-chave STREAM à sua cláusula FROM para transformar essa relação em uma consulta de streaming.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Kinesis stream <streamName>
in <region>
não encontrado.
Inicie uma nova consulta apontando para o nome correto do fluxo.
STRUCT_ARRAY_LENGTH_MISMATCH
A linha de entrada não tem o número esperado de valores exigidos pelo esquema. <expected>
Os campos são obrigatórios enquanto <actual>
os valores são fornecidos.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
A soma da cláusula LIMIT e da cláusula OFFSET não deve ser maior do que o valor inteiro máximo de 32 bits (2.147.483.647), mas encontrou limite = <limit>
, offset = <offset>
.
SYNC_METADATA_DELTA_ONLY
O comando Repair table sync metadata só é suportado para tabela delta.
SYNC_METADATA_NOT_SUPPORTED
O comando Repair table sync metadata só é suportado para tabelas do Unity Catalog.
SYNC_SRC_TARGET_TBL_NOT_SAME
O nome <srcTable>
da tabela de origem deve ser igual ao nome <destTable>
da tabela de destino.
SYNTAX_DISCONTINUED
Apoio à cláusula ou palavra-chave: <clause>
foi suprimido neste contexto.
Para mais detalhes, ver SYNTAX_DISCONTINUED
TABLE_OR_VIEW_ALREADY_EXISTS
Não é possível criar tabela ou exibição <relationName>
porque ela já existe.
Escolha um nome diferente, solte o objeto existente, adicione a cláusula SE NÃO EXISTE para tolerar objetos pré-existentes, adicione a cláusula OR REPLACE para substituir a exibição materializada existente ou adicione a cláusula OR REFRESH para atualizar a tabela de streaming existente.
TABLE_OR_VIEW_NOT_FOUND
A tabela ou exibição <relationName>
não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro ao soltar, use DROP VIEW, SE EXISTIR, ou DROP TABLE, SE EXISTIR.
Para mais detalhes, ver TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Não é possível <action>
a função <functionName>
SQL definida pelo usuário com argumentos TABLE porque essa funcionalidade ainda não foi implementada.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Falha ao analisar a função de tabela definida pelo usuário do Python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Falha ao avaliar a função <functionName>
de tabela porque seus metadados <requestedMetadata>
de tabela , mas a chamada de função <invalidFunctionCallProperty>
.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Falha ao avaliar a função <functionName>
de tabela porque seus metadados de tabela eram inválidos; <reason>
.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Há muitos argumentos de tabela para a função com valor de tabela.
Ele permite um argumento de tabela, mas tem: <num>
.
Se você quiser permiti-lo, defina "spark.sql.allowMultipleTableArguments.enabled" como "true"
TABLE_WITH_ID_NOT_FOUND
Não foi possível encontrar uma tabela com ID <tableId>
. Verifique a exatidão do UUID.
TASK_WRITE_FAILED
A tarefa falhou ao escrever linhas em <path>
.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Não é possível criar o modo de exibição <relationName>
temporário porque ele já existe.
Escolha um nome diferente, solte ou substitua o modo de exibição existente ou adicione a cláusula SE NÃO EXISTE para tolerar exibições pré-existentes.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW ou as APIs de conjunto de dados correspondentes só aceitam nomes de exibição de parte única, mas obtiveram: <actualName>
.
UC_BUCKETED_TABLES
Não há suporte para tabelas com buckets no Unity Catalog.
UC_CATALOG_NAME_NOT_PROVIDED
Para o Unity Catalog, especifique o nome do catálogo explicitamente. Por exemplo, SHOW GRANT your.address@email.com
ON CATALOG principal.
UC_COMMAND_NOT_SUPPORTED
O(s) comando(s): <commandName>
não são suportados no Unity Catalog.
Para mais detalhes, consulte UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
O(s) comando(s): <commandName>
não são suportados para clusters do Unity Catalog no modo de acesso compartilhado. Em vez disso, use o modo de acesso de usuário único.
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
O tipo de credencial especificado não é suportado.
UC_DATASOURCE_NOT_SUPPORTED
O formato <dataSourceFormatName>
da fonte de dados não é suportado no Unity Catalog.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
As opções de fonte de dados não são suportadas no Unity Catalog.
UC_EXTERNAL_VOLUME_MISSING_LOCATION
A cláusula LOCATION deve estar presente para o volume externo. Por favor, verifique a sintaxe 'CREATE EXTERNAL VOLUME ... LOCALIZAÇÃO ...» para criar um volume externo.
UC_FAILED_PROVISIONING_STATE
A consulta falhou porque tentou fazer referência à tabela <tableName>
, mas não foi possível fazê-lo: <failureReason>
. Atualize a tabela <tableName>
para garantir que ela esteja em um estado de provisionamento ativo e tente novamente a consulta.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Não há suporte para a criação de tabelas no Unity Catalog com esquema de arquivos <schemeName>
.
Em vez disso, crie uma conexão de fonte de dados federada usando o comando CREATE CONNECTION para o mesmo provedor de tabela e, em seguida, crie um catálogo com base na conexão com um comando CREATE FOREIGN CATALOG para fazer referência às tabelas nela.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
O modo de exibição Federação do Hive Metastore não oferece suporte a dependências em vários catálogos. Exibir <view>
no Hive Metastore O catálogo de federação deve usar a dependência de hive_metastore ou spark_catalog catálogo, mas sua dependência <dependency>
está em outro catálogo <referencedCatalog>
. Atualize as dependências para satisfazer essa restrição e, em seguida, tente novamente sua consulta ou comando novamente.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
A federação do Hive Metastore não está habilitada neste cluster.
O acesso ao catálogo <catalogName>
não é suportado neste cluster
UC_INVALID_DEPENDENCIES
As dependências de são registradas como <storedDeps>
ao serem analisadas <viewName>
como <parsedDeps>
. Isso provavelmente ocorreu por meio do uso indevido de uma API não SQL. Você pode reparar dependências no Databricks Runtime executando ALTER VIEW <viewName>
AS <viewText>
.
UC_INVALID_NAMESPACE
Não há suporte para namespaces aninhados ou vazios no Unity Catalog.
UC_INVALID_REFERENCE
O objeto <name>
Non-Unity-Catalog não pode ser referenciado em objetos Unity Catalog.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
O suporte de gravação do Unity Catalog Lakehouse Federation não está habilitado para o provedor <provider>
neste cluster.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
O volume gerenciado não aceita a cláusula LOCATION. Por favor, verifique a sintaxe 'CREATE VOLUME ...' para criar um volume gerenciado.
UC_NOT_ENABLED
O Catálogo Unity não está habilitado neste cluster.
UC_QUERY_FEDERATION_NOT_ENABLED
A Federação de Consultas do Catálogo Unity não está habilitada neste cluster.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
As credenciais de serviço não estão habilitadas neste cluster.
UC_VOLUMES_NOT_ENABLED
O suporte para Unity Catalog Volumes não está habilitado nesta instância.
UC_VOLUMES_SHARING_NOT_ENABLED
O suporte para Compartilhamento de Volume não está habilitado nesta instância.
UC_VOLUME_NOT_FOUND
O volume <name>
não existe. Por favor, use 'MOSTRAR VOLUMES' para listar os volumes disponíveis.
UDF_ERROR
SQLSTATE: nenhum atribuído
Falha na execução da função <fn>
Para mais detalhes, ver UDF_ERROR
UDF_LIMITS
Um ou mais limites da UDF foram violados.
Para mais detalhes, ver UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Excedeu o limite UDF de UDFs em <maxNumUdfs>
toda a consulta (limitado durante a visualização pública). Encontrado <numUdfs>
. As FDU eram: <udfNames>
.
UDF_PYSPARK_ERROR
O trabalhador Python saiu inesperadamente
Para mais detalhes, consulte UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
O PySpark UDF <udf>
(<eval-type>
) não é suportado em clusters no modo de acesso compartilhado.
UDF_PYSPARK_USER_CODE_ERROR
Falha na execução.
Para mais detalhes, ver UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
O valor padrão do parâmetro não é suportado para a função definida pelo <functionType>
usuário.
UDF_USER_CODE_ERROR
Falha na execução da função <fn>
.
Para mais detalhes, ver UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
O número de aliases fornecidos na cláusula AS não corresponde ao número de colunas saídas pela UDTF.
Esperava <aliasesSize>
aliases, mas conseguiu <aliasesNames>
.
Certifique-se de que o número de aliases fornecidos corresponde ao número de colunas saídas pela UDTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou uma OrderingColumn solicitada cuja expressão de nome de coluna incluía um alias <aliasName>
desnecessário, remova esse alias e tente a consulta novamente.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou uma expressão 'select' solicitada (<expression>
) que não inclui um alias correspondente, atualize o UDTF para especificar um alias lá e tente a consulta novamente.
UNABLE_TO_ACQUIRE_MEMORY
Não é possível adquirir <requestedBytes>
bytes de memória, tem <receivedBytes>
.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Não é possível converter o tipo <toType>
SQL para o tipo <protobufType>
Protobuf .
UNABLE_TO_FETCH_HIVE_TABLES
Não é possível buscar tabelas do banco de dados Hive: <dbName>
. Nome da classe de erro: <className>
.
UNABLE_TO_INFER_SCHEMA
Não é possível inferir o esquema para <format>
. Deve ser especificado manualmente.
UNAUTHORIZED_ACCESS
Acesso não autorizado:
<report>
UNBOUND_SQL_PARAMETER
Encontrado o parâmetro unbound: <name>
. Por favor, corrija args
e forneça um mapeamento do parâmetro para um literal SQL ou funções de construtor de coleção, como map()
, array()
, struct()
.
UNCLOSED_BRACKETED_COMMENT
Encontrado um comentário entre parênteses não fechado. Por favor, anexe */ no final do comentário.
UNEXPECTED_INPUT_TYPE
Parâmetro de função <functionName>
requer o <requiredType>
tipo, no entanto <inputSql>
tem o tipo <inputType>
.<paramIndex>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Operador <op>
inesperado na instrução CREATE VIEW como uma fonte de streaming.
Uma consulta de exibição de streaming deve consistir apenas em operações SELECT, WHERE e UNION ALL.
UNEXPECTED_POSITIONAL_ARGUMENT
Não é possível invocar a função <functionName>
porque ela contém argumento(s) posicional(is) após o argumento nomeado atribuído a <parameterName>
; por favor, reorganize-os para que os argumentos posicionais venham primeiro e, em seguida, tente novamente a consulta.
UNEXPECTED_SERIALIZER_FOR_CLASS
A classe <className>
tem um serializador de expressão inesperado. Espera "STRUCT
" ou "SE" que retorna "STRUCT
" mas encontrado <expr>
.
UNKNOWN_FIELD_EXCEPTION
Campos desconhecidos encontrados durante a análise: <unknownFieldBlob>
, que podem ser corrigidos por uma nova tentativa automática: <isRetryable>
Para mais detalhes, ver UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
A invocação da função <functionName>
contém um argumento <sqlExpr>
posicional desconhecido na posição <pos>
. Isto é inválido.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Tipo primitivo desconhecido com id <id>
foi encontrado em um valor de variante.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Tentando tratar <descriptorName>
como uma mensagem, mas foi <containingType>
.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT requer que todas as expressões dadas <given>
sejam colunas quando nenhuma <empty>
expressão é dada. Estas não são colunas: [<expressions>
].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Pelo menos uma coluna de valor precisa ser especificada para UNPIVOT, todas as colunas especificadas como ids.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
As colunas de valor não dinâmico devem compartilhar um tipo menos comum, alguns tipos não: [<types>
].
UNPIVOT_VALUE_SIZE_MISMATCH
Todas as colunas de valor não pivotante devem ter o mesmo tamanho que há nomes de colunas de valor (<names>
).
UNRECOGNIZED_PARAMETER_NAME
Não é possível invocar a função <functionName>
porque a chamada de função incluiu uma referência de argumento nomeado para o argumento nomeado <argumentName>
, mas esta função não inclui nenhuma assinatura que contenha um argumento com esse nome. Referiu-se a um dos seguintes? [<proposal>
].
UNRECOGNIZED_SQL_TYPE
Tipo SQL não reconhecido - nome: <typeName>
, id: <jdbcType>
.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Não foi possível resolver <name>
para uma função com valor de tabela.
Certifique-se de que <name>
é definida como uma função com valor de tabela e que todos os parâmetros necessários são fornecidos corretamente.
Se <name>
não estiver definido, crie a função com valor de tabela antes de usá-la.
Para obter mais informações sobre como definir funções com valor de tabela, consulte a documentação do Apache Spark.
UNRESOLVED_ALL_IN_GROUP_BY
Não é possível inferir o agrupamento de colunas para GROUP BY ALL com base na cláusula select. Especifique explicitamente as colunas de agrupamento.
UNRESOLVED_COLUMN
Uma coluna, variável ou parâmetro de função com nome <objectName>
não pode ser resolvido.
Para mais detalhes, ver UNRESOLVED_COLUMN
UNRESOLVED_FIELD
Um campo com nome <fieldName>
não pode ser resolvido com a coluna <columnPath>
struct-type .
Para mais detalhes, ver UNRESOLVED_FIELD
UNRESOLVED_MAP_KEY
Não é possível resolver a coluna <objectName>
como uma chave de mapa. Se a chave for um literal de cadeia de caracteres, adicione as aspas simples '' em torno dela.
Para mais detalhes, ver UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
Não é possível resolver a rotina <routineName>
no caminho <searchPath>
de pesquisa .
Para mais detalhes, ver UNRESOLVED_ROUTINE
UNRESOLVED_USING_COLUMN_FOR_JOIN
A coluna <colName>
USING não pode ser resolvida na <side>
lateral da junção. As <side>
colunas laterais: [<suggestion>
].
UNRESOLVED_VARIABLE
Não é possível resolver variável <variableName>
no caminho <searchPath>
de pesquisa .
UNSUPPORTED_ADD_FILE
Não suporta adicionar ficheiro.
Para mais detalhes, ver UNSUPPORTED_ADD_FILE
UNSUPPORTED_ARROWTYPE
Tipo de <typeName>
seta não suportado .
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
A função <funcName>
não suporta consultas em lote.
UNSUPPORTED_CALL
Não é possível chamar o método "<methodName>
" da classe "<className>
".
Para mais detalhes, ver UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
O tipo char/varchar não pode ser usado no esquema da tabela.
Se você quiser que o Spark os trate como tipo de string igual ao Spark 3.0 e anteriores, defina "spark.sql.legacy.charVarcharAsString" como "true".
UNSUPPORTED_CLAUSE_FOR_OPERATION
O <clause>
não é suportado para <operation>
.
UNSUPPORTED_COLLATION
O agrupamento <collationName>
não é suportado para:
Para mais detalhes, ver UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
O ancestral comum do caminho de origem e sourceArchiveDir deve ser registrado com UC.
Se você vir essa mensagem de erro, é provável que registre o caminho de origem e sourceArchiveDir em diferentes locais externos.
Por favor, coloque-os em um único local externo.
UNSUPPORTED_CONSTRAINT_CLAUSES
Não há suporte para cláusulas <clauses>
de restrição.
UNSUPPORTED_CONSTRAINT_TYPE
Tipo de restrição sem suporte. Apenas <supportedConstraintTypes>
são suportados
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Tipo de fonte de dados sem suporte para consulta direta em arquivos: <dataSourceType>
UNSUPPORTED_DATATYPE
Tipo <typeName>
de dados não suportado .
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
A fonte de dados "<source>
" não pode ser gravada <createMode>
no modo. Em vez disso, use o modo "Acrescentar" ou "Substituir".
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
A <format>
fonte de dados não suporta a coluna <columnName>
do tipo <columnType>
.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Não é possível criar codificador para <dataType>
. Use um tipo de dados de saída diferente para seu UDF ou DataFrame.
UNSUPPORTED_DEFAULT_VALUE
Não há suporte para valores de coluna DEFAULT.
Para mais detalhes, consulte UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
O desserializador não é suportado:
Para mais detalhes, ver UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Não é possível criar coluna <fieldName>
gerada com expressão <expressionStr>
de geração porque <reason>
.
UNSUPPORTED_EXPR_FOR_OPERATOR
Um operador de consulta contém uma ou mais expressões sem suporte.
Considere reescrevê-lo para evitar funções de janela, funções agregadas e funções geradoras na cláusula WHERE.
Expressões inválidas: [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
Um parâmetro de consulta contém expressão sem suporte.
Os parâmetros podem ser variáveis ou literais.
Expressão inválida: [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
Expressão <sqlExpr>
não suportada em uma função de janela.
UNSUPPORTED_FEATURE
O recurso não é suportado:
Para mais detalhes, ver UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Tipo de função definido pelo usuário não suportado: <language>
UNSUPPORTED_GENERATOR
O gerador não é suportado:
Para mais detalhes, ver UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() só pode ser usado com GroupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger>
com a posição <initialPosition>
inicial não é suportado com a origem Kinesis
UNSUPPORTED_INSERT
Não é possível inserir no destino.
Para mais detalhes, ver UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Tipo de junção não suportado '<typ>
'. Os tipos de junção suportados incluem: <supported>
.
UNSUPPORTED_MANAGED_TABLE_CREATION
Não há suporte para a criação de uma tabela <tableName>
gerenciada usando a fonte de <dataSource>
dados. Você precisa usar a fonte de dados DELTA ou criar uma tabela externa usando CREATE EXTERNAL TABLE <tableName>
... USANDO <dataSource>
...
UNSUPPORTED_MERGE_CONDITION
A operação MERGE contém condição não suportada <condName>
.
Para mais detalhes, ver UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
A tabela <tableName>
tem uma política de segurança de nível de linha ou máscara de coluna que se refere indiretamente a outra tabela com uma política de segurança de nível de linha ou máscara de coluna, isso não é suportado. Sequência de chamadas: <callSequence>
UNSUPPORTED_OVERWRITE
Não é possível substituir o destino que também está sendo lido.
Para mais detalhes, ver UNSUPPORTED_OVERWRITE
UNSUPPORTED_SAVE_MODE
O modo <saveMode>
de gravação não é suportado para:
Para mais detalhes, consulte UNSUPPORTED_SAVE_MODE
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
modo de saída não suportado para <statefulOperator>
em streaming DataFrames/DataSets sem marca d'água.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Sem suporte para streaming de uma visualização. Motivo:
Para mais detalhes, ver UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Não há suporte para opções <options>
de streaming para fonte <source>
de dados em um cluster compartilhado. Confirme se as opções estão especificadas e escritas corretamente e verifiquehttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode se há limitações.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
A fonte <sink>
de dados não é suportada como um coletor de streaming em um cluster compartilhado.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
A fonte <source>
de dados não é suportada como uma fonte de streaming em um cluster compartilhado.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
A função <funcName>
não suporta streaming. Remova a palavra-chave STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
não é suportado com a origem do Kinesis
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Expressão de subconsulta não suportada:
Para mais detalhes, ver UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TIMESERIES_COLUMNS
Não há suporte para a criação de chave primária com colunas de séries cronológicas
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Não há suporte para a criação de chave primária com mais de uma coluna <colSeq>
de série cronológica
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
não é suportado com a origem do Kinesis
UNSUPPORTED_TYPED_LITERAL
Literais do tipo <unsupportedType>
não são suportados. Os tipos suportados são <supportedTypes>
.
UNTYPED_SCALA_UDF
Você está usando Scala UDF não tipado, que não tem as informações de tipo de entrada.
O Spark pode passar cegamente null para o fechamento do Scala com o argumento primitivo-type, e o fechamento verá o valor padrão do tipo Java para o argumento null, por exemplo udf((x: Int) => x, IntegerType)
, o resultado é 0 para entrada nula. Para se livrar desse erro, você pode:
- usar APIs Scala UDF tipadas (sem parâmetro de tipo de retorno), por exemplo.
udf((x: Int) => x)
- use APIs Java UDF, por exemplo, se os tipos de entrada forem todos não primitivos.
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
- defina "spark.sql.legacy.allowUntypedScalaUDF" como "true" e use essa API com cuidado.
UPGRADE_NOT_SUPPORTED
A tabela não é qualificada para atualização do Hive Metastore para o Unity Catalog. Motivo:
Para mais detalhes, ver UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
A função definida pelo usuário é inválida:
Para mais detalhes, ver USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
A raise_error()
função foi usada para aumentar a classe de erro: <errorClass>
que espera parâmetros: <expectedParms>
.
Os parâmetros <providedParms>
fornecidos não correspondem aos parâmetros esperados.
Por favor, certifique-se de fornecer todos os parâmetros esperados.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
A raise_error()
função foi usada para gerar uma classe de erro desconhecida: <errorClass>
VARIABLE_ALREADY_EXISTS
Não é possível criar a variável <variableName>
porque ela já existe.
Escolha um nome diferente ou solte ou substitua a variável existente.
VARIABLE_NOT_FOUND
A variável <variableName>
não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e catálogo, verifique a saída current_schema() ou qualifique o nome com o esquema e catálogo corretos.
Para tolerar o erro na queda use DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Não é possível construir uma Variante maior que 16 MiB. O tamanho máximo permitido de um valor de Variante é de 16 MiB.
VARIANT_DUPLICATE_KEY
Falha ao criar variante devido a uma chave <key>
de objeto duplicada .
VARIANT_SIZE_LIMIT
Não é possível construir variante maior do que <sizeLimit>
em <functionName>
.
Evite cadeias de caracteres de entrada grandes para esta expressão (por exemplo, adicione chamada(s) de função para verificar o tamanho da expressão e convertê-la em NULL primeiro se for muito grande).
VIEW_ALREADY_EXISTS
Não é possível criar modo de exibição <relationName>
porque ele já existe.
Escolha um nome diferente, solte ou substitua o objeto existente ou adicione a cláusula SE NÃO EXISTE para tolerar objetos pré-existentes.
VIEW_EXCEED_MAX_NESTED_DEPTH
A profundidade de visão <viewName>
excede a profundidade máxima de resolução de visão (<maxNestedDepth>
).
A análise é abortada para evitar erros. Se você quiser contornar isso, tente aumentar o valor de "spark.sql.view.maxNestedViewDepth".
VIEW_NOT_FOUND
A vista <relationName>
não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro ao soltar use DROP VIEW, SE EXISTIR.
VOLUME_ALREADY_EXISTS
Não é possível criar volume <relationName>
porque ele já existe.
Escolha um nome diferente, solte ou substitua o objeto existente ou adicione a cláusula SE NÃO EXISTE para tolerar objetos pré-existentes.
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName>
só pode ser avaliada em um quadro de janela ordenado baseado em linha com um único deslocamento: <windowExpr>
.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
A função <funcName>
Window requer uma cláusula OVER.
WITH_CREDENTIAL
A sintaxe WITH CREDENTIAL não é suportada para <type>
.
WRITE_STREAM_NOT_ALLOWED
writeStream
pode ser chamado apenas no streaming Dataset/DataFrame.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Falha ao executar o comando porque os valores DEFAULT não são suportados ao adicionar novos
colunas para tabelas Delta previamente existentes; Por favor, adicione a coluna sem um padrão
valor primeiro e, em seguida, execute um segundo comando ALTER TABLE ALTER COLUMN SET DEFAULT para aplicar
para futuras linhas inseridas.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Falha ao executar <commandType>
o comando porque atribuiu um valor DEFAULT de coluna,
mas o recurso de tabela correspondente não estava habilitado. Tente novamente o comando
depois de executar ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'suportado').
WRONG_COMMAND_FOR_OBJECT_TYPE
A operação <operation>
requer um <requiredType>
arquivo . Mas <objectName>
é um <foundType>
. Utilize <alternative>
em substituição.
WRONG_NUM_ARGS
O <functionName>
requer <expectedNum>
parâmetros, mas o número real é <actualNum>
.
Para mais detalhes, ver WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag>
opção é necessária para ler arquivos em formato XML.
XML_UNSUPPORTED_NESTED_TYPES
XML não suporta <innerDataType>
como tipo interno de <dataType>
. Por favor, envolva o <innerDataType>
dentro de um campo StructType ao usá-lo dentro do <dataType>
.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Os dados resgatados e a coluna curinga não podem ser habilitados simultaneamente. Remova a opção wildcardColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
A coluna <columnName>
ZOrderBy não existe.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Não foi possível encontrar o SparkSession ativo
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Não é possível definir um novo txn como ativo quando um já está ativo
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Falha ao adicionar coluna <colName>
porque o nome está reservado.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
A operação atual tentou adicionar um vetor de exclusão a uma tabela que não permite a criação de novos vetores de exclusão. Por favor, envie um relatório de bug.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Todas as operações que adicionam vetores de exclusão devem definir a coluna tightBounds nas estatísticas como false. Por favor, envie um relatório de bug.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
O índice <columnIndex>
para adicionar coluna <columnName>
é inferior a 0
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Não é possível adicionar <columnName>
porque seu pai não é um StructType. Encontrado <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Struct não encontrado na posição <position>
DELTA_ADD_CONSTRAINTS
Use ALTER TABLE ADD CONSTRAINT para adicionar restrições CHECK.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Encontrado <sqlExpr>
. Uma coluna gerada não pode usar uma expressão agregada
DELTA_AGGREGATION_NOT_SUPPORTED
Não há suporte para funções agregadas no <operation>
<predicate>
.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Falha ao alterar o agrupamento da coluna <column>
porque ela tem um índice de filtro bloom. Mantenha o agrupamento existente ou solte o índice do filtro bloom e, em seguida, tente novamente o comando para alterar o agrupamento.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Falha ao alterar o agrupamento de coluna <column>
porque é uma coluna de clustering. Mantenha o agrupamento existente ou altere a coluna para uma coluna sem clustering com um comando ALTER TABLE e, em seguida, tente novamente o comando para alterar o agrupamento.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN não é suportado para alterar coluna <currentType>
para <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY é suportado apenas para tabela Delta com clustering Liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY não pode ser aplicado a uma tabela particionada.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Operação não permitida: ALTER TABLE RENAME TO não é permitido para tabelas Delta gerenciadas no S3, pois uma eventual consistência no S3 pode corromper o log de transações Delta. Se você insistir em fazer isso e tiver certeza de que nunca houve uma tabela Delta com o novo nome <newName>
antes, você pode habilitar isso definindo <key>
como verdadeiro.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Não é possível ativar <tableFeature>
o recurso de tabela usando ALTER TABLE SET TBLPROPERTIES. Use CREATE OR REPLACE TABLE CLUSTER BY para criar uma tabela Delta com clustering.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Não é possível alterar o tipo de dados de <column>
<from>
de para <to>
. Esta alteração contém remoções e adições de colunas, pelo que são ambíguas. Por favor, faça estas alterações individualmente usando ALTER TABLE [ADD | QUEDA | RENOMEAR] COLUNA.
DELTA_AMBIGUOUS_PARTITION_COLUMN
A coluna <column>
de partição ambígua pode ser <colMatches>
.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE contém dois locais diferentes: <identifier>
e <location>
.
Você pode remover a cláusula LOCATION da instrução CREATE TABLE ou definir
<config>
para true para pular esta verificação.
DELTA_ARCHIVED_FILES_IN_LIMIT
A tabela <table>
não contém registros suficientes em arquivos não arquivados para satisfazer o LIMIT especificado de <limit>
registros.
DELTA_ARCHIVED_FILES_IN_SCAN
Encontrado <numArchivedFiles>
(s) arquivo(s) potencialmente arquivado(s) na tabela <table>
que precisam ser verificados como parte desta consulta.
Os ficheiros arquivados não podem ser acedidos. A hora atual até que o arquivamento seja configurado como <archivalTime>
.
Ajuste os filtros de consulta para excluir quaisquer ficheiros arquivados.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
A operação "<opName>
" não é permitida quando a tabela habilitou o feed de dados de alteração (CDF) e sofreu alterações de esquema usando DROP COLUMN ou RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Não é possível soltar índices de filtro de floração para a(s) seguinte(s) coluna(s) inexistente(s): <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError ocorreu ao escrever índices de filtro bloom para a(s) seguinte(s) coluna(s): <columnsWithBloomFilterIndices>
.
Você pode reduzir o espaço ocupado pela memória dos índices de filtro bloom escolhendo um valor menor para a opção 'numItems', um valor maior para a opção 'fpp' ou indexando menos colunas.
DELTA_CANNOT_CHANGE_DATA_TYPE
Não é possível alterar o tipo de dados: <dataType>
DELTA_CANNOT_CHANGE_LOCATION
Não é possível alterar o 'local' da tabela Delta usando SET TBLPROPERTIES. Por favor, use ALTER TABLE SET LOCATION em vez disso.
DELTA_CANNOT_CHANGE_PROVIDER
'provedor' é uma propriedade de tabela reservada e não pode ser alterada.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Não é possível criar índices de filtro bloom para a(s) seguinte(s) coluna(s) inexistente(s): <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
Não é possível criar <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Não é possível descrever o histórico de uma exibição.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Não é possível soltar o índice de filtro bloom em uma coluna não indexada: <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Não é possível descartar o recurso de tabela de restrições CHECK.
As seguintes restrições devem ser eliminadas primeiro: <constraints>
.
DELTA_CANNOT_EVALUATE_EXPRESSION
Não é possível avaliar a expressão: <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
Esperando uma tabela Delta de bucketing, mas não é possível encontrar a especificação do bucket na tabela
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Não é possível gerar código para expressão: <expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
Esta tabela está configurada para permitir apenas acréscimos. Se você quiser permitir atualizações ou exclusões, use 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>
=false)'.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
Não é possível substituir ou desdefinir as propriedades da tabela de carimbo de data/hora de confirmação porque as confirmações coordenadas estão habilitadas nesta tabela e dependem delas. Remova-os ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") da cláusula TBLPROPERTIES e tente novamente o comando.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
A configuração <prop>
da tabela Delta não pode ser especificada pelo usuário
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
não é possível substituir configurações de confirmações coordenadas para uma tabela de destino existente. Remova-os ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") da cláusula TBLPROPERTIES e tente novamente o comando.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Um uri (<uri>
) que não pode ser transformado em um caminho relativo foi encontrado no log de transações.
DELTA_CANNOT_RELATIVIZE_PATH
Um caminho (<path>
) que não pode ser relativizado com a entrada atual encontrada no
log de transações. Por favor, execute novamente isso como:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>
", verdadeiro)
e, em seguida, também executar:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_CANNOT_RENAME_PATH
Não é possível renomear <currentPath>
para <newPath>
DELTA_CANNOT_REPLACE_MISSING_TABLE
A tabela <tableName>
não pode ser substituída, pois não existe. Use CREATE OR REPLACE TABLE para criar a tabela.
DELTA_CANNOT_RESOLVE_COLUMN
Não é possível resolver a coluna <columnName>
em <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Não é possível restaurar a tabela para a versão <version>
. Versões disponíveis: [<startVersion>
, <endVersion>
].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Não é possível restaurar a tabela para carimbo de data/hora (<requestedTimestamp>
) como é antes da versão mais antiga disponível. Por favor, use um carimbo de data/hora após (<earliestTimestamp>
).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Não é possível restaurar a tabela para o carimbo de data/hora (<requestedTimestamp>
) como está após a versão mais recente disponível. Por favor, use um carimbo de data/hora antes de (<latestTimestamp>
)
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
Não é possível definir propriedades da tabela de carimbo de data/hora de confirmação juntamente com confirmações coordenadas, porque a última depende da primeira e define a primeira internamente. Remova-os ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") da cláusula TBLPROPERTIES e tente novamente o comando.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Não é possível alterar o local de uma tabela baseada em caminho.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Não é possível definir delta.managedDataSkippingStatsColumns em tabela não-DLT
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER não pode desdefinir configurações de confirmações coordenadas. Para fazer o downgrade de uma tabela de confirmações coordenadas, tente novamente usando ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Não é possível atualizar o campo %1$s tipo %2$s: atualize o elemento atualizando %2$s.element
DELTA_CANNOT_UPDATE_MAP_FIELD
Não é possível atualizar o campo %1$s Tipo %2$s: atualize um mapa atualizando %2$s.key ou %2$s.value
DELTA_CANNOT_UPDATE_OTHER_FIELD
Não é possível atualizar <tableName>
o campo do tipo <typeName>
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Não é possível atualizar <tableName>
o tipo de campo <fieldName>
: atualizar struct adicionando, excluindo ou atualizando seus campos
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Não é possível usar todas as colunas para colunas de partição
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
é uma vista. Não há suporte para gravações em um modo de exibição.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Falha ao gravar um valor de tipo na <targetType>
coluna <columnName>
de <sourceType>
tipo devido a um estouro.
Use try_cast
no valor de entrada para tolerar estouro e retornar NULL em vez disso.
Se necessário, defina <storeAssignmentPolicyFlag>
como "LEGACY" para ignorar este erro ou defina <updateAndMergeCastingFollowsAnsiEnabledFlag>
como true para reverter para o comportamento antigo e siga <ansiEnabledFlag>
em UPDATE e MERGE.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Configuração delta.enableChangeDataFeed não pode ser definida. O feed de dados de alteração da Delta ainda não está disponível.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
A recuperação de alterações de tabela entre a versão <start>
e <end>
falhou devido a um esquema de dados incompatível.
Seu esquema de leitura está <readSchema>
na versão <readVersion>
, mas encontramos um esquema de dados incompatível na versão <incompatibleVersion>
.
Se possível, recupere as alterações da tabela usando o esquema da versão final definindo <config>
como endVersion
, ou entre em contato com o suporte.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
A recuperação de alterações de tabela entre a versão <start>
e <end>
falhou devido a uma alteração de esquema incompatível.
Seu esquema de leitura está <readSchema>
na versão <readVersion>
, mas encontramos uma alteração de esquema incompatível na versão <incompatibleVersion>
.
Se possível, consulte as alterações da tabela separadamente da versão <start>
para <incompatibleVersion>
- 1 e da versão <incompatibleVersion>
para <end>
.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
O arquivo <filePath>
referenciado no log de transações não pode ser encontrado. Isso pode ocorrer quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE
. Esta solicitação parece ter como alvo o Change Data Feed, se for esse o caso, esse erro pode ocorrer quando o arquivo de dados de alteração está fora do período de retenção e foi excluído VACUUM
pela instrução. Para mais informações, consulte <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
Não é possível gravar na tabela com delta.enableChangeDataFeed definido. O feed de dados de alteração da Delta não está disponível.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Não é possível verificar uma tabela <path>
não existente . Você excluiu manualmente os arquivos no diretório _delta_log?
DELTA_CLONE_AMBIGUOUS_TARGET
Dois caminhos foram fornecidos como o alvo CLONE, por isso é ambíguo qual usar. Um
local para CLONE foi fornecido <externalLocation>
ao mesmo tempo que o caminho
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
Arquivo (<fileName>
) não copiado completamente. Tamanho esperado do ficheiro: <expectedSize>
, encontrado: <actualSize>
. Para continuar com a operação, ignorando a verificação de tamanho do arquivo definida <config>
como false.
DELTA_CLONE_UNSUPPORTED_SOURCE
Fonte de clone não suportada <mode>
'<name>
', cujo formato é <format>
.
Os formatos suportados são 'delta', 'iceberg' e 'parquet'.
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
O CLONE não é suportado para a tabela Delta com clustering Liquid para DBR versão < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY não é suportado porque a(s) seguinte(s) coluna(s): <columnsWithDataTypes>
não suportam o salto de dados.
DELTA_CLUSTERING_COLUMNS_MISMATCH
As colunas de agrupamento fornecidas não correspondem às da tabela existente.
- desde que:
<providedClusteringColumns>
- existentes:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
O agrupamento líquido requer que as colunas de agrupamento tenham estatísticas. Não foi possível encontrar coluna(s) de agrupamento '<columns>
' no esquema de estatísticas:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Não é permitida a criação de uma tabela externa sem agrupamento líquido a partir de um diretório de tabelas com clustering líquido; caminho: <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>
' não suporta clustering.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Não é possível concluir o <phaseOutType>
da tabela com <tableFeatureToAdd>
o recurso de tabela (motivo: <reason>
). Tente o comando OTIMIZE novamente.
== Erro ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
SUBSTITUA uma tabela Delta por agrupamento líquido com uma tabela particionada não é permitido.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE não é suportado para tabela Delta com clustering Liquid sem colunas de clustering.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
A transição de uma tabela Delta com clustering líquido para uma tabela particionada não é permitida para operação: <operation>
, quando a tabela existente tiver colunas de clustering não vazias.
Execute ALTER TABLE CLUSTER BY NONE para remover primeiro as colunas de clustering.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
O modo de substituição de partição dinâmica não é permitido para tabela Delta com clustering Liquid.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
O comando OTIMIZE para tabela Delta com clustering Liquid não suporta predicados de partição. Por favor, remova os predicados: <predicates>
.
DELTA_CLUSTERING_WITH_ZORDER_BY
O comando OTIMIZE para tabela Delta com clustering Liquid não pode especificar ZORDER BY. Por favor, remova ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY for Liquid clustering suporta até <numColumnsLimit>
colunas de clustering, mas a tabela tem <actualNumColumns>
colunas de clustering. Remova as colunas de clustering extras.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Não é permitido especificar CLUSTER BY quando o esquema não está definido. Defina o esquema para a tabela <tableName>
.
DELTA_CLUSTER_BY_WITH_BUCKETING
Clustering e bucketing não podem ser especificados. Remova CLUSTERED BY INTO BUCKETS / bucketBy se quiser criar uma tabela Delta com clustering.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
O clustering e o particionamento não podem ser especificados. Por favor, remova PARTITIONED BY / partitionBy / partitionedBy se você quiser criar uma tabela Delta com clustering.
DELTA_COLLATIONS_NOT_SUPPORTED
Os agrupamentos não são suportados no Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
O salto de dados não é suportado para a coluna de partição '<column>
'.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
O salto de dados não é suportado para a coluna '<column>
' do tipo <type>
.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
A propriedade max column id (<prop>
) não está definida em uma tabela habilitada para mapeamento de coluna.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
A propriedade max column id (<prop>
) em uma tabela habilitada para mapeamento de coluna é <tableMax>
, que não pode ser menor que a id máxima da coluna para todos os campos (<fieldMax>
).
DELTA_COLUMN_MISSING_DATA_TYPE
O tipo de dados da coluna <colName>
não foi fornecido.
DELTA_COLUMN_NOT_FOUND
Não foi possível encontrar a coluna <columnName>
fornecida [<columnList>
]
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Não é possível encontrar a coluna '<targetCol>
' da tabela de destino a partir das colunas INSERT: <colNames>
. A cláusula INSERT deve especificar o valor para todas as colunas da tabela de destino.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Não foi possível encontrar a coluna <columnName>
em:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Esperado <columnPath>
para ser um tipo de dados aninhado, mas encontrado <other>
. Estava à procura do
índice de <column>
em um campo aninhado.
Esquema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
A coluna <source>
Struct não pode ser inserida em um <targetType>
campo <targetField>
no <targetTable>
.
DELTA_COMPACTION_VALIDATION_FAILED
A validação da compactação do caminho <compactedPath>
para <newPath>
falhou: Por favor, registre um relatório de bug.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Encontrado aninhado NullType na coluna <columName>
que é de <dataType>
. Delta não suporta a escrita NullType em tipos complexos.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Os arquivos foram adicionados por <partition>
uma atualização simultânea. <retryMsg>
<conflictingCommit>
Consulte para <docLink>
obter mais detalhes.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: Esta transação tentou excluir um ou mais arquivos que foram excluídos (por exemplo <file>
) por uma atualização simultânea. Por favor, tente a operação novamente.<conflictingCommit>
Consulte para <docLink>
obter mais detalhes.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: Esta transação tentou ler um ou mais arquivos que foram excluídos (por exemplo <file>
) por uma atualização simultânea. Por favor, tente a operação novamente.<conflictingCommit>
Consulte para <docLink>
obter mais detalhes.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: Este erro ocorre quando várias consultas de streaming estão usando o mesmo ponto de verificação para gravar nesta tabela. Você executou várias instâncias da mesma consulta de streaming ao mesmo tempo?<conflictingCommit>
Consulte para <docLink>
obter mais detalhes.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: Uma transação simultânea gravou novos dados desde que a transação atual leu a tabela. Por favor, tente a operação novamente.<conflictingCommit>
Consulte para <docLink>
obter mais detalhes.
DELTA_CONFLICT_SET_COLUMN
Há um conflito nestas colunas SET: <columnList>
.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Durante <command>
o , a configuração "<configuration>
" não pode ser definida a partir do comando. Remova-o da cláusula TBLPROPERTIES e tente novamente o comando.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Durante <command>
o , a configuração "<configuration>
" não pode ser definida a partir das configurações do SparkSession. Desconfigure-o executando spark.conf.unset("<configuration>")
e tente novamente o comando.
DELTA_CONSTRAINT_ALREADY_EXISTS
A restrição '<constraintName>
' já existe. Por favor, exclua a restrição antiga primeiro.
Antiga restrição:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
A coluna <columnName>
tem tipo <columnType>
de dados e não pode ser alterada para tipo <dataType>
de dados porque esta coluna é referenciada pela(s) seguinte(s) restrição(ões) de verificação:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Não é possível alterar a coluna <columnName>
porque esta coluna é referenciada pela(s) seguinte(s) restrição(ões) de verificação:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Não é possível eliminar restrições <constraintName>
inexistentes da tabela <tableName>
. Para evitar lançar um erro, forneça o parâmetro IF EXISTS ou defina a configuração <config>
da sessão SQL como <confValue>
.
DELTA_CONVERSION_NO_PARTITION_FOUND
Não foram encontradas informações de partição no catálogo da tabela <tableName>
. Você executou "MSCK REPAIR TABLE" em sua mesa para descobrir partições?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Não é possível converter a tabela Parquet com coluna <colName>
de partição agrupada em Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
A configuração '<config>
' não pode ser definida como <mode>
ao usar CONVERT TO DELTA.
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA suporta apenas tabelas de parquet, mas você está tentando converter uma <sourceName>
fonte: <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Não é possível ativar o rastreamento de linhas sem coletar estatísticas.
Se quiser habilitar o rastreamento de linhas, faça o seguinte:
Habilitar a coleta de estatísticas executando o comando
SET
<statisticsCollectionPropertyKey>
= verdadeiro- Execute CONVERT TO DELTA sem a opção NO STATISTICS.
Se você não quiser coletar estatísticas, desative o rastreamento de linhas:
Desative a ativação do recurso de tabela por padrão executando o comando:
REPOR
<rowTrackingTableFeatureDefaultKey>
Desative a propriedade table por padrão executando:
SET
<rowTrackingDefaultPropertyKey>
= falso
DELTA_COPY_INTO_TARGET_FORMAT
O destino COPY INTO deve ser uma tabela Delta.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Você está tentando criar uma tabela externa <tableName>
de <path>
usar Delta, mas o esquema não é especificado quando o
O caminho de entrada está vazio.
Para saber mais sobre a Delta, consulte <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Você está tentando criar uma tabela externa <tableName>
de usar Delta, mas não há nenhum log de %2$s
transações presente em
%2$s/_delta_log
. Verifique o trabalho upstream para certificar-se de que ele está escrevendo usando
format("delta") e que o caminho é a raiz da tabela.
Para saber mais sobre a Delta, consulte <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Não há suporte para a criação de uma tabela Delta baseada em caminho com um local diferente. Identificador: <identifier>
, Localização: <location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
O nome ou a localização da tabela têm de ser especificados.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
O esquema especificado não corresponde ao esquema existente em <path>
.
== Especificado ==
<specifiedSchema>
== Existente ==
<existingSchema>
== Diferenças ==
<schemaDifferences>
Se sua intenção é manter o esquema existente, você pode omitir o
do comando create table. Caso contrário, certifique-se de que
o esquema corresponde.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Não é possível habilitar <tableFeature>
o recurso de tabela usando TBLPROPERTIES. Use CREATE OR REPLACE TABLE CLUSTER BY para criar uma tabela Delta com clustering.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
As colunas de agrupamento especificadas não correspondem às colunas de agrupamento existentes em <path>
.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
O particionamento especificado não corresponde ao particionamento existente em <path>
.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
As propriedades especificadas não correspondem às propriedades existentes em <path>
.
== Especificado ==
<specifiedProperties>
== Existente ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Não é possível criar tabela ('<tableId>
'). O local associado ('<tableLocation>
') não está vazio e também não é uma tabela Delta.
DELTA_DATA_CHANGE_FALSE
Não é possível alterar os metadados da tabela porque a opção 'dataChange' está definida como false. Tentativa de operação: '<op>
'.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
O arquivo <filePath>
referenciado no log de transações não pode ser encontrado. Este arquivo parquet pode ser excluído de acordo com a política de retenção de dados da Delta.
Duração padrão da retenção de dados Delta: <logRetentionPeriod>
. Tempo de modificação do arquivo de parquet: <modificationTime>
. Tempo de eliminação do ficheiro parquet: <deletionTime>
. Suprimido na versão Delta: <deletionVersion>
.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
É inválido confirmar arquivos com vetores de exclusão que estão faltando a estatística numRecords.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Ação(ões) DomainMetadata detetada para domínios <domainNames>
, mas DomainMetadataTableFeature não está habilitado.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
Índice <columnIndex>
para soltar coluna é menor que 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Não é possível soltar coluna de um esquema com uma única coluna. Esquema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
A operação de arquivo '<actionType>
' para o caminho <path>
foi especificada várias vezes.
Entra em conflito com <conflictingPath>
.
Não é válido que existam várias operações de arquivo com o mesmo caminho em uma única confirmação.
DELTA_DUPLICATE_COLUMNS_FOUND
Coluna(s) duplicada(s) encontrada(s) <coltype>
: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Duplicar nomes de colunas na cláusula INSERT
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Remova as colunas duplicadas antes de atualizar a tabela.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Dados duplicados ignorando colunas encontrados: <columns>
.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Erro interno: duas ações DomainMetadata dentro da mesma transação têm o mesmo domínio <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
Não foi possível desserializar o histograma de contagens de registros excluídos durante a verificação de integridade da tabela.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
O modo de substituição de partição dinâmica é especificado pelas opções de configuração de sessão ou gravação, mas é desabilitado pelo spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
DELTA_EMPTY_DATA
Os dados usados na criação da tabela Delta não têm colunas.
DELTA_EMPTY_DIRECTORY
Nenhum arquivo encontrado no diretório: <directory>
.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
O valor "<value>
" excede a limitação de comprimento do tipo char/varchar. Falha na verificação: <expr>
.
DELTA_FAILED_CAST_PARTITION_VALUE
Falha ao converter o valor <value>
da partição para <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Não foi possível encontrar <newAttributeName>
entre os resultados de destino existentes <targetOutputColumns>
DELTA_FAILED_INFER_SCHEMA
Falha ao inferir esquema a partir da lista fornecida de arquivos.
DELTA_FAILED_MERGE_SCHEMA_FILE
Falha ao mesclar esquema de arquivo <file>
:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
Não foi possível ler o rodapé do arquivo: <currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
Não é possível reconhecer o predicado '<predicate>
'
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Espere uma verificação completa da versão mais recente da fonte Delta, mas encontrou uma verificação histórica da versão <historicalVersion>
DELTA_FAILED_TO_MERGE_FIELDS
Falha ao mesclar campos '<currentField>
' e '<updateField>
'
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Não é possível operar nesta tabela porque os seguintes recursos de tabela estão habilitados em metadados, mas não listados no protocolo: <features>
.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Seu esquema de tabela requer a ativação manual do(s) seguinte(s) recurso(s) de tabela: <unsupportedFeatures>
.
Para fazer isso, execute o seguinte comando para cada um dos recursos listados acima:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
Substitua "table_name" e "feature_name" por valores reais.
Funcionalidade(s) suportada(s) atual(is): <supportedFeatures>
.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Não é possível descartar o recurso porque uma transação simultânea modificou a tabela.
Por favor, tente a operação novamente.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Não é possível descartar o recurso <feature>
de tabela porque alguns outros recursos (<dependentFeatures>
) nesta tabela dependem de <feature>
.
Considere descartá-los primeiro antes de descartar esse recurso.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Não é possível cair <feature>
desta tabela porque ele não está atualmente presente no protocolo da tabela.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Não é possível descartar <feature>
porque o log Delta contém versões históricas que usam o recurso.
Aguarde até o período de retenção do histórico (<logRetentionPeriodKey>
=<logRetentionPeriod>
)
passou desde que o recurso foi ativado pela última vez.
Em alternativa, aguarde até que o período de retenção TRUNCATE HISTORY expire (<truncateHistoryLogRetentionPeriod>
)
e, em seguida, execute:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
O recurso específico não requer truncamento de histórico.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Não é possível soltar <feature>
porque não há suporte para descartar esse recurso.
Entre em contato com o suporte da Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Não é possível descartar <feature>
porque não é suportado por esta versão do Databricks.
Considere o uso do Databricks com uma versão superior.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
A queda <feature>
foi parcialmente bem-sucedida.
O recurso agora não é mais usado na versão atual da tabela. No entanto, o recurso
ainda está presente em versões históricas da tabela. O recurso de tabela não pode ser descartado
do protocolo de tabela até que essas versões históricas tenham expirado.
Para descartar o recurso de tabela do protocolo, aguarde até que as versões históricas
expirar e, em seguida, repita este comando. O período de retenção para versões históricas é
atualmente configurado como <logRetentionPeriodKey>
=<logRetentionPeriod>
.
Em alternativa, aguarde até que o período de retenção TRUNCATE HISTORY expire (<truncateHistoryLogRetentionPeriod>
)
e, em seguida, execute:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Não é possível ativar o recurso <feature>
de tabela porque requer uma versão superior do protocolo de leitor (atual <current>
). Considere atualizar a versão do protocolo de leitura da tabela para <required>
, ou para uma versão que ofereça suporte aos recursos da tabela do leitor. Consulte para obter mais informações sobre as versões do protocolo de <docLink>
tabela.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Não é possível ativar o recurso <feature>
de tabela porque requer uma versão superior do protocolo de gravador (atual <current>
). Considere atualizar a versão do protocolo de gravador da tabela para <required>
, ou para uma versão que ofereça suporte aos recursos da tabela do gravador. Consulte para obter mais informações sobre as versões do protocolo de <docLink>
tabela.
DELTA_FILE_ALREADY_EXISTS
Caminho do arquivo existente <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Não é possível especificar a lista de arquivos e a cadeia de caracteres de padrão.
DELTA_FILE_NOT_FOUND
Caminho do arquivo <path>
DELTA_FILE_NOT_FOUND_DETAILED
O arquivo <filePath>
referenciado no log de transações não pode ser encontrado. Isso ocorre quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE
. Para mais informações, consulte <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
Nenhum arquivo ou diretório desse tipo: <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Arquivo (<path>
) a ser reescrito não encontrado entre os arquivos candidatos:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Foi encontrado um MapType. Para acessar a chave ou o valor de um MapType, especifique um
de:
<key>
ou
<value>
seguido do nome da coluna (apenas se essa coluna for do tipo struct).
por exemplo, mymap.key.mykey
Se a coluna for um tipo básico, mymap.key ou mymap.value é suficiente.
Esquema:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
A coluna <columnName>
tem tipo <columnType>
de dados e não pode ser alterada para tipo <dataType>
de dados porque esta coluna é referenciada pela(s) seguinte(s) coluna(s) gerada(s):
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Não é possível alterar a coluna <columnName>
porque esta coluna é referenciada pela(s) seguinte(s) coluna(s) gerada(s):
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
O tipo de expressão da coluna <columnName>
gerada é <expressionType>
, mas o tipo de coluna é <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Coluna <currentName>
é uma coluna gerada ou uma coluna usada por uma coluna gerada. O tipo de dados é <currentDataType>
e não pode ser convertido em tipo de dados <updateDataType>
DELTA_ICEBERG_COMPAT_VIOLATION
A validação do IcebergCompatV<version>
falhou.
Para mais detalhes, ver DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN não é suportado para colunas IDENTITY.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY só é suportado pela Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY não pode ser chamado em colunas que não sejam IDENTITY.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Não há suporte para o fornecimento de valores para a coluna <colName>
GENERATED ALWAYS AS IDENTITY.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
A etapa da coluna IDENTITY não pode ser 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
As colunas IDENTITY são suportadas apenas pela Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
A coluna <colName>
PARTITIONED BY IDENTITY não é suportada.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS não é suportado para tabelas com colunas IDENTITY.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType>
não é suportado para colunas IDENTITY.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE na coluna <colName>
IDENTITY não é suportado.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
A coluna IDENTITY não pode ser especificada com uma expressão de coluna gerada.
DELTA_ILLEGAL_OPTION
Valor inválido '<input>
' para a opção '<name>
', <explain>
DELTA_ILLEGAL_USAGE
O uso de <option>
não é permitido quando <operation>
uma tabela Delta.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec na tabela bucketed Delta não corresponde a BucketSpec de metadados. Esperado: <expected>
. Real: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) não pode ser definido para valores diferentes. Por favor, defina apenas um deles, ou defina-os com o mesmo valor.
DELTA_INCORRECT_ARRAY_ACCESS
Acessando incorretamente um ArrayType. Use a posição arrayname.element.elementname para
adicionar a uma matriz.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Foi encontrado um ArrayType. Para acessar elementos de um ArrayType, especifique
<rightName>
em vez de <wrongName>
.
Esquema:
<schema>
DELTA_INCORRECT_GET_CONF
Use getConf()
em vez de 'conf.getConf()
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
O erro normalmente ocorre quando a implementação padrão do LogStore, que
is, HDFSLogStore, é usado para gravar em uma tabela Delta em um sistema de armazenamento não-HDFS.
A fim de obter as garantias transacionais ACID em atualizações de tabela, você tem que usar o
implementação correta do LogStore apropriada para seu sistema de armazenamento.
Consulte <docLink>
para obter detalhes.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Índice <position>
para soltar coluna é igual ou é maior que o comprimento struct: <length>
DELTA_INDEX_LARGER_THAN_STRUCT
O índice <index>
para adicionar coluna <columnName>
é maior do que o comprimento struct: <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Não é possível escrever em '<tableName>
', <columnName>
; a tabela de destino tem <numColumns>
coluna(s), mas os dados inseridos têm <insertColumns>
coluna(s)
DELTA_INSERT_COLUMN_MISMATCH
A coluna <columnName>
não é especificada em INSERIR
DELTA_INVALID_AUTO_COMPACT_TYPE
Tipo de compactação automática inválido: <value>
. Os valores permitidos são: <allowed>
.
DELTA_INVALID_BUCKET_COUNT
Contagem de buckets inválida: <invalidBucketCount>
. A contagem de balde deve ser um número positivo que seja potência de 2 e pelo menos 8. Você pode usar <validBucketCount>
em vez disso.
DELTA_INVALID_BUCKET_INDEX
Não é possível localizar a coluna bucket nas colunas de partição
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
O intervalo não pode ser nulo ou em branco.
DELTA_INVALID_CDC_RANGE
O intervalo do CDC do início <start>
ao fim <end>
foi inválido. O fim não pode ser antes do início.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
O nome do atributo "<columnName>
" contém caractere(s) inválido(s) entre " ,;{}()\n\t=". Utilize o alias para mudar o nome.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Encontrado(s) caractere(s) inválido(s) entre ' ,;{}()nt=' nos nomes das colunas do seu esquema.
Nomes de colunas inválidos: <invalidColumnNames>
.
Use outros caracteres e tente novamente.
Como alternativa, habilite o Mapeamento de Colunas para continuar usando esses caracteres.
DELTA_INVALID_CLONE_PATH
O local de destino para CLONE precisa ser um caminho absoluto ou nome de tabela. Utilize uma seringa
caminho absoluto em vez de <path>
.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Encontrado(s) caractere(s) inválido(s) entre ' ,;{}()nt=' nos nomes das colunas do seu esquema.
Nomes de colunas inválidos: <invalidColumnNames>
.
O mapeamento de coluna não pode ser removido quando há caracteres inválidos nos nomes das colunas.
Renomeie as colunas para remover os caracteres inválidos e execute este comando novamente.
DELTA_INVALID_FORMAT
Formato incompatível detetado.
Um log de transações para Delta foi encontrado em <deltaRootPath>
/_delta_log'',
mas você está tentando <operation>
<path>
usar format("<format>
"). Deve utilizar
'format("delta")' ao ler e escrever numa tabela delta.
Para saber mais sobre a Delta, consulte <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Uma coluna gerada não pode usar uma coluna inexistente ou outra coluna gerada
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Opções inválidas para gravações idempotentes de Dataframe: <reason>
DELTA_INVALID_INTERVAL
<interval>
não é um INTERVALO válido.
DELTA_INVALID_INVENTORY_SCHEMA
O esquema para o INVENTORY especificado não contém todos os campos obrigatórios. Os campos obrigatórios são: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
Nível de isolamento inválido '<isolationLevel>
'
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) e (<schemeConfig>
) não podem ser definidos ao mesmo tempo. Por favor, defina apenas um grupo deles.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Você está tentando criar uma tabela gerenciada <tableName>
usando Delta, mas o esquema não é especificado.
Para saber mais sobre a Delta, consulte <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
não é uma coluna de partição válida na tabela <tableName>
.
DELTA_INVALID_PARTITION_COLUMN_NAME
Encontradas colunas de partição com caractere(s) inválido(s) entre " ,;{}()nt=". Por favor, altere o nome para suas colunas de partição. Essa verificação pode ser desativada definindo spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false), no entanto, isso não é recomendado, pois outros recursos do Delta podem não funcionar corretamente.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Não há suporte para o uso de coluna <name>
do tipo <dataType>
como uma coluna de partição.
DELTA_INVALID_PARTITION_PATH
Um fragmento de caminho de partição deve ser o formato como part1=foo/part2=bar
. O caminho da partição: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
A versão do protocolo não pode ser rebaixada de <oldProtocol>
para <newProtocol>
DELTA_INVALID_PROTOCOL_VERSION
Versão do protocolo Delta não suportada: a tabela "<tableNameOrPath>
" requer a versão <readerRequired>
do leitor e a versão <writerRequired>
do gravador, mas esta versão do Databricks suporta as versões <supportedReaders>
do leitor e do <supportedWriters>
gravador. Atualize para uma versão mais recente.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Função <function>
é uma função com valor de tabela não suportada para leituras CDC.
DELTA_INVALID_TIMESTAMP_FORMAT
O carimbo de data/hora <timestamp>
fornecido não corresponde à sintaxe <format>
esperada.
DELTA_LOG_ALREADY_EXISTS
Já existe um log Delta em <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Se você nunca o excluiu, é provável que sua consulta esteja atrasada. Por favor, exclua seu ponto de verificação para reiniciar do zero. Para evitar que isso aconteça novamente, você pode atualizar sua política de retenção da tabela Delta
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Nome da coluna materializado <rowTrackingColumn>
ausente para <tableName>
.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Por favor, use um limite inferior a Int.MaxValue - 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Este compromisso falhou, pois já foi tentado <numAttempts>
várias vezes, mas não teve sucesso.
Isso pode ser causado pela tabela Delta ser comprometida continuamente por muitos concorrentes
compromete-se.
Confirmação iniciada na versão: <startVersion>
Falha na confirmação na versão: <failVersion>
Número de ações tentadas cometidas: <numActions>
Tempo total gasto na tentativa desta confirmação: <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
Lista de arquivos deve ter no máximo <maxFileListSize>
entradas, tinha <numFiles>
.
DELTA_MERGE_ADD_VOID_COLUMN
Não é possível adicionar coluna <newColumn>
com o tipo VOID. Especifique explicitamente um tipo não nulo.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Falha ao mesclar tipos <currentDataType>
de dados incompatíveis e <updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Falha ao mesclar tipos decimais com incompatíveis <decimalRanges>
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Manter a fonte da declaração MERGE materializada falhou repetidamente.
DELTA_MERGE_MISSING_WHEN
Deve haver pelo menos uma cláusula WHEN em uma instrução MERGE.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Atributo(s) resolvido(s) ausente(s) <missingAttributes>
no <input>
operador <merge>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Chave de atribuição inesperada: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
Não é possível resolver <sqlExpr>
em <clause>
dado <cols>
.
DELTA_METADATA_CHANGED
MetadataChangedException: Os metadados da tabela Delta foram alterados por uma atualização simultânea. Por favor, tente a operação novamente.<conflictingCommit>
Consulte para <docLink>
obter mais detalhes.
DELTA_MISSING_CHANGE_DATA
Erro ao obter dados de alteração para o intervalo [<startVersion>
, <endVersion>
] como os dados de alteração não foram
gravado para a versão [<version>
]. Se tiver ativado o feed de dados de alteração nesta tabela,
Use DESCRIBE HISTORY
para ver quando ele foi habilitado pela primeira vez.
Caso contrário, para começar a gravar dados de alteração, use 'ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=verdadeiro)».
DELTA_MISSING_COLUMN
Não é possível encontrar <columnName>
nas colunas da tabela: <columnList>
DELTA_MISSING_COMMIT_INFO
Esta tabela tem o recurso <featureName>
habilitado que requer a presença da ação CommitInfo em cada confirmação. No entanto, a ação CommitInfo está ausente da versão <version>
de confirmação.
DELTA_MISSING_COMMIT_TIMESTAMP
Esta tabela tem o recurso <featureName>
habilitado que requer a presença de commitTimestamp na ação CommitInfo. No entanto, este campo não foi definido na versão <version>
commit .
DELTA_MISSING_DELTA_TABLE
<tableName>
não é uma tabela Delta.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Tabela não existe. Crie uma tabela Delta vazia primeiro usando CREATE TABLE <tableName>
.
DELTA_MISSING_ICEBERG_CLASS
A classe Iceberg não foi encontrada. Certifique-se de que o suporte Delta Iceberg está instalado.
Consulte para <docLink>
obter mais detalhes.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
A coluna <columnName>
, que tem uma restrição NOT NULL, está ausente dos dados que estão sendo gravados na tabela.
DELTA_MISSING_PARTITION_COLUMN
Coluna <columnName>
de partição não encontrada no esquema <columnList>
DELTA_MISSING_PART_FILES
Não foi possível encontrar todos os arquivos de peças da versão do ponto de verificação: <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA suporta apenas tabelas de parquet. Por favor, reescreva seu alvo como parquet.<path>
se for um diretório parquet.
DELTA_MISSING_SET_COLUMN
Coluna <columnName>
SET não encontrada Determinadas colunas: <columnList>
.
DELTA_MISSING_TRANSACTION_LOG
Formato incompatível detetado.
Você está tentando usar o <operation>
<path>
Delta, mas não há
log de transações presente. Verifique o trabalho upstream para se certificar de que está a escrever
usando format("delta") e que você está tentando %1$s o caminho base da tabela.
Para saber mais sobre a Delta, consulte <docLink>
DELTA_MODE_NOT_SUPPORTED
O modo especificado '<mode>
' não é suportado. Os modos suportados são: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
Vários <startingOrEnding>
argumentos fornecidos para leitura CDC. Forneça um carimbo de <startingOrEnding>
data/hora ou <startingOrEnding>
versão.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Várias configurações de índice de filtro bloom passadas para o comando para coluna: <columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Não é possível executar Mesclar como várias linhas de origem correspondentes e tentou modificar o mesmo
linha de destino na tabela Delta de maneiras possivelmente conflitantes. Pela semântica SQL de Merge,
Quando várias linhas de origem correspondem na mesma linha de destino, o resultado pode ser ambíguo
como não está claro qual linha de origem deve ser usada para atualizar ou excluir a correspondência
linha de destino. Você pode pré-processar a tabela de origem para eliminar a possibilidade de
várias correspondências. Veja a secção
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Durante <command>
o , ambas as configurações de commits coordenadas ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") são definidas no comando ou nenhuma delas. Falta: "<configuration>
". Especifique essa configuração na cláusula TBLPROPERTIES ou remova a outra configuração e tente novamente o comando.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Durante <command>
o , ambas as configurações de commits coordenadas ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") são definidas nas configurações do SparkSession ou em nenhuma delas. Falta: "<configuration>
". Defina essa configuração no SparkSession ou desdefina a outra configuração e tente novamente o comando.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
O(s) seguinte(s) nome(s) de coluna são reservados apenas para uso interno da tabela com bucket Delta: <names>
DELTA_NESTED_FIELDS_NEED_RENAME
O esquema de entrada contém campos aninhados que são capitalizados de forma diferente da tabela de destino.
Eles precisam ser renomeados para evitar a perda de dados nesses campos durante a gravação no Delta.
Campos:
<fields>
.
Esquema original:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
O <nestType>
tipo do campo <parent>
contém uma restrição NOT NULL. Delta não suporta restrições NOT NULL aninhadas em matrizes ou mapas. Para suprimir esse erro e ignorar silenciosamente as restrições especificadas, defina <configKey>
= true.
Tipo analisado <nestType>
:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
A subconsulta aninhada não é suportada na <operation>
condição.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
linhas em <tableName>
violar a nova restrição CHECK (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
linhas em <tableName>
violar a nova restrição NOT NULL em <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
A restrição CHECK '<name>
' (<expr>
) deve ser uma expressão booleana.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Encontrado <expr>
. Uma coluna gerada não pode usar uma expressão não determinística.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
As funções não determinísticas não são suportadas <operation>
na <expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula MATCHED em uma instrução MERGE, somente a última cláusula MATCHED pode omitir a condição.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quando houver mais de uma cláusula NOT MATCHED BY SOURCE em uma instrução MERGE, somente a última cláusula NOT MATCHED BY SOURCE poderá omitir a condição.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED em uma instrução MERGE, somente a última cláusula NOT MATCHED pode omitir a condição
DELTA_NON_PARSABLE_TAG
Não foi possível analisar a tag <tag>
.
As tags de arquivo são: <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
Os dados gravados no Delta precisam conter pelo menos uma coluna não particionada.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Predicado referencia coluna não-partição '<columnName>
'. Apenas as colunas de partição podem ser referenciadas: [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
A(s) coluna(s) não(s) <columnList>
de particionamento são especificadas onde apenas colunas de particionamento são esperadas: <fragment>
.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
O catálogo delta requer um namespace de parte única, mas <identifier>
é de várias partes.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
não é uma tabela Delta. Por favor, solte esta tabela primeiro se você gostaria de criá-la com Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName>
não é uma tabela Delta. Por favor, solte esta tabela primeiro se você gostaria de recriá-la com Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Coluna não anulável não encontrada em struct: <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
Restrição NOT NULL violada para coluna: <columnName>
.
DELTA_NOT_NULL_NESTED_FIELD
Um campo aninhado não anulável não pode ser adicionado a um pai anulável. Defina a anulabilidade da coluna pai de acordo.
DELTA_NO_COMMITS_FOUND
Nenhum compromisso encontrado em <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
Não foram encontradas confirmações recriáveis em <logPath>
DELTA_NO_RELATION_TABLE
Tabela <tableIdent>
não encontrada
DELTA_NO_START_FOR_CDC_READ
Nenhum startingVersion ou startingTimestamp fornecido para leitura CDC.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta não aceita NullTypes no esquema para gravações de streaming.
DELTA_ONEOF_IN_TIMETRAVEL
Por favor, forneça 'timestampAsOf' ou 'versionAsOf' para viagens no tempo.
DELTA_ONLY_OPERATION
<operation>
só é suportado para tabelas Delta.
DELTA_OPERATION_MISSING_PATH
Forneça o caminho ou o identificador da tabela para <operation>
.
DELTA_OPERATION_NOT_ALLOWED
Operação não permitida: <operation>
não é suportada para tabelas Delta
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Operação não permitida: <operation>
não é suportada para tabelas Delta: <tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
não é suportado para coluna <colName>
com agrupamento <collation>
não padrão.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
não é suportado para expressão <exprText>
porque usa agrupamento não padrão.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation>
comando em uma exibição temporária referente a uma tabela Delta que contém colunas geradas não é suportado. Execute o <operation>
comando diretamente na tabela Delta
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Operação não permitida: <operation>
não pode ser executada em uma exibição.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OTIMIZE FULL só é suportado para tabelas clusterizadas com colunas de cluster não vazias.
DELTA_OVERWRITE_MUST_BE_TRUE
A opção de cópia overwriteSchema não pode ser especificada sem definir OVERWRITE = 'true'.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' não pode ser usado no modo de substituição de partição dinâmica.
DELTA_PARTITION_COLUMN_CAST_FAILED
Falha ao converter valor <value>
para a <dataType>
coluna de partição <columnName>
DELTA_PARTITION_COLUMN_NOT_FOUND
Coluna <columnName>
de partição não encontrada no esquema [<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
O esquema de partição não pode ser especificado ao converter tabelas Iceberg. Infere-se automaticamente.
DELTA_PATH_DOES_NOT_EXIST
<path>
não existe, ou não é uma tabela Delta.
DELTA_PATH_EXISTS
Não é possível gravar no caminho <path>
já existente sem definir OVERWRITE = 'true'.
DELTA_POST_COMMIT_HOOK_FAILED
A confirmação com a versão <version>
da tabela Delta foi bem-sucedida, mas o erro ao executar o gancho <name>
pós-confirmação <message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: A versão do protocolo da tabela Delta foi alterada por uma atualização simultânea. <additionalInfo>
<conflictingCommit>
Consulte para <docLink>
obter mais detalhes.
DELTA_PROTOCOL_PROPERTY_NOT_INT
A propriedade <key>
Protocol precisa ser um inteiro. Encontrado <value>
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Não é possível atualizar apenas a versão do protocolo leitor para usar recursos de tabela. A versão do protocolo do gravador deve ser, pelo menos <writerVersion>
, para prosseguir. Consulte para obter mais informações sobre as versões do protocolo de <docLink>
tabela.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Você está tentando ler uma tabela <tableName>
Delta que não tem colunas.
Escreva alguns dados novos com a opção mergeSchema = true
de poder ler a tabela.
DELTA_REGEX_OPT_SYNTAX_ERROR
Por favor, verifique novamente a sintaxe para '<regExpOption>
'
DELTA_REPLACE_WHERE_IN_OVERWRITE
Não é possível usar replaceWhere em conjunto com uma substituição por filtro
DELTA_REPLACE_WHERE_MISMATCH
Os dados gravados não estão em conformidade com a condição ou restrição de substituição parcial da tabela '<replaceWhere>
'.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Uma expressão 'replaceWhere' e 'partitionOverwriteMode'='dynamic' não podem ser definidas nas opções DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'replaceWhere' não pode ser usado com filtros de dados quando 'dataChange' está definido como false. Filtros: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Não é possível atribuir IDs de linha sem estatísticas de contagem de linhas.
Colete estatísticas para a tabela executando o seguinte código em um bloco de anotações Scala e tente novamente:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
Alteração de esquema detetada:
Esquema de origem de streaming: <readSchema>
Esquema do arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre as reinicializações da consulta sem
progredindo, você fez uma alteração de esquema incompatível e precisa iniciar seu
consulta do zero usando um novo diretório de ponto de verificação.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Alteração de esquema detetada na versão <version>
:
Esquema de origem de streaming: <readSchema>
Esquema do arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre as reinicializações da consulta sem
progredindo, você fez uma alteração de esquema incompatível e precisa iniciar seu
consulta do zero usando um novo diretório de ponto de verificação. Se o problema persistir após
mudando para um novo diretório de ponto de verificação, talvez seja necessário alterar o
Opção 'startingVersion' ou 'startingTimestamp' para iniciar a partir de uma versão mais recente do que
<version>
com um novo diretório de pontos de verificação.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Alteração de esquema detetada na versão <version>
:
Esquema de origem de streaming: <readSchema>
Esquema do arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre as reinicializações da consulta sem
progredindo, você fez uma alteração de esquema incompatível e precisa iniciar seu
consulta do zero usando um novo diretório de ponto de verificação.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
O esquema da tabela Delta foi alterado de forma incompatível desde o DataFrame
ou o objeto DeltaTable foi criado. Redefina seu objeto DataFrame ou DeltaTable.
Alterações:
<schemaDiff>
<legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
O esquema de tabela não é fornecido. Forneça o esquema (definição de coluna) da tabela ao usar a tabela REPLACE e uma consulta AS SELECT não é fornecida.
DELTA_SCHEMA_NOT_SET
O esquema de tabela não está definido. Escreva dados nele ou use CREATE TABLE para definir o esquema.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
O esquema do novo local Delta é diferente do esquema de tabela atual.
Esquema original:
<original>
Esquema de destino:
<destination>
Se esta for uma alteração pretendida, pode desativar esta verificação executando:
%%sql set <config>
= verdadeiro
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
O arquivo <filePath>
referenciado no log de transações não pode ser encontrado. Isso pode ocorrer quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE
. Esta tabela parece ser um clone superficial, se esse for o caso, esse erro pode ocorrer quando a tabela original da qual esta tabela foi clonada excluiu um arquivo que o clone ainda está usando. Se você quiser que qualquer clone seja independente da tabela original, use um clone DEEP em vez disso.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
As propriedades predefinidas que começam com <prefix>
não podem ser modificadas.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Os dados são restritos pela propriedade <property>
do destinatário que não se aplica ao destinatário atual na sessão.
Para mais detalhes, ver DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
não pode ser usado em visualizações do Delta Sharing que são compartilhadas entre contas.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Tipo de autenticação <authenticationType>
ilegal para o provedor <provider>
.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Tipo de autenticação <authenticationType>
ilegal para o destinatário <recipient>
.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Nome inválido para fazer referência a um <type>
dentro de um compartilhamento. Você pode usar <type>
o nome do dentro do compartilhamento seguindo o formato de [schema].[<type>
], ou também pode usar o nome completo original da tabela seguindo o formato de [catalog].[ esquema]. [>tipo>].
Se você não tiver certeza sobre qual nome usar, você pode executar "SHOW ALL IN SHARE [share]" e encontrar o nome do para remover: coluna <type>
"nome" é o <type>
nome do dentro do compartilhamento e coluna "shared_object" é o <type>
nome completo original do .
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
Existem mais de dois tokens para o destinatário <recipient>
.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
A propriedade <property>
do destinatário não existe.
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
Tokens de destinatário estão faltando para o destinatário <recipient>
.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
A(s) coluna(s) não(s) <badCols>
de particionamento são especificadas para SHOW PARTITIONS
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS não é permitido em uma tabela que não está particionada: <tableName>
DELTA_SOURCE_IGNORE_DELETE
Dados excluídos detetados (por exemplo <removedFile>
) da fonte de streaming na versão <version>
. Esse procedimento não é atualmente suportado. Se você quiser ignorar exclusões, defina a opção 'ignoreDeletes' como 'true'. A tabela de origem pode ser encontrada no caminho <dataPath>
.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Detetada uma atualização de dados (por exemplo <file>
) na tabela de origem na versão <version>
. Esse procedimento não é atualmente suportado. Se isso vai acontecer regularmente e você não tem problema em pular alterações, defina a opção 'skipChangeCommits' como 'true'. Se você quiser que a atualização de dados seja refletida, reinicie esta consulta com um novo diretório de ponto de verificação ou faça uma atualização completa se estiver usando DLT. Se você precisar lidar com essas alterações, mude para MVs. A tabela de origem pode ser encontrada no caminho <dataPath>
.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Por favor, forneça '<version>
' ou '<timestamp>
'
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
estatísticas não encontradas para coluna nos metadados do Parquet: <columnPath>
.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Detetamos uma ou mais alterações de esquema não aditivas (<opType>
) entre a versão <previousSchemaChangeVersion>
Delta e <currentSchemaChangeVersion>
na fonte de streaming Delta.
Verifique se deseja propagar manualmente a(s) alteração(ões) de esquema para a tabela do coletor antes de prosseguirmos com o processamento de fluxo usando o esquema finalizado em <currentSchemaChangeVersion>
.
Depois de corrigir o esquema da tabela de coletor ou decidir que não há necessidade de corrigir, você pode definir (uma das) seguintes configurações SQL para desbloquear a(s) alteração(ões) de esquema não aditiva e continuar o processamento de fluxo.
Para desbloquear este fluxo específico apenas para esta série de alterações de esquema: defina <allowCkptVerKey>` = `<allowCkptVerValue>
.
Para desbloquear este fluxo específico: defina <allowCkptKey>` = `<allowCkptValue>
Para desbloquear todos os fluxos: defina <allowAllKey>` = `<allowAllValue>
.
Como alternativa, se aplicável, você pode substituir o com <opSpecificMode>
no conf SQL para desbloquear o <allowAllMode>
fluxo apenas para este tipo de alteração de esquema.
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Falha ao obter instantâneo de log Delta para a versão inicial ao verificar as alterações de esquema de mapeamento de coluna. Escolha uma versão inicial diferente ou force a ativação da leitura de streaming por sua conta e risco, definindo '<config>
' como 'true'.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
A leitura de streaming não é suportada em tabelas com alterações de esquema incompatíveis com leitura (por exemplo, renomear ou soltar ou alterações de tipo de dados).
Para obter mais informações e possíveis próximas etapas para resolver esse problema, consulte a documentação em <docLink>
Leia o esquema: <readSchema>
. Esquema de dados incompatível: <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
A leitura de streaming não é suportada em tabelas com alterações de esquema incompatíveis com leitura (por exemplo, renomear ou soltar ou alterações de tipo de dados).
Forneça um 'schemaTrackingLocation' para habilitar a evolução do esquema não aditivo para o processamento de fluxo Delta.
Consulte <docLink>
para obter mais detalhes.
Leia o esquema: <readSchema>
. Esquema de dados incompatível: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
O esquema, a configuração da tabela ou o protocolo da sua tabela Delta foi alterado durante o streaming.
O esquema ou o log de controle de metadados foi atualizado.
Reinicie o fluxo para continuar o processamento usando os metadados atualizados.
Esquema atualizado: <schema>
.
Configurações de tabela atualizadas: <config>
.
Protocolo de tabela atualizado: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
O streaming da tabela <tableId>
de origem com rastreamento de esquema não oferece suporte a filtros de linha ou máscaras de coluna.
Solte os filtros de linha ou máscaras de coluna ou desative o rastreamento de esquema.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Detetada a localização conflitante do esquema '<loc>
' durante o streaming da tabela ou tabela localizada em '<table>
'.
Outro fluxo pode estar reutilizando o mesmo local do esquema, o que não é permitido.
Por favor, forneça um novo caminho exclusivo schemaTrackingLocation
ou streamingSourceTrackingId
como uma opção de leitor para um dos fluxos desta tabela.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
O local do esquema '<schemaTrackingLocation>
' deve ser colocado sob o local do ponto de verificação '<checkpointLocation>
'.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Arquivo de log incompleto no log do esquema de origem de streaming Delta em '<location>
'.
O log de esquema pode ter sido corrompido. Escolha um novo local do esquema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Detetado ID de tabela Delta incompatível ao tentar ler o fluxo Delta.
ID da tabela persistente: <persistedId>
, ID da tabela: <tableId>
O log de esquema pode ter sido reutilizado. Escolha um novo local do esquema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Detetado esquema de partição incompatível ao tentar ler o fluxo Delta.
Esquema persistente: <persistedSchema>
, Esquema de partição delta: <partitionSchema>
Escolha um novo local de esquema para reinicializar o log de esquema se você tiver alterado manualmente o esquema de partição da tabela recentemente.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Não foi possível inicializar o log do esquema de origem de streaming Delta porque
Detetamos uma alteração de esquema ou protocolo incompatível ao servir um lote de streaming da versão <a>
da tabela para o <b>
.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Falha ao analisar o esquema do log de esquema de origem de streaming Delta.
O log de esquema pode ter sido corrompido. Escolha um novo local do esquema.
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Não é possível ativar a Captura de Dados de Alteração na tabela. A tabela já contém
colunas <columnList>
reservadas que irão
ser usado internamente como metadados para o Feed de Dados de Alteração da tabela. Para ativar
Alterar Feed de Dados na tabela Renomeie/solte essas colunas.
DELTA_TABLE_ALREADY_EXISTS
A tabela <tableName>
já existe.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
Atualmente, o DeltaTable.forPath suporta apenas chaves de configuração hadoop começando com, <allowedPrefixes>
mas tem <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
A tabela Delta at <tableLocation>
foi substituída enquanto este comando estava usando a tabela.
Table id era <oldId>
mas é agora <newId>
.
Tente novamente o comando atual para garantir que ele leia uma exibição consistente da tabela.
DELTA_TABLE_LOCATION_MISMATCH
A localização da tabela <tableName>
existente é <existingTableLocation>
. Ele não corresponde ao local <tableLocation>
especificado.
DELTA_TABLE_NOT_FOUND
A tabela <tableName>
delta não existe.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
Tabela não é suportada em <operation>
. Em vez disso, use um caminho.
DELTA_TABLE_ONLY_OPERATION
<tableName>
não é uma tabela Delta. <operation>
só é suportado para tabelas Delta.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
O esquema final da tabela de destino está vazio.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
O carimbo de data/hora fornecido (<providedTimestamp>
) é posterior à versão mais recente disponível para este
tabela (<tableName>
). Por favor, use um carimbo de data/hora antes ou em <maximumTimestamp>
.
DELTA_TIMESTAMP_INVALID
O carimbo de data/hora fornecido (<expr>
) não pode ser convertido em um carimbo de data/hora válido.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
precisa ser um valor inicial válido.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: Não é possível reconstruir o estado na versão<version>
, pois o log de transações foi truncado devido à exclusão manual ou à política de retenção de log (<logRetention>
=<logRetentionKey>
) e à política de retenção de pontos de verificação ()<checkpointRetentionKey>
=<checkpointRetention>
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Operação não permitida: TRUNCATE TABLE em tabelas Delta não suporta predicados de partição; use DELETE para excluir partições ou linhas específicas.
DELTA_UDF_IN_GENERATED_COLUMN
Encontrado <udfExpr>
. Uma coluna gerada não pode usar uma função definida pelo usuário
DELTA_UNEXPECTED_ACTION_EXPRESSION
Expressão <expression>
de ação inesperada .
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Esperando <expectedColsSize>
coluna(s) de partição: <expectedCols>
, mas encontrou <parsedColsSize>
coluna(s) de partição: <parsedCols>
da análise do nome do arquivo: <path>
DELTA_UNEXPECTED_PARTIAL_SCAN
Espere uma verificação completa das fontes Delta, mas encontrou uma verificação parcial. caminho:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Esperando coluna <expectedCol>
de partição , mas encontrou coluna <parsedCol>
de partição de analisar o nome do arquivo: <path>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA foi chamado com um esquema de partição diferente do esquema de partição inferido do catálogo, evite fornecer o esquema para que o esquema de partição possa ser escolhido a partir do catálogo.
esquema de partição de catálogo:
<catalogPartitionSchema>
esquema de partição fornecido:
<userPartitionSchema>
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Leia Iceberg com Delta Uniform falhou.
Para mais detalhes, ver DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Criar ou atualizar tabela de entrada uniforme não é suportado.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
O formato <fileFormat>
não é suportado. Apenas iceberg como formato de arquivo original é suportado.
DELTA_UNIFORM_NOT_SUPPORTED
O Formato Universal só é suportado em tabelas do Catálogo Unity.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Falha ao converter a versão <version>
da tabela para o formato <format>
universal . <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
A validação do Formato Universal (<format>
) falhou: <violation>
DELTA_UNKNOWN_CONFIGURATION
Configuração desconhecida foi especificada: <config>
DELTA_UNKNOWN_PRIVILEGE
Privilégio desconhecido: <privilege>
DELTA_UNKNOWN_READ_LIMIT
ReadLimit desconhecido: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Alteração <otherClass>
de coluna não reconhecida . Você pode estar executando uma versão desatualizada do Delta Lake.
DELTA_UNRECOGNIZED_INVARIANT
Invariante não reconhecido. Por favor, atualize sua versão do Spark.
DELTA_UNRECOGNIZED_LOGFILE
Arquivo de log não reconhecido <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
Tentativa de desdefinir a propriedade inexistente '<property>
' na tabela <tableName>
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
não suporta a adição de arquivos com um caminho absoluto
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN não é suportado para alterar coluna <fieldPath>
de <oldField>
para <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Operação ALTER TABLE REPLACE COLUMNS não suportada. Motivo: <details>
Falha ao alterar o esquema de:
<oldSchema>
para:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Você tentou SUBSTITUIR uma tabela existente (<tableName>
) pelo CLONE. Esta operação é
sem suporte. Tente um destino diferente para CLONE ou exclua a tabela no destino atual.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Não há suporte para alterar o modo de mapeamento de coluna de '<oldMode>
' para '<newMode>
'.
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Sua versão atual do protocolo de tabela não suporta a alteração dos modos de mapeamento de coluna
utilizando <config>
.
Versão do protocolo Delta necessária para mapeamento de colunas:
<requiredVersion>
Versão atual do protocolo Delta da sua tabela:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
A alteração de esquema é detetada:
esquema antigo:
<oldTableSchema>
Novo esquema:
<newTableSchema>
Não são permitidas alterações de esquema durante a alteração do modo de mapeamento de coluna.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Não há suporte para gravação de dados com o modo de mapeamento de coluna.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Não há suporte para a criação de um índice de filtro bloom em uma coluna com tipo <dataType>
: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Não é possível adicionar um comentário ao <fieldPath>
. Não há suporte para adicionar um comentário a uma chave/valor de mapa ou elemento de matriz.
DELTA_UNSUPPORTED_DATA_TYPES
Colunas encontradas usando tipos de dados não suportados: <dataTypeList>
. Você pode definir '<config>
' como 'false' para desativar a verificação de tipo. A desativação dessa verificação de tipo pode permitir que os usuários criem tabelas Delta sem suporte e só deve ser usada ao tentar ler/gravar tabelas herdadas.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
não pode ser o resultado de uma coluna gerada
DELTA_UNSUPPORTED_DEEP_CLONE
O clone profundo não é suportado para esta versão Delta.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
é uma vista. DESCRIBE DETAIL só é suportado para tabelas.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Não é permitido soltar colunas de agrupamento (<columnList>
).
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN não é suportado para a sua tabela Delta. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Só pode soltar colunas aninhadas de StructType. Encontrado <struct>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Não é permitido soltar colunas de partição (<columnList>
).
DELTA_UNSUPPORTED_EXPRESSION
Tipo de expressão(<expType>
) sem suporte para <causedBy>
. Os tipos suportados são [<supportedTypes>
].
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
não pode ser usado em uma coluna gerada
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Recurso de leitura Delta não suportado: a tabela "<tableNameOrPath>
" requer recurso(s) de tabela de leitura que não são suportados por esta versão do Databricks: <unsupported>
. Consulte para obter mais informações sobre a <link>
compatibilidade de recursos do Delta Lake.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Recurso de gravação Delta não suportado: a tabela "<tableNameOrPath>
" requer recurso(s) de tabela de gravador que não são suportados por esta versão do Databricks: <unsupported>
. Consulte para obter mais informações sobre a <link>
compatibilidade de recursos do Delta Lake.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
O(s) recurso(s) de tabela configurado(s) nas seguintes configurações do Spark ou propriedades de tabela Delta não são reconhecidos por esta versão do Databricks: <configs>
.
DELTA_UNSUPPORTED_FEATURE_STATUS
Esperando que o status do recurso <feature>
de tabela seja "suportado", mas tem "<status>
".
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
A atualização de campos aninhados só é suportada para StructType, mas você está tentando atualizar um campo de <columnName>
, que é do tipo: <dataType>
.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
O comando 'FSCK REPAIR TABLE' não é suportado em versões de tabela com arquivos vetoriais de exclusão ausentes.
Entre em contato com o suporte.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
O comando 'GENERATE symlink_format_manifest' não é suportado em versões de tabela com vetores de exclusão.
Para produzir uma versão da tabela sem vetores de exclusão, execute 'REORG TABLE table APPLY (PURGE)'. Em seguida, execute novamente o comando 'GENERATE'.
Certifique-se de que nenhuma transação simultânea esteja adicionando vetores de exclusão novamente entre REORG e GENERATE.
Se você precisar gerar manifestos regularmente ou não puder impedir transações simultâneas, considere desabilitar vetores de exclusão nesta tabela usando 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Não há suporte para invariantes em campos aninhados diferentes de StructTypes.
DELTA_UNSUPPORTED_IN_SUBQUERY
Em subconsulta não é suportado <operation>
na condição.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix não disponível
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
A geração de manifesto não é suportada para tabelas que aproveitam o mapeamento de colunas, pois os leitores externos não podem ler essas tabelas Delta. Consulte a documentação do Delta para obter mais detalhes.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
As operações MERGE INTO com evolução de esquema atualmente não suportam a gravação de saída CDC.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Os predicados de várias colunas In não são suportados na <operation>
condição.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
A criação de um índice de filer bloom em uma coluna aninhada não é suportada no momento: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
O campo aninhado não é suportado no <operation>
campo (campo = <fieldName>
).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
A tabela de destino do clone não está vazia. Por favor, TRUNCATE ou DELETE da tabela antes de executar o CLONE.
DELTA_UNSUPPORTED_OUTPUT_MODE
A fonte de <dataSource>
dados não suporta <mode>
o modo de saída
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Não há suporte para a criação de um índice de filtro bloom em uma coluna de particionamento: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
A renomeação de coluna não é suportada para a tabela Delta. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta não suporta a especificação do esquema em tempo de leitura.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY não é suportado para tabelas com bucketed Delta
DELTA_UNSUPPORTED_SOURCE
<operation>
destino suporta apenas fontes Delta.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Atualmente, não há suporte para a especificação de partições estáticas na especificação de partição durante inserções
DELTA_UNSUPPORTED_STRATEGY_NAME
Nome da estratégia não suportado: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
As subconsultas não são suportadas na <operation>
(condição = <cond>
).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
A subconsulta não é suportada em predicados de partição.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Não é possível especificar viagens no tempo em vários formatos.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Não é possível viajar no tempo visualizações, subconsultas, fluxos ou alterar consultas de feed de dados.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Não há suporte para tabelas de exemplo truncadas
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Não é possível operar nesta tabela porque uma alteração de tipo sem suporte foi aplicada. O campo <fieldName>
foi alterado de <fromType>
para <toType>
.
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Forneça o caminho base (<baseDeltaPath>
) ao aspirar tabelas Delta. Atualmente, não há suporte para aspirar partições específicas.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
A implementação da tabela não suporta gravações: <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Você está tentando executar gravações em uma tabela que foi registrada com o coordenador <coordinatorName>
de confirmação. No entanto, nenhuma implementação desse coordenador está disponível no ambiente atual e gravações sem coordenadores não são permitidas.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Não há suporte para gravação em tabelas de exemplo
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Não é possível converter <fromCatalog>
para <toCatalog>
. Todas as colunas aninhadas devem corresponder.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM em arquivos de dados foi bem-sucedido, mas a coleta de lixo de estado COPY INTO falhou.
DELTA_VERSIONS_NOT_CONTIGUOUS
As versões (<versionList>
) não são contíguas.
Para mais detalhes, ver DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
Restrição <constraintName>
<expression>
CHECK violada por linha com valores:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
A validação das propriedades da tabela <table>
foi violada:
Para mais detalhes, ver DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
é uma vista. Você não pode gravar dados em uma exibição.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
A coluna <columnName>
Z-Ordering não existe no esquema de dados.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z-Encomendar em <cols>
será
ineficaz, porque atualmente não coletamos estatísticas para essas colunas. Veja a secção
<link>
para obter mais informações sobre pulo de dados e z-ordering. Você pode desativar
esta verificação por definição
'%%sql set <zorderColStatKey>
= falso'
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
é uma coluna de partição. A ordenação Z só pode ser executada em colunas de dados
Carregador automático
CF_ADD_NEW_NOT_SUPPORTED
O modo <addNewColumnsMode>
de evolução do esquema não é suportado quando o esquema é especificado. Para usar esse modo, você pode fornecer o esquema através de cloudFiles.schemaHints
.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Encontradas opções de autenticação de configuração de notificação para o diretório (padrão)
Modo de listagem:
<options>
Se você deseja usar o modo de notificação de arquivo, defina explicitamente:
.option("cloudFiles.<useNotificationsKey>
", "verdadeiro")
Alternativamente, se você quiser pular a validação de suas opções e ignorá-las
opções de autenticação, você pode definir:
.option("cloudFiles.ValidateOptionsKey>", "falso")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Modo de listagem incremental (cloudFiles.<useIncrementalListingKey>
)
e notificação de arquivo (cloudFiles.<useNotificationsKey>
)
foram ativados ao mesmo tempo.
Por favor, certifique-se de selecionar apenas um.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Exigir adlsBlobSuffix e adlsDfsSuffix para Azure
CF_BUCKET_MISMATCH
O <storeType>
evento <fileEvent>
in the file é diferente do esperado pela fonte: <source>
.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Não é possível evoluir o esquema quando o log do esquema está vazio. Local do log de esquema: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Não é possível analisar a seguinte mensagem de fila: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Não é possível resolver o nome do contêiner do caminho: <path>
, Uri resolvido: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Não é possível executar a listagem de diretórios quando há um thread de preenchimento assíncrono em execução
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Não é possível ativar cloudFiles.cleanSource e cloudFiles.allowOverwrites ao mesmo tempo.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Auto Loader não pode excluir arquivos processados porque ele não tem permissões de gravação para o diretório de origem.
<reason>
Para corrigir, você pode:
- Conceder permissões de gravação para o diretório de origem OU
- Definir cleanSource como 'OFF'
Você também pode desbloquear seu fluxo definindo o SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors como 'true'.
CF_DUPLICATE_COLUMN_IN_DATA
Ocorreu um erro ao tentar inferir o esquema de partição da sua tabela. Você tem a mesma coluna duplicada em seus dados e caminhos de partição. Para ignorar o valor da partição, forneça suas colunas de partição explicitamente usando: .option("cloudFiles.<partitionColumnsKey>
", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Não é possível inferir o esquema quando o caminho <path>
de entrada está vazio. Tente iniciar o fluxo quando houver arquivos no caminho de entrada ou especifique o esquema.
CF_EVENT_GRID_AUTH_ERROR
Falha ao criar uma assinatura de Grade de Eventos. Por favor, certifique-se de que o seu serviço
principal tem <permissionType>
Assinaturas de Grade de Eventos. Veja mais detalhes em:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Falha ao criar a assinatura da grade de eventos. Certifique-se de que Microsoft.EventGrid é
registado como fornecedor de recursos na sua subscrição. Veja mais detalhes em:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Falha ao criar uma assinatura de Grade de Eventos. Por favor, certifique-se de que o seu armazenamento
conta (<storageAccount>
) está no seu grupo de recursos (<resourceGroup>
) e que
a conta de armazenamento é uma conta "StorageV2 (uso geral v2)". Veja mais detalhes em:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
O modo de notificação de eventos do Auto Loader não é suportado pelo <cloudStore>
.
CF_FAILED_TO_CHECK_STREAM_NEW
Falha ao verificar se o fluxo é novo
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Falha ao criar assinatura: <subscriptionName>
. Já existe uma subscrição com o mesmo nome que está associada a outro tópico: <otherTopicName>
. O tópico desejado é <proposedTopicName>
. Exclua a assinatura existente ou crie uma assinatura com um novo sufixo de recurso.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Falha ao criar tópico: <topicName>
. Já existe um tópico com o mesmo nome.<reason>
Remova o tópico existente ou tente novamente com outro sufixo de recurso
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Falha ao excluir notificação com id <notificationId>
no bucket <bucketName>
para o tópico <topicName>
. Tente novamente ou remova manualmente a notificação através do console do GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Falha ao desserializar o esquema persistente da cadeia de caracteres: '<jsonSchema>
'
CF_FAILED_TO_EVOLVE_SCHEMA
Não é possível evoluir o esquema sem um log de esquema.
CF_FAILED_TO_FIND_PROVIDER
Falha ao encontrar provedor para <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Falha ao inferir esquema para formato <fileFormatInput>
de arquivos existentes no caminho <path>
de entrada .
Para mais detalhes, ver CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Falha ao gravar no log de esquema no local <path>
.
CF_FILE_FORMAT_REQUIRED
Não foi possível encontrar a opção necessária: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Encontradas várias (<num>
) subscrições com o prefixo Auto Loader para o tópico <topicName>
:
<subscriptionList>
Deve haver apenas uma assinatura por tópico. Certifique-se manualmente de que o seu tópico não tem várias subscrições.
CF_GCP_AUTHENTICATION
Queira fornecer todos os seguintes elementos: <clientEmail>
, <client>
,
<privateKey>
<privateKeyId>
e/ou não fornecer nenhum deles para usar o padrão
Cadeia de provedores de credenciais do GCP para autenticação com recursos do GCP.
CF_GCP_LABELS_COUNT_EXCEEDED
Recebeu muitos rótulos (<num>
) para o recurso GCP. A contagem máxima de rótulos por recurso é <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Recebeu muitas tags de recurso (<num>
) para o recurso GCP. A contagem máxima de tags de recursos por recurso é <maxNum>
, pois as tags de recursos são armazenadas como rótulos GCP em recursos e as tags específicas do Databricks consomem parte dessa cota de rótulo.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Arquivo de log incompleto no log de esquema no caminho <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Arquivo de metadados incompleto no ponto de verificação do Auto Loader
CF_INCORRECT_SQL_PARAMS
O método cloud_files aceita dois parâmetros de cadeia de caracteres necessários: o caminho para carregar e o formato de arquivo. As opções do leitor de arquivos devem ser fornecidas em um mapa chave-valor de cadeia de caracteres. por exemplo, cloud_files("caminho", "json", mapa("opção1", "valor1")). Recebido: <params>
CF_INTERNAL_ERROR
Erro interno.
Para mais detalhes, ver CF_INTERNAL_ERROR
CF_INVALID_ARN
ARN inválido: <arn>
CF_INVALID_AZURE_CERTIFICATE
A chave privada fornecida com a opção cloudFiles.certificate não pode ser analisada. Por favor, forneça uma chave pública válida em formato PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
A chave privada fornecida com a opção cloudFiles.certificatePrivateKey não pode ser analisada. Por favor, forneça uma chave privada válida em formato PEM.
CF_INVALID_CHECKPOINT
Este ponto de verificação não é uma fonte válida do CloudFiles
CF_INVALID_CLEAN_SOURCE_MODE
Modo inválido para a opção <value>
de fonte limpa .
CF_INVALID_GCP_RESOURCE_TAG_KEY
Chave de marca de recurso inválida para recurso GCP: <key>
. As teclas devem começar com uma letra minúscula, ter entre 1 e 63 caracteres e conter apenas letras minúsculas, números, sublinhados (_) e hífenes (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Valor da tag de recurso inválido para o recurso GCP: <value>
. Os valores devem ter entre 0 e 63 caracteres e devem conter apenas letras minúsculas, números, sublinhados (_) e hífenes (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
O Auto Loader não suporta as seguintes opções quando usado com eventos de arquivos gerenciados:
<optionList>
Recomendamos que você remova essas opções e reinicie o fluxo.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Resposta inválida do serviço de eventos de arquivo gerenciado. Entre em contato com o suporte da Databricks para obter assistência.
Para mais detalhes, ver CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
deve ser um dos {
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
As dicas de esquema só podem especificar uma coluna específica uma vez.
Neste caso, redefinindo a coluna: <columnName>
várias vezes em schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
As dicas de esquema não podem ser usadas para substituir os tipos aninhados de mapas e matrizes.
Coluna em conflito: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset deve ser chamado com um ReadLimit nesta fonte.
CF_LOG_FILE_MALFORMED
O arquivo de log foi malformado: falha ao ler a versão de log correta do <fileName>
.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Você solicitou ao Auto Loader para ignorar os arquivos existentes em seu local externo, definindo includeExistingFiles como false. No entanto, o serviço de eventos de arquivo gerenciado ainda está descobrindo arquivos existentes em seu local externo. Tente novamente depois que os eventos de arquivos gerenciados tiverem concluído a descoberta de todos os arquivos em seu local externo.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Você está usando o Auto Loader com eventos de arquivo gerenciados, mas parece que o local externo para o caminho de entrada '<path>
' não tem eventos de arquivo habilitados ou o caminho de entrada é inválido. Solicite ao seu administrador do Databricks que habilite eventos de arquivo no local externo para seu caminho de entrada.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Você está usando o Auto Loader com eventos de arquivo gerenciados, mas não tem acesso ao local externo ou volume para o caminho de entrada '<path>
' ou o caminho de entrada é inválido. Solicite ao seu Administrador do Databricks que conceda permissões de leitura para o local ou volume externo ou forneça um caminho de entrada válido dentro de um local ou volume externo existente.
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
O Auto Loader com eventos de arquivos gerenciados só está disponível no Databricks sem servidor. Para continuar, mova essa carga de trabalho para Databricks sem servidor ou desative a opção cloudFiles.useManagedFileEvents.
CF_MAX_MUST_BE_POSITIVE
max deve ser positivo
CF_METADATA_FILE_CONCURRENTLY_USED
Várias consultas de streaming estão usando simultaneamente <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
O arquivo de metadados no diretório de ponto de verificação de origem de streaming está ausente. Estes metadados
contém opções padrão importantes para o fluxo, portanto, o fluxo não pode ser reiniciado
Agora. Entre em contato com o suporte da Databricks para obter assistência.
CF_MISSING_PARTITION_COLUMN_ERROR
A coluna <columnName>
de partição não existe no esquema fornecido:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Especifique um esquema usando .schema() se um caminho não for fornecido para a fonte do CloudFiles ao usar o modo de notificação de arquivo. Como alternativa, para que o Auto Loader possa inferir o esquema, forneça um caminho base em .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Encontradas notificações existentes para tópico <topicName>
no bucket <bucketName>
:
notificação, id
<notificationList>
Para evitar poluir o assinante com eventos não intencionais, exclua as notificações acima e tente novamente.
CF_NEW_PARTITION_ERROR
Novas colunas de partição foram inferidas a partir dos seus ficheiros: [<filesList>
]. Forneça todas as colunas de partição em seu esquema ou forneça uma lista de colunas de partição para as quais você gostaria de extrair valores usando: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Houve um erro ao tentar inferir o esquema de partição do lote atual de arquivos. Por favor, forneça suas colunas de partição explicitamente usando: .option("cloudFiles.<partitionColumnOption>
", "{comma-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Não é possível ler arquivos quando o caminho <path>
de entrada não existe. Certifique-se de que o caminho de entrada existe e tente novamente.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
O preenchimento periódico não é suportado se o preenchimento assíncrono estiver desativado. Você pode habilitar a listagem assíncrona de backfill/diretório definindo spark.databricks.cloudFiles.asyncDirListing
como true
CF_PREFIX_MISMATCH
Evento incompatível encontrado: a chave <key>
não tem o prefixo: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Se você não precisar fazer nenhuma outra alteração no seu código, defina o SQL
configuração: '<sourceProtocolVersionKey>
= <value>
'
para retomar o fluxo. Veja:
<docLink>
para obter mais detalhes.
CF_REGION_NOT_FOUND_ERROR
Não foi possível obter a região padrão da AWS. Especifique uma região usando a opção cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Falha ao criar serviços de notificação: o sufixo de recurso não pode estar vazio.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter caracteres alfanuméricos, hífenes (-) e sublinhados (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter letra minúscula, número e traço (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter caracteres alfanuméricos, hífenes (-), sublinhados (_), pontos (.), tildes (~) mais sinais (+) e sinais de porcentagem (<percentSign>
).
CF_RESOURCE_SUFFIX_LIMIT
Falha ao criar serviços de notificação: o sufixo de recurso não pode ter mais de <limit>
caracteres.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Falha ao criar serviços de notificação: o sufixo de recurso deve estar entre <lowerLimit>
e <upperLimit>
caracteres.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Encontrada chave de tag de recurso GCP restrita (<key>
). As seguintes chaves de tag de recurso GCP são restritas para o Auto Loader: [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration não pode ser maior que cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Falha ao criar notificação para o tópico: <topic>
com prefixo: <prefix>
. Já existe um tópico com o mesmo nome com outro prefixo: <oldPrefix>
. Tente usar um sufixo de recurso diferente para a instalação ou exclua a configuração existente.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Forneça o caminho do diretório de origem com a opção path
CF_SOURCE_UNSUPPORTED
A origem dos ficheiros na nuvem suporta apenas os caminhos S3, Azure Blob Storage (wasb/wasbs) e Azure Data Lake Gen1 (adl) e Gen2 (abfs/abfss) neste momento. caminho: '<path>
', uri resolvido: '<uri>
'
CF_STATE_INCORRECT_SQL_PARAMS
A função cloud_files_state aceita um parâmetro string que representa o diretório de ponto de verificação de um fluxo cloudFiles ou um tableName de várias partes que identifica uma tabela de streaming e um segundo parâmetro inteiro opcional que representa a versão do ponto de verificação para carregar o estado. O segundo parâmetro também pode ser «mais recente» para ler o ponto de verificação mais recente. Recebido: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
O caminho <path>
do ponto de verificação de entrada é inválido. Ou o caminho não existe ou não há fontes cloud_files encontradas.
CF_STATE_INVALID_VERSION
A versão <version>
especificada não existe ou foi removida durante a análise.
CF_THREAD_IS_DEAD
<threadName>
thread está morto.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Não é possível derivar o local do ponto de verificação do fluxo do local do ponto de verificação de origem: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
Não é possível detetar o formato de arquivo de origem do <fileSize>
(s) arquivo(s) de amostra, encontrado <formats>
. Especifique o formato.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Não é possível extrair informações do bucket. Caminho: '<path>
', resolvido uri: '<uri>
'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Não é possível extrair informações importantes. Caminho: '<path>
', resolvido uri: '<uri>
'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Não é possível extrair informações da conta de armazenamento; caminho: '<path>
', uri resolvido: '<uri>
'
CF_UNABLE_TO_LIST_EFFICIENTLY
Recebeu um evento de renomeação de diretório para o caminho <path>
, mas não é possível listar esse diretório de forma eficiente. Para que o fluxo continue, defina a opção 'cloudFiles.ignoreDirRenames' como true e considere habilitar backfills regulares com cloudFiles.backfillInterval para que esses dados sejam processados.
CF_UNEXPECTED_READ_LIMIT
ReadLimit inesperado: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Encontradas chaves de opção desconhecidas:
<optionList>
Certifique-se de que todas as chaves de opção fornecidas estão corretas. Se você quiser pular o
validação de suas opções e ignorar essas opções desconhecidas, você pode definir:
.option("cloudFiles.<validateOptions>
", "falso")
CF_UNKNOWN_READ_LIMIT
ReadLimit desconhecido: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
A função SQL 'cloud_files' para criar uma fonte de streaming do Auto Loader é suportada apenas em um pipeline Delta Live Tables. Veja mais detalhes em:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
A inferência de esquema não é suportada para o formato: <format>
. Especifique o esquema.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: a versão máxima de log suportada é v<maxVersion>``, but encountered v``<version>
. O arquivo de log foi produzido por uma versão mais recente do DBR e não pode ser lido por esta versão. Por favor, atualize.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
O modo <mode>
de evolução do esquema não é suportado para o formato: <format>
. Defina o modo de evolução do esquema como 'nenhum'.
CF_USE_DELTA_FORMAT
A leitura de uma tabela Delta não é suportada com esta sintaxe. Se você quiser consumir dados da Delta, consulte os documentos: leia uma tabela Delta (<deltaDocLink>
) ou leia uma tabela Delta como uma fonte de fluxo (<streamDeltaDocLink>
). A fonte de streaming da Delta já está otimizada para consumo incremental de dados.
Geoespacial
EWKB_PARSE_ERROR
Erro ao analisar EWKB: <parseError>
na posição <pos>
GEOJSON_PARSE_ERROR
Erro ao analisar GeoJSON: <parseError>
na posição <pos>
Para mais detalhes, ver GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
não é um ID de célula H3 válido
Para mais detalhes, ver H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
A distância <k>
da grelha H3 deve ser não negativa
Para mais detalhes, ver H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
A resolução <r>
H3 deve ser entre <minR>
e <maxR>
, inclusive
Para mais detalhes, ver H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
está desativado ou não é suportado. Considere habilitar o Photon ou alternar para uma camada que ofereça suporte a expressões H3
Para mais detalhes, ver H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
Um pentágono foi encontrado enquanto calculava o anel hexadecimal de com distância de <h3Cell>
grade <k>
H3_UNDEFINED_GRID_DISTANCE
Distância da grelha H3 entre <h3Cell1>
e <h3Cell2>
está indefinida
ST_DIFFERENT_SRID_VALUES
Os argumentos para "<sqlFunction>
" devem ter o mesmo valor SRID. Valores SRID encontrados: <srid1>
, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>
": <reason>
ST_INVALID_ARGUMENT_TYPE
O argumento para "<sqlFunction>
" deve ser do tipo <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: Transformação CRS inválida ou sem suporte de SRID <srcSrid>
para SRID <trgSrid>
ST_INVALID_ENDIANNESS_VALUE
Endianness <e>
deve ser 'NDR' (little-endian) ou 'XDR' (big-endian)
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: Valor geohash inválido: '<geohash>
'. Os valores de geohash devem ser cadeias de caracteres base32 minúsculas válidas, conforme descrito emhttps://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_PRECISION_VALUE
A precisão <p>
deve ser entre <minP>
e <maxP>
, inclusive
ST_INVALID_SRID_VALUE
SRID inválido ou não suportado <srid>
ST_NOT_ENABLED
<stExpression>
está desativado ou não é suportado. Considere habilitar o Photon ou alternar para uma camada que ofereça suporte a expressões ST
ST_UNSUPPORTED_RETURN_TYPE
Os tipos de dados GEOGRAPHY e GEOMETRY não podem ser retornados em consultas. Use uma das seguintes expressões SQL para convertê-las em formatos de intercâmbio padrão: <projectionExprs>
.
WKB_PARSE_ERROR
Erro ao analisar WKB: <parseError>
na posição <pos>
Para mais detalhes, consulte WKB_PARSE_ERROR
WKT_PARSE_ERROR
Erro ao analisar WKT: <parseError>
na posição <pos>
Para mais detalhes, ver WKT_PARSE_ERROR