Condividi tramite


Classi di errore in Azure Databricks

Si applica a: segno di spunta sì Databricks SQL segno di spunta sì Databricks Runtime 12.2 e versioni successive

Le classi di errore sono descrittive, leggibili, stringhe univoche per la condizione di errore.

È possibile usare le classi di errore per gestire gli errori nell'applicazione a livello di codice senza dover analizzare il messaggio di errore.

Questo è un elenco di condizioni di errore denominate comuni restituite da Azure Databricks.

Databricks Runtime e Databricks SQL

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE: 42845

L'espressione <sqlExpr> non deterministica non deve essere visualizzata negli argomenti di una funzione di aggregazione.

AI_FUNCTION_HTTP_PARSE_CAST_ERROR

SQLSTATE: 2203G

Impossibile analizzare l'output del modello durante il cast al returnType specificato: "<dataType>", la risposta JSON era: "<responseString>". Aggiornare returnType in modo che corrisponda al contenuto del tipo rappresentato dal codice JSON della risposta e quindi ripetere la query.

AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR

SQLSTATE: 2203G

L'output effettivo del modello ha più di una colonna "<responseString>". Tuttavia, il tipo restituito specificato[""<dataType>] include una sola colonna. Aggiornare returnType in modo che contenga lo stesso numero di colonne dell'output del modello e quindi ripetere la query.

AI_FUNCTION_HTTP_REQUEST_ERROR

SQLSTATE: 08000

Errore durante l'esecuzione di una richiesta HTTP per la funzione <funcName>: <errorMessage>

AI_FUNCTION_INVALID_HTTP_RESPONSE

SQLSTATE: 08000

Risposta HTTP non valida per la funzione <funcName>: <errorMessage>

AI_FUNCTION_INVALID_MAX_WORDS

SQLSTATE: 22032

Il numero massimo di parole deve essere un numero intero non negativo, ma ha ottenuto <maxWords>.

AI_FUNCTION_INVALID_MODEL_PARAMETERS

SQLSTATE: 22023

I parametri del modello forniti (<modelParameters>) non sono validi nella funzione AI_QUERY per la gestione dell'endpoint "<endpointName>".

Per altri dettagli, vedere AI_FUNCTION_INVALID_MODEL_PARAMETERS

AI_FUNCTION_JSON_PARSE_ERROR

SQLSTATE: 22000

Errore durante l'analisi della risposta JSON per la funzione <funcName>: <errorMessage>

AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR

SQLSTATE: 2203G

Impossibile analizzare lo schema per l'endpoint di servizio "<endpointName>": <errorMessage>, la risposta JSON era: "<responseJson>".

Impostare il parametro manualmente nella funzione AI_QUERY per eseguire l'override returnType della risoluzione dello schema.

AI_FUNCTION_UNSUPPORTED_ERROR

SQLSTATE: 56038

La funzione <funcName> non è supportata nell'ambiente corrente. È disponibile solo in Databricks SQL Pro e Serverless.

AI_FUNCTION_UNSUPPORTED_REQUEST

SQLSTATE: 0A000

Impossibile valutare la funzione SQL "<functionName>" perché l'argomento fornito di <invalidValue> ha "<invalidDataType>", ma sono supportati solo i tipi seguenti: <supportedDataTypes>. Aggiornare la chiamata di funzione per fornire un argomento di tipo stringa e ripetere la query.

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

Funzione di intelligenza artificiale: "<functionName>" non supporta il tipo seguente come tipo restituito: "<typeName>". Il tipo restituito deve essere un tipo SQL valido riconosciuto da Catalyst e supportato dalla funzione di intelligenza artificiale. I tipi attualmente supportati includono: <supportedValues>

AI_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22032

Il valore specificato "<argValue>" non è supportato dall'argomento "<argName>". I valori supportati sono: <supportedValues>

AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH

SQLSTATE: 0A000

Se "<sqlExpr>" non è supportato dall'argomento returnType.

AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

La ricerca vettoriale con tipo di <embeddingColumnType> colonna di incorporamento non è supportata.

AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

La ricerca vettoriale con tipo di <indexType> indice non è supportata.

AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR

SQLSTATE: 0A000

Errore durante la materializzazione della query di ricerca vettoriale dal tipo <dataType> spark a oggetti nativi scala durante la codifica delle richieste con errore: <errorMessage>.

AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR

SQLSTATE: 0A000

Ricerca vettoriale con num_results maggiore di <maxLimit> non è supportato. Il limite specificato è .<requestedLimit> Pleaase riprovare con num_results <= <maxLimit>

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

L'uso di query con parametri nome richiede che tutti i parametri siano denominati. Nomi mancanti dei parametri: <exprs>.

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE: KD005

Impossibile utilizzare tutte le colonne per le colonne di partizione.

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

La colonna ALTER TABLE <type> specifica il descrittore "<optionName>" più volte, che non è <columnName> valido.

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE: 42KD0

Il nome <name> è ambiguo in CTE annidato.

Impostare su <config> "CORRETTO" in modo che il nome definito in CTE interno ha la precedenza. Se impostato su "LEGACY", le definizioni CTE esterne avranno la precedenza.

Vedere https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'.

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE: 42702

La colonna o il campo <name> è ambiguo e presenta <n> corrispondenze.

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE: 42702

La colonna <name> è ambigua. Perché sono stati uniti diversi dataframe e alcuni di questi dataframe sono gli stessi.

Questa colonna punta a uno dei dataframe, ma Spark non è in grado di capire quale.

Aliasare i dataframe con nomi diversi tramite DataFrame.alias prima di aggiungerli,

e specificare la colonna usando il nome completo, ad esempio df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).

AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

Riferimento ambiguo al vincolo <constraint>.

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE: 42702

L'alias di colonna laterale è ambiguo <name> e presenta <n> corrispondenze.

AMBIGUOUS_REFERENCE

SQLSTATE: 42704

Il riferimento <name> è ambiguo, potrebbe essere: <referenceNames>.

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE: 42000

Riferimento ambiguo al campo <field>. Vengono visualizzate <count> volte nello schema.

ANALYZE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 0A000

I VINCOLI ANALYZE non sono supportati.

ANSI_CONFIG_CANNOT_BE_DISABLED

SQLSTATE: 56038

Impossibile disabilitare la configurazione <config> SQL ANSI in questo prodotto.

AQE_THREAD_INTERRUPTED

SQLSTATE: HY008

Il thread AQE viene interrotto, probabilmente a causa dell'annullamento delle query da parte dell'utente.

ARGUMENT_NOT_CONSTANT

SQLSTATE: 42K08

La funzione <functionName> include un parametro <parameterName> in corrispondenza della posizione <pos> che richiede un argomento costante. Calcolare l'argomento <sqlExpr> separatamente e passare il risultato come costante.

ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<message>.<alternative> Se necessario, impostare su <config> "false" per ignorare questo errore.

Per altri dettagli, vedere ARITHMETIC_OVERFLOW

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE: 42802

Numero di colonne o variabili assegnate o con alias: <numTarget> non corrisponde al numero di espressioni di origine: <numExpr>.

AS_OF_JOIN

SQLSTATE: 42604

Join non valido.

Per altri dettagli, vedere AS_OF_JOIN

AVRO_DEFAULT_VALUES_UNSUPPORTED

SQLSTATE: 0A000

L'uso dei valori predefiniti non è supportato quandorescuedDataColumn è abilitato. È possibile rimuovere questo controllo impostando spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue su false, ma i valori predefiniti non verranno applicati e verranno comunque usati valori Null.

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE: 22KD3

Non è possibile convertire Avro <avroPath> in SQL <sqlPath> perché il tipo di dati codificato originale è <avroType>, ma si sta provando a leggere il campo come <sqlType>, che causerebbe una risposta errata.

Per consentire la lettura di questo campo, abilitare la configurazione SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE: 0A000

L'uso della corrispondenza dei campi posizionale non è supportato quando rescuedDataColumn o failOnUnknownFields è abilitato. Rimuovere queste opzioni per continuare.

BATCH_METADATA_NOT_FOUND

SQLSTATE: 42K03

Impossibile trovare il batch <batchMetadataFile>.

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE: 42616

Le credenziali di connessione BigQuery devono essere specificate con il parametro 'GoogleServiceAccountKeyJson' o con tutti i parametri 'projectId', 'OAuthServiceAcctEmail', 'OAuthPvtKey'

BINARY_ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<value1><symbol> <value2> ha causato l'overflow.

BOOLEAN_STATEMENT_WITH_EMPTY_ROW

SQLSTATE: 21000

Istruzione booleana <invalidStatement> non valida. Riga singola prevista con un valore del BOOLEAN tipo, ma ha una riga vuota.

BUILT_IN_CATALOG

SQLSTATE: 42832

<operation> non supporta i cataloghi predefiniti.

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE: 42KDE

Il metodo <methodName> non può essere chiamato nel set di dati di streaming/dataframe.

CANNOT_ALTER_COLLATION_BUCKET_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN non può modificare le regole di confronto dei tipi/sottotipi delle colonne del bucket, ma è stata trovata la colonna <columnName> bucket nella tabella <tableName>.

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN non è supportato per le colonne di partizione, ma è stata trovata la colonna <columnName> di partizione nella tabella <tableName>.

CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK

SQLSTATE: 42611

La filigrana deve essere definita per riassegnare la colonna dell'ora dell'evento. Impossibile trovare la definizione della filigrana nella query di streaming.

CANNOT_CAST_DATATYPE

SQLSTATE: 42846

Impossibile eseguire il cast <sourceType> a <targetType>.

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

Impossibile convertire Protobuf <protobufColumn> in SQL <sqlColumn> perché lo schema non è compatibile (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

Impossibile convertire <protobufType> Protobuf in tipo <toType>SQL.

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQLSTATE: 42846

Impossibile convertire SQL <sqlColumn> in Protobuf <protobufColumn> perché lo schema non è compatibile (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

SQLSTATE: 42846

Impossibile convertire SQL <sqlColumn> in Protobuf <protobufColumn> perché <data> non è in valori definiti per l'enumerazione: <enumString>.

CANNOT_COPY_STATE

SQLSTATE: 0AKD0

Impossibile copiare lo stato del catalogo, ad esempio il database corrente e le viste temporanee dal catalogo Unity a un catalogo legacy.

CANNOT_CREATE_DATA_SOURCE_TABLE

SQLSTATE: 42KDE

Impossibile creare la tabella <tableName>dell'origine dati:

Per altri dettagli, vedere CANNOT_CREATE_DATA_SOURCE_TABLE

CANNOT_DECODE_URL

SQLSTATE: 22546

L'URL specificato non può essere decodificato: <url>. Assicurarsi che l'URL sia formattato correttamente e riprovare.

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE: 42832

Impossibile eliminare la proprietà <resourceType> del sistema.

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

Impossibile eliminare il vincolo con il nome <constraintName> condiviso da un vincolo CHECK

e un vincolo PRIMARY KEY o FOREIGN KEY. È possibile eliminare la CHIAVE PRIMARIA o

Vincolo FOREIGN KEY per query:

  • ALTER TABLE .. DROP PRIMARY KEY o
  • ALTER TABLE .. DROP FOREIGN KEY ..

CANNOT_ESTABLISH_CONNECTION

SQLSTATE: 08001

Impossibile stabilire la connessione al database remoto <jdbcDialectName> . Controllare le informazioni di connessione e le credenziali, ad esempio host, porta, utente, password e opzioni di database. ** Se si ritiene che le informazioni siano corrette, controllare la configurazione di rete dell'area di lavoro e assicurarsi che non siano previste restrizioni in uscita per l'host. Verificare anche che l'host non blocchi le connessioni in ingresso dalla rete in cui vengono distribuiti i cluster Spark dell'area di lavoro. ** Messaggio di errore dettagliato: <causeErrorMessage>.

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE: 08001

Impossibile stabilire la connessione al database remoto <jdbcDialectName> . Controllare le informazioni di connessione e le credenziali, ad esempio host, porta, utente, password e opzioni di database. ** Se si ritiene che le informazioni siano corrette, consentire il traffico in ingresso da Internet all'host, in quanto si usa l'ambiente di calcolo serverless. Se i criteri di rete non consentono il traffico Internet in ingresso, usare un ambiente di calcolo senza server oppure contattare il rappresentante di Databricks per informazioni sulla rete privata serverless. ** Messaggio di errore dettagliato: <causeErrorMessage>.

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE: 0A000

Le trasformazioni e le azioni del set di dati possono essere richiamate solo dal driver, non all'interno di altre trasformazioni del set di dati; Ad esempio, dataset1.map(x => dataset2.values.count() * x) non è valido perché non è possibile eseguire l'azione di trasformazione dei valori e conteggio all'interno della trasformazione dataset1.map. Per altre informazioni, vedere SPARK-28702.

CANNOT_LOAD_FUNCTION_CLASS

SQLSTATE: 46103

Impossibile caricare la classe <className> durante la registrazione della funzione <functionName>, assicurarsi che si tratti del classpath.

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE: 42K03

Impossibile caricare la classe Protobuf con il nome <protobufClassName>. <explanation>.

CANNOT_LOAD_STATE_STORE

SQLSTATE: 58030

Si è verificato un errore durante lo stato di caricamento.

Per altri dettagli, vedere CANNOT_LOAD_STATE_STORE

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE: 42825

Impossibile unire tipi di <left> dati incompatibili e <right>. Controllare i tipi di dati delle colonne unite e assicurarsi che siano compatibili. Se necessario, valutare la possibilità di eseguire il cast delle colonne in tipi di dati compatibili prima di tentare l'unione.

CANNOT_MERGE_SCHEMAS

SQLSTATE: 42KD9

Unione di schemi non riuscita:

Schema iniziale:

<left>

Schema che non può essere unito allo schema iniziale:

<right>.

CANNOT_MODIFY_CONFIG

SQLSTATE: 46110

Impossibile modificare il valore della configurazione di Spark: <key>.

Vedere anche https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.

CANNOT_PARSE_DECIMAL

SQLSTATE: 22018

Impossibile analizzare decimali. Assicurarsi che l'input sia un numero valido con separatori decimali o virgole facoltativi.

CANNOT_PARSE_INTERVAL

SQLSTATE: 22006

Impossibile analizzare <intervalString>. Assicurarsi che il valore specificato sia in un formato valido per la definizione di un intervallo. È possibile fare riferimento alla documentazione per il formato corretto. Se il problema persiste, verificare che il valore di input non sia null o vuoto e riprovare.

CANNOT_PARSE_JSON_FIELD

SQLSTATE: 2203G

Impossibile analizzare il nome <fieldName> del campo e il valore <fieldValue> del tipo di <jsonType> token JSON per specificare come destinazione il tipo di <dataType>dati Spark.

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

SQLSTATE: 22018

Errore durante l'analisi dei byte del descrittore in Protobuf FileDescriptorSet.

CANNOT_PARSE_TIMESTAMP

SQLSTATE: 22007

<message>. Se necessario, impostare su <ansiConfig> "false" per ignorare questo errore.

CANNOT_QUERY_TABLE_DURING_INITIALIZATION

SQLSTATE: 55019

Impossibile eseguire query su MV/ST durante l'inizializzazione.

Per altri dettagli, vedere CANNOT_QUERY_TABLE_DURING_INITIALIZATION

CANNOT_READ_ARCHIVED_FILE

SQLSTATE: KD003

Impossibile leggere il file nel percorso <path> perché è stato archiviato. Modificare i filtri di query per escludere i file archiviati.

CANNOT_READ_FILE

SQLSTATE: KD003

Impossibile leggere il <format> file nel percorso: <path>.

Per altri dettagli, vedere CANNOT_READ_FILE

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

SQLSTATE: 42501

Impossibile leggere la chiave sensibile '<key>' dal provider sicuro.

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE: 429BB

Impossibile riconoscere la stringa del tipo hive: <fieldType>, colonna: <fieldName>. Il tipo di dati specificato per il campo non può essere riconosciuto da Spark SQL. Controllare il tipo di dati del campo specificato e assicurarsi che sia un tipo di dati Spark SQL valido. Vedere la documentazione di Spark SQL per un elenco di tipi di dati validi e il relativo formato. Se il tipo di dati è corretto, assicurarsi di usare una versione supportata di Spark SQL.

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE: 0AKD0

Impossibile fare riferimento a un catalogo <objType> Unity negli oggetti Metastore Hive.

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE: 0AKD0

La ridenominazione di un oggetto <type> tra cataloghi non è consentita.

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE: 0AKD0

La ridenominazione di un oggetto <type> tra gli schemi non è consentita.

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE: 42704

Impossibile risolvere la colonna <name>del dataframe. Probabilmente è dovuto a riferimenti illegali come df1.select(df2.col("a")).

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE: 42704

Impossibile risolvere <targetString>.* colonne di input <columns>specificate. Verificare che la tabella o lo struct specificato esista ed è accessibile nelle colonne di input.

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE: 58030

Impossibile impostare le autorizzazioni sul percorso <path> creato su <permission>.

CANNOT_SAVE_VARIANT

SQLSTATE: 0A000

Impossibile salvare il tipo di dati variant in una risorsa di archiviazione esterna.

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE: 0AKD0

Non è possibile clonare tabelle superficiali in Unity Catalog e Hive Metastore.

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE: 0AKUC

Non è possibile clonare superficialmente una tabella <table> che è già un clone superficiale.

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE: 0AKUC

Il clone superficiale è supportato solo per il tipo di tabella GESTITo. La tabella <table> non è gestita.

CANNOT_UPDATE_FIELD

SQLSTATE: 0A000

Impossibile aggiornare il <table> tipo di campo <fieldName> :

Per altri dettagli, vedere CANNOT_UPDATE_FIELD

CANNOT_UP_CAST_DATATYPE

SQLSTATE: 42846

Impossibile eseguire il cast <expression> da <sourceType> a <targetType>.

<details>

CANNOT_VALIDATE_CONNECTION

SQLSTATE: 08000

La convalida della <jdbcDialectName> connessione non è supportata. Contattare il supporto di Databricks per soluzioni alternative oppure impostare "spark.databricks.testConnectionBeforeCreation" su "false" per ignorare i test di connessione prima di creare un oggetto connessione.

CANNOT_WRITE_STATE_STORE

SQLSTATE: 58030

Errore durante la scrittura dei file dell'archivio stati per il provider <providerClass>.

Per altri dettagli, vedere CANNOT_WRITE_STATE_STORE

CAST_INVALID_INPUT

SQLSTATE: 22018

Il valore <expression> del tipo <sourceType> non può essere sottoposto a <targetType> cast perché non è valido. Correggere il valore in base alla sintassi o modificarne il tipo di destinazione. Usare try_cast per tollerare l'input in formato non valido e restituire invece NULL.

Per altri dettagli, vedere CAST_INVALID_INPUT

CAST_OVERFLOW

SQLSTATE: 22003

Impossibile eseguire il cast del valore <value> del tipo <sourceType> a <targetType> causa di un overflow. Usare try_cast invece per tollerare l'overflow e restituire NULL.

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE: 22003

Non è possibile assegnare un valore di tipo alla colonna o alla <targetType> variabile <columnName> di <sourceType> tipo a causa di un overflow. Usare try_cast sul valore di input per tollerare l'overflow e restituire NULL.

CATALOG_NOT_FOUND

SQLSTATE: 42P08

<catalogName> Catalogo non trovato. Prendere in considerazione la possibilità di impostare la configurazione <config> SQL su un plug-in di catalogo.

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE: 56000

<rddBlockId> Blocco di checkpoint non trovato.

L'executor che ha originariamente eseguito il checkpoint di questa partizione non è più attivo oppure il RDD originale non è persistente.

Se il problema persiste, è consigliabile usare rdd.checkpoint() invece un checkpoint più lento rispetto al checkpoint locale ma a tolleranza di errore.

CLASS_NOT_OVERRIDE_EXPECTED_METHOD

SQLSTATE: 38000

<className> deve eseguire l'override di <method1> o <method2>.

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE: 0A000

MapObjects non supporta la classe <cls> come raccolta risultante.

CLEANROOM_COMMANDS_NOT_SUPPORTED

SQLSTATE: 0A000

I comandi clean room non sono supportati

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

Nome non valido per fare riferimento a un <type> oggetto all'interno di una stanza pulita. Usare il nome di un <type>oggetto all'interno della stanza pulita in base al formato [catalogo].[ schema]. [<type>].

Se non si è certi del nome da usare, è possibile eseguire "SHOW ALL IN CLEANROOM [clean_room]" e usare il valore nella colonna "name".

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE: 42K03

È stata ricevuta una notifica di file per il file, <filePath> ma non esiste più. Assicurarsi che i file non vengano eliminati prima dell'elaborazione. Per continuare il flusso, è possibile impostare la configurazione <config> di Spark SQL su true.

CLOUD_PROVIDER_ERROR

SQLSTATE: 58000

Errore del provider di servizi cloud: <message>

CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

Il clustering specificato non corrisponde a quello della tabella <tableName>esistente.

Colonne di clustering specificate: [<specifiedClusteringString>].

Colonne di clustering esistenti: [<existingClusteringString>].

CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

'<operation>' non supporta il clustering.

CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED

SQLSTATE: 0A000

Contattare il rappresentante di Databricks per abilitare la funzionalità cluster-by-auto.

CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED

SQLSTATE: 56038

Abilitare clusteringTable.enableClusteringTableFeature per usare CLUSTER BY AUTO.

CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE: 56038

CLUSTER BY AUTO richiede l'abilitazione dell'ottimizzazione predittiva.

CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR

SQLSTATE: 56038

CLUSTER BY AUTO è supportato solo nelle tabelle gestite dal punto di controllo dell'utilità.

CODEC_NOT_AVAILABLE

SQLSTATE: 56038

Il codec <codecName> non è disponibile.

Per altri dettagli, vedere CODEC_NOT_AVAILABLE

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE: 42704

Impossibile trovare un nome breve per il codec <codecName>.

COLLATION_INVALID_NAME

SQLSTATE: 42704

Il valore <collationName> non rappresenta un nome corretto delle regole di confronto. Nomi di regole di confronto validi suggeriti: [<proposals>].

COLLATION_INVALID_PROVIDER

SQLSTATE: 42704

Il valore <provider> non rappresenta un provider di regole di confronto corretto. I provider supportati sono: [<supportedProviders>].

COLLATION_MISMATCH

SQLSTATE: 42P21

Impossibile determinare le regole di confronto da utilizzare per le funzioni stringa e gli operatori.

Per altri dettagli, vedere COLLATION_MISMATCH

COLLECTION_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

Non è possibile creare una matrice con <numberOfElements> elementi che superano il limite <maxRoundedArrayLength>di dimensioni della matrice ,

Per altri dettagli, vedere COLLECTION_SIZE_LIMIT_EXCEEDED

COLUMN_ALIASES_NOT_ALLOWED

SQLSTATE: 42601

Gli alias di colonna non sono consentiti in <op>.

COLUMN_ALREADY_EXISTS

SQLSTATE: 42711

La colonna <columnName> esiste già. Scegliere un altro nome o rinominare la colonna esistente.

COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

La creazione di vincoli CHECK nella tabella <tableName> con i criteri della maschera di colonna non è supportata.

COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME

SQLSTATE: 42734

Un'istruzione <statementType> ha tentato di assegnare un criterio maschera di colonna a una colonna che includeva due o più altre colonne a cui si fa riferimento nell'elenco USING COLUMNS con lo stesso nome <columnName>, che non è valido.

COLUMN_MASKS_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

I criteri della maschera di colonna per <tableName> non sono supportati:

Per altri dettagli, vedere COLUMN_MASKS_FEATURE_NOT_SUPPORTED

COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

Impossibile passare dalla <statementType> <columnName> tabella <tableName> perché viene fatto riferimento in un criterio della maschera di colonna per la colonna <maskedColumn>. Il proprietario della tabella deve rimuovere o modificare questo criterio prima di procedere.

COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

Le operazioni MERGE INTO non supportano i criteri della maschera di colonna nella tabella <tableName>di origine .

COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

Le operazioni MERGE INTO non supportano la scrittura nella tabella <tableName> con i criteri della maschera di colonna.

COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME

SQLSTATE: 42K05

Questa istruzione ha tentato di assegnare criteri di maschera di colonna a una colonna <columnName> con più parti del nome, che non sono valide.

COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME

SQLSTATE: 42K05

Questa istruzione ha tentato di assegnare un criterio di maschera di colonna a una colonna e l'elenco USING COLUMNS includeva il nome con più parti del nome <columnName> , che non è valido.

COLUMN_MASKS_NOT_ENABLED

SQLSTATE: 56038

Il supporto per la definizione delle maschere di colonna non è abilitato

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

I criteri della maschera di colonna sono supportati solo in Unity Catalog.

COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

<mode> clonare dalla tabella <tableName> con criteri di maschera di colonna non è supportato.

COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

<mode> clonare nella tabella <tableName> con i criteri della maschera di colonna non è supportato.

COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

L'uso di una costante come parametro in un criterio della maschera di colonna non è supportato. Aggiornare il comando SQL per rimuovere la costante dalla definizione della maschera di colonna e quindi ripetere il comando.

COLUMN_MASKS_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

Impossibile eseguire <statementType> il comando perché l'assegnazione dei criteri della maschera di colonna non è supportata per l'origine dati di destinazione con provider di tabelle: "<provider>".

COLUMN_MASKS_UNSUPPORTED_SUBQUERY

SQLSTATE: 0A000

Impossibile eseguire <operation> per la tabella <tableName> perché contiene uno o più criteri della maschera di colonna con espressioni di sottoquery, che non sono ancora supportate. Per continuare, contattare il proprietario della tabella per aggiornare i criteri della maschera di colonna.

COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN

SQLSTATE: 42734

La colonna ha lo stesso nome della colonna <columnName> di destinazione, che non è valida. Rimuovere la colonna dall'elenco USING COLUMNS e ripetere il comando.

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE: 42703

<colType> la colonna <colName> non è definita nella tabella , le colonne della tabella <tableName>definite sono: <tableCols>.

COLUMN_NOT_FOUND

SQLSTATE: 42703

Impossibile trovare la colonna <colName> . Verificare l'ortografia e la correttezza del nome della colonna in base alla configurazione <caseSensitiveConfig>SQL .

COMMA_PRECEDING_CONSTRAINT_ERROR

SQLSTATE: 42601

',' imprevisto prima della definizione dei vincoli. Assicurarsi che la clausola di vincolo non inizi con una virgola quando le colonne (e le aspettative) non sono definite.

COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

Il comando COMMENT ON CONNECTION non è ancora implementato

COMPARATOR_RETURNS_NULL

SQLSTATE: 22004

Il comparatore ha restituito un valore NULL per un confronto tra <firstValue> e <secondValue>.

Deve restituire un numero intero positivo per "maggiore di", 0 per "uguale" e un numero intero negativo per "minore di".

Per ripristinare il comportamento deprecato in cui NULL viene considerato uguale a 0, è necessario impostare "spark.sql.legacy.allowNullComparisonResultInArraySort" su "true".

COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

SQLSTATE: 42K09

Impossibile elaborare i tipi di dati di input per l'espressione: <expression>.

Per altri dettagli, vedere COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

CONCURRENT_QUERY

SQLSTATE: 0A000

Un'altra istanza di questa query [id: <queryId>] è stata appena avviata da una sessione simultanea [runId esistente: <existingQueryRunId> new runId: <newQueryRunId>].

CONCURRENT_STREAM_LOG_UPDATE

SQLSTATE: 40000

Aggiornamento simultaneo al log. Sono stati rilevati più processi di streaming per <batchId>.

Assicurarsi che un solo processo di streaming venga eseguito in una posizione del checkpoint specifica alla volta.

CONFIG_NOT_AVAILABLE

SQLSTATE: 42K0I

La configurazione <config> non è disponibile.

CONFLICTING_PARTITION_COLUMN_NAMES

SQLSTATE: KD009

Rilevati nomi di colonna di partizione in conflitto:

<distinctPartColLists>

Per le directory di tabella partizionate, i file di dati devono essere presenti solo nelle directory foglia.

E le directory allo stesso livello devono avere lo stesso nome della colonna di partizione.

Controllare le directory seguenti per i file imprevisti o i nomi delle colonne di partizione incoerenti:

<suspiciousPaths>

CONFLICTING_PROVIDER

SQLSTATE: 22023

Il provider <provider> specificato non è coerente con il provider di <expectedProvider>catalogo esistente. Usare "USING <expectedProvider>" e ripetere il comando.

CONNECT

SQLSTATE: 56K00

Errore generico di Spark Connect.

Per altri dettagli, vedere CONNECT

CONNECTION_ALREADY_EXISTS

SQLSTATE: 42000

Impossibile creare la connessione <connectionName> perché esiste già.

Scegliere un nome diverso, eliminare o sostituire la connessione esistente oppure aggiungere la clausola IF NOT EXISTS per tollerare le connessioni preesistenti.

CONNECTION_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

Impossibile eseguire questo comando perché il nome della connessione deve essere non vuoto.

CONNECTION_NOT_FOUND

SQLSTATE: 42000

Impossibile eseguire questo comando perché il nome <connectionName> della connessione non è stato trovato.

CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE: 42000

Le connessioni di tipo '<connectionType>' non supportano le opzioni seguenti: <optionsNotSupported>. Opzioni supportate: <allowedOptions>.

CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

Impossibile creare una connessione di tipo '<connectionType>. Tipi di connessione supportati: <allowedTypes>.

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

I vincoli di tabella sono supportati solo in Unity Catalog.

CONVERSION_INVALID_INPUT

SQLSTATE: 22018

Il valore <str> (<fmt>) non può essere convertito in <targetType> perché non è valido. Correggere il valore in base alla sintassi o modificarne il formato. Usare <suggestion> per tollerare l'input in formato non valido e restituire invece NULL.

COPY_INTO_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

Impossibile scrivere in <tableName>, il motivo è

Per altri dettagli, vedere COPY_INTO_COLUMN_ARITY_MISMATCH

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE: 0A000

Schema <scheme>non valido. Le credenziali di origine COPY INTO supportano attualmente solo s3/s3n/s3a/wasbs/abfss.

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE: 42601

Le credenziali di origine COPY INTO devono specificare <keyList>.

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE: 25000

È stato eseguito il commit di file duplicati in un'operazione COPY INTO simultanea. Riprova più tardi.

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE: 0A000

Schema <scheme>non valido. La crittografia di origine COPY INTO supporta attualmente solo s3/s3n/s3a/abfss.

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE: 0A000

La crittografia COPY INTO supporta solo ADLS Gen2 o abfss:// schema di file

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE: 42601

La crittografia di origine COPY INTO deve specificare '<key>'.

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE: 42601

Opzione di crittografia <requiredKey>non valida. La crittografia di origine COPY INTO deve specificare '<requiredKey>' = '<keyValue>'.

COPY_INTO_FEATURE_INCOMPATIBLE_SETTING

SQLSTATE: 42613

La funzionalità COPY INTO '<feature>' non è compatibile con '<incompatibleSetting>'.

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE: 25000

COPY INTO diverso dall'accodamento dei dati non può essere eseguito simultaneamente con altre transazioni. Riprova più tardi.

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE: 25000

COPY INTO non è riuscito a caricarne lo stato, è stato superato il numero massimo di tentativi.

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE: 42KDG

È stata rilevata una mancata corrispondenza dello schema durante la copia nella tabella Delta (tabella: <table>).

Ciò può indicare un problema con i dati in ingresso oppure lo schema della tabella Delta può essere evoluto automaticamente in base ai dati in ingresso impostando:

COPY_OPTIONS ('mergeSchema' = 'true')

Differenza dello schema:

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE: 0A000

Il formato dei file di origine deve essere uno dei file CSV, JSON, AVRO, ORC, PARQUET, TEXT o BINARYFILE. L'uso di COPY INTO nelle tabelle Delta perché l'origine non è supportata perché i dati duplicati possono essere inseriti dopo le operazioni OPTIMIZE. Questo controllo può essere disattivato eseguendo il comando set spark.databricks.delta.copyInto.formatCheck.enabled = falseSQL .

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE: 42KD9

La directory di origine non contiene file analizzabili di tipo <format>. Controllare il contenuto di '<source>'.

L'errore può essere disattivato impostando '<config>' su 'false'.

COPY_INTO_STATE_INTERNAL_ERROR

SQLSTATE: 55019

Si è verificato un errore interno durante l'elaborazione dello stato COPY INTO.

Per altri dettagli, vedere COPY_INTO_STATE_INTERNAL_ERROR

COPY_INTO_SYNTAX_ERROR

SQLSTATE: 42601

Impossibile analizzare il comando COPY INTO.

Per altri dettagli, vedere COPY_INTO_SYNTAX_ERROR

COPY_INTO_UNSUPPORTED_FEATURE

SQLSTATE: 0A000

La funzionalità COPY INTO '<feature>' non è supportata.

COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

Impossibile scaricare i dati nel formato '<formatType>'. I formati supportati per <connectionType> sono: <allowedFormats>.

CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

Il comando CREATE FOREIGN SCHEMA non è ancora implementato

CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

Il comando CREATE FOREIGN TABLE non è ancora implementato

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE: 0A000

Impossibile creare o aggiornare viste materializzate o tabelle di streaming con ASYNC specificato. Rimuovere ASYNC dall'istruzione CREATE OR REFRESH o usare REFRESH ASYNC per aggiornare le viste materializzate esistenti o le tabelle di streaming in modo asincrono.

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE: 0A000

Non è consentito creare la visualizzazione <name> permanente senza assegnare in modo esplicito un alias per l'espressione <attr>.

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

La colonna <columnName> CREATE TABLE specifica il descrittore "<optionName>" più volte, che non è valido.

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

Impossibile creare la vista <viewName>, il motivo è

Per altri dettagli, vedere CREATE_VIEW_COLUMN_ARITY_MISMATCH

CREDENTIAL_MISSING

SQLSTATE: 42601

Specificare le credenziali durante la creazione o l'aggiornamento di percorsi esterni.

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE: 0A000

Non è possibile impostare l'opzione enforceSchema CSV quando si usa rescuedDataColumn o failOnUnknownFields, perché le colonne vengono lette in base al nome anziché all'ordinale.

CYCLIC_FUNCTION_REFERENCE

SQLSTATE: 42887

Rilevato riferimento alla funzione ciclico: <path>.

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE: 56038

Databricks Delta non è abilitato nell'account.<hints>

DATATYPE_MISMATCH

SQLSTATE: 42K09

Impossibile risolvere <sqlExpr> a causa della mancata corrispondenza del tipo di dati:

Per altri dettagli, vedere DATATYPE_MISMATCH

DATATYPE_MISSING_SIZE

SQLSTATE: 42K01

DataType <type> richiede un parametro di lunghezza, ad esempio <type>(10). Specificare la lunghezza.

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE: 25000

Scrittura derivazione non riuscita: relazione corrispondente mancante con i criteri per CLM/RLS.

DATA_SOURCE_ALREADY_EXISTS

SQLSTATE: 42710

L'origine dati '<provider>' esiste già. Scegliere un nome diverso per la nuova origine dati.

DATA_SOURCE_EXTERNAL_ERROR

SQLSTATE: KD010

Errore durante il salvataggio in un'origine dati esterna.

DATA_SOURCE_NOT_EXIST

SQLSTATE: 42704

Origine dati '<provider>' non trovata. Assicurarsi che l'origine dati sia registrata.

DATA_SOURCE_NOT_FOUND

SQLSTATE: 42K02

Impossibile trovare l'origine dati: <provider>. Assicurarsi che il nome del provider sia corretto e che il pacchetto sia registrato correttamente e compatibile con la versione di Spark.

DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS

SQLSTATE: 42602

L'opzione <option> non deve essere vuota e non deve contenere caratteri non validi, stringhe di query o parametri.

DATA_SOURCE_OPTION_IS_REQUIRED

SQLSTATE: 42601

L'opzione <option> è obbligatoria.

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE: 42K03

Lo schema della tabella dell'origine dati non corrisponde allo schema previsto. Se si usa l'API DataFrameReader.schema o si crea una tabella, evitare di specificare lo schema.

Schema origine dati: <dsSchema>

Schema previsto: <expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE: 42KDB

L'URL JDBC non è consentito nelle opzioni dell'origine dati. Specificare invece le opzioni 'host', 'port' e 'database'.

DATETIME_OVERFLOW

SQLSTATE: 22008

Overflow dell'operazione Datetime: <operation>.

DC_API_QUOTA_EXCEEDED

SQLSTATE: KD000

È stata superata la quota API per l'origine <sourceName>dati .

Per altri dettagli, vedere DC_API_QUOTA_EXCEEDED

DC_CONNECTION_ERROR

SQLSTATE: KD000

Impossibile stabilire una connessione all'origine <sourceName> . Codice errore: <errorCode>.

Per altri dettagli, vedere DC_CONNECTION_ERROR

DC_DYNAMICS_API_ERROR

SQLSTATE: KD000

Si è verificato un errore nelle chiamate api Dynamics, errorCode: <errorCode>.

Per altri dettagli, vedere DC_DYNAMICS_API_ERROR

DC_NETSUITE_ERROR

SQLSTATE: KD000

Si è verificato un errore nelle chiamate JDBC netsuite, errorCode: <errorCode>.

Per altri dettagli, vedere DC_NETSUITE_ERROR

DC_SCHEMA_CHANGE_ERROR

SQLSTATE: non assegnato

Si è verificata una modifica dello schema nella tabella <tableName> dell'origine <sourceName> .

Per altri dettagli, vedere DC_SCHEMA_CHANGE_ERROR

DC_SERVICENOW_API_ERROR

SQLSTATE: KD000

Si è verificato un errore nelle chiamate dell'API ServiceNow, errorCode: <errorCode>.

Per altri dettagli, vedere DC_SERVICENOW_API_ERROR

DC_SFDC_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

L'inserimento per l'oggetto <objName> è incompleto perché il processo di query dell'API Salesforce ha richiesto troppo tempo, non è riuscito o è stato annullato manualmente.

Per riprovare, è possibile eseguire nuovamente l'intera pipeline o aggiornare questa tabella di destinazione specifica. Se l'errore persiste, inviare un ticket. ID processo: <jobId>. Stato processo: <jobStatus>.

DC_SHAREPOINT_API_ERROR

SQLSTATE: KD000

Si è verificato un errore nelle chiamate API di SharePoint, errorCode: <errorCode>.

Per altri dettagli, vedere DC_SHAREPOINT_API_ERROR

DC_SOURCE_API_ERROR

SQLSTATE: KD000

Si è verificato un errore nella <sourceName> chiamata API. Tipo di API di origine: <apiType>. Codice errore: <errorCode>.

Ciò può verificarsi a volte quando è stato raggiunto un <sourceName> limite api. Se non è stato superato il limite api, provare a eseguire nuovamente il connettore. Se il problema persiste, inviare un ticket.

DC_UNSUPPORTED_ERROR

SQLSTATE: 0A000

Si è verificato un errore non supportato nell'origine <sourceName>dati .

Per altri dettagli, vedere DC_UNSUPPORTED_ERROR

DC_WORKDAY_RAAS_API_ERROR

SQLSTATE: KD000

Si è verificato un errore nelle chiamate api RAAS di Workday, errorCode: <errorCode>.

Per altri dettagli, vedere DC_WORKDAY_RAAS_API_ERROR

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

SQLSTATE: 22003

La precisione <precision> decimale supera la precisione <maxPrecision>massima.

DEFAULT_DATABASE_NOT_EXISTS

SQLSTATE: 42704

Il database <defaultDatabase> predefinito non esiste, crearlo prima o modificare il database predefinito in <defaultDatabase>.

DEFAULT_FILE_NOT_FOUND

SQLSTATE: 42K03

È possibile che i file sottostanti siano stati aggiornati. È possibile invalidare in modo esplicito la cache in Spark eseguendo il comando 'REFRESH TABLE tableName' in SQL o ricreando il set di dati/dataframe coinvolto. Se la cache del disco non è aggiornata o se i file sottostanti sono stati rimossi, è possibile invalidare manualmente la cache del disco riavviando il cluster.

DEFAULT_PLACEMENT_INVALID

SQLSTATE: 42608

Impossibile assegnare direttamente una parola chiave DEFAULT in un comando MERGE, INSERT, UPDATE o SET VARIABLE a una colonna di destinazione perché faceva parte di un'espressione.

Ad esempio: UPDATE SET c1 = DEFAULT è consentito, ma UPDATE T SET c1 = DEFAULT + 1 non è consentito.

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE: 55019

La query di streaming ha letto da una tabella Delta imprevista (id = '<newTableId>').

Usato per leggere da un'altra tabella Delta (id = '<oldTableId>') in base al checkpoint.

Questo problema può verificarsi quando il codice è stato modificato per leggere da una nuova tabella o è stato eliminato e

è stata ricreata una tabella. Ripristinare la modifica o eliminare il checkpoint della query di streaming

per riavviare da zero.

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE: 0A000

Le funzioni della finestra distinct non sono supportate: <windowExpr>.

DIVIDE_BY_ZERO

SQLSTATE: 22012

Divisione per zero. Usare try_divide per tollerare che il divisore sia 0 e restituire NULL. Se necessario, impostare su <config> "false" per ignorare questo errore.

Per altri dettagli, vedere DIVIDE_BY_ZERO

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE: 56038

Le aspettative sono supportate solo all'interno di una pipeline Delta Live Tables.

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE: 56038

Le VIEW MATERIALIZED con una clausola CLUSTER BY sono supportate solo in una pipeline delta live tables.

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE: 56038

I percorsi MATERIALIZED VIEW sono supportati solo in una pipeline di tabelle live Delta.

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE: 56038

Gli schemi MATERIALIZED VIEW con un tipo specificato sono supportati solo in una pipeline di tabelle live Delta.

DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 56038

Le clausole CONSTRAINT in una vista sono supportate solo in una pipeline delta live tables.

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE: 42713

I nomi di campo duplicati in Struct freccia non sono consentiti, ottenuto <fieldNames>.

DUPLICATED_MAP_KEY

SQLSTATE: 23505

È stata trovata la chiave <key> della mappa duplicata. Controllare i dati di input.

Se si desidera rimuovere le chiavi duplicate, è possibile impostare <mapKeyDedupPolicy> su "LAST_WIN" in modo che la chiave inserita alla fine ha la precedenza.

DUPLICATED_METRICS_NAME

SQLSTATE: 42710

Il nome della metrica non è univoco: <metricName>. Non è possibile usare lo stesso nome per le metriche con risultati diversi.

Tuttavia, sono consentite più istanze di metriche con lo stesso risultato e lo stesso nome (ad esempio, self-join).

DUPLICATE_ASSIGNMENTS

SQLSTATE: 42701

Le colonne o le variabili <nameList> vengono visualizzate più volte come destinazioni di assegnazione.

DUPLICATE_CLAUSES

SQLSTATE: 42614

Clausole duplicate trovate: <clauseName>. Rimuovere uno di essi.

DUPLICATE_KEY

SQLSTATE: 23505

Sono state trovate chiavi <keyColumn>duplicate.

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE: 4274K

La chiamata alla routine <functionName> non è valida perché include più assegnazioni di argomenti allo stesso nome <parameterName>di parametro .

Per altri dettagli, vedere DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE: 42734

È stato trovato uno o più nomi duplicati nell'elenco dei parametri della routine <routineName>definita dall'utente : <names>.

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE: 42711

Sono state trovate colonne duplicate nell'elenco di colonne della clausola RETURNS della routine <routineName>definita dall'utente : <columns>.

EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED

SQLSTATE: 42815

Il nodo precedente ha generato una riga con eventTime=<emittedRowEventTime> precedente a current_watermark_value=<currentWatermark>

Ciò può causare problemi di correttezza negli operatori con stato downstream nella pipeline di esecuzione.

Correggere la logica dell'operatore per generare righe dopo il valore limite globale corrente.

EMPTY_JSON_FIELD_VALUE

SQLSTATE: 42604

Impossibile analizzare una stringa vuota per il tipo di <dataType>dati .

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE: 22023

File locale vuoto nella query di gestione temporanea <operation>

ENCODER_NOT_FOUND

SQLSTATE: 42704

Non è stato trovato un codificatore del tipo <typeName> per la rappresentazione interna di Spark SQL.

Prendere in considerazione la possibilità di modificare il tipo di input in uno dei tipi supportati in '<docroot>/sql-ref-datatypes.html'.

END_LABEL_WITHOUT_BEGIN_LABEL

SQLSTATE: 42K0L

L'etichetta finale non può esistere senza l'etichetta <endLabel> iniziale.

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Alcune partizioni nel report degli argomenti Kafka disponibili sono inferiori all'offset finale durante l'esecuzione di query con Trigger.AvailableNow. L'errore potrebbe essere temporaneo: riavviare la query e segnalare se viene ancora visualizzato lo stesso problema.

offset più recente: <latestOffset>, offset finale: <endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE: KD000

Per l'origine dati Kafka con Trigger.AvailableNow, l'offset finale deve avere offset inferiore o uguale per ogni partizione di argomento rispetto all'offset prelettura. L'errore potrebbe essere temporaneo: riavviare la query e segnalare se viene ancora visualizzato lo stesso problema.

offset prelettura: <prefetchedOffset>, offset finale: <endOffset>.

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE: KD00B

Errore durante la lettura dei dati avro: rilevata un'impronta digitale sconosciuta: <fingerprint>, non si è certi dello schema da usare.

Questo problema può verificarsi se sono stati registrati schemi aggiuntivi dopo l'avvio del contesto spark.

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE: 42601

Non è possibile eseguire query sui log eventi da un cluster Assegnato o Nessun isolamento condiviso. Usare invece un cluster condiviso o un databricks SQL Warehouse.

EVENT_LOG_UNAVAILABLE

SQLSTATE: 55019

Nessun registro eventi disponibile per <tableOrPipeline>. Riprovare più tardi dopo la generazione degli eventi

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE: 42832

Il tipo di tabella di <tableIdentifier> è <tableType>.

L'esecuzione di query sui log eventi supporta solo viste materializzate, tabelle di streaming o pipeline di tabelle live Delta

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE: 42K09

L'ora <eventName> dell'evento ha il tipo <eventType>non valido , ma previsto "TIMESTAMP".

EXCEED_LIMIT_LENGTH

SQLSTATE: 54006

Supera la limitazione della lunghezza del tipo char/varchar: <limit>.

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE: 428H2

La colonna <columnName> EXCEPT è stata risolta e dovrebbe essere StructType, ma è stato trovato il tipo <dataType>.

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE: 42702

Le colonne in un elenco EXCEPT devono essere distinte e non sovrapposte, ma ottenute (<columns>).

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE: 42703

Le colonne EXCEPT [<exceptColumns>] sono state risolte, ma non corrispondono ad alcuna delle colonne [<expandedColumns>] dall'espansione a stella.

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE: 42703

Impossibile risolvere il nome <objectName> di colonna/campo nella clausola EXCEPT. Si intende uno dei seguenti: [<objectList>]?

Nota: le colonne annidate nella clausola EXCEPT potrebbero non includere qualificatori (nome tabella, nome colonna struct padre e così via) durante un'espansione dello struct; provare a rimuovere i qualificatori se vengono usati con colonne annidate.

EXECUTOR_BROADCAST_JOIN_OOM

SQLSTATE: 53200

Memoria insufficiente per compilare la relazione <relationClassName>di trasmissione. Dimensione relazione = <relationSize>. Memoria totale usata da questa attività = <taskMemoryUsage>. Metriche di Gestione memoria executor: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>. [sparkPlanId: <sparkPlanId>]

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE: 42701

La clausola USING di questo comando EXECUTE IMMEDIATE contiene più argomenti con lo stesso alias (<aliases>), che non è valido. Aggiornare il comando per specificare alias univoci e riprovare.

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE: 42809

'<operation>' prevede una visualizzazione permanente, ma <viewName> è una visualizzazione temporanea.

EXPECT_TABLE_NOT_VIEW

SQLSTATE: 42809

'<operation>' prevede una tabella, ma <viewName> è una vista.

Per altri dettagli, vedere EXPECT_TABLE_NOT_VIEW

EXPECT_VIEW_NOT_TABLE

SQLSTATE: 42809

La tabella <tableName> non supporta <operation>.

Per altri dettagli, vedere EXPECT_VIEW_NOT_TABLE

EXPRESSION_DECODING_FAILED

SQLSTATE: 42846

Impossibile decodificare una riga in un valore delle espressioni: <expressions>.

EXPRESSION_ENCODING_FAILED

SQLSTATE: 42846

Impossibile codificare un valore delle espressioni: <expressions> in una riga.

EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

Impossibile ordinare l'espressione <expr> di colonna perché il tipo <exprType> non è ordinabile.

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE: 0A000

Le tabelle esterne non supportano lo <scheme> schema.

FABRIC_REFRESH_INVALID_SCOPE

SQLSTATE: 0A000

Errore durante l'esecuzione di 'REFRESH FOREIGN <scope> <name>'. Impossibile aggiornare direttamente un'infrastruttura <scope> . Usare invece 'REFRESH FOREIGN CATALOG <catalogName>' per aggiornare il catalogo infrastruttura.

FAILED_EXECUTE_UDF

SQLSTATE: 39000

La funzione definita dall'utente (: (<functionName><signature>) =><result>) non è riuscita a causa di: <reason>.

FAILED_FUNCTION_CALL

SQLSTATE: 38000

Preparazione non riuscita della funzione <funcName> per la chiamata. Verificare gli argomenti della funzione.

FAILED_JDBC

SQLSTATE: HV000

JDBC <url> non riuscito nell'operazione:

Per altri dettagli, vedere FAILED_JDBC

FAILED_PARSE_STRUCT_TYPE

SQLSTATE: 22018

Struct di analisi non riuscito: <raw>.

FAILED_READ_FILE

SQLSTATE: KD001

Errore durante la lettura del file <path>.

Per altri dettagli, vedere FAILED_READ_FILE

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE: KD000

Impossibile registrare le classi con Kryo.

FAILED_RENAME_PATH

SQLSTATE: 42K04

Impossibile rinominarlo <sourcePath> <targetPath> come destinazione già esistente.

FAILED_RENAME_TEMP_FILE

SQLSTATE: 58030

Impossibile rinominare il file <srcPath> <dstPath> temporaneo in come FileSystem.rename ha restituito false.

FAILED_ROW_TO_JSON

SQLSTATE: 2203G

Impossibile convertire il valore <value> della riga della classe <class> nel tipo SQL di <sqlType> destinazione nel formato JSON.

FAILED_TO_PARSE_TOO_COMPLEX

SQLSTATE: 54001

L'istruzione, incluse le potenziali funzioni SQL e le viste a cui si fa riferimento, era troppo complessa da analizzare.

Per attenuare questo errore, dividere l'istruzione in più blocchi meno complessi.

FEATURE_NOT_ENABLED

SQLSTATE: 56038

La funzionalità <featureName> non è abilitata. Valutare la possibilità di impostare la configurazione <configKey> su <configValue> per abilitare questa funzionalità.

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE: 56038

<feature> non è supportato nei data warehouse SQL classici. Per usare questa funzionalità, usare un'istanza di SQL Warehouse Pro o Serverless. Per altre informazioni sui tipi di magazzino, vedere <docLink>

FEATURE_REQUIRES_UC

SQLSTATE: 0AKUD

<feature> non è supportato senza Il catalogo unity. Per usare questa funzionalità, abilitare Unity Catalog. Per altre informazioni su Unity Catalog, vedere <docLink>

FEATURE_UNAVAILABLE

SQLSTATE: 56038

<feature> non è supportato nell'ambiente in uso. Per usare questa funzionalità, contattare il supporto tecnico di Databricks.

FIELD_ALREADY_EXISTS

SQLSTATE: 42710

Impossibile <op> eseguire la colonna perché <fieldNames> esiste già in <struct>.

FIELD_NOT_FOUND

SQLSTATE: 42704

Nessun campo <fieldName> struct di questo tipo in <fields>.

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE: 42K04

Il file nel percorso <path> di staging esiste già, ma OVERWRITE non è impostato

FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR

SQLSTATE: 39000

Si è verificato un errore nella funzione fornita dall'utente in flatMapGroupsWithState. Ragione: <reason>

FORBIDDEN_OPERATION

SQLSTATE: 42809

L'operazione <statement> non è consentita in <objectType>: <objectName>.

FOREACH_BATCH_USER_FUNCTION_ERROR

SQLSTATE: 39000

Si è verificato un errore nella funzione fornita dall'utente nel sink batch foreach. Ragione: <reason>

FOREACH_USER_FUNCTION_ERROR

SQLSTATE: 39000

Si è verificato un errore nella funzione fornita dall'utente nel sink foreach. Ragione: <reason>

FOREIGN_KEY_MISMATCH

SQLSTATE: 42830

Le colonne <parentColumns> padre di chiave esterna non corrispondono alle colonne <childColumns>figlio della chiave primaria.

FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

Impossibile eseguire questo comando perché il nome esterno <objectType> deve essere non vuoto.

FOUND_MULTIPLE_DATA_SOURCES

SQLSTATE: 42710

Sono stati rilevati più origini dati con il nome '<provider>'. Verificare che l'origine dati non sia registrata contemporaneamente e che si trovi nel classpath.

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE: 42601

from_json inferenza rilevata aggiornamenti dello schema in conflitto in: <location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE: 42601

from_json columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) presente

in un oggetto JSON e non può più procedere. Configurare un valore diverso per

opzione 'columnNameOfCorruptRecord'.

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE: 42601

from_json inferenza non è riuscita a leggere lo schema archiviato in: <location>

FROM_JSON_INFERENCE_FAILED

SQLSTATE: 42601

from_json non è stato in grado di dedurre lo schema. Specificarne una.

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE: 0A000

from_json inferenza è supportata solo quando si definiscono le tabelle di streaming

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE: 42601

from_json configurazione non è valida:

Per altri dettagli, vedere FROM_JSON_INVALID_CONFIGURATION

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE: 22KD3

from_json non poteva evolversi da <old> a <new>

FUNCTION_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

La funzione <function> richiede parametri denominati. Nomi mancanti dei parametri: <exprs>. Aggiornare la chiamata di funzione per aggiungere nomi per tutti i parametri, <function>ad esempio (param_name => ...).

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE: 42623

Una colonna non può avere sia un valore predefinito che un'espressione di generazione, ma la colonna <colName> ha un valore predefinito: (<defaultValue>) e un'espressione di generazione: (<genExpr>).

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE: 56038

Hive 2.2 e versioni precedenti non supportano getTablesByType. Usare Hive 2.3 o versione successiva.

GET_WARMUP_TRACING_FAILED

SQLSTATE: 42601

Impossibile ottenere la traccia di riscaldamento. Causa: <cause>.

GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED

SQLSTATE: 42601

Funzione get_warmup_tracing() non consentita.

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE: KD000

Protocollo Graphite non valido: <protocol>.

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE: KD000

Il sink Graphite richiede la proprietà '<property>'.

GROUPING_COLUMN_MISMATCH

SQLSTATE: 42803

La colonna di raggruppamento (<grouping>) non è disponibile nelle colonne <groupingColumns>di raggruppamento .

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE: 42803

Le colonne di grouping_id (<groupingIdColumn>) non corrispondono alle colonne di raggruppamento (<groupByColumns>).

GROUPING_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

Le dimensioni dei set di raggruppamento non possono essere maggiori di <maxSize>.

GROUP_BY_AGGREGATE

SQLSTATE: 42903

Le funzioni di aggregazione non sono consentite in GROUP BY, ma sono state trovate <sqlExpr>.

Per altri dettagli, vedere GROUP_BY_AGGREGATE

GROUP_BY_POS_AGGREGATE

SQLSTATE: 42903

GROUP BY <index> fa riferimento a un'espressione <aggExpr> che contiene una funzione di aggregazione. Le funzioni di aggregazione non sono consentite in GROUP BY.

GROUP_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

La posizione <index> GROUP BY non è nell'elenco di selezione (l'intervallo valido è [1, <size>]).

GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

L'espressione <sqlExpr> non può essere utilizzata come espressione di raggruppamento perché il tipo di <dataType> dati non è un tipo di dati ordinabile.

HDFS_HTTP_ERROR

SQLSTATE: KD00F

Quando si tenta di leggere da HDFS, la richiesta HTTP non è riuscita.

Per altri dettagli, vedere HDFS_HTTP_ERROR

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

Chiamata non valida a <function>. Sono supportati solo buffer di schizzo HLL validi come input( ad esempio quelli prodotti dalla hll_sketch_agg funzione).

HLL_INVALID_LG_K

SQLSTATE: 22546

Chiamata non valida a <function>. Il lgConfigK valore deve essere compreso tra <min> e <max>, inclusivo: <value>.

HLL_UNION_DIFFERENT_LG_K

SQLSTATE: 22000

Gli schizzi hanno valori diversi lgConfigK : <left> e <right>. Impostare il allowDifferentLgConfigK parametro su true per chiamare <function> con valori diversi lgConfigK .

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE: 42601

<identifier> non è un identificatore valido perché contiene più di 2 parti del nome.

ILLEGAL_STATE_STORE_VALUE

SQLSTATE: 42601

Valore non valido fornito all'archivio stati

Per altri dettagli, vedere ILLEGAL_STATE_STORE_VALUE

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE: 42818

Colonna pivot <columnName>non valida. Le colonne pivot devono essere confrontabili.

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE: 42825

<operator> può essere eseguita solo su tabelle con tipi di colonna compatibili. La <columnOrdinalNumber> colonna della <tableOrdinalNumber> tabella è <dataType1> di tipo che non è compatibile con <dataType2> la stessa colonna della prima tabella.<hint>

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE: 56038

Rilevato un oggetto DataSourceRegister non compatibile. Rimuovere la libreria incompatibile da classpath o aggiornarla. Errore: <message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE: KD000

Impossibile scrivere dati incompatibili per la tabella <tableName>:

Per altri dettagli, vedere INCOMPATIBLE_DATA_FOR_TABLE

INCOMPATIBLE_JOIN_TYPES

SQLSTATE: 42613

I tipi di <joinType1> join e <joinType2> non sono compatibili.

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE: 51024

La query SQL della vista <viewName> presenta una modifica dello schema incompatibile e la colonna <colName> non può essere risolta. Colonne previste denominate <expectedNum> <colName> ma ottenute <actualCols>.

Provare a ricreare la vista eseguendo: <suggestion>.

INCOMPLETE_TYPE_DEFINITION

SQLSTATE: 42K01

Tipo complesso incompleto:

Per altri dettagli, vedere INCOMPLETE_TYPE_DEFINITION

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE: 42K0B

È possibile ottenere un risultato diverso a causa dell'aggiornamento a

Per altri dettagli, vedere INCONSISTENT_BEHAVIOR_CROSS_VERSION

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE: 42605

<failure>, <functionName> richiede almeno <minArgs> argomenti e al massimo <maxArgs> argomenti.

INCORRECT_RAMP_UP_RATE

SQLSTATE: 22003

L'offset massimo con <rowsPerSecond> rowsPerSecond è <maxSeconds>, ma 'rampUpTimeSeconds' è <rampUpTimeSeconds>.

INDETERMINATE_COLLATION

SQLSTATE: 42P22

La funzione chiamata richiede la conoscenza delle regole di confronto da applicare, ma sono state trovate regole di confronto indeterminato. Usare la funzione COLLATE per impostare le regole di confronto in modo esplicito.

INDEX_ALREADY_EXISTS

SQLSTATE: 42710

Impossibile creare l'indice <indexName> nella tabella <tableName> perché esiste già.

INDEX_NOT_FOUND

SQLSTATE: 42704

Impossibile trovare l'indice <indexName> nella tabella <tableName>.

INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED

SQLSTATE: 0A000

Il tipo di <trigger> trigger non è supportato per questo tipo di cluster.

Usa un tipo di trigger diverso, ad esempio AvailableNow, Once.

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

Impossibile scrivere in <tableName>, il motivo è

Per altri dettagli, vedere INSERT_COLUMN_ARITY_MISMATCH

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

Impossibile scrivere in '<tableName>', <reason>:

Colonne di tabella: <tableColumns>.

Partizionare colonne con valori statici: <staticPartCols>.

Colonne di dati: <dataColumns>.

INSUFFICIENT_PERMISSIONS

SQLSTATE: 42501

Privilegi insufficienti:

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE: 42501

L'utente <user> dispone di privilegi insufficienti per la posizione <location>esterna.

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE: 42501

Non esiste alcun proprietario per <securableName>. Chiedere all'amministratore di impostare un proprietario.

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE: 42501

L'utente non è proprietario <securableName>di .

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE: 42501

L'utente non dispone dell'autorizzazione <action> per <securableName>.

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE: 42501

Il proprietario di <securableName> è diverso dal proprietario di <parentSecurableName>.

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE: 42501

Le credenziali <credentialName> di archiviazione non hanno privilegi sufficienti.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE: 42501

L'utente non può <action> usare a <securableName> causa delle autorizzazioni per le entità a protezione diretta sottostanti.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE: 42501

L'utente non può <action> usare a <securableName> causa delle autorizzazioni per le entità a protezione diretta sottostanti:

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE: 22015

<message>.<alternative>

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE: 22012

Divisione per zero. Usare try_divide per tollerare che il divisore sia 0 e restituire NULL.

INVALID_AGGREGATE_FILTER

SQLSTATE: 42903

L'espressione <filterExpr> FILTER in una funzione di aggregazione non è valida.

Per altri dettagli, vedere INVALID_AGGREGATE_FILTER

INVALID_ARRAY_INDEX

SQLSTATE: 22003

L'indice <indexValue> non è compreso nei limiti. La matrice contiene <arraySize> elementi. Usare la funzione get() SQL per tollerare l'accesso all'elemento in corrispondenza di un indice non valido e restituire invece NULL. Se necessario, impostare su <ansiConfig> "false" per ignorare questo errore.

Per altri dettagli, vedere INVALID_ARRAY_INDEX

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE: 22003

L'indice <indexValue> non è compreso nei limiti. La matrice contiene <arraySize> elementi. Usare try_element_at per tollerare l'accesso all'elemento in corrispondenza dell'indice non valido e restituire invece NULL. Se necessario, impostare su <ansiConfig> "false" per ignorare questo errore.

Per altri dettagli, vedere INVALID_ARRAY_INDEX_IN_ELEMENT_AT

INVALID_BITMAP_POSITION

SQLSTATE: 22003

La posizione <bitPosition> bitmap indicizzata a 0 non rientra nei limiti. La bitmap ha <bitmapNumBits> bit (<bitmapNumBytes> byte).

INVALID_BOOLEAN_STATEMENT

SQLSTATE: 22546

L'istruzione booleana è prevista nella condizione , ma <invalidStatement> è stata trovata.

INVALID_BOUNDARY

SQLSTATE: 22003

Il limite <boundary> non è valido: <invalidValue>.

Per altri dettagli, vedere INVALID_BOUNDARY

INVALID_BUCKET_COLUMN_DATA_TYPE

SQLSTATE: 42601

Impossibile usare <type> per la colonna bucket. I tipi di dati compressi non sono supportati per il bucket.

INVALID_BUCKET_FILE

SQLSTATE: 58030

File bucket non valido: <path>.

INVALID_BYTE_STRING

SQLSTATE: 22P03

Il formato previsto è ByteString, ma è (<unsupported><class>).

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE: 46121

L'origine <datasource> dati non può salvare la colonna <columnName> perché il nome contiene alcuni caratteri non consentiti nei percorsi di file. Usare un alias per rinominarlo.

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE: 42000

La colonna o il campo <name> è di tipo <type> mentre è necessario essere <expectedType>.

INVALID_CONF_VALUE

SQLSTATE: 22022

Il valore '<confValue>' nella configurazione "<confName>" non è valido.

Per altri dettagli, vedere INVALID_CONF_VALUE

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE: 42887

current_recipient la funzione può essere usata solo nell'istruzione o nell'istruzione CREATE VIEW ALTER VIEW per definire una visualizzazione di condivisione solo in Unity Catalog.

INVALID_CURSOR

SQLSTATE: HY109

Il cursore non è valido.

Per altri dettagli, vedere INVALID_CURSOR

INVALID_DATETIME_PATTERN

SQLSTATE: 22007

Modello datetime non riconosciuto: <pattern>.

Per altri dettagli, vedere INVALID_DATETIME_PATTERN

INVALID_DEFAULT_VALUE

SQLSTATE: 42623

Impossibile eseguire <statement> il comando perché la colonna o la variabile <colName> di destinazione ha un valore <defaultValue>DEFAULT,

Per altri dettagli, vedere INVALID_DEFAULT_VALUE

INVALID_DELIMITER_VALUE

SQLSTATE: 42602

Valore non valido per il delimitatore.

Per altri dettagli, vedere INVALID_DELIMITER_VALUE

INVALID_DEST_CATALOG

SQLSTATE: 42809

Il catalogo di destinazione del comando SYNC deve essere all'interno del catalogo unity. Trovato <catalog>.

INVALID_DRIVER_MEMORY

SQLSTATE: F0000

La memoria <systemMemory> di sistema deve essere almeno <minSystemMemory>.

Aumentare le dimensioni dell'heap usando l'opzione –driver-memory o "<config>" nella configurazione di Spark.

INVALID_DYNAMIC_OPTIONS

SQLSTATE: 42K10

Le opzioni passate <option_list> non sono consentite per i table_name> di tabella <esterna.

INVALID_EMPTY_LOCATION

SQLSTATE: 42K05

Il nome della posizione non può essere una stringa vuota, ma <location> è stato assegnato.

INVALID_ESC

SQLSTATE: 42604

Trovato una stringa di escape non valida: <invalidEscape>. La stringa di escape deve contenere un solo carattere.

INVALID_ESCAPE_CHAR

SQLSTATE: 42604

EscapeChar deve essere un valore letterale stringa di lunghezza 1, ma ha ottenuto <sqlExpr>.

INVALID_EXECUTOR_MEMORY

SQLSTATE: F0000

La memoria <executorMemory> dell'executor deve essere almeno <minSystemMemory>.

Aumentare la memoria dell'executor usando l'opzione –executor-memory o "<config>" nella configurazione di Spark.

INVALID_EXPRESSION_ENCODER

SQLSTATE: 42001

Trovato un codificatore di espressioni non valido. Prevede un'istanza di ExpressionEncoder ma ha ottenuto <encoderType>. Per altre informazioni, vedere '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE: 42000

Non è possibile estrarre un valore da <base>. È necessario un tipo complesso [STRUCT, ARRAY, MAP] ma è stato ottenuto <other>.

INVALID_EXTRACT_FIELD

SQLSTATE: 42601

Impossibile estrarre <field> da <expr>.

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE: 42000

Il nome del campo deve essere un valore letterale stringa non Null, ma è <extraction>.

INVALID_FIELD_NAME

SQLSTATE: 42000

<fieldName> Nome campo non valido: <path> non è uno struct.

INVALID_FORMAT

SQLSTATE: 42601

Il formato non è valido: <format>.

Per altri dettagli, vedere INVALID_FORMAT

INVALID_FRACTION_OF_SECOND

SQLSTATE: 22023

La frazione di sec deve essere zero. L'intervallo valido è [0, 60]. Se necessario, impostare su <ansiConfig> "false" per ignorare questo errore.

INVALID_HANDLE

SQLSTATE: HY000

L'handle <handle> non è valido.

Per altri dettagli, vedere INVALID_HANDLE

INVALID_IDENTIFIER

SQLSTATE: 42602

L'identificatore <ident> senza virgolette non è valido e deve essere riportato tra virgolette come : <ident>.

Gli identificatori senza virgolette possono contenere solo lettere ASCII ('a' - 'z', 'A' - 'Z'), cifre ('0' - '9') e barra inferiore ('_').

Anche gli identificatori senza virgolette non devono iniziare con una cifra.

Origini dati e meta archivi diversi possono imporre restrizioni aggiuntive per gli identificatori validi.

INVALID_INDEX_OF_ZERO

SQLSTATE: 22003

L'indice 0 non è valido. Un indice deve essere < 0 o > 0 (il primo elemento ha indice 1).

INVALID_INLINE_TABLE

SQLSTATE: 42000

Tabella inline non valida.

Per altri dettagli, vedere INVALID_INLINE_TABLE

INVALID_INTERVAL_FORMAT

SQLSTATE: 22006

Errore durante l'analisi di '<input>' in intervallo. Assicurarsi che il valore specificato sia in un formato valido per la definizione di un intervallo. È possibile fare riferimento alla documentazione per il formato corretto.

Per altri dettagli, vedere INVALID_INTERVAL_FORMAT

INVALID_INVERSE_DISTRIBUTION_FUNCTION

SQLSTATE: 42K0K

Funzione di distribuzione <funcName>inversa non valida.

Per altri dettagli, vedere INVALID_INVERSE_DISTRIBUTION_FUNCTION

INVALID_JOIN_TYPE_FOR_JOINWITH

SQLSTATE: 42613

Tipo di join non valido in joinWith: <joinType>.

INVALID_JSON_DATA_TYPE

SQLSTATE: 2203G

Impossibile convertire la stringa JSON '<invalidType>' in un tipo di dati. Immettere un tipo di dati valido.

INVALID_JSON_DATA_TYPE_FOR_COLLATIONS

SQLSTATE: 2203G

Le regole di confronto possono essere applicate solo ai tipi stringa, ma il tipo di dati JSON è <jsonType>.

INVALID_JSON_ROOT_FIELD

SQLSTATE: 22032

Impossibile convertire il campo radice JSON nel tipo spark di destinazione.

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE: 22032

Lo schema <jsonSchema> di input può contenere STRING solo come tipo di chiave per un oggetto MAP.

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE: F0000

Il valore della configurazione "<bufferSizeConfKey>" deve essere minore di 2048 MiB, ma ha ottenuto <bufferSizeConfValue> MiB.

INVALID_LABEL_USAGE

SQLSTATE: 42K0L

L'utilizzo dell'etichetta <labelName> non è valido.

Per altri dettagli, vedere INVALID_LABEL_USAGE

INVALID_LAMBDA_FUNCTION_CALL

SQLSTATE: 42K0D

Chiamata di funzione lambda non valida.

Per altri dettagli, vedere INVALID_LAMBDA_FUNCTION_CALL

INVALID_LATERAL_JOIN_TYPE

SQLSTATE: 42613

La <joinType> correlazione JOIN con LATERAL non è consentita perché una sottoquery OUTER non può essere correlata al partner di join. Rimuovere la correlazione LATERAL o usare un INNER JOIN o LEFT OUTER JOIN.

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE: 42K0E

Il limite come l'espressione <expr> non è valida.

Per altri dettagli, vedere INVALID_LIMIT_LIKE_EXPRESSION

INVALID_LOCATION

SQLSTATE: 42K05

Il nome della posizione non può essere un URI non valido, ma <location> è stato assegnato.

INVALID_NON_ABSOLUTE_PATH

SQLSTATE: 22KD1

Il percorso <path> non assoluto specificato non può essere qualificato. Aggiornare il percorso in modo che sia un percorso di montaggio dbfs valido.

INVALID_NON_DETERMINISTIC_EXPRESSIONS

SQLSTATE: 42K0E

L'operatore prevede un'espressione deterministica, ma l'espressione effettiva è <sqlExprs>.

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE: 22003

Il valore letterale numerico <rawStrippedQualifier> non è compreso nell'intervallo valido per <typeName> con il valore minimo di <minValue> e il valore massimo di <maxValue>. Modificare il valore di conseguenza.

INVALID_OBSERVED_METRICS

SQLSTATE: 42K0E

Metriche osservate non valide.

Per altri dettagli, vedere INVALID_OBSERVED_METRICS

INVALID_OPTIONS

SQLSTATE: 42K06

Opzioni non valide:

Per altri dettagli, vedere INVALID_OPTIONS

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE: 0A000

La funzione definita <functionList> dall'utente pandas aggregate del gruppo non può essere richiamata insieme ad altre funzioni di aggregazione non pandas.

INVALID_PARAMETER_MARKER_VALUE

SQLSTATE: 22023

È stato fornito un mapping di parametri non valido:

Per altri dettagli, vedere INVALID_PARAMETER_MARKER_VALUE

INVALID_PARAMETER_VALUE

SQLSTATE: 22023

Il valore dei parametri <parameter> in <functionName> non è valido:

Per altri dettagli, vedere INVALID_PARAMETER_VALUE

INVALID_PARTITION_COLUMN_DATA_TYPE

SQLSTATE: 0A000

Impossibile utilizzare <type> per la colonna di partizione.

INVALID_PARTITION_OPERATION

SQLSTATE: 42601

Il comando di partizione non è valido.

Per altri dettagli, vedere INVALID_PARTITION_OPERATION

INVALID_PIPELINE_ID

SQLSTATE: 42604

ID <pipelineId> pipeline non valido.

Un ID pipeline deve essere un UUID nel formato 'xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'

INVALID_PRIVILEGE

SQLSTATE: 42852

Il privilegio <privilege> non è valido per <securable>.

INVALID_PROPERTY_KEY

SQLSTATE: 42602

<key> è una chiave di proprietà non valida, usare virgolette, ad esempio SET <key>=<value>.

INVALID_PROPERTY_VALUE

SQLSTATE: 42602

<value> è un valore di proprietà non valido, usare virgolette, ad esempio SET <key>=<value>

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE: 42613

La query con parametri deve usare parametri posizionali o denominati, ma non entrambi.

INVALID_S3_COPY_CREDENTIALS

SQLSTATE: 42501

Le credenziali COPY INTO devono includere AWS_ACCESS_KEY, AWS_SECRET_KEY e AWS_SESSION_TOKEN.

INVALID_SAVE_MODE

SQLSTATE: 42000

La modalità di <mode> salvataggio specificata non è valida. Le modalità di salvataggio valide includono "append", "overwrite", "ignore", "error", "errorifexists" e "default".

INVALID_SCHEMA

SQLSTATE: 42K07

Lo schema di input non è una stringa di <inputSchema> schema valida.

Per altri dettagli, vedere INVALID_SCHEMA

INVALID_SCHEMA_OR_RELATION_NAME

SQLSTATE: 42602

<name> non è un nome valido per tabelle/schemi. I nomi validi contengono solo caratteri alfabetici, numeri e _.

INVALID_SCHEME

SQLSTATE: 0AKUC

Il catalogo unity non supporta <name> lo schema di file predefinito.

INVALID_SECRET_LOOKUP

SQLSTATE: 22531

Ricerca segreta non valida:

Per altri dettagli, vedere INVALID_SECRET_LOOKUP

INVALID_SET_SYNTAX

SQLSTATE: 42000

Il formato previsto è 'SET', 'SET key' o 'SET key=value'. Se si desidera includere caratteri speciali nella chiave o includere il punto e virgola nel valore, usare le virgolette, ad esempio SET key=value.

INVALID_SHARED_ALIAS_NAME

SQLSTATE: 42601

Il nome dell'alias <sharedObjectType> deve essere del formato "schema.name".

INVALID_SINGLE_VARIANT_COLUMN

SQLSTATE: 42613

L'opzione singleVariantColumn non può essere utilizzata se è presente anche uno schema specificato dall'utente.

INVALID_SOURCE_CATALOG

SQLSTATE: 42809

Il catalogo di origine non deve trovarsi all'interno del catalogo Unity per il comando SYNC. Trovato <catalog>.

INVALID_SQL_ARG

SQLSTATE: 42K08

L'argomento <name> di sql() non è valido. Prendere in considerazione la possibilità di sostituirla con un valore letterale SQL o tramite funzioni del costruttore di raccolta, ad map()esempio , array(), struct().

INVALID_SQL_SYNTAX

SQLSTATE: 42000

Sintassi SQL non valida:

Per altri dettagli, vedere INVALID_SQL_SYNTAX

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE: 42604

Percorso di staging non valido nella query di staging <operation> : <path>

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE: 07501

La clausola INTO di EXECUTE IMMEDIATE è valida solo per le query, ma l'istruzione specificata non è una query: <sqlString>.

INVALID_STATEMENT_OR_CLAUSE

SQLSTATE: 42601

Istruzione o clausola: <operation> non valida.

INVALID_SUBQUERY_EXPRESSION

SQLSTATE: 42823

Sottoquery non valida:

Per altri dettagli, vedere INVALID_SUBQUERY_EXPRESSION

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE: 42K0F

Impossibile creare l'oggetto <objName> permanente del tipo <obj> perché fa riferimento all'oggetto <tempObjName> temporaneo del tipo <tempObj>. Rendere persistente l'oggetto <tempObjName> temporaneo o rendere temporaneo l'oggetto <objName> permanente.

INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22000

Il timestamp <timestamp> specificato non corrisponde alla sintassi <format>prevista.

INVALID_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

Impossibile specificare sia la versione che il timestamp quando si sposta la tabella.

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE: 42K0E

L'espressione <expr> timestamp di spostamento temporale non è valida.

Per altri dettagli, vedere INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

INVALID_TYPED_LITERAL

SQLSTATE: 42604

Il valore del valore letterale <valueType> tipizzato non è valido: <value>.

INVALID_UDF_IMPLEMENTATION

SQLSTATE: 38000

La funzione <funcName> non implementa scalarFunction o AggregateFunction.

INVALID_UPGRADE_SYNTAX

SQLSTATE: 42809

<command><supportedOrNot> la tabella di origine si trova nel metastore Hive e la tabella di destinazione si trova nel catalogo unity.

INVALID_URL

SQLSTATE: 22P02

L'URL non è valido: <url>. Se necessario, impostare su <ansiConfig> "false" per ignorare questo errore.

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE: 42000

Utilizzo non valido di <elem> in <prettyName>.

INVALID_UTF8_STRING

SQLSTATE: 22029

Sequenza di byte UTF8 non valida trovata nella stringa: <str>.

INVALID_UUID

SQLSTATE: 42604

L'input <uuidInput> non è un UUID valido.

L'UUID deve essere nel formato 'xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'

Controllare il formato dell'UUID.

INVALID_VARIABLE_DECLARATION

SQLSTATE: 42K0M

Dichiarazione di variabile non valida.

Per altri dettagli, vedere INVALID_VARIABLE_DECLARATION

INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE: 42K09

Il tipo di variabile deve essere di tipo stringa, ma ha ottenuto <varType>.

INVALID_VARIANT_CAST

SQLSTATE: 22023

Non è possibile eseguire il cast del valore <value> variant in <dataType>. Usare invece try_variant_get.

INVALID_VARIANT_FROM_PARQUET

SQLSTATE: 22023

Variante non valida.

Per altri dettagli, vedere INVALID_VARIANT_FROM_PARQUET

INVALID_VARIANT_GET_PATH

SQLSTATE: 22023

Il percorso non è un percorso <path> di estrazione variante valido in <functionName>.

Un percorso valido deve iniziare con $ e è seguito da zero o più segmenti come [123], .name['name'], o ["name"].

INVALID_WHERE_CONDITION

SQLSTATE: 42903

La condizione <condition> WHERE contiene espressioni non valide: <expressionList>.

Riscrivere la query per evitare funzioni finestra, funzioni di aggregazione e funzioni generatori nella clausola WHERE.

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE: 42601

Impossibile specificare ORDER BY o un frame di finestra per <aggFunc>.

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE: 42KDE

Il writer dell'origine dati ha generato un numero non valido di messaggi di commit. Previsto esattamente un messaggio di commit del writer da ogni attività, ma ha ricevuto <detail>.

INVALID_WRITE_DISTRIBUTION

SQLSTATE: 42000

La distribuzione di scrittura richiesta non è valida.

Per altri dettagli, vedere INVALID_WRITE_DISTRIBUTION

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE: 42K0E

La condizione <joinCondition> di join ha il tipo <conditionType>non valido , previsto "BOOLEAN".

KAFKA_DATA_LOSS

SQLSTATE: 22000

Alcuni dati potrebbero essere stati persi perché non sono più disponibili in Kafka;

i dati sono stati obsoleti da Kafka o l'argomento potrebbe essere stato eliminato prima di tutti i dati in

l'argomento è stato elaborato.

Se non si vuole che la query di streaming non riesca in questi casi, impostare l'opzione di origine failOnDataLoss su false.

Motivo:

Per altri dettagli, vedere KAFKA_DATA_LOSS

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE: 22000

Impossibile leggere fino al numero <endSeqNum> di sequenza desiderato per la partizione <shardId> in

flusso <stream> delle librerie con modalità <consumerMode>consumer . La query avrà esito negativo a causa di

potenziale perdita di dati. L'ultimo record di lettura era in corrispondenza del numero <lastSeqNum>di sequenza .

Questo problema può verificarsi se i dati con endSeqNum sono già stati obsoleti o se il flusso delle Classi era

eliminato e ricostruito con lo stesso nome. È possibile eseguire l'override del comportamento di errore

impostando spark.databricks.gateways.failOnDataLoss su false nella configurazione di Spark.

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE: 42K04

Il valore minimo di shardId recuperatodaoe (<fetchedShardId>)

è minore del valore minimo di shardId rilevato (<trackedShardId>).

Si tratta di un evento imprevisto e si verifica quando viene eliminato e ricreato un flusso con lo stesso nome,

e una query di streaming che usa questo flusso di Xamls viene riavviata usando una posizione di checkpoint esistente.

Riavviare la query di streaming con un nuovo percorso del checkpoint oppure creare un flusso con un nuovo nome.

KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION

SQLSTATE: 22000

Per la partizione <shard>, l'ultimo record letto da Esegue nelle operazioni di recupero precedenti ha il numero <lastSeqNum>di sequenza ,

maggiore del record letto nel recupero corrente con numero <recordSeqNum>di sequenza .

Ciò è imprevisto e può verificarsi quando la posizione iniziale di ripetizione o recupero successivo viene inizializzata in modo non corretto e può comportare record duplicati downstream.

KRYO_BUFFER_OVERFLOW

SQLSTATE: 54006

Serializzazione kryo non riuscita: <exceptionMsg>. Per evitare questo problema, aumentare il valore "<bufferSizeConfKey>".

LABELS_MISMATCH

SQLSTATE: 42K0L

L'etichetta <beginLabel> Begin non corrisponde all'etichetta <endLabel>finale .

LOAD_DATA_PATH_NOT_EXISTS

SQLSTATE: 42K03

Il percorso di input LOAD DATA non esiste: <path>.

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE: 42601

LOCAL deve essere usato insieme allo schema di file, ma ottenuto: <actualSchema>.

LOCATION_ALREADY_EXISTS

SQLSTATE: 42710

Impossibile denominare la tabella gestita come <identifier>, perché esiste già la posizione <location> associata. Selezionare un nome di tabella diverso o rimuovere prima la posizione esistente.

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Alcune partizioni negli argomenti Kafka sono state perse durante l'esecuzione di query con Trigger.AvailableNow. L'errore potrebbe essere temporaneo: riavviare la query e segnalare se viene ancora visualizzato lo stesso problema.

topic-partitions per l'offset più recente: <tpsForLatestOffset>, topic-partitions per l'offset finale: <tpsForEndOffset>

MALFORMED_AVRO_MESSAGE

SQLSTATE: KD000

I messaggi Avro in formato non valido vengono rilevati nella deserializzazione dei messaggi. Modalità analisi: <mode>. Per elaborare il messaggio Avro in formato non valido come risultato null, provare a impostare l'opzione 'mode' su 'PERMISSIVE'.

MALFORMED_CHARACTER_CODING

SQLSTATE: 22000

Valore non valido trovato durante l'esecuzione <function> con <charset>

MALFORMED_CSV_RECORD

SQLSTATE: KD000

Record CSV in formato non valido: <badRecord>

MALFORMED_RECORD_IN_PARSING

SQLSTATE: 22023

I record in formato non valido vengono rilevati nell'analisi dei record: <badRecord>.

Modalità analisi: <failFastMode>. Per elaborare record in formato non valido come risultato Null, provare a impostare l'opzione 'mode' su 'PERMISSIVE'.

Per altri dettagli, vedere MALFORMED_RECORD_IN_PARSING

MALFORMED_VARIANT

SQLSTATE: 22023

Il file binario variant non è valido. Verificare che l'origine dati sia valida.

MANAGED_TABLE_WITH_CRED

SQLSTATE: 42613

La creazione di una tabella gestita con credenziali di archiviazione non è supportata.

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE: 55019

Impossibile <refreshType> materializzare la vista perché precede la presenza di un valore pipelineId. Per abilitare <refreshType> rilasciare e ricreare la visualizzazione materializzata.

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE: 56038

L'operazione <operation> di visualizzazione materializzata non è consentita:

Per altri dettagli, vedere MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE: 0A000

L'espressione <expression> di output in una vista materializzata deve essere in modo esplicito con alias.

MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID

SQLSTATE: 42000

Impossibile creare la vista <name> materializzata con la query di streaming. Usare CREATE [OR REFRESH] STREAMING TABLE o rimuovere la parola chiave STREAM nella clausola FROM per trasformare questa relazione in una query batch.

MATERIALIZED_VIEW_UNSUPPORTED_OPERATION

SQLSTATE: 0A000

L'operazione <operation> non è supportata nelle viste materializzate per questa versione.

MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED

SQLSTATE: 54KD1

Impossibile creare la nuova variabile <variableName> perché il numero di variabili nella sessione supera il numero massimo consentito (<maxNumVariables>).

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE: 22023

maxRecordsPerFetch deve essere un numero intero positivo minore o uguale a <kinesisRecordLimit>

MERGE_CARDINALITY_VIOLATION

SQLSTATE: 23K01

La condizione di ricerca ON dell'istruzione MERGE corrisponde a una singola riga della tabella di destinazione con più righe della tabella di origine.

Ciò potrebbe comportare l'esecuzione della riga di destinazione più volte con un'operazione di aggiornamento o eliminazione e non è consentita.

METRIC_CONSTRAINT_NOT_SUPPORTED

SQLSTATE: 0A000

VINCOLO METRICA non abilitato.

METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22023

Il valore specificato "<argValue>" non è supportato dall'argomento "<argName>" per la funzione tabella METRIC_STORE.

Per altri dettagli, vedere METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

METRIC_STORE_UNSUPPORTED_ERROR

SQLSTATE: 56038

La funzione <functionName> Metric Store è attualmente disabilitata in questo ambiente.

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE: KD000

L'origine dati Kafka in Trigger.AvailableNow deve fornire le stesse partizioni degli argomenti nell'offset prelettura fino all'offset finale per ogni microbatch. L'errore potrebbe essere temporaneo: riavviare la query e segnalare se viene ancora visualizzato lo stesso problema.

topic-partitions for pre-fetched offset: <tpsForPrefetched>, topic-partitions for end offset: <tpsForEndOffset>.

MISSING_AGGREGATION

SQLSTATE: 42803

L'espressione <expression> non di aggregazione si basa su colonne che non fanno parte della clausola GROUP BY.

Aggiungere le colonne o l'espressione all'oggetto GROUP BY, aggregare l'espressione oppure usare <expressionAnyValue> se non si ha attenzione a quale dei valori all'interno di un gruppo viene restituito.

Per altri dettagli, vedere MISSING_AGGREGATION

MISSING_CONNECTION_OPTION

SQLSTATE: 42000

Le connessioni di tipo '<connectionType>' devono includere le opzioni seguenti: <requiredOptions>.

MISSING_GROUP_BY

SQLSTATE: 42803

La query non include una clausola GROUP BY. Aggiungere GROUP BY o trasformarlo nelle funzioni finestra usando le clausole OVER.

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE: 42000

Il vincolo CHECK deve avere un nome.

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE: 42KDF

Il parametro <parameterName> è obbligatorio per Kafka, ma non è specificato in <functionName>.

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE: 42KDF

Il parametro <parameterName> è obbligatorio, ma non è specificato in <functionName>.

MISSING_WINDOW_SPECIFICATION

SQLSTATE: 42P20

La specifica della finestra non è definita nella clausola WINDOW per <windowName>. Per altre informazioni sulle clausole WINDOW, vedere "<docroot>/sql-ref-syntax-qry-select-window.html".

MODIFY_BUILTIN_CATALOG

SQLSTATE: 42832

La modifica del catalogo <catalogName> predefinito non è supportata.

MULTIPLE_LOAD_PATH

SQLSTATE: 42000

Databricks Delta non supporta più percorsi di input nell'API load().

paths: <pathList>. Per compilare un singolo dataframe caricando

più percorsi dalla stessa tabella Delta, caricare il percorso radice di

tabella Delta con i filtri di partizione corrispondenti. Se i percorsi multipli

provengono da tabelle Delta diverse. Usare le API union()/unionByName() del set di dati

per combinare i dataframe generati da chiamate API load() separate.

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE: 42891

Sono stati trovati almeno due vincoli corrispondenti con la condizione specificata.

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

Impossibile specificare il viaggio di tempo sia nella clausola time travel che nelle opzioni.

MULTIPLE_XML_DATA_SOURCE

SQLSTATE: 42710

Rilevate più origini dati con il nome <provider> (<sourceNames>). Specificare il nome completo della classe o rimuoverlo <externalSource> dal classpath.

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE: 42K0E

L'espressione <expr> non supporta più di un'origine.

MULTI_UDF_INTERFACE_ERROR

SQLSTATE: 0A000

Non è consentito implementare più interfacce UDF, classe <className>UDF .

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE: 42613

Clausole o opzioni <clauses>che si escludono a vicenda. Rimuovere una di queste clausole.

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE: 42601

La query di input prevede un <expectedType>oggetto , ma la tabella sottostante è .<givenType>

NAMED_PARAMETERS_NOT_SUPPORTED

SQLSTATE: 4274K

I parametri denominati non sono supportati per la funzione <functionName>. Riprovare la query con argomenti posizionali alla chiamata di funzione.

NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS

SQLSTATE: 0A000

Impossibile chiamare la funzione <functionName> perché i riferimenti agli argomenti denominati non sono supportati. In questo caso, il riferimento all'argomento denominato era <argument>.

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE: 0A000

Impossibile chiamare la funzione <functionName> perché i riferimenti agli argomenti denominati non sono abilitati qui.

In questo caso, il riferimento all'argomento denominato era <argument>.

Impostare "spark.sql.allowNamedFunctionArguments" su "true" per attivare la funzionalità.

NAMESPACE_ALREADY_EXISTS

SQLSTATE: 42000

Impossibile creare lo spazio dei nomi <nameSpaceName> perché esiste già.

Scegliere un nome diverso, eliminare lo spazio dei nomi esistente o aggiungere la clausola IF NOT EXISTS per tollerare lo spazio dei nomi preesistente.

NAMESPACE_NOT_EMPTY

SQLSTATE: 42000

Impossibile eliminare uno spazio dei nomi <nameSpaceNameName> perché contiene oggetti .

Usare DROP NAMESPACE ... CASCADE per eliminare lo spazio dei nomi e tutti i relativi oggetti.

NAMESPACE_NOT_FOUND

SQLSTATE: 42000

Impossibile trovare lo spazio dei nomi <nameSpaceName> . Verificare l'ortografia e la correttezza dello spazio dei nomi.

Se il nome non è stato qualificato, verificare l'output current_schema() o qualificare correttamente il nome.

Per tollerare l'errore in caso di eliminazione, usare DROP NAMESPACE IF EXISTS.

NATIVE_IO_ERROR

SQLSTATE: KD00F

Richiesta nativa non riuscita. requestId: <requestId>, cloud: <cloud>, operazione: <operation>

request: [https: <https>, method = <method>, path = <path>, params = , host = <host><params>, headers = , bodyLen = <bodyLen><headers>],

errore: <error>

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE: 56038

L'origine dati XML nativa non è abilitata in questo cluster.

NESTED_AGGREGATE_FUNCTION

SQLSTATE: 42607

Non è consentito usare una funzione di aggregazione nell'argomento di un'altra funzione di aggregazione. Usare la funzione di aggregazione interna in una sottoquery.

NESTED_EXECUTE_IMMEDIATE

SQLSTATE: 07501

I comandi EXECUTE IMMEDIATE annidati non sono consentiti. Assicurarsi che la query SQL fornita (<sqlString>) non contenga un altro comando EXECUTE IMMEDIATE.

NONEXISTENT_FIELD_NAME_IN_LIST

SQLSTATE: HV091

<nonExistFields> I campi non esistono. Campi disponibili: <fieldNames>

NON_FOLDABLE_ARGUMENT

SQLSTATE: 42K08

La funzione <funcName> richiede che il parametro <paramName> sia un'espressione piegabile del tipo <paramType>, ma l'argomento effettivo non è piegabile.

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Quando in un'istruzione MERGE sono presenti più clausole MATCHED, solo l'ultima clausola MATCHED può omettere la condizione.

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Quando in un'istruzione MERGE sono presenti più clausole NOT MATCHED BY SOURCE, solo l'ultima clausola NOT MATCHED BY SOURCE può omettere la condizione.

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Quando in un'istruzione MERGE sono presenti più clausole NOT MATCHED [BY TARGET], solo l'ultima clausola NOT MATCHED [BY TARGET] può omettere la condizione.

NON_LITERAL_PIVOT_VALUES

SQLSTATE: 42K08

Sono state trovate <expression>espressioni letterali necessarie per i valori pivot.

NON_PARTITION_COLUMN

SQLSTATE: 42000

La clausola PARTITION non può contenere la colonna non di partizione: <columnName>.

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE: 42KDE

La funzione Window non è supportata in (come colonna <columnName>) nei <windowFunc> dataframe/set di dati in streaming.

Structured Streaming supporta solo l'aggregazione temporale usando la funzione WINDOW. (specifica della finestra: <windowSpec>)

NOT_ALLOWED_IN_FROM

SQLSTATE: 42601

Non consentito nella clausola FROM:

Per altri dettagli, vedere NOT_ALLOWED_IN_FROM

NOT_A_CONSTANT_STRING

SQLSTATE: 42601

L'espressione <expr> utilizzata per la routine o la clausola <name> deve essere una costante STRING che è NOT NULL.

Per altri dettagli, vedere NOT_A_CONSTANT_STRING

NOT_A_PARTITIONED_TABLE

SQLSTATE: 42809

L'operazione <operation> non è consentita perché <tableIdentWithDB> non è una tabella partizionata.

NOT_A_SCALAR_FUNCTION

SQLSTATE: 42887

<functionName> viene visualizzato come espressione scalare, ma la funzione è stata definita come funzione di tabella. Aggiornare la query per spostare la chiamata di funzione nella clausola FROM oppure ridefinire <functionName> come funzione scalare.

NOT_A_TABLE_FUNCTION

SQLSTATE: 42887

<functionName> viene visualizzato come funzione di tabella, ma la funzione è stata definita come funzione scalare. Aggiornare la query per spostare la chiamata di funzione all'esterno della clausola FROM oppure ridefinire <functionName> come funzione di tabella.

NOT_NULL_ASSERT_VIOLATION

SQLSTATE: 42000

Valore NULL visualizzato nel campo non nullable: <walkedTypePath>se lo schema viene dedotto da una classe di tupla/case Scala o da un bean Java, provare a usare scala. Option[_] o altri tipi nullable ,ad esempio java.lang.Integer anziché int/scala. Int).

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE: 42000

L'assegnazione di un valore NULL non è consentita qui.

Per altri dettagli, vedere NOT_NULL_CONSTRAINT_VIOLATION

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER/CHANGE COLUMN non è supportato per la modifica della colonna <originName> con tipo su con tipo <newType><originType> <newName> .<table>

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE: 0A000

<cmd> non è supportato per le tabelle v2.

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE: 0A000

<cmd> non è supportato, se si vuole abilitarlo, impostare "spark.sql.catalogImplementation" su "hive".

NOT_SUPPORTED_IN_JDBC_CATALOG

SQLSTATE: 0A000

Comando non supportato nel catalogo JDBC:

Per altri dettagli, vedere NOT_SUPPORTED_IN_JDBC_CATALOG

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE: 0A000

<operation> non è supportato in un'istanza di SQL <endpoint>.

NOT_SUPPORTED_WITH_SERVERLESS

SQLSTATE: 0A000

<operation> non è supportato nel calcolo serverless.

NOT_UNRESOLVED_ENCODER

SQLSTATE: 42601

Previsto codificatore non risolto, ma <attr> trovato.

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE: 42608

Non è possibile determinare il valore predefinito per <colName> perché non è nullable e non ha alcun valore predefinito.

NO_HANDLER_FOR_UDAF

SQLSTATE: 42000

Nessun gestore per UDAF '<functionName>'. Usare invece sparkSession.udf.register(...) .

NO_MERGE_ACTION_SPECIFIED

SQLSTATE: 42K0E

df.mergeInto deve essere seguito da almeno uno di whenMatched/whenNotMatched/whenNotMatchedBySource.

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE: non assegnato

Non è stata trovata alcuna posizione esterna padre per il percorso '<path>'. Creare un percorso esterno in uno dei percorsi padre e quindi ripetere la query o il comando.

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

SQLSTATE: 42S22

Impossibile trovare <catalystFieldPath> nello schema Protobuf.

NO_STORAGE_LOCATION_FOR_TABLE

SQLSTATE: non assegnato

Non è stato trovato alcun percorso di archiviazione per la tabella '<tableId>' durante la generazione di credenziali della tabella. Verificare il tipo di tabella e l'URL del percorso della tabella e quindi ripetere la query o il comando.

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE: non assegnato

Il catalogo '<catalog>' non è stato trovato. Verificare il nome del catalogo e quindi ripetere la query o il comando.

NO_SUCH_CLEANROOM_EXCEPTION

SQLSTATE: non assegnato

La camera pulita '<cleanroom>' non esiste. Verificare che il nome della stanza pulita sia digitato correttamente e corrisponda al nome di una stanza pulita esistente valida e quindi ripetere la query o il comando.

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE: non assegnato

La posizione esterna '<externalLocation>' non esiste. Verificare che il nome del percorso esterno sia corretto e quindi ripetere la query o il comando.

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE: non assegnato

Il metastore non è stato trovato. Chiedere all'amministratore dell'account di assegnare un metastore all'area di lavoro corrente e quindi ripetere la query o il comando.

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE: non assegnato

Il provider di condivisione '<providerName>' non esiste. Verificare che il nome del provider di condivisione sia digitato correttamente e corrisponda al nome di un nome di provider esistente valido e quindi ripetere la query o il comando.

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE: non assegnato

Il destinatario '<recipient>' non esiste. Verificare che il nome del destinatario sia digitato correttamente e corrisponda al nome di un destinatario esistente valido e quindi ripetere la query o il comando.

NO_SUCH_SHARE_EXCEPTION

SQLSTATE: non assegnato

La condivisione '<share>' non esiste. Verificare che il nome della condivisione sia digitato correttamente e corrisponda al nome di una condivisione esistente valida e quindi ripetere la query o il comando.

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE: non assegnato

La credenziale di archiviazione '<storageCredential>' non esiste. Verificare che il nome delle credenziali di archiviazione sia digitato correttamente e corrisponda al nome di una credenziale di archiviazione esistente valida e quindi ripetere la query o il comando.

NO_SUCH_USER_EXCEPTION

SQLSTATE: non assegnato

L'utente '<userName>' non esiste. Verificare che l'utente a cui si concede l'autorizzazione o modificare la proprietà venga digitato correttamente e corrisponda al nome di un utente esistente valido e quindi ripetere la query o il comando.

NO_UDF_INTERFACE

SQLSTATE: 38000

La classe <className> UDF non implementa alcuna interfaccia UDF.

NULLABLE_COLUMN_OR_FIELD

SQLSTATE: 42000

La colonna o il campo <name> è nullable mentre è necessario che non sia nullable.

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE: 42000

Gli attributi ID riga non possono essere nullable: <nullableRowIdAttrs>.

NULL_DATA_SOURCE_OPTION

SQLSTATE: 22024

L'opzione di lettura/scrittura dell'origine <option> dati non può avere un valore Null.

NULL_MAP_KEY

SQLSTATE: 2200E

Non è possibile usare Null come chiave della mappa.

NULL_QUERY_STRING_EXECUTE_IMMEDIATE

SQLSTATE: 22004

L'esecuzione immediata richiede una variabile non Null come stringa di query, ma la variabile <varName> specificata è Null.

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE: 22003

Il valore <value> non può essere interpretato come numerico perché ha più di 38 cifre.

NUMERIC_VALUE_OUT_OF_RANGE

SQLSTATE: 22003

Per altri dettagli, vedere NUMERIC_VALUE_OUT_OF_RANGE

NUM_COLUMNS_MISMATCH

SQLSTATE: 42826

<operator> può essere eseguito solo sugli input con lo stesso numero di colonne, ma il primo input include <firstNumColumns> colonne e l'input <invalidOrdinalNum> contiene <invalidNumColumns> colonne.

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE: 42826

Il numero di alias specificati non corrisponde al numero di colonne di output.

Nome funzione: <funcName>; numero di alias: <aliasesNum>; numero di colonne di output: <outColsNum>.

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE: 22KD2

Non è stata fornita alcuna attestazione di identità personalizzata.

ONLY_SECRET_FUNCTION_SUPPORTED_HERE

SQLSTATE: 42K0E

La funzione <functionName> chiamante non è supportata in questo <location>. <supportedFunctions> Supportata qui.

ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR

SQLSTATE: 0A000

L'operazione <operation> SQL è supportata solo nei connettori SQL di Databricks con il supporto di Unity Catalog.

OPERATION_CANCELED

SQLSTATE: HY008

Operazione annullata.

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE: 0AKUD

L'operazione richiede l'abilitazione <operation> del catalogo Unity.

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE: 42KD1

<plan> non è supportato in modalità sessione di sola lettura.

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

La posizione <index> ORDER BY non è nell'elenco di selezione (l'intervallo valido è [1, <size>]).

PARQUET_CONVERSION_FAILURE

SQLSTATE: 42846

Impossibile creare un convertitore Parquet per il tipo di <dataType> dati il cui tipo Parquet è <parquetType>.

Per altri dettagli, vedere PARQUET_CONVERSION_FAILURE

PARSE_EMPTY_STATEMENT

SQLSTATE: 42617

Errore di sintassi, istruzione vuota imprevista.

PARSE_SYNTAX_ERROR

SQLSTATE: 42601

Errore di sintassi in corrispondenza o vicino a <error> <hint>.

PARTITIONS_ALREADY_EXIST

SQLSTATE: 428FT

Impossibile aggiungere o rinominare le partizioni <partitionList> nella tabella <tableName> perché esistono già.

Scegliere un nome diverso, eliminare la partizione esistente o aggiungere la clausola IF NOT EXISTS per tollerare una partizione preesistente.

PARTITIONS_NOT_FOUND

SQLSTATE: 428FT

Impossibile trovare le partizioni <partitionList> nella tabella <tableName>.

Verificare la specifica della partizione e il nome della tabella.

Per tollerare l'errore in caso di eliminazione, usare ALTER TABLE ... DROP IF EXISTS PARTITION.

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE: 42K04

Il percorso <locationPath> della partizione esiste già nella tabella <tableName>.

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE: 42KD5

Impossibile eseguire l'istruzione ALTER TABLE SET PARTITION LOCATION, perché

il percorso <location> della partizione non si trova nella directory <table>della tabella .

Per correggerlo, impostare la posizione della partizione su una sottodirectory di <table>.

PARTITION_METADATA

SQLSTATE: 0AKUC

<action> non è consentito nella tabella <tableName> perché l'archiviazione dei metadati della partizione non è supportata nel catalogo unity.

PATH_ALREADY_EXISTS

SQLSTATE: 42K04

Percorso <outputPath> già esistente. Impostare la modalità come "sovrascrittura" per sovrascrivere il percorso esistente.

PATH_NOT_FOUND

SQLSTATE: 42K03

Il percorso non esiste: <path>.

PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION

SQLSTATE: 0A000

La funzione <expr> di aggregazione non è consentita quando si usa l'operatore pipe |> Clausola SELECT; Usare l'operatore pipe |> Clausola AGGREGATE

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Valore pivot non valido '<value>': il tipo di <valueType> dati value non corrisponde al tipo di <pivotType>dati della colonna pivot .

PROCEDURE_ARGUMENT_NUMBER_MISMATCH

SQLSTATE: 42605

La procedura <procedureName> prevede <expected> argomenti, ma <actual> sono stati forniti.

PROCEDURE_CREATION_EMPTY_ROUTINE

SQLSTATE: 0A000

CREATE PROCEDURE con una definizione di routine vuota non è consentita.

PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT

SQLSTATE: 42601

Il parametro <parameterName> viene definito con la modalità <parameterMode>parametro . Non è possibile omettere il parametro OUT e INOUT quando si richiama una routine e pertanto non supporta un'espressione DEFAULT. Per procedere, rimuovere la clausola DEFAULT o impostare la modalità del parametro su IN.

PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

La stored procedure non è supportata

PROCEDURE_NOT_SUPPORTED_WITH_HMS

SQLSTATE: 0A000

La stored procedure non è supportata con il metastore Hive. Usare invece Unity Catalog.

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE: 42K0G

Impossibile trovare la dipendenza: <dependencyName>.

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE: 42K0G

Errore durante la lettura del file del descrittore Protobuf nel percorso: <filePath>.

PROTOBUF_FIELD_MISSING

SQLSTATE: 42K0G

Ricerca nello <field> schema Protobuf in corrispondenza <protobufSchema> delle <matchSize> corrispondenze. Candidati: <matches>.

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

SQLSTATE: 42K0G

Trovato <field> nello schema Protobuf, ma non esiste alcuna corrispondenza nello schema SQL.

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE: 42K0G

Tipo non corrispondente rilevato per campo: <field>.

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE: 0A000

Le classi Java non sono supportate per <protobufFunction>. Contattare il supporto di Databricks sulle opzioni alternative.

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE: 42K0G

Impossibile individuare il messaggio <messageName> nel descrittore.

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE: 42K0G

Tipo Protobuf non ancora supportato: <protobufType>.

PS_FETCH_RETRY_EXCEPTION

SQLSTATE: 22000

Impossibile ritentare l'attività nella fase di recupero pubsub. Partizione <partitionInfo> nella fase <stageInfo>, TID <taskId>.

PS_INVALID_EMPTY_OPTION

SQLSTATE: 42000

<key> non può essere una stringa vuota.

PS_INVALID_KEY_TYPE

SQLSTATE: 22000

Tipo di chiave non valido per PubSub dedup: <key>.

PS_INVALID_OPTION

SQLSTATE: 42000

L'opzione <key> non è supportata da PubSub. Può essere usato solo nei test.

PS_INVALID_OPTION_TYPE

SQLSTATE: 42000

Tipo non valido per <key>. Tipo previsto di <key> tipo <type>.

PS_INVALID_READ_LIMIT

SQLSTATE: 42000

Limite di lettura non valido nel flusso PubSub: <limit>.

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE: 22000

UnsafeRow non valido da decodificare in PubSubMessageMetadata, lo schema proto desiderato è: <protoSchema>. L'input UnsafeRow potrebbe essere danneggiato: <unsafeRow>.

PS_MISSING_AUTH_INFO

SQLSTATE: 42000

Impossibile trovare le informazioni di autenticazione PubSub complete.

PS_MISSING_REQUIRED_OPTION

SQLSTATE: 42000

Impossibile trovare l'opzione richiesta: <key>.

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE: 22000

Non è possibile spostare i file del checkpoint dati non elaborati da <src> alla directory di destinazione: <dest>.

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE: 22000

Impossibile avviare il flusso PubSub perché è presente più di un recupero non riuscito: <failedEpochs>.

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE: 22000

<key> deve essere compreso nei limiti seguenti (<min>, <max>) esclusivi di entrambi i limiti.

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE: 42000

I cluster condivisi non supportano l'autenticazione con i profili di istanza. Specificare le credenziali per il flusso direttamente usando .option().

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE: 0A000

Il connettore di origine PubSub è disponibile solo nel cluster con spark.speculation disabilitato.

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE: 42000

Si è verificato un errore durante il tentativo di creare una sottoscrizione <subId> nell'argomento <topicId>. Verificare che siano disponibili autorizzazioni sufficienti per creare una sottoscrizione e riprovare.

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE: 22000

Impossibile analizzare i byte serializzati per generare proto.

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE: 0A000

getOffset non è supportato senza fornire un limite.

PYTHON_DATA_SOURCE_ERROR

SQLSTATE: 38000

Impossibile eseguire l'origine <action> <type>dati Python: <msg>

PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR

SQLSTATE: 38000

Errore durante l'esecuzione dell'origine <action>dati di streaming Python: <msg>

QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

SQLSTATE: 428HD

Impossibile accedere alla tabella a cui si fa riferimento perché una maschera di colonna assegnata in precedenza non è attualmente compatibile con lo schema della tabella; per continuare, contattare il proprietario della tabella per aggiornare i criteri:

Per altri dettagli, vedere QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

SQLSTATE: 428HD

Impossibile accedere alla tabella a cui si fa riferimento perché i criteri di sicurezza a livello di riga assegnati in precedenza non sono attualmente compatibili con lo schema della tabella; per continuare, contattare il proprietario della tabella per aggiornare i criteri:

Per altri dettagli, vedere QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

READ_CURRENT_FILE_NOT_FOUND

SQLSTATE: 42K03

<message>

È possibile che i file sottostanti siano stati aggiornati. È possibile invalidare in modo esplicito la cache in Spark eseguendo il comando 'REFRESH TABLE tableName' in SQL o ricreando il set di dati/dataframe coinvolto.

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE: 4274K

La chiamata della funzione <functionName> ha <parameterName> e <alternativeName> imposta, che sono alias l'uno dell'altro. Impostare solo uno di essi.

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE: 4274K

Il parametro <parameterName> obbligatorio della funzione <functionName> deve essere assegnato in posizione <expectedPos> senza il nome.

RECIPIENT_EXPIRATION_NOT_SUPPORTED

SQLSTATE: 0A000

Solo TIMESTAMPi tipi /TIMESTAMP_LTZ/TIMESTAMP_NTZ sono supportati per il timestamp di scadenza del destinatario.

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE: 42K0G

Trovato riferimento ricorsivo nello schema Protobuf, che non può essere elaborato da Spark per impostazione predefinita: <fieldDescriptor>. Provare a impostare l'opzione recursive.fields.max.depth da 1 a 10. Non è consentito superare 10 livelli di ricorsione.

RECURSIVE_VIEW

SQLSTATE: 42K0H

Rilevata visualizzazione <viewIdent> ricorsiva (ciclo: <newPath>).

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE: 42601

I riferimenti ai valori di colonna DEFAULT non sono consentiti all'interno della clausola PARTITION.

RELATION_LARGER_THAN_8G

SQLSTATE: 54000

Non è possibile compilare un oggetto <relationName> di dimensioni maggiori di 8G.

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE: 57012

Richiesta HTTP remota non riuscita con codice <errorCode>e messaggio di errore <errorMessage>

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE: 22032

Impossibile valutare la <functionName> funzione SQL a causa dell'impossibilità di analizzare il risultato JSON dalla risposta HTTP remota. Il messaggio di errore è <errorMessage>. Vedere la documentazione dell'API: <docUrl>. Risolvere il problema indicato nel messaggio di errore e ripetere la query.

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE: 57012

Impossibile valutare la <functionName> funzione SQL a causa dell'impossibilità di elaborare la risposta HTTP remota imprevista. Il messaggio di errore è <errorMessage>. Vedere la documentazione dell'API: <docUrl>. Risolvere il problema indicato nel messaggio di errore e ripetere la query.

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE: 57012

La richiesta remota non è riuscita dopo i tentativi <N> ; l'ultimo codice di errore HTTP non riuscito era <errorCode> e il messaggio era <errorMessage>

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE: 57012

Impossibile valutare la <functionName> funzione SQL perché <errorMessage>. Controllare i requisiti in <docUrl>. Risolvere il problema indicato nel messaggio di errore e ripetere la query.

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE: 42K03

Impossibile rinominare perché <sourcePath> non è stato trovato.

REPEATED_CLAUSE

SQLSTATE: 42614

La <clause> clausola può essere usata al massimo una volta per <operation> operazione.

REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY

SQLSTATE: 4274K

Il parametro <parameterName> obbligatorio della funzione <functionName> è stato assegnato in posizione <positionalIndex> senza il nome.

Aggiornare la chiamata di funzione per rimuovere l'argomento denominato con <parameterName> per questo parametro o rimuovere la posizione

argomento in <positionalIndex> e quindi ritentare la query.

REQUIRED_PARAMETER_NOT_FOUND

SQLSTATE: 4274K

Impossibile richiamare la funzione <functionName> perché il parametro denominato <parameterName> è obbligatorio, ma la chiamata di funzione non ha fornito un valore. Aggiornare la chiamata di funzione per specificare un valore dell'argomento (posizionale in corrispondenza dell'indice <index> o per nome) e riprovare la query.

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE: 42K05

<sessionCatalog> richiede uno spazio dei nomi a parte singola, ma ha ottenuto <namespace>.

RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT

SQLSTATE: 4274K

L'opzione lettore dell'API DataFrame 'rescuedDataColumn' si escludono a vicenda con l'opzione API DataFrame 'singleVariantColumn'.

Rimuovere uno di essi e quindi ritentare l'operazione dataframe.

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE: 42939

La scrittura contiene colonne <columnList> riservate utilizzate

internamente come metadati per il feed di dati delle modifiche. Per scrivere nella tabella rinomina/eliminazione

queste colonne o disabilitano il feed di dati delle modifiche nella tabella impostando

<config> su false.

RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

SQLSTATE: 0A000

L'opzione <option> ha valori limitati nei cluster condivisi per l'origine <source> .

Per altri dettagli, vedere RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

ROUTINE_ALREADY_EXISTS

SQLSTATE: 42723

Impossibile creare l'oggetto <newRoutineType> <routineName> perché esiste già un <existingRoutineType> oggetto di tale nome.

Scegliere un nome diverso, eliminare o sostituire l'oggetto esistente <existingRoutineType>oppure aggiungere la clausola IF NOT EXISTS per tollerare un oggetto preesistente <newRoutineType>.

ROUTINE_NOT_FOUND

SQLSTATE: 42883

Impossibile trovare la routine <routineName> . Verificare l'ortografia e la correttezza dello schema e del catalogo.

Se il nome non è stato qualificato con uno schema e un catalogo, verificare l'output current_schema() o qualificare il nome con lo schema e il catalogo corretti.

Per tollerare l'errore in caso di eliminazione, usare DROP ... SE ESISTE.

ROUTINE_PARAMETER_NOT_FOUND

SQLSTATE: 42000

La funzione <functionName> non supporta il parametro <parameterName> specificato nella posizione <pos>.<suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE: 42939

Impossibile creare la funzione <routineName> perché il nome di classe specificato '<className>' è riservato per l'uso del sistema. Rinominare la classe e riprovare.

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

La creazione di vincoli CHECK nella tabella <tableName> con criteri di sicurezza a livello di riga non è supportata.

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE: 42734

Un'istruzione <statementType> ha tentato di assegnare un criterio di sicurezza a livello di riga a una tabella, ma due o più colonne a cui si fa riferimento hanno lo stesso nome <columnName>, che non è valido.

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

I criteri di sicurezza a livello di riga per <tableName> non sono supportati:

Per altri dettagli, vedere ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

Impossibile passare <statementType> <columnName> dalla tabella <tableName> perché viene fatto riferimento a un criterio di sicurezza a livello di riga. Il proprietario della tabella deve rimuovere o modificare questo criterio prima di procedere.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

Le operazioni MERGE INTO non supportano i criteri di sicurezza a livello di riga nella tabella <tableName>di origine .

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

Le operazioni MERGE INTO non supportano la scrittura in una tabella <tableName> con criteri di sicurezza a livello di riga.

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE: 42K05

Questa istruzione ha tentato di assegnare un criterio di sicurezza a livello di riga a una tabella, ma la colonna <columnName> a cui si fa riferimento ha più parti del nome, che non sono valide.

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

I criteri di sicurezza a livello di riga sono supportati solo nel catalogo unity.

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

<mode> clonare dalla tabella <tableName> con criteri di sicurezza a livello di riga non è supportato.

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

<mode> clonare nella tabella <tableName> con criteri di sicurezza a livello di riga non è supportato.

ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

L'uso di una costante come parametro in un criterio di sicurezza a livello di riga non è supportato. Aggiornare il comando SQL per rimuovere la costante dalla definizione del filtro di riga e quindi ripetere il comando.

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

Impossibile eseguire <statementType> il comando perché l'assegnazione dei criteri di sicurezza a livello di riga non è supportata per l'origine dati di destinazione con provider di tabelle: "<provider>".

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

Più righe restituite da una sottoquery usata come riga.

ROW_VALUE_IS_NULL

SQLSTATE: 22023

Trovato NULL in una riga in corrispondenza dell'indice <index>, previsto un valore non NULL.

RULE_ID_NOT_FOUND

SQLSTATE: 22023

Impossibile trovare un ID per il nome della regola "<ruleName>". Modificare RuleIdCollection.scala se si aggiunge una nuova regola.

SAMPLE_TABLE_PERMISSIONS

SQLSTATE: 42832

Autorizzazioni non supportate per database/tabelle di esempio.

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE: 0A000

La sottoquery scalare correlata '<sqlExpr>' non è presente né in GROUP BY, né in una funzione di aggregazione.

Aggiungerlo a GROUP BY usando la posizione ordinale o eseguire il wrapping in first() (o first_value) se non si è interessati al valore che si ottiene.

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

Più righe restituite da una sottoquery usata come espressione.

SCHEDULE_PERIOD_INVALID

SQLSTATE: 22003

Il periodo di pianificazione per <timeUnit> deve essere un valore intero compreso tra 1 e <upperBound> (inclusi). Ricevuto: <actual>.

SCHEMA_ALREADY_EXISTS

SQLSTATE: 42P06

Impossibile creare lo schema <schemaName> perché esiste già.

Scegliere un nome diverso, eliminare lo schema esistente o aggiungere la clausola IF NOT EXISTS per tollerare lo schema preesistente.

SCHEMA_NOT_EMPTY

SQLSTATE: 2BP01

Impossibile eliminare uno schema <schemaName> perché contiene oggetti .

Usare DROP SCHEMA ... CASCADE per eliminare lo schema e tutti i relativi oggetti.

SCHEMA_NOT_FOUND

SQLSTATE: 42704

Impossibile trovare lo schema <schemaName> . Verificare l'ortografia e la correttezza dello schema e del catalogo.

Se il nome non è stato qualificato con un catalogo, verificare l'output current_schema() o qualificare il nome con il catalogo corretto.

Per tollerare l'errore in caso di eliminazione, usare DROP SCHEMA IF EXISTS.

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE: 42K0G

Impossibile inizializzare lo schema dal Registro di sistema dello schema. <reason>.

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

SQLSTATE: 22023

Il secondo argomento della <functionName> funzione deve essere un numero intero.

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE: 42K0E

Impossibile eseguire il <commandType> comando con uno o più riferimenti non crittografati alla funzione SECRET. Crittografare il risultato di ogni chiamata di funzione con AES_ENCRYPT e riprovare a eseguire il comando

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE: 42K08

L'espressione <seedExpr> di inizializzazione dell'espressione <exprWithSeed> deve essere piegabile.

SERVER_IS_BUSY

SQLSTATE: 08KD1

Il server è occupato e non è in grado di gestire la richiesta. Attendi qualche minuto e riprova.

SORT_BY_WITHOUT_BUCKETING

SQLSTATE: 42601

sortBy deve essere usato insieme a bucketBy.

SPARK_JOB_CANCELLED

SQLSTATE: HY008

Processo <jobId> annullato <reason>

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42601

Un'istruzione CREATE TABLE senza un elenco di colonne esplicito non può specificare informazioni sul bucket.

Usare il modulo con l'elenco di colonne esplicite e specificare le informazioni sul bucket.

In alternativa, consentire di dedurre le informazioni di bucket omettendo la clausola .

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42908

Non è possibile specificare CLUSTER BY e CLUSTERED BY INTO BUCKETS.

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE: 42908

Impossibile specificare CLUSTER BY e PARTITIONED BY.

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE: 42601

Un'istruzione CREATE TABLE senza elenco di colonne esplicite non può specificare PARTITIONED BY.

Usare il modulo con l'elenco di colonne esplicite e specificare PARTITIONED BY.

In alternativa, consentire il partizionamento da dedurre omettendo la clausola PARTITION BY.

SQL_CONF_NOT_FOUND

SQLSTATE: 42K0I

Impossibile trovare la configurazione <sqlConf> SQL. Verificare che la configurazione esista.

STAGING_PATH_CURRENTLY_INACCESSIBLE

SQLSTATE: 22000

Errore temporaneo durante l'accesso al percorso <path>di gestione temporanea di destinazione. Provare in pochi minuti

STAR_GROUP_BY_POS

SQLSTATE: 0A000

La stella (*) non è consentita in un elenco di selezione quando viene utilizzata una posizione ordinale GROUP BY.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE

SQLSTATE: 42802

Impossibile eseguire l'operazione del processore con stato=<operationType> con handle state=<handleState>non valido.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE

SQLSTATE: 42802

Impossibile eseguire un'operazione del processore con stato=<operationType> con timeMode non valido=<timeMode>

STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY

SQLSTATE: 42710

Impossibile inizializzare nuovamente lo stato sulla stessa chiave di raggruppamento durante la gestione dello stato iniziale per il processore con stato. Chiave di raggruppamento non valida=<groupingKey>. Controllare lo stato iniziale, rimuovere le righe duplicate e riavviare la query.

STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED

SQLSTATE: 42802

La variabile di stato con nome <stateVarName> è già stata definita in StatefulProcessor.

STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL

SQLSTATE: 42802

Impossibile usare TTL per state=<stateName> in timeMode=<timeMode>, usare invece TimeMode.ProcessingTime().

STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE

SQLSTATE: 42802

La durata TTL deve essere maggiore di zero per l'operazione di archiviazione stato=<operationType> in state=<stateName>.

STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE

SQLSTATE: 42802

Modalità <timeMode>ora sconosciuta. Le modalità timeMode accettate sono 'none', 'processingTime', 'eventTime'

STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS

SQLSTATE: 42802

Impossibile creare la famiglia di colonne con carattere iniziale non supportato e name=<colFamilyName>.

STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME

SQLSTATE: 42802

Impossibile eseguire l'operazione della famiglia di colonne=<operationName> con nome non valido=<colFamilyName>. Il nome della famiglia di colonne non può essere vuoto o includere spazi iniziali/finali o usare la parola chiave riservata=default

STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE

SQLSTATE: 42802

Trasformazione dello schema incompatibile con column family=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.

STATE_STORE_HANDLE_NOT_INITIALIZED

SQLSTATE: 42802

L'handle non è stato inizializzato per questo StatefulProcessor.

Usare solo StatefulProcessor all'interno dell'operatore transformWithState.

STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN

SQLSTATE: 42802

Numero errato di ordinali ordinali=<numOrderingCols> per il codificatore di analisi di intervalli. Il numero di ordinali di ordinamento non può essere pari a zero o maggiore del numero di colonne dello schema.

STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN

SQLSTATE: 42802

Numero errato di colonne di prefisso=<numPrefixCols> per il codificatore di analisi del prefisso. Le colonne con prefisso non possono essere zero o maggiori o uguali a num delle colonne dello schema.

STATE_STORE_INVALID_CONFIG_AFTER_RESTART

SQLSTATE: 42K06

Impossibile passare <configName> da <oldConfig> a <newConfig> tra i riavvii. Impostare su <configName> <oldConfig>o riavviare con una nuova directory del checkpoint.

STATE_STORE_INVALID_PROVIDER

SQLSTATE: 42K06

Il provider <inputClass> dell'archivio stati specificato non estende org.apache.spark.sql.execution.streaming.state.StateStoreProvider.

STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE

SQLSTATE: 42K06

Impossibile passare <stateVarName> a <newType> tra i riavvii della query. Impostare su <stateVarName> <oldType>o riavviare con una nuova directory del checkpoint.

STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

La colonna di ordinamento dei tipi Null con name=<fieldName> in index=<index> non è supportata per il codificatore di analisi dell'intervallo.

STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

SQLSTATE: 42K06

Il provider <inputClass> dell'archivio stati specificato non estende org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.

Di conseguenza, non supporta l'opzione snapshotStartBatchId o readChangeFeed nell'origine dati di stato.

STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY

SQLSTATE: 42802

Operazione dell'archivio stati=<operationType> non supportata nella colonna mancante family=<colFamilyName>.

STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

La colonna di ordinamento delle dimensioni delle variabili con name=<fieldName> in index=<index> non è supportata per il codificatore di analisi dell'intervallo.

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE: 42713

La colonna <staticName> di partizione statica viene specificata anche nell'elenco di colonne.

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE: KD006

Non è stato trovato alcun batch di cui è stato eseguito il commit, percorso del checkpoint: <checkpointLocation>. Assicurarsi che la query sia stata eseguita ed eseguito il commit di qualsiasi microbatch prima dell'arresto.

STDS_CONFLICT_OPTIONS

SQLSTATE: 42613

Le opzioni <options> non possono essere specificate insieme. Specificare quello.

STDS_FAILED_TO_READ_OPERATOR_METADATA

SQLSTATE: 42K03

Impossibile leggere i metadati dell'operatore per checkpointLocation=<checkpointLocation> e batchId=<batchId>.

Il file non esiste o il file è danneggiato.

Eseguire di nuovo la query di streaming per costruire i metadati dell'operatore e segnalare alle community o ai fornitori corrispondenti se l'errore persiste.

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE: 42K03

Impossibile leggere lo schema dello stato. Il file non esiste o il file è danneggiato. opzioni: <sourceOptions>.

Eseguire di nuovo la query di streaming per costruire lo schema dello stato e segnalare alle community o ai fornitori corrispondenti se l'errore persiste.

STDS_INVALID_OPTION_VALUE

SQLSTATE: 42616

Valore non valido per l'opzione di origine '<optionName>':

Per altri dettagli, vedere STDS_INVALID_OPTION_VALUE

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE: KD006

Lo stato non dispone di alcuna partizione. Verificare che la query punti allo stato valido. Opzioni: <sourceOptions>

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

Il log di offset per <batchId> non esiste, posizione del checkpoint: <checkpointLocation>.

Specificare l'ID batch disponibile per l'esecuzione di query. È possibile eseguire query negli ID batch disponibili usando l'origine dati dei metadati di stato.

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE: KD006

I metadati non sono disponibili per il log di offset per <batchId>, posizione del checkpoint: <checkpointLocation>.

Il checkpoint sembra essere eseguito solo con le versioni precedenti di Spark. Eseguire la query di streaming con la versione di Spark recente, in modo che Spark costruisca i metadati di stato.

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE: 42601

'<optionName>' deve essere specificato.

STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS

SQLSTATE: 0A000

L'esecuzione di query adattive non è supportata per gli operatori con stato in Structured Streaming.

STREAMING_FROM_MATERIALIZED_VIEW

SQLSTATE: 0A000

Impossibile eseguire il flusso dalla vista <viewName>materializzata. Lo streaming da viste materializzate non è supportato.

STREAMING_OUTPUT_MODE

SQLSTATE: 42KDE

Modalità di output di streaming non valida: <outputMode>.

Per altri dettagli, vedere STREAMING_OUTPUT_MODE

STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

SQLSTATE: 42K03

Il nome dell'operatore con stato di streaming non corrisponde all'operatore nei metadati dello stato. Ciò può verificarsi quando l'utente aggiunge/rimuove/modifica l'operatore con stato della query di streaming esistente.

Operatori con stato nei metadati: [<OpsInMetadataSeq>]; Operatori con stato nel batch corrente: [<OpsInCurBatchSeq>].

STREAMING_TABLE_NEEDS_REFRESH

SQLSTATE: 55019

La tabella <tableName> di streaming deve essere aggiornata per eseguire <operation>. Eseguire CREATE OR REFRESH STREAMING TABLE <tableName> AS per aggiornare la tabella.

STREAMING_TABLE_NOT_SUPPORTED

SQLSTATE: 56038

Le tabelle di streaming possono essere create e aggiornate solo nelle tabelle Live Delta e in Databricks SQL Warehouse.

STREAMING_TABLE_OPERATION_NOT_ALLOWED

SQLSTATE: 42601

L'operazione <operation> non è consentita:

Per altri dettagli, vedere STREAMING_TABLE_OPERATION_NOT_ALLOWED

STREAMING_TABLE_QUERY_INVALID

SQLSTATE: 42000

La tabella <tableName> di streaming può essere creata solo da una query di streaming. Aggiungere la parola chiave STREAM alla clausola FROM per trasformare questa relazione in una query di streaming.

STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE: 42K02

Il flusso <streamName> di Xamls non <region> è stato trovato.

Avviare una nuova query che punta al nome del flusso corretto.

STRUCT_ARRAY_LENGTH_MISMATCH

SQLSTATE: 2201E

La riga di input non ha il numero previsto di valori richiesti dallo schema. <expected> i campi sono obbligatori mentre <actual> vengono forniti i valori.

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE: 22003

La somma della clausola LIMIT e della clausola OFFSET non deve essere maggiore del valore intero massimo a 32 bit (2.147.483.647) ma trovato limite = <limit>, offset = <offset>.

SYNC_METADATA_DELTA_ONLY

SQLSTATE: 0AKDD

Il comando Ripristina metadati di sincronizzazione tabella è supportato solo per la tabella delta.

SYNC_METADATA_NOT_SUPPORTED

SQLSTATE: 0AKUD

Il comando Ripristina metadati di sincronizzazione tabelle è supportato solo per le tabelle del catalogo Unity.

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE: 42KD2

Il nome <srcTable> della tabella di origine deve essere uguale al nome <destTable>della tabella di destinazione.

SYNTAX_DISCONTINUED

SQLSTATE: 42601

Supporto della clausola o della parola chiave: <clause> è stato sospeso in questo contesto.

Per altri dettagli, vedere SYNTAX_DISCONTINUED

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Impossibile creare una tabella o una vista <relationName> perché esiste già.

Scegliere un nome diverso, eliminare l'oggetto esistente, aggiungere la clausola IF NOT EXISTS per tollerare oggetti preesistenti, aggiungere la clausola OR REPLACE per sostituire la vista materializzata esistente o aggiungere la clausola OR REFRESH per aggiornare la tabella di streaming esistente.

TABLE_OR_VIEW_NOT_FOUND

SQLSTATE: 42P01

Impossibile trovare la tabella o la vista <relationName> . Verificare l'ortografia e la correttezza dello schema e del catalogo.

Se il nome non è stato qualificato con uno schema, verificare l'output current_schema() o qualificare il nome con lo schema e il catalogo corretti.

Per tollerare l'errore in caso di eliminazione, usare DROP VIEW IF EXISTS o DROP TABLE IF EXISTS.

Per altri dettagli, vedere TABLE_OR_VIEW_NOT_FOUND

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE: 0A000

Impossibile <action> usare la funzione <functionName> definita dall'utente SQL con argomenti TABLE perché questa funzionalità non è ancora implementata.

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE: 38000

Impossibile analizzare la funzione tabella definita dall'utente python: <msg>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE: 22023

Impossibile valutare la funzione <functionName> table perché i metadati <requestedMetadata>della tabella , ma la funzione chiama <invalidFunctionCallProperty>.

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE: 22023

Impossibile valutare la funzione <functionName> di tabella perché i metadati della tabella non sono validi; <reason>.

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE: 54023

Sono presenti troppi argomenti di tabella per la funzione con valori di tabella.

Consente un argomento di tabella, ma ottenuto: <num>.

Se si vuole consentire, impostare "spark.sql.allowMultipleTableArguments.enabled" su "true"

TABLE_WITH_ID_NOT_FOUND

SQLSTATE: 42P01

Impossibile trovare la tabella con ID <tableId> . Verificare la correttezza dell'UUID.

TASK_WRITE_FAILED

SQLSTATE: 58030

L'attività non è riuscita durante la scrittura di righe in <path>.

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Impossibile creare la vista <relationName> temporanea perché esiste già.

Scegliere un nome diverso, eliminare o sostituire la visualizzazione esistente oppure aggiungere la clausola IF NOT EXISTS per tollerare le viste preesistenti.

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE: 428EK

CREATE TEMPORARY VIEW o le API del set di dati corrispondenti accettano solo nomi di visualizzazione a parte singola, ma hanno ottenuto: <actualName>.

UC_BUCKETED_TABLES

SQLSTATE: 0AKUC

Le tabelle in bucket non sono supportate nel catalogo unity.

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE: 3D000

Per Il catalogo unity, specificare il nome del catalogo in modo esplicito. Ad esempio, SHOW GRANT your.address@email.com ON CATALOG main.

UC_COMMAND_NOT_SUPPORTED

SQLSTATE: 0AKUC

I comandi: <commandName> non sono supportati in Unity Catalog.

Per altri dettagli, vedere UC_COMMAND_NOT_SUPPORTED

UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE

SQLSTATE: 0AKUC

I comandi: <commandName> non sono supportati per i cluster del catalogo Unity in modalità di accesso condiviso. Usare invece la modalità di accesso utente singolo.

UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED

SQLSTATE: 0AKUC

Il tipo di credenziale specificato non è supportato.

UC_DATASOURCE_NOT_SUPPORTED

SQLSTATE: 0AKUC

Il formato <dataSourceFormatName> dell'origine dati non è supportato in Unity Catalog.

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE: 0AKUC

Le opzioni dell'origine dati non sono supportate in Unity Catalog.

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE: 42601

La clausola LOCATION deve essere presente per il volume esterno. Controllare la sintassi 'CREATE EXTERNAL VOLUME ... LOCATION ...' per la creazione di un volume esterno.

UC_FAILED_PROVISIONING_STATE

SQLSTATE: 0AKUC

La query non è riuscita perché ha tentato di fare riferimento alla tabella <tableName> , ma non è stato in grado di farlo: <failureReason>. Aggiornare la tabella <tableName> per assicurarsi che si tratti di uno stato di provisioning attivo e quindi ripetere la query.

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

La creazione di una tabella in Unity Catalog con lo schema <schemeName> di file non è supportata.

Creare invece una connessione all'origine dati federata usando il comando CREATE CONNECTION per lo stesso provider di tabelle, quindi creare un catalogo basato sulla connessione con un comando CREATE FOREIGN CATALOG per fare riferimento alle tabelle.

UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED

SQLSTATE: 56038

La vista federazione metastore Hive non supporta le dipendenze tra più cataloghi. La vista <view> nel catalogo della federazione metastore Hive deve usare la dipendenza da hive_metastore o spark_catalog catalogo, ma la relativa <dependency> dipendenza si trova in un altro catalogo <referencedCatalog>. Aggiornare le dipendenze per soddisfare questo vincolo e quindi ripetere la query o il comando.

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE: 0A000

La federazione metastore Hive non è abilitata in questo cluster.

L'accesso al catalogo <catalogName> non è supportato in questo cluster

UC_INVALID_DEPENDENCIES

SQLSTATE: 56098

Le dipendenze di <viewName> vengono registrate come <storedDeps> durante l'analisi come <parsedDeps>. Questo probabilmente si è verificato tramite l'uso improprio di un'API non SQL. È possibile ripristinare le dipendenze in Databricks Runtime eseguendo ALTER VIEW <viewName> AS <viewText>.

UC_INVALID_NAMESPACE

SQLSTATE: 0AKUC

Gli spazi dei nomi annidati o vuoti non sono supportati nel catalogo unity.

UC_INVALID_REFERENCE

SQLSTATE: 0AKUC

Non è possibile fare riferimento all'oggetto <name> Non Unity-Catalog negli oggetti catalogo unity.

UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED

SQLSTATE: 56038

Il supporto per la scrittura di Unity Catalog Lakehouse Federation non è abilitato per il provider <provider> in questo cluster.

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE: 42601

Il volume gestito non accetta la clausola LOCATION. Controllare la sintassi 'CREATE VOLUME ...' per la creazione di un volume gestito.

UC_NOT_ENABLED

SQLSTATE: 56038

Il catalogo Unity non è abilitato in questo cluster.

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE: 56038

Federazione query del catalogo Unity non è abilitata in questo cluster.

UC_SERVICE_CREDENTIALS_NOT_ENABLED

SQLSTATE: 56038

Le credenziali del servizio non sono abilitate in questo cluster.

UC_VOLUMES_NOT_ENABLED

SQLSTATE: 56038

Il supporto per i volumi del catalogo Unity non è abilitato in questa istanza.

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE: 56038

Il supporto per la condivisione dei volumi non è abilitato in questa istanza.

UC_VOLUME_NOT_FOUND

SQLSTATE: 42704

Il volume <name> non esiste. Usare "SHOW VOLUMES" per elencare i volumi disponibili.

UDF_ERROR

SQLSTATE: non assegnato

Esecuzione della funzione <fn> non riuscita

Per altri dettagli, vedere UDF_ERROR

UDF_LIMITS

SQLSTATE: 54KD0

Sono stati violati uno o più limiti di funzioni definite dall'utente.

Per altri dettagli, vedere UDF_LIMITS

UDF_MAX_COUNT_EXCEEDED

SQLSTATE: 54KD0

È stato superato il limite di funzioni definite dall'utente a livello di query ( <maxNumUdfs> limitato durante l'anteprima pubblica). Trovato <numUdfs>. Le funzioni definite dall'utente erano: <udfNames>.

UDF_PYSPARK_ERROR

SQLSTATE: 39000

Il ruolo di lavoro Python è stato chiuso in modo imprevisto

Per altri dettagli, vedere UDF_PYSPARK_ERROR

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE: 0A000

La funzione definita dall'utente <udf> pySpark (<eval-type>) non è supportata nei cluster in modalità accesso condiviso.

UDF_PYSPARK_USER_CODE_ERROR

SQLSTATE: 39000

Esecuzione non riuscita.

Per altri dettagli, vedere UDF_PYSPARK_USER_CODE_ERROR

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE: 0A000

Il valore predefinito del parametro non è supportato per la funzione definita dall'utente <functionType> .

UDF_USER_CODE_ERROR

SQLSTATE: 39000

L'esecuzione della funzione <fn> non è riuscita.

Per altri dettagli, vedere UDF_USER_CODE_ERROR

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE: 42802

Il numero di alias forniti nella clausola AS non corrisponde al numero di colonne restituite dal tipo definito dall'UDTF.

Alias previsti <aliasesSize> , ma ottenuto <aliasesNames>.

Assicurarsi che il numero di alias forniti corrisponda al numero di colonne restituite dal tipo definito dall'utente.

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE: 42802

Impossibile valutare la funzione di tabella definita dall'utente perché il metodo 'analyze' ha restituito una richiesta OrderingColumn la cui espressione di nome colonna includeva un alias <aliasName>non necessario. Rimuovere questo alias e quindi ritentare la query.

UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

SQLSTATE: 42802

Impossibile valutare la funzione di tabella definita dall'utente perché il metodo 'analyze' ha restituito un'espressione 'select' richiesta (<expression>) che non include un alias corrispondente. Aggiornare il tipo definito dall'utente per specificare un alias e quindi ritentare la query.

UNABLE_TO_ACQUIRE_MEMORY

SQLSTATE: 53200

Non è possibile acquisire <requestedBytes> byte di memoria, è stato ottenuto <receivedBytes>.

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

Impossibile convertire il tipo <toType> SQL in Protobuf di tipo <protobufType>.

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE: 58030

Impossibile recuperare le tabelle del database Hive: <dbName>. Nome classe errore: <className>.

UNABLE_TO_INFER_SCHEMA

SQLSTATE: 42KD9

Impossibile dedurre lo schema per <format>. Deve essere specificato manualmente.

UNAUTHORIZED_ACCESS

SQLSTATE: 42501

Accessi:

<report>

UNBOUND_SQL_PARAMETER

SQLSTATE: 42P02

Trovato il parametro non associato: <name>. Correggere args e fornire un mapping del parametro a un valore letterale SQL o a funzioni del costruttore di raccolta, map()ad esempio , array(), struct().

UNCLOSED_BRACKETED_COMMENT

SQLSTATE: 42601

Trovato un commento tra parentesi quadre non chiuse. Aggiungere */ alla fine del commento.

UNEXPECTED_INPUT_TYPE

SQLSTATE: 42K09

Il parametro della funzione <functionName> richiede il <requiredType> tipo , ma <inputSql> ha il tipo <inputType>.<paramIndex>

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE: 42KDD

Operatore <op> imprevisto nell'istruzione CREATE VIEW come origine di streaming.

Una query di visualizzazione di streaming deve essere costituita solo da operazioni SELECT, WHERE e UNION ALL.

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

Impossibile richiamare la funzione <functionName> perché contiene argomenti posizionali che seguono l'argomento denominato assegnato a <parameterName>. ridisporli in modo che gli argomenti posizionali vengano prima e quindi riprovare la query.

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE: 42846

La classe <className> ha un serializzatore di espressioni imprevisto. Si aspetta "STRUCT" o "IF" che restituisce "STRUCT" ma trovato <expr>.

UNKNOWN_FIELD_EXCEPTION

SQLSTATE: KD003

Rilevato campi sconosciuti durante l'analisi: <unknownFieldBlob>, che può essere corretto da un nuovo tentativo automatico: <isRetryable>

Per altri dettagli, vedere UNKNOWN_FIELD_EXCEPTION

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

La chiamata della funzione <functionName> contiene un argomento <sqlExpr> posizionale sconosciuto nella posizione <pos>. Non è valido.

UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT

SQLSTATE: 22023

Tipo primitivo sconosciuto con ID <id> trovato in un valore variant.

UNKNOWN_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

Tentativo di trattare <descriptorName> come messaggio, ma era <containingType>.

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE: 42K0A

UNPIVOT richiede che tutte le espressioni specificate <given> siano colonne quando non <empty> vengono specificate espressioni. Queste non sono colonne: [<expressions>].

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE: 42K0A

È necessario specificare almeno una colonna valore per UNPIVOT, tutte le colonne specificate come ID.

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Le colonne di valori unpivot devono condividere un tipo meno comune, alcuni tipi non sono: [<types>].

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE: 428C4

Tutte le colonne di valori unpivot devono avere le stesse dimensioni in cui sono presenti nomi di colonna valore (<names>).

UNRECOGNIZED_PARAMETER_NAME

SQLSTATE: 4274K

Impossibile richiamare la funzione perché la chiamata di funzione <functionName> includeva un riferimento di argomento denominato per l'argomento denominato <argumentName>, ma questa funzione non include alcuna firma contenente un argomento con questo nome. Intendevi una delle seguenti? [<proposal>].

UNRECOGNIZED_SQL_TYPE

SQLSTATE: 42704

Tipo SQL non riconosciuto - nome: <typeName>, id: <jdbcType>.

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE: 42883

Impossibile risolvere <name> in una funzione con valori di tabella.

Assicurarsi che <name> sia definito come funzione con valori di tabella e che tutti i parametri obbligatori siano specificati correttamente.

Se <name> non è definito, creare la funzione con valori di tabella prima di usarla.

Per altre informazioni sulla definizione di funzioni con valori di tabella, vedere la documentazione di Apache Spark.

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE: 42803

Impossibile dedurre le colonne di raggruppamento per GROUP BY ALL in base alla clausola select. Specificare in modo esplicito le colonne di raggruppamento.

UNRESOLVED_COLUMN

SQLSTATE: 42703

Non è possibile risolvere un parametro di colonna, variabile o funzione con nome <objectName> .

Per altri dettagli, vedere UNRESOLVED_COLUMN

UNRESOLVED_FIELD

SQLSTATE: 42703

Non è possibile risolvere un campo con nome <fieldName> con la colonna <columnPath>di tipo struct .

Per altri dettagli, vedere UNRESOLVED_FIELD

UNRESOLVED_MAP_KEY

SQLSTATE: 42703

Impossibile risolvere la colonna <objectName> come chiave della mappa. Se la chiave è un valore letterale stringa, aggiungere le virgolette singole '' intorno.

Per altri dettagli, vedere UNRESOLVED_MAP_KEY

UNRESOLVED_ROUTINE

SQLSTATE: 42883

Impossibile risolvere la routine <routineName> nel percorso <searchPath>di ricerca.

Per altri dettagli, vedere UNRESOLVED_ROUTINE

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE: 42703

Impossibile risolvere la <side> colonna <colName> USING sul lato del join. Colonne <side>lato -: [<suggestion>].

UNRESOLVED_VARIABLE

SQLSTATE: 42883

Impossibile risolvere la variabile <variableName> nel percorso <searchPath>di ricerca.

UNSUPPORTED_ADD_FILE

SQLSTATE: 0A000

Non supportare l'aggiunta di file.

Per altri dettagli, vedere UNSUPPORTED_ADD_FILE

UNSUPPORTED_ARROWTYPE

SQLSTATE: 0A000

Tipo di <typeName>freccia non supportato.

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

La funzione <funcName> non supporta le query batch.

UNSUPPORTED_CALL

SQLSTATE: 0A000

Impossibile chiamare il metodo "<methodName>" della classe "<className>".

Per altri dettagli, vedere UNSUPPORTED_CALL

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE: 0A000

Il tipo char/varchar non può essere usato nello schema della tabella.

Se si vuole che Spark li consideri come tipo stringa come Spark 3.0 e versioni precedenti, impostare "spark.sql.legacy.charVarcharAsString" su "true".

UNSUPPORTED_CLAUSE_FOR_OPERATION

SQLSTATE: 0A000

Non <clause> è supportato per <operation>.

UNSUPPORTED_COLLATION

SQLSTATE: 0A000

Le regole di <collationName> confronto non sono supportate per:

Per altri dettagli, vedere UNSUPPORTED_COLLATION

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE: 42616

Il predecessore comune del percorso di origine e sourceArchiveDir deve essere registrato con uc.

Se viene visualizzato questo messaggio di errore, è probabile che si registri il percorso di origine e sourceArchiveDir in posizioni esterne diverse.

Si prega di inserirli in un'unica posizione esterna.

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE: 0A000

Le clausole <clauses> di vincolo non sono supportate.

UNSUPPORTED_CONSTRAINT_TYPE

SQLSTATE: 42000

Tipo di vincolo non supportato. Sono supportati solo <supportedConstraintTypes>

UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

SQLSTATE: 0A000

Tipo di origine dati non supportato per la query diretta sui file: <dataSourceType>

UNSUPPORTED_DATATYPE

SQLSTATE: 0A000

Tipo di <typeName>dati non supportato.

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE: 0A000

L'origine dati "<source>" non può essere scritta in <createMode> modalità . Usare invece la modalità "Append" o "Overwrite".

UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

SQLSTATE: 0A000

L'origine <format> dati non supporta la colonna <columnName> del tipo <columnType>.

UNSUPPORTED_DATA_TYPE_FOR_ENCODER

SQLSTATE: 0A000

Impossibile creare il codificatore per <dataType>. Usare un tipo di dati di output diverso per la funzione definita dall'utente o il dataframe.

UNSUPPORTED_DEFAULT_VALUE

SQLSTATE: 0A000

I valori di colonna DEFAULT non sono supportati.

Per altri dettagli, vedere UNSUPPORTED_DEFAULT_VALUE

UNSUPPORTED_DESERIALIZER

SQLSTATE: 0A000

Il deserializzatore non è supportato:

Per altri dettagli, vedere UNSUPPORTED_DESERIALIZER

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

Impossibile creare una colonna <fieldName> generata con l'espressione <expressionStr> di generazione perché <reason>.

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE: 42K0E

Un operatore di query contiene una o più espressioni non supportate.

È consigliabile riscriverla per evitare funzioni finestra, funzioni di aggregazione e funzioni generatori nella clausola WHERE.

Espressioni non valide: [<invalidExprSqls>]

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE: 42K0E

Un parametro di query contiene un'espressione non supportata.

I parametri possono essere variabili o valori letterali.

Espressione non valida: [<invalidExprSql>]

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE: 42P20

Espressione <sqlExpr> non supportata all'interno di una funzione window.

UNSUPPORTED_FEATURE

SQLSTATE: 0A000

La funzionalità non è supportata:

Per altri dettagli, vedere UNSUPPORTED_FEATURE

UNSUPPORTED_FN_TYPE

SQLSTATE: 0A000

Tipo di funzione definito dall'utente non supportato: <language>

UNSUPPORTED_GENERATOR

SQLSTATE: 42K0E

Il generatore non è supportato:

Per altri dettagli, vedere UNSUPPORTED_GENERATOR

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE: 42K0E

grouping()/grouping_id() può essere usato solo con GroupingSets/Cube/Rollup.

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE: 42616

<trigger> con la posizione <initialPosition> iniziale non è supportato con l'origine Disas

UNSUPPORTED_INSERT

SQLSTATE: 42809

Non è possibile inserire nella destinazione.

Per altri dettagli, vedere UNSUPPORTED_INSERT

UNSUPPORTED_JOIN_TYPE

SQLSTATE: 0A000

Tipo di join non supportato '<typ>'. I tipi di join supportati includono: <supported>.

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE: 0AKDD

La creazione di una tabella <tableName> gestita tramite l'origine <dataSource> dati non è supportata. È necessario usare l'origine dati DELTA o creare una tabella esterna usando CREATE EXTERNAL TABLE <tableName> ... USING <dataSource> ...

UNSUPPORTED_MERGE_CONDITION

SQLSTATE: 42K0E

L'operazione MERGE contiene una condizione non supportata <condName> .

Per altri dettagli, vedere UNSUPPORTED_MERGE_CONDITION

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE: 0A000

La tabella <tableName> include un criterio di sicurezza a livello di riga o una maschera di colonna che fa riferimento indirettamente a un'altra tabella con un criterio di sicurezza a livello di riga o una maschera di colonna. Questa operazione non è supportata. Sequenza di chiamata: <callSequence>

UNSUPPORTED_OVERWRITE

SQLSTATE: 42902

Non è possibile sovrascrivere la destinazione da cui viene letta anche.

Per altri dettagli, vedere UNSUPPORTED_OVERWRITE

UNSUPPORTED_SAVE_MODE

SQLSTATE: 0A000

La modalità <saveMode> di salvataggio non è supportata per:

Per altri dettagli, vedere UNSUPPORTED_SAVE_MODE

UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK

SQLSTATE: 0A000

<outputMode> la modalità di output non è supportata per <statefulOperator> in streaming di dataframe/set di dati senza filigrana.

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE: 0A000

Non supportato per lo streaming di una visualizzazione. Motivo:

Per altri dettagli, vedere UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE: 0A000

Le opzioni <options> di streaming non sono supportate per l'origine <source> dati in un cluster condiviso. Verificare che le opzioni siano specificate e digitate correttamente e verificarehttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode la presenza di limitazioni.

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE: 0A000

L'origine <sink> dati non è supportata come sink di streaming in un cluster condiviso.

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE: 0A000

L'origine <source> dati non è supportata come origine di streaming in un cluster condiviso.

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

La funzione <funcName> non supporta lo streaming. Rimuovere la parola chiave STREAM

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<streamReadLimit> non è supportato con l'origine Dios

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

SQLSTATE: 0A000

Espressione di sottoquery non supportata:

Per altri dettagli, vedere UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE: 56038

La creazione di una chiave primaria con colonne timeseries non è supportata

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE: 0A000

La creazione di una chiave primaria con più di una colonna <colSeq> timeseries non è supportata

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<trigger> non è supportato con l'origine Dios

UNSUPPORTED_TYPED_LITERAL

SQLSTATE: 0A000

I valori letterali del tipo <unsupportedType> non sono supportati. I tipi supportati sono <supportedTypes>.

UNTYPED_SCALA_UDF

SQLSTATE: 42K0E

Si usa una funzione definita dall'utente Scala non tipizzata, che non dispone delle informazioni sul tipo di input.

Spark potrebbe passare in modo cieco null alla chiusura scala con argomento di tipo primitivo e la chiusura vedrà il valore predefinito del tipo Java per l'argomento Null, ad esempio udf((x: Int) => x, IntegerType), il risultato è 0 per l'input Null. Per eliminare questo errore, è possibile:

  1. usare LE API definite dall'utente scala (senza parametro di tipo restituito), ad esempio udf((x: Int) => x).
  2. usare le API UDF Java, ad esempio udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), se i tipi di input sono tutti non primitivi.
  3. impostare "spark.sql.legacy.allowUntypedScalaUDF" su "true" e usare questa API con cautela.

UPGRADE_NOT_SUPPORTED

SQLSTATE: 0AKUC

La tabella non è idonea per l'aggiornamento da Hive Metastore a Unity Catalog. Motivo:

Per altri dettagli, vedere UPGRADE_NOT_SUPPORTED

USER_DEFINED_FUNCTIONS

SQLSTATE: 42601

La funzione definita dall'utente non è valida:

Per altri dettagli, vedere USER_DEFINED_FUNCTIONS

USER_RAISED_EXCEPTION

SQLSTATE: P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE: P0001

La raise_error() funzione è stata usata per generare la classe di errore, <errorClass> che prevede parametri: <expectedParms>.

I parametri <providedParms> forniti non corrispondono ai parametri previsti.

Assicurarsi di specificare tutti i parametri previsti.

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE: P0001

La raise_error() funzione è stata usata per generare una classe di errore sconosciuta: <errorClass>

VARIABLE_ALREADY_EXISTS

SQLSTATE: 42723

Impossibile creare la variabile <variableName> perché esiste già.

Scegliere un nome diverso oppure eliminare o sostituire la variabile esistente.

VARIABLE_NOT_FOUND

SQLSTATE: 42883

Impossibile trovare la variabile <variableName> . Verificare l'ortografia e la correttezza dello schema e del catalogo.

Se il nome non è stato qualificato con uno schema e un catalogo, verificare l'output current_schema() o qualificare il nome con lo schema e il catalogo corretti.

Per tollerare l'errore in caso di rilascio, usare DROP VARIABLE IF EXISTS.

VARIANT_CONSTRUCTOR_SIZE_LIMIT

SQLSTATE: 22023

Impossibile costruire un valore Variant maggiore di 16 MiB. La dimensione massima consentita di un valore Variant è 16 MiB.

VARIANT_DUPLICATE_KEY

SQLSTATE: 22023

Impossibile compilare varianti a causa di una chiave <key>dell'oggetto duplicata.

VARIANT_SIZE_LIMIT

SQLSTATE: 22023

Impossibile compilare varianti maggiori di <sizeLimit> in <functionName>.

Evitare stringhe di input di grandi dimensioni in questa espressione, ad esempio aggiungere chiamate di funzione per controllare le dimensioni dell'espressione e convertirla prima in NULL se è troppo grande.

VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Impossibile creare la vista <relationName> perché esiste già.

Scegliere un nome diverso, eliminare o sostituire l'oggetto esistente oppure aggiungere la clausola IF NOT EXISTS per tollerare oggetti preesistenti.

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE: 54K00

La profondità della visualizzazione <viewName> supera la profondità massima di risoluzione della visualizzazione (<maxNestedDepth>).

L'analisi viene interrotta per evitare errori. Se si vuole risolvere questo problema, provare ad aumentare il valore di "spark.sql.view.maxNestedViewDepth".

VIEW_NOT_FOUND

SQLSTATE: 42P01

Impossibile trovare la visualizzazione <relationName> . Verificare l'ortografia e la correttezza dello schema e del catalogo.

Se il nome non è stato qualificato con uno schema, verificare l'output current_schema() o qualificare il nome con lo schema e il catalogo corretti.

Per tollerare l'errore in caso di rilascio, usare DROP VIEW IF EXISTS.

VOLUME_ALREADY_EXISTS

SQLSTATE: 42000

Impossibile creare il volume <relationName> perché esiste già.

Scegliere un nome diverso, eliminare o sostituire l'oggetto esistente oppure aggiungere la clausola IF NOT EXISTS per tollerare oggetti preesistenti.

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE: 42K0E

<funcName> la funzione può essere valutata solo in una cornice di finestra ordinata basata su righe con un singolo offset: <windowExpr>.

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE: 42601

La funzione <funcName> Window richiede una clausola OVER.

WITH_CREDENTIAL

SQLSTATE: 42601

La sintassi WITH CREDENTIAL non è supportata per <type>.

WRITE_STREAM_NOT_ALLOWED

SQLSTATE: 42601

writeStream può essere chiamato solo in streaming Dataset/DataFrame.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE: 0AKDC

Impossibile eseguire il comando perché i valori DEFAULT non sono supportati durante l'aggiunta di nuovi

colonne alle tabelle Delta esistenti in precedenza; Aggiungere la colonna senza un valore predefinito

first value, quindi eseguire un secondo comando ALTER TABLE ALTER COLUMN SET DEFAULT per applicare

per le righe inserite in futuro.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE: 0AKDE

Impossibile eseguire <commandType> il comando perché è stato assegnato un valore DEFAULT della colonna.

ma la funzionalità di tabella corrispondente non è stata abilitata. Riprovare a eseguire il comando

dopo l'esecuzione di ALTER TABLE tableName SET

TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported').

WRONG_COMMAND_FOR_OBJECT_TYPE

SQLSTATE: 42809

L'operazione <operation> richiede un oggetto <requiredType>. Ma <objectName> è un oggetto <foundType>. Utilizzare invece <alternative>.

WRONG_NUM_ARGS

SQLSTATE: 42605

Richiede <functionName> <expectedNum> parametri, ma il numero effettivo è <actualNum>.

Per altri dettagli, vedere WRONG_NUM_ARGS

XML_ROW_TAG_MISSING

SQLSTATE: 42KDF

<rowTag> l'opzione è necessaria per la lettura di file in formato XML.

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE: 0N000

XML non supporta <innerDataType> come tipo interno di <dataType>. Eseguire il wrapping dell'oggetto <innerDataType> all'interno di un campo StructType quando viene usato all'interno <dataType>di .

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE: 22023

I dati salvati e la colonna con caratteri jolly non possono essere abilitati contemporaneamente. Rimuovere l'opzione wildcardColumnName.

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

La colonna <columnName> ZOrderBy non esiste.

Delta Lake

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

SQLSTATE: 08003

Impossibile trovare sparkSession attiva

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE: 0B000

Impossibile impostare un nuovo txn come attivo quando ne è già attivo uno

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE: 42000

Impossibile aggiungere la colonna <colName> perché il nome è riservato.

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE: 0A000

L'operazione corrente ha tentato di aggiungere un vettore di eliminazione a una tabella che non consente la creazione di nuovi vettori di eliminazione. Segnalare un bug.

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE: 42000

Tutte le operazioni che aggiungono vettori di eliminazione devono impostare la colonna tightBounds nelle statistiche su false. Segnalare un bug.

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD3

Indice <columnIndex> da aggiungere colonna <columnName> è inferiore a 0

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE: 42KD3

Impossibile aggiungere <columnName> perché il relativo elemento padre non è StructType. Fondare <other>

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE: 42KD3

Struct non trovato nella posizione <position>

DELTA_ADD_CONSTRAINTS

SQLSTATE: 0A000

Usare ALTER TABLE ADD CONSTRAINT per aggiungere vincoli CHECK.

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE: 42621

Trovato <sqlExpr>. Una colonna generata non può usare un'espressione di aggregazione

DELTA_AGGREGATION_NOT_SUPPORTED

SQLSTATE: 42903

Le funzioni di aggregazione non sono supportate in <operation> <predicate>.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER

SQLSTATE: 428FR

Impossibile modificare le regole di confronto della colonna <column> perché contiene un indice di filtro bloom. Mantenere le regole di confronto esistenti oppure eliminare l'indice del filtro bloom e quindi ripetere il comando per modificare le regole di confronto.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY

SQLSTATE: 428FR

Impossibile modificare le regole di confronto della colonna <column> perché si tratta di una colonna di clustering. Mantenere le regole di confronto esistenti oppure modificare la colonna in una colonna non clustering con un comando ALTER TABLE e quindi ripetere il comando per modificare le regole di confronto.

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE: 42837

ALTER TABLE CHANGE COLUMN non è supportato per la modifica della colonna <currentType> in <newType>

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY è supportato solo per la tabella Delta con clustering liquid.

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE: 42000

Non è possibile applicare ALTER TABLE CLUSTER BY a una tabella partizionata.

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE: 42000

Operazione non consentita: ALTER TABLE RENAME TO non è consentito per le tabelle Delta gestite in S3, perché la coerenza finale in S3 potrebbe danneggiare il log delle transazioni Delta. Se si insiste su questa operazione e si è certi che non sia mai stata creata una tabella Delta con il nuovo nome <newName> prima, è possibile abilitare questa impostazione impostando <key> su true.

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

Impossibile abilitare la <tableFeature> funzionalità tabella usando ALTER TABLE SET TBLPROPERTIES. Usare CREATE OR REPLACE TABLE CLUSTER BY per creare una tabella Delta con clustering.

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE: 429BQ

Impossibile modificare il tipo di dati da <column> <from> a <to>. Questa modifica contiene rimozioni e aggiunte di colonne, pertanto sono ambigue. Apportare queste modifiche singolarmente usando ALTER TABLE [ADD | DROP | RENAME] COLUMN.

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE: 42702

La colonna <column> di partizione ambigua può essere <colMatches>.

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE: 42613

CREATE TABLE contiene due posizioni diverse: <identifier> e <location>.

È possibile rimuovere la clausola LOCATION dall'istruzione CREATE TABLE o impostare

<config> su true per ignorare questo controllo.

DELTA_ARCHIVED_FILES_IN_LIMIT

SQLSTATE: 42KDC

La tabella <table> non contiene record sufficienti in file non archiviati per soddisfare il limite specificato di <limit> record.

DELTA_ARCHIVED_FILES_IN_SCAN

SQLSTATE: 42KDC

Trovati <numArchivedFiles> file potenzialmente archiviati nella tabella <table> che devono essere analizzati come parte di questa query.

Impossibile accedere ai file archiviati. Ora corrente fino a quando l'archiviazione non viene configurata come <archivalTime>.

Modificare i filtri di query per escludere eventuali file archiviati.

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE: 42KD4

L'operazione "<opName>" non è consentita quando la tabella ha abilitato il feed di dati delle modifiche (CDF) e ha subito modifiche dello schema tramite DROP COLUMN o RENAME COLUMN.

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE: 42703

Impossibile eliminare gli indici di filtro bloom per le colonne non esistenti seguenti: <unknownColumns>

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE: 82100

OutOfMemoryError si è verificato durante la scrittura di indici di filtro bloom per le colonne seguenti: <columnsWithBloomFilterIndices>.

È possibile ridurre il footprint di memoria degli indici di filtro bloom scegliendo un valore più piccolo per l'opzione 'numItems', un valore più grande per l'opzione 'fpp' o indicizzando meno colonne.

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE: 429BQ

Impossibile modificare il tipo di dati: <dataType>

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE: 42601

Impossibile modificare la 'posizione' della tabella Delta utilizzando SET TBLPROPERTIES. Usare invece ALTER TABLE SET LOCATION.

DELTA_CANNOT_CHANGE_PROVIDER

SQLSTATE: 42939

'provider' è una proprietà di tabella riservata e non può essere modificata.

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE: 42703

Impossibile creare indici di filtro bloom per le colonne non esistenti seguenti: <unknownCols>

DELTA_CANNOT_CREATE_LOG_PATH

SQLSTATE: 42KD5

Impossibile creare <path>

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE: 42809

Impossibile descrivere la cronologia di una visualizzazione.

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE: 42703

Impossibile eliminare l'indice del filtro bloom in una colonna non indicizzata: <columnName>

DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE

SQLSTATE: 0AKDE

Impossibile eliminare la funzionalità della tabella dei vincoli CHECK.

Per prima cosa, è necessario eliminare i vincoli seguenti: <constraints>.

DELTA_CANNOT_EVALUATE_EXPRESSION

SQLSTATE: 0AKDC

Impossibile valutare l'espressione: <expression>

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE: 22000

Attesa di una tabella Delta di bucket, ma non è possibile trovare la specifica di bucket nella tabella

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

SQLSTATE: 0AKDC

Impossibile generare il codice per l'espressione: <expression>

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE: 42809

Questa tabella è configurata in modo da consentire solo le aggiunte. Se si desidera consentire aggiornamenti o eliminazioni, usare 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)'.

DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> non può eseguire l'override o annullare l'impostazione delle proprietà della tabella timestamp di commit perché i commit coordinati sono abilitati in questa tabella e dipendono da essi. Rimuoverli ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") dalla clausola TBLPROPERTIES e quindi ripetere il comando.

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

SQLSTATE: 42939

Impossibile specificare la configurazione <prop> della tabella Delta dall'utente

DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

<Command> non può eseguire l'override delle configurazioni di commit coordinati per una tabella di destinazione esistente. Rimuoverli ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") dalla clausola TBLPROPERTIES e quindi ripetere il comando.

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE: 22KD1

Un URI (<uri>) che non può essere trasformato in un percorso relativo è stato trovato nel log delle transazioni.

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE: 42000

Percorso (<path>) che non può essere relativizzato con l'input corrente trovato in

log delle transazioni. Eseguire nuovamente il comando come segue:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", true)

e quindi eseguire anche:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")

DELTA_CANNOT_RENAME_PATH

SQLSTATE: 22KD1

Impossibile rinominare <currentPath> in <newPath>

DELTA_CANNOT_REPLACE_MISSING_TABLE

SQLSTATE: 42P01

Impossibile sostituire la tabella <tableName> perché non esiste. Usare CREATE OR REPLACE TABLE per creare la tabella.

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE: 42703

Impossibile risolvere la colonna <columnName> in <schema>

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE: 22003

Impossibile ripristinare la tabella nella versione <version>. Versioni disponibili: [<startVersion>, <endVersion>].

DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER

SQLSTATE: 22003

Impossibile ripristinare il timestamp della tabella (<requestedTimestamp>) perché è prima della versione meno recente disponibile. Usare un timestamp dopo (<earliestTimestamp>).

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE: 22003

Impossibile ripristinare il timestamp della tabella (<requestedTimestamp>) perché è dopo la versione più recente disponibile. Usare un timestamp prima (<latestTimestamp>)

DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> non può impostare le proprietà della tabella timestamp in commit insieme ai commit coordinati, perché quest'ultimo dipende dal primo e imposta internamente il primo. Rimuoverli ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") dalla clausola TBLPROPERTIES e quindi ripetere il comando.

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE: 42613

Impossibile modificare la posizione di una tabella basata su percorso.

DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY

SQLSTATE: 42616

Impossibile impostare delta.managedDataSkippingStatsColumns nella tabella non DLT

DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

ALTER non può annullare l'impostazione delle configurazioni di commit coordinati. Per effettuare il downgrade di una tabella dai commit coordinati, riprovare a usare ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'.

DELTA_CANNOT_UPDATE_ARRAY_FIELD

SQLSTATE: 429BQ

Impossibile aggiornare il campo %1$s %2$s: aggiornare l'elemento aggiornando %2$s.elemento

DELTA_CANNOT_UPDATE_MAP_FIELD

SQLSTATE: 429BQ

Impossibile aggiornare il campo %1$s %2$s: aggiornare una mappa aggiornando %2$s.key o %2$s.value

DELTA_CANNOT_UPDATE_OTHER_FIELD

SQLSTATE: 429BQ

Impossibile aggiornare il <tableName> campo di tipo <typeName>

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE: 429BQ

Impossibile aggiornare il tipo di campo<fieldName>: aggiornare <tableName> lo struct aggiungendo, eliminando o aggiornando i relativi campi

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

SQLSTATE: 428FT

Impossibile utilizzare tutte le colonne per le colonne di partizione

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE: 0A000

<table> è una visualizzazione. Le scritture in una vista non sono supportate.

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE: 22003

Impossibile scrivere un valore di tipo nella <targetType> colonna <columnName> di <sourceType> tipo a causa di un overflow.

Usare try_cast sul valore di input per tollerare l'overflow e restituire NULL.

Se necessario, impostare su <storeAssignmentPolicyFlag> "LEGACY" per ignorare questo errore o impostare su <updateAndMergeCastingFollowsAnsiEnabledFlag> true per ripristinare il comportamento precedente e seguire <ansiEnabledFlag> in UPDATE e MERGE.

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

SQLSTATE: 0AKDC

Impossibile impostare la configurazione delta.enableChangeDataFeed. Il feed di dati delle modifiche da Delta non è ancora disponibile.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE: 0AKDC

Recupero delle modifiche della tabella tra versione <start> e <end> non riuscito a causa di uno schema di dati incompatibile.

Lo schema di lettura è <readSchema> in versione <readVersion>, ma è stato rilevato uno schema di dati incompatibile nella versione <incompatibleVersion>.

Se possibile, recuperare le modifiche della tabella usando lo schema della versione finale impostando <config> su endVersiono contattare il supporto tecnico.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Recupero delle modifiche della tabella tra versione <start> e <end> non riuscito a causa di una modifica dello schema incompatibile.

Lo schema di lettura si trova <readSchema> nella versione <readVersion>, ma è stata rilevata una modifica dello schema incompatibile alla versione <incompatibleVersion>.

Se possibile, eseguire query sulla tabella modifiche separatamente dalla versione <start> a <incompatibleVersion> - 1 e dalla versione <incompatibleVersion> a <end>.

DELTA_CHANGE_DATA_FILE_NOT_FOUND

SQLSTATE: 42K03

Impossibile trovare il file <filePath> a cui si fa riferimento nel log delle transazioni. Ciò può verificarsi quando i dati sono stati eliminati manualmente dal file system anziché usare l'istruzione table DELETE . Questa richiesta sembra essere destinata al feed di dati delle modifiche, se questo è il caso, questo errore può verificarsi quando il file di dati delle modifiche non rientra nel periodo di conservazione ed è stato eliminato dall'istruzione VACUUM . Per altre informazioni, vedere <faqPath>.

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE: 42807

Impossibile scrivere nella tabella con delta.enableChangeDataFeed impostato. Il feed di dati delle modifiche da Delta non è disponibile.

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE: 42K03

Impossibile creare un checkpoint per una tabella <path>non esistente. I file sono stati eliminati manualmente nella directory _delta_log?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE: 42613

Sono stati forniti due percorsi come destinazione CLONE in modo che sia ambiguo da usare. Un oggetto esterno

percorso per CLONE è stato fornito contemporaneamente <externalLocation> al percorso

<targetIdentifier>.

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE: 42000

File (<fileName>) non copiato completamente. Dimensioni del file previste: <expectedSize>, trovato: <actualSize>. Per continuare con l'operazione ignorando il controllo delle dimensioni del file impostato su <config> false.

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

Origine clone non supportata <mode> '<name>', il cui formato è <format>.

I formati supportati sono "delta", "iceberg" e "parquet".

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE: 0A000

CLONE non è supportato per la tabella Delta con clustering liquid per DBR versione < 14.0.

DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED

SQLSTATE: 0A000

CLUSTER BY non è supportato perché le colonne seguenti: <columnsWithDataTypes> non supportano l'omissione dei dati.

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

Le colonne di clustering fornite non corrispondono a quella della tabella esistente.

  • a condizione che: <providedClusteringColumns>
  • esistente: <existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE: 22000

Il clustering liquido richiede che le colonne di clustering abbiano statistiche. Impossibile trovare le colonne di clustering '<columns>' nello schema delle statistiche:

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE: 22000

La creazione di una tabella esterna senza clustering liquido da una directory di tabella con clustering liquido non è consentita; path: <path>.

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

'<operation>' non supporta il clustering.

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE: 0AKDE

Impossibile completare l'oggetto <phaseOutType> della tabella con <tableFeatureToAdd> la funzionalità tabella (motivo: <reason>). Provare di nuovo il comando OPTIMIZE.

== Errore ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE: 42000

Sostituire una tabella Delta con clustering liquid con una tabella partizionata non è consentita.

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE: 0A000

SHOW CREATE TABLE non è supportato per la tabella Delta con clustering liquid senza colonne di clustering.

DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS

SQLSTATE: 42000

La transizione di una tabella Delta con clustering liquido a una tabella partizionata non è consentita per l'operazione: <operation>, quando la tabella esistente contiene colonne di clustering non vuote.

Eseguire ALTER TABLE CLUSTER BY NONE per rimuovere prima le colonne di clustering.

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42000

La modalità di sovrascrittura della partizione dinamica non è consentita per la tabella Delta con clustering liquid.

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE: 0A000

Il comando OPTIMIZE per la tabella Delta con clustering Liquid non supporta predicati di partizione. Rimuovere i predicati: <predicates>.

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE: 42613

Il comando OPTIMIZE per la tabella Delta con clustering liquid non può specificare ZORDER BY. Rimuovere ZORDER BY (<zOrderBy>).

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE: 54000

CLUSTER BY per clustering liquido supporta fino alle <numColumnsLimit> colonne di clustering, ma la tabella include <actualNumColumns> colonne di clustering. Rimuovere le colonne di clustering aggiuntive.

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

Non è consentito specificare CLUSTER BY quando lo schema non è definito. Definire lo schema per la tabella <tableName>.

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE: 42613

Non è possibile specificare il clustering e il bucketing. Rimuovere CLUSTERED BY INTO BUCKETS/bucketBy se si vuole creare una tabella Delta con clustering.

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE: 42613

Non è possibile specificare il clustering e il partizionamento. Rimuovere PARTITIONED BY/partitionBy/partitionedBy se si vuole creare una tabella Delta con clustering.

DELTA_COLLATIONS_NOT_SUPPORTED

SQLSTATE: 0AKDC

Le regole di confronto non sono supportate in Delta Lake.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE: 0AKDC

Il salto dei dati non è supportato per la colonna di partizione '<column>'.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE: 0AKDC

Il salto dei dati non è supportato per la colonna '<column>' di tipo <type>.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE: 42703

La proprietà max column id (<prop>) non è impostata su una tabella abilitata per il mapping delle colonne.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE: 42703

La proprietà max column id (<prop>) in una tabella abilitata per il mapping delle colonne è <tableMax>, che non può essere inferiore all'ID di colonna massimo per tutti i campi (<fieldMax>).

DELTA_COLUMN_MISSING_DATA_TYPE

SQLSTATE: 42601

Tipo di dati della colonna <colName> non specificato.

DELTA_COLUMN_NOT_FOUND

SQLSTATE: 42703

Impossibile trovare la colonna <columnName> specificata [<columnList>]

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE: 42703

Impossibile trovare la colonna '<targetCol>' della tabella di destinazione dalle colonne INSERT: <colNames>. La clausola INSERT deve specificare il valore per tutte le colonne della tabella di destinazione.

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42703

Impossibile trovare la colonna <columnName> in:

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE: 42704

Previsto <columnPath> come tipo di dati annidato, ma trovato <other>. Stava cercando il

indice di <column> in un campo annidato.

Schema:

<schema>

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE: 2200G

La colonna <source> Struct non può essere inserita in un <targetType> campo <targetField> in <targetTable>.

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE: 22000

Convalida della compattazione del percorso <compactedPath> non <newPath> riuscita: segnalare un bug.

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE: 22005

Trovato NullType annidato nella colonna <columName> che è di <dataType>. Delta non supporta la scrittura di NullType in tipi complessi.

DELTA_CONCURRENT_APPEND

SQLSTATE: 2D521

ConcurrentAppendException: i file sono stati aggiunti a <partition> da un aggiornamento simultaneo. <retryMsg> <conflictingCommit>

Per altri dettagli, vedere .<docLink>

DELTA_CONCURRENT_DELETE_DELETE

SQLSTATE: 2D521

ConcurrentDeleteDeleteException: questa transazione ha tentato di eliminare uno o più file eliminati (ad esempio <file>) da un aggiornamento simultaneo. Riprovare a eseguire l'operazione.<conflictingCommit>

Per altri dettagli, vedere .<docLink>

DELTA_CONCURRENT_DELETE_READ

SQLSTATE: 2D521

ConcurrentDeleteReadException: questa transazione ha tentato di leggere uno o più file eliminati (ad esempio <file>) da un aggiornamento simultaneo. Riprovare a eseguire l'operazione.<conflictingCommit>

Per altri dettagli, vedere .<docLink>

DELTA_CONCURRENT_TRANSACTION

SQLSTATE: 2D521

ConcurrentTransactionException: questo errore si verifica quando più query di streaming usano lo stesso checkpoint per scrivere in questa tabella. Sono state eseguite più istanze della stessa query di streaming contemporaneamente?<conflictingCommit>

Per altri dettagli, vedere .<docLink>

DELTA_CONCURRENT_WRITE

SQLSTATE: 2D521

ConcurrentWriteException: una transazione simultanea ha scritto nuovi dati dopo che la transazione corrente legge la tabella. Riprovare a eseguire l'operazione.<conflictingCommit>

Per altri dettagli, vedere .<docLink>

DELTA_CONFLICT_SET_COLUMN

SQLSTATE: 42701

Si è verificato un conflitto da queste colonne SET: <columnList>.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

Durante <command>, la configurazione "<configuration>" non può essere impostata dal comando . Rimuoverlo dalla clausola TBLPROPERTIES e quindi ripetere il comando.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

Durante <command>, la configurazione "<configuration>" non può essere impostata dalle configurazioni sparkSession. Annullare l'impostazione eseguendo spark.conf.unset("<configuration>") e quindi ripetere il comando.

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 42710

Il vincolo '<constraintName>' esiste già. Eliminare prima il vincolo precedente.

Vincolo precedente:

<oldConstraint>

DELTA_CONSTRAINT_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

La colonna <columnName> ha un tipo di <columnType> dati e non può essere modificata nel tipo di <dataType> dati perché a questa colonna fa riferimento i vincoli check seguenti:

<constraints>

DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

Impossibile modificare la colonna <columnName> perché questa colonna fa riferimento ai vincoli check seguenti:

<constraints>

DELTA_CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 42704

Impossibile eliminare un vincolo <constraintName> inesistente dalla tabella <tableName>. Per evitare di generare un errore, specificare il parametro IF EXISTS o impostare la configurazione <config> della sessione SQL su <confValue>.

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE: 42KD6

Impossibile trovare informazioni sulla partizione nel catalogo per la tabella <tableName>. È stato eseguito "MSCK REPAIR TABLE" nella tabella per individuare le partizioni?

DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN

SQLSTATE: 0AKDC

Impossibile convertire la tabella Parquet con la colonna <colName> di partizione collata in Delta.

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE: 0AKDC

La configurazione '<config>' non può essere impostata su <mode> quando si usa CONVERT TO DELTA.

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE: 0AKDC

CONVERT TO DELTA supporta solo le tabelle Parquet, ma si sta tentando di convertire un'origine <sourceName> : <tableId>

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE: 22000

Impossibile abilitare il rilevamento delle righe senza raccogliere statistiche.

Se si vuole abilitare il rilevamento delle righe, eseguire le operazioni seguenti:

  1. Abilitare la raccolta di statistiche eseguendo il comando

    SET <statisticsCollectionPropertyKey> = true

    1. Eseguire CONVERTI IN DELTA senza l'opzione NO STATISTICS.

Se non si desidera raccogliere statistiche, disabilitare il rilevamento delle righe:

  1. Disattivare l'abilitazione della funzionalità tabella per impostazione predefinita eseguendo il comando :

    RESETTARE <rowTrackingTableFeatureDefaultKey>

    1. Disattivare la proprietà della tabella per impostazione predefinita eseguendo:

      SET <rowTrackingDefaultPropertyKey> = false

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE: 0AKDD

La destinazione COPY INTO deve essere una tabella Delta.

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE: 42601

Si sta tentando di creare una tabella esterna <tableName>

dall'uso <path> di Delta, ma lo schema non viene specificato quando

il percorso di input è vuoto.

Per altre informazioni su Delta, vedere <docLink>

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE: 42K03

Si sta tentando di creare una tabella esterna <tableName>

dall'uso %2$s di Delta, ma non è presente alcun log delle transazioni in

%2$s/_delta_log. Controllare il processo upstream per assicurarsi che stia scrivendo usando

format("delta") e che il percorso è la radice della tabella.

Per altre informazioni su Delta, vedere <docLink>

DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH

SQLSTATE: 0AKDC

La creazione di una tabella Delta basata su percorso con una posizione diversa non è supportata. Identificatore: <identifier>, Posizione: <location>

DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION

SQLSTATE: 42601

È necessario specificare il nome o la posizione della tabella.

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE: 42KD7

Lo schema specificato non corrisponde allo schema esistente in <path>.

== Specificato ==

<specifiedSchema>

== Esistente ==

<existingSchema>

== Differenze ==

<schemaDifferences>

Se si intende mantenere lo schema esistente, è possibile omettere

schema dal comando create table. In caso contrario, assicurarsi che

corrisponde allo schema.

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

Impossibile abilitare la <tableFeature> funzionalità tabella tramite TBLPROPERTIES. Usare CREATE OR REPLACE TABLE CLUSTER BY per creare una tabella Delta con clustering.

DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING

SQLSTATE: 42KD7

Le colonne di clustering specificate non corrispondono alle colonne di clustering esistenti in <path>.

== Specificato ==

<specifiedColumns>

== Esistente ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

SQLSTATE: 42KD7

Il partizionamento specificato non corrisponde al partizionamento esistente in <path>.

== Specificato ==

<specifiedColumns>

== Esistente ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE: 42KD7

Le proprietà specificate non corrispondono alle proprietà esistenti in <path>.

== Specificato ==

<specifiedProperties>

== Esistente ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE: 42601

Impossibile creare una tabella ('<tableId>'). Il percorso associato (''<tableLocation>) non è vuoto e non una tabella Delta.

DELTA_DATA_CHANGE_FALSE

SQLSTATE: 0AKDE

Impossibile modificare i metadati della tabella perché l'opzione 'dataChange' è impostata su false. Operazione tentata: '<op>'.

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE: 42K03

Impossibile trovare il file <filePath> a cui si fa riferimento nel log delle transazioni. Questo file parquet può essere eliminato nei criteri di conservazione dei dati di Delta.

Durata predefinita per la conservazione dei dati Delta: <logRetentionPeriod>. Ora di modifica del file parquet: <modificationTime>. Tempo di eliminazione del file parquet: <deletionTime>. Eliminato nella versione Delta: <deletionVersion>.

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE: 2D521

Non è valido eseguire il commit dei file con vettori di eliminazione mancanti nella statistica numRecords.

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE: 0A000

Rilevata azione DomainMetadata per i domini <domainNames>, ma DomainMetadataTableFeature non è abilitata.

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD8

L'indice <columnIndex> da eliminare è inferiore a 0

DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA

SQLSTATE: 0AKDC

Impossibile eliminare una colonna da uno schema con una singola colonna. Schema:

<schema>

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE: 2D521

L'operazione di file '<actionType>' per il percorso <path> è stata specificata più volte.

È in conflitto con <conflictingPath>.

Non è valido per più operazioni di file con lo stesso percorso in un singolo commit.

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE: 42711

Sono state trovate colonne <coltype>duplicate: <duplicateCols>

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE: 42701

Nomi di colonna duplicati nella clausola INSERT

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE: 42701

<message>

Rimuovere le colonne duplicate prima di aggiornare la tabella.

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE: 42701

Dati duplicati che ignorano le colonne trovate: <columns>.

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE: 42601

Errore interno: due azioni DomainMetadata all'interno della stessa transazione hanno lo stesso dominio <domainName>

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE: 22000

Impossibile deserializzare l'istogramma dei conteggi dei record eliminati durante la verifica dell'integrità della tabella.

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE: 0A000

La modalità di sovrascrittura della partizione dinamica viene specificata dalle opzioni di configurazione o scrittura della sessione, ma è disabilitata da spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.

DELTA_EMPTY_DATA

SQLSTATE: 428GU

I dati usati per la creazione della tabella Delta non hanno colonne.

DELTA_EMPTY_DIRECTORY

SQLSTATE: 42K03

Nessun file trovato nella directory : <directory>.

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE: 22001

Il valore "<value>" supera il limite di lunghezza del tipo char/varchar. Controllo non riuscito: <expr>.

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE: 22018

Impossibile eseguire il cast del valore <value> della partizione in <dataType>

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

SQLSTATE: 42703

Impossibile trovare <newAttributeName> tra l'output di destinazione esistente <targetOutputColumns>

DELTA_FAILED_INFER_SCHEMA

SQLSTATE: 42KD9

Impossibile dedurre lo schema dall'elenco specificato di file.

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE: 42KDA

Impossibile unire lo schema del file <file>:

<schema>

SQLSTATE: KD001

Impossibile leggere il piè di pagina per il file: <currentFile>

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE: 42601

Impossibile riconoscere il predicato '<predicate>'

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE: KD002

Aspettatevi un'analisi completa della versione più recente dell'origine Delta, ma è stata trovata un'analisi cronologica della versione <historicalVersion>

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE: 22005

Impossibile unire i campi '<currentField>' e '<updateField>'

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE: 0AKDE

Impossibile operare su questa tabella perché le funzionalità della tabella seguenti sono abilitate nei metadati ma non elencate nel protocollo: <features>.

DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT

SQLSTATE: 0AKDE

Lo schema della tabella richiede l'abilitazione manuale delle funzionalità della tabella seguenti: <unsupportedFeatures>.

A tale scopo, eseguire il comando seguente per ognuna delle funzionalità elencate in precedenza:

ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')

Sostituire "table_name" e "feature_name" con valori reali.

Funzionalità supportate correnti: <supportedFeatures>.

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE: 0AKDE

Impossibile eliminare la funzionalità perché una transazione simultanea ha modificato la tabella.

Riprovare a eseguire l'operazione.

<concurrentCommit>

DELTA_FEATURE_DROP_DEPENDENT_FEATURE

SQLSTATE: 0AKDE

Impossibile eliminare la funzionalità <feature> tabella perché alcune altre funzionalità (<dependentFeatures>) in questa tabella dipendono da <feature>.

È consigliabile eliminarli prima di eliminare questa funzionalità.

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE: 0AKDE

Impossibile eliminare <feature> da questa tabella perché non è attualmente presente nel protocollo della tabella.

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE: 0AKDE

Impossibile eliminare <feature> perché il log Delta contiene versioni cronologiche che usano la funzionalità.

Attendere fino al periodo di conservazione della cronologia (<logRetentionPeriodKey>=<logRetentionPeriod>)

è passato dall'ultima volta che la funzionalità è stata attiva.

In alternativa, attendere che il periodo di conservazione TRUNCATE HISTORY scada (<truncateHistoryLogRetentionPeriod>)

e quindi eseguire:

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE: 0AKDE

La caratteristica specifica non richiede il troncamento della cronologia.

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE: 0AKDE

Impossibile eliminare <feature> perché l'eliminazione di questa funzionalità non è supportata.

Contattare il supporto tecnico di Databricks.

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE: 0AKDE

Impossibile eliminare <feature> perché non è supportato da questa versione di Databricks.

Prendere in considerazione l'uso di Databricks con una versione successiva.

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 0AKDE

L'eliminazione <feature> è stata completata parzialmente.

La funzionalità non viene più usata nella versione corrente della tabella. Tuttavia, la funzionalità

è ancora presente nelle versioni cronologiche della tabella. Impossibile eliminare la funzionalità tabella

dal protocollo di tabella fino alla scadenza di queste versioni cronologiche.

Per eliminare la funzionalità tabella dal protocollo, attendere che le versioni cronologiche

scadere e quindi ripetere questo comando. Il periodo di conservazione per le versioni cronologiche è

attualmente configurato come <logRetentionPeriodKey>=<logRetentionPeriod>.

In alternativa, attendere che il periodo di conservazione TRUNCATE HISTORY scada (<truncateHistoryLogRetentionPeriod>)

e quindi eseguire:

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

SQLSTATE: 0AKDE

Impossibile abilitare la funzionalità <feature> di tabella perché richiede una versione del protocollo lettore superiore (corrente <current>). È consigliabile aggiornare la versione del protocollo lettore della tabella a <required>o a una versione che supporta le funzionalità della tabella lettore. Per altre informazioni sulle versioni del protocollo di tabella, vedere .<docLink>

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

SQLSTATE: 0AKDE

Impossibile abilitare la funzionalità <feature> di tabella perché richiede una versione del protocollo writer superiore (corrente <current>). È consigliabile aggiornare la versione del protocollo writer della tabella a <required>o a una versione che supporta le funzionalità della tabella writer. Per altre informazioni sulle versioni del protocollo di tabella, vedere .<docLink>

DELTA_FILE_ALREADY_EXISTS

SQLSTATE: 42K04

Percorso file esistente <path>

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE: 42613

Impossibile specificare sia l'elenco di file che la stringa del criterio.

DELTA_FILE_NOT_FOUND

SQLSTATE: 42K03

Percorso file <path>

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE: 42K03

Impossibile trovare il file <filePath> a cui si fa riferimento nel log delle transazioni. Ciò si verifica quando i dati sono stati eliminati manualmente dal file system anziché usare l'istruzione table DELETE . Per altre informazioni, vedere <faqPath>.

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE: 42K03

Nessun file o directory di questo tipo: <path>

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE: 42K03

File (<path>) da riscrivere non trovato tra i file candidati:

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE: KD003

È stato trovato un oggetto MapType. Per accedere alla chiave o al valore di un oggetto MapType, specificarne uno

di:

<key> oppure

<value>

seguito dal nome della colonna (solo se la colonna è un tipo di struct).

ad esempio mymap.key.mykey

Se la colonna è un tipo di base, mymap.key o mymap.value è sufficiente.

Schema:

<schema>

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

La colonna <columnName> ha un tipo di <columnType> dati e non può essere modificata nel tipo di <dataType> dati perché a questa colonna viene fatto riferimento dalle colonne generate seguenti:

<generatedColumns>

DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

Impossibile modificare la colonna <columnName> perché a questa colonna viene fatto riferimento dalle colonne generate seguenti:

<generatedColumns>

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE: 42K09

Il tipo di espressione della colonna <columnName> generata è <expressionType>, ma il tipo di colonna è <columnType>

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE: 42K09

La colonna <currentName> è una colonna generata o una colonna utilizzata da una colonna generata. Il tipo di dati è <currentDataType> e non può essere convertito nel tipo di dati <updateDataType>

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE: KD00E

La convalida di IcebergCompatV<version> non è riuscita.

Per altri dettagli, vedere DELTA_ICEBERG_COMPAT_VIOLATION

DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN non è supportato per le colonne IDENTITY.

DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

ALTER TABLE ALTER COLUMN SYNC IDENTITY è supportato solo da Delta.

DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN

SQLSTATE: 429BQ

Non è possibile chiamare ALTER TABLE ALTER COLUMN SYNC IDENTITY nelle colonne non IDENTITY.

DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED

SQLSTATE: 42808

L'aggiunta di valori per la colonna <colName> GENERATED ALWAYS AS IDENTITY non è supportata.

DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

Il passaggio della colonna IDENTITY non può essere 0.

DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

Le colonne IDENTITY sono supportate solo da Delta.

DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED

SQLSTATE: 42601

La colonna <colName> PARTITIONED BY IDENTITY non è supportata.

DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE REPLACE COLUMNS non è supportato per la tabella con colonne IDENTITY.

DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

DataType <dataType> non è supportato per le colonne IDENTITY.

DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED

SQLSTATE: 42808

UPDATE per la colonna <colName> IDENTITY non è supportato.

DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION

SQLSTATE: 42613

Impossibile specificare la colonna IDENTITY con un'espressione di colonna generata.

DELTA_ILLEGAL_OPTION

SQLSTATE: 42616

Valore '<input>' non valido per l'opzione '<name>', <explain>

DELTA_ILLEGAL_USAGE

SQLSTATE: 42601

L'utilizzo di <option> non è consentito quando <operation> una tabella Delta.

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE: 42000

BucketSpec nella tabella con bucket Delta non corrisponde a BucketSpec dai metadati. Previsto: <expected>. Effettivo: <actual>.

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE: F0000

(<setKeys>) non può essere impostato su valori diversi. Impostare solo uno di essi o impostarli sullo stesso valore.

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE: KD003

Accesso non corretto a un arrayType. Usare la posizione arrayname.element.elementname per

aggiungere a una matrice.

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE: KD003

È stato trovato un arrayType. Per accedere agli elementi di un arrayType, specificare

<rightName> anziché <wrongName>.

Schema:

<schema>

DELTA_INCORRECT_GET_CONF

SQLSTATE: 42000

Usare getConf() invece di 'conf.getConf()

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE: 0AKDC

L'errore si verifica in genere quando l'implementazione predefinita di LogStore,

is, HDFSLogStore, viene usato per scrivere in una tabella Delta in un sistema di archiviazione non HDFS.

Per ottenere le garanzie ACID transazionali sugli aggiornamenti delle tabelle, è necessario usare

implementazione corretta di LogStore appropriata per il sistema di archiviazione.

Per informazioni dettagliate, vedere <docLink>.

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE: 42KD8

Indice <position> per eliminare la colonna uguale a o è maggiore della lunghezza dello struct: <length>

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE: 42KD8

Indice <index> per l'aggiunta di una colonna <columnName> maggiore della lunghezza dello struct: <length>

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 42802

Impossibile scrivere in '<tableName>', <columnName>; la tabella di destinazione contiene <numColumns> colonne, ma i dati inseriti hanno <insertColumns> colonne

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE: 42802

Colonna <columnName> non specificata in INSERT

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE: 22023

Tipo di compattazione automatica non valido: <value>. I valori consentiti sono: <allowed>.

DELTA_INVALID_BUCKET_COUNT

SQLSTATE: 22023

Numero di bucket non valido: <invalidBucketCount>. Il numero di bucket deve essere un numero positivo di potenza pari a 2 e almeno 8. È invece possibile usare <validBucketCount>.

DELTA_INVALID_BUCKET_INDEX

SQLSTATE: 22023

Impossibile trovare la colonna bucket nelle colonne della partizione

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE: 2200P

L'intervallo non può essere null o vuoto.

DELTA_INVALID_CDC_RANGE

SQLSTATE: 22003

Intervallo CDC compreso tra inizio <start> e fine <end> non valido. Non è possibile terminare prima dell'inizio.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE: 42K05

Il nome dell'attributo "<columnName>" contiene caratteri non validi tra " ,;{}()\n\t=". Usare l'alias per rinominarlo.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE: 42K05

Trovato uno o più caratteri non validi tra ',;{}()nt=' nei nomi di colonna dello schema.

Nomi di colonna non validi: <invalidColumnNames>.

Usare altri caratteri e riprovare.

In alternativa, abilitare Mapping colonne per continuare a usare questi caratteri.

DELTA_INVALID_CLONE_PATH

SQLSTATE: 22KD1

Il percorso di destinazione per CLONE deve essere un percorso assoluto o un nome di tabella. Usare un oggetto

percorso assoluto anziché <path>.

DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING

SQLSTATE: 42K05

Trovato uno o più caratteri non validi tra ',;{}()nt=' nei nomi di colonna dello schema.

Nomi di colonna non validi: <invalidColumnNames>.

Impossibile rimuovere il mapping delle colonne quando sono presenti caratteri non validi nei nomi delle colonne.

Rinominare le colonne per rimuovere i caratteri non validi ed eseguire di nuovo questo comando.

DELTA_INVALID_FORMAT

SQLSTATE: 22000

Rilevato formato incompatibile.

È stato trovato un log delle transazioni per Delta in <deltaRootPath>/_delta_log',

ma si sta tentando di <operation> <path> usare format("<format>"). È necessario usare

'format("delta")' durante la lettura e la scrittura in una tabella differenziale.

Per altre informazioni su Delta, vedere <docLink>

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE: 42621

Una colonna generata non può utilizzare una colonna inesistente o un'altra colonna generata

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE: 42616

Opzioni non valide per le scritture di dataframe idempotenti: <reason>

DELTA_INVALID_INTERVAL

SQLSTATE: 22006

<interval> non è un intervallo valido.

DELTA_INVALID_INVENTORY_SCHEMA

SQLSTATE: 42000

Lo schema per l'oggetto INVENTORY specificato non contiene tutti i campi obbligatori. I campi obbligatori sono: <expectedSchema>

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE: 25000

livello<isolationLevel> di isolamento '' non valido

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE: F0000

(<classConfig>) e (<schemeConfig>) non possono essere impostati contemporaneamente. Impostare solo un gruppo di essi.

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE: 42000

Si sta tentando di creare una tabella gestita <tableName>

utilizzando Delta, ma lo schema non è specificato.

Per altre informazioni su Delta, vedere <docLink>

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE: 42996

<columnName> non è una colonna di partizione valida nella tabella <tableName>.

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE: 42996

Sono state trovate colonne di partizione con caratteri non validi tra " ,;{}()nt=". Modificare il nome nelle colonne di partizione. Questo controllo può essere disattivato impostando spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) ma non è consigliabile perché altre funzionalità di Delta potrebbero non funzionare correttamente.

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE: 42996

L'uso di una colonna di tipo <dataType> come colonna <name> di partizione non è supportato.

DELTA_INVALID_PARTITION_PATH

SQLSTATE: 22KD1

Un frammento di percorso della partizione deve essere il formato , ad esempio part1=foo/part2=bar. Percorso della partizione: <path>

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE: KD004

Non è possibile effettuare il downgrade della versione del protocollo da <oldProtocol> a <newProtocol>

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE: KD004

Versione del protocollo Delta non supportata: la tabella "<tableNameOrPath>" richiede la versione <readerRequired> lettore e la versione <writerRequired>del writer , ma questa versione di Databricks supporta le versioni <supportedReaders> lettore e le versioni <supportedWriters>del writer . Eseguire l'aggiornamento a una versione più recente.

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE: 22000

Function <function> è una funzione con valori di tabella non supportata per le letture CDC.

DELTA_INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22007

Il timestamp <timestamp> specificato non corrisponde alla sintassi <format>prevista.

DELTA_LOG_ALREADY_EXISTS

SQLSTATE: 42K04

Esiste già un log Delta in <path>

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE: 42K03

Se non è mai stato eliminato, è probabile che la query sia in ritardo. Eliminare il relativo checkpoint da riavviare da zero. Per evitare questo problema, è possibile aggiornare i criteri di conservazione della tabella Delta

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE: 22000

Nome di colonna materializzato <rowTrackingColumn> mancante per <tableName>.

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE: 42000

Usare un limite minore di Int.MaxValue - 8.

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE: 40000

Il commit non è riuscito perché è stato provato <numAttempts> , ma non è riuscito.

Ciò può essere causato dal commit continuo della tabella Delta da molti simultanei

Commette.

Commit avviato alla versione: <startVersion>

Commit non riuscito alla versione: <failVersion>

Numero di azioni tentate di eseguire il commit: <numActions>

Tempo totale impiegato per il tentativo di commit: <timeSpent> ms

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE: 42000

L'elenco di file deve avere al massimo <maxFileListSize> le voci, con <numFiles>.

DELTA_MERGE_ADD_VOID_COLUMN

SQLSTATE: 42K09

Impossibile aggiungere una colonna <newColumn> con tipo VOID. Specificare in modo esplicito un tipo non void.

DELTA_MERGE_INCOMPATIBLE_DATATYPE

SQLSTATE: 42K09

Impossibile unire tipi di <currentDataType> dati incompatibili e <updateDataType>

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE: 42806

Impossibile unire tipi decimali con incompatibili <decimalRanges>

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE: 25000

La conservazione ripetuta dell'origine dell'istruzione MERGE materializzata non è riuscita.

DELTA_MERGE_MISSING_WHEN

SQLSTATE: 42601

In un'istruzione MERGE deve essere presente almeno una clausola WHEN.

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE: 42601

Attributi <missingAttributes> risolti mancanti nell'operatore <input> in <merge>

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE: 22005

Chiave di assegnazione imprevista: <unexpectedKeyClass> - <unexpectedKeyObject>

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE: 42601

Impossibile risolvere <sqlExpr> in <clause> un dato <cols>oggetto .

DELTA_METADATA_CHANGED

SQLSTATE: 2D521

MetadataChangedException: i metadati della tabella Delta sono stati modificati da un aggiornamento simultaneo. Riprovare a eseguire l'operazione.<conflictingCommit>

Per altri dettagli, vedere .<docLink>

DELTA_MISSING_CHANGE_DATA

SQLSTATE: KD002

Errore durante il recupero dei dati delle modifiche per l'intervallo [<startVersion> , <endVersion>] perché i dati delle modifiche non erano

registrato per la versione [<version>]. Se è stato abilitato il feed di dati delle modifiche in questa tabella,

usare DESCRIBE HISTORY per vedere quando è stato abilitato per la prima volta.

In caso contrario, per avviare la registrazione dei dati delle modifiche, usare 'ALTER TABLE table_name SET TBLPROPERTIES

(<key>=true)'.

DELTA_MISSING_COLUMN

SQLSTATE: 42703

Impossibile trovare <columnName> nelle colonne della tabella: <columnList>

DELTA_MISSING_COMMIT_INFO

SQLSTATE: KD004

Questa tabella include la funzionalità <featureName> abilitata che richiede la presenza dell'azione CommitInfo in ogni commit. Tuttavia, l'azione CommitInfo non è presente nella versione <version>di commit .

DELTA_MISSING_COMMIT_TIMESTAMP

SQLSTATE: KD004

Questa tabella include la funzionalità <featureName> abilitata che richiede la presenza di commitTimestamp nell'azione CommitInfo. Tuttavia, questo campo non è stato impostato nella versione <version>di commit .

DELTA_MISSING_DELTA_TABLE

SQLSTATE: 42P01

<tableName> non è una tabella Delta.

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE: 42P01

La tabella non esiste. Creare prima una tabella Delta vuota usando CREATE TABLE <tableName>.

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE: 56038

La classe Iceberg non è stata trovata. Assicurarsi che sia installato il supporto Delta Iceberg.

Per altri dettagli, fare riferimento a <docLink> .

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE: 23502

La colonna <columnName>, che ha un vincolo NOT NULL, non è presente nei dati scritti nella tabella.

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE: 42KD6

<columnName> Colonna di partizione non trovata nello schema<columnList>

DELTA_MISSING_PART_FILES

SQLSTATE: 42KD6

Impossibile trovare tutti i file di parte della versione del checkpoint: <version>

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE: 0AKDC

CONVERT TO DELTA supporta solo le tabelle Parquet. Riscrivere la destinazione come parquet.<path> se si tratta di una directory parquet.

DELTA_MISSING_SET_COLUMN

SQLSTATE: 42703

Colonna <columnName> SET non trovata in colonne specificate: <columnList>.

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE: 42000

Rilevato formato incompatibile.

Si sta provando a usare <operation> <path> Delta, ma non c'è

log delle transazioni presente. Controllare il processo upstream per assicurarsi che stia scrivendo

utilizzando format("delta") e che si sta tentando di %1$s il percorso di base della tabella.

Per altre informazioni su Delta, vedere <docLink>

DELTA_MODE_NOT_SUPPORTED

SQLSTATE: 0AKDC

La modalità specificata '<mode>' non è supportata. Le modalità supportate sono: <supportedModes>

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE: 42614

Più <startingOrEnding> argomenti forniti per la lettura cdc. Specificare un <startingOrEnding>timestamp o <startingOrEnding>una versione.

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 42614

Più configurazioni dell'indice filtro bloom passate al comando per la colonna: <columnName>

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE: 21506

Impossibile eseguire merge come più righe di origine corrispondenti e si è tentato di modificare lo stesso

riga di destinazione nella tabella Delta in modi potenzialmente in conflitto. Per semantica SQL di merge,

quando più righe di origine corrispondono alla stessa riga di destinazione, il risultato può essere ambiguo

poiché non è chiaro quale riga di origine deve essere usata per aggiornare o eliminare la corrispondenza

riga di destinazione. È possibile pre-elaborare la tabella di origine per eliminare la possibilità di

più corrispondenze. Fare riferimento alla sezione

<usageReference>

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND

SQLSTATE: 42616

Durante <command>, entrambe le configurazioni di commit coordinati ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") vengono impostate nel comando o nessuno di essi. Mancante: "<configuration>". Specificare questa configurazione nella clausola TBLPROPERTIES o rimuovere l'altra configurazione e quindi ripetere il comando.

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION

SQLSTATE: 42616

Durante <command>, entrambe le configurazioni di commit coordinati ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") vengono impostate nelle configurazioni sparkSession o in nessuno di essi. Mancante: "<configuration>". Impostare questa configurazione in SparkSession o annullare l'impostazione dell'altra configurazione e quindi ripetere il comando.

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE: 42000

I nomi di colonna seguenti sono riservati solo per l'utilizzo interno della tabella con bucket Delta: <names>

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE: 42K05

Lo schema di input contiene campi annidati con maiuscole e minuscole diverse rispetto alla tabella di destinazione.

Devono essere rinominati per evitare la perdita di dati in questi campi durante la scrittura in Delta.

Campi:

<fields>.

Schema originale:

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE: 0AKDC

Il <nestType> tipo del campo <parent> contiene un vincolo NOT NULL. Delta non supporta vincoli NOT NULL annidati all'interno di matrici o mappe. Per eliminare questo errore e ignorare automaticamente i vincoli specificati, impostare <configKey> = true.

Tipo analizzato <nestType> :

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

La sottoquery nidificata non è supportata nella <operation> condizione .

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE: 23512

<numRows> le righe in <tableName> violano il nuovo vincolo CHECK (<checkConstraint>)

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE: 23512

<numRows> le righe in <tableName> violano il nuovo vincolo NOT NULL su <colName>

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE: 42621

Il vincolo CHECK '<name>' (<expr>) deve essere un'espressione booleana.

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN

SQLSTATE: 42621

Trovato <expr>. Una colonna generata non può utilizzare un'espressione non deterministica.

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE: 0AKDC

Le funzioni non deterministiche non sono supportate in <operation> <expression>

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Quando in un'istruzione MERGE sono presenti più clausole MATCHED, solo l'ultima clausola MATCHED può omettere la condizione.

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Quando in un'istruzione MERGE sono presenti più clausole NOT MATCHED BY SOURCE, solo l'ultima clausola NOT MATCHED BY SOURCE può omettere la condizione.

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Quando in un'istruzione MERGE sono presenti più clausole NOT MATCHED, solo l'ultima clausola NOT MATCHED può omettere la condizione

DELTA_NON_PARSABLE_TAG

SQLSTATE: 42601

Impossibile analizzare il tag <tag>.

I tag di file sono: <tagList>

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE: KD005

I dati scritti in Delta devono contenere almeno una colonna non partizionata.<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE: 42P10

Il predicato fa riferimento a una colonna non di partizione '<columnName>'. È possibile fare riferimento solo alle colonne di partizione: [<columnList>]

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE: 42P10

Le colonne <columnList> non di partizionamento sono specificate in cui sono previste solo colonne di partizionamento: <fragment>.

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE: 42K05

Il catalogo Delta richiede uno spazio dei nomi a parte singola, ma <identifier> è in più parti.

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE: 42000

<table> non è una tabella Delta. Eliminare prima questa tabella se si vuole crearla con Databricks Delta.

DELTA_NOT_A_DELTA_TABLE

SQLSTATE: 0AKDD

<tableName> non è una tabella Delta. Eliminare prima questa tabella se si vuole ricrearla con Delta Lake.

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE: 42K09

Colonna non nullable non trovata nello struct: <struct>

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE: 23502

VINCOLO NOT NULL violato per la colonna: <columnName>.

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE: 0A000

Non è possibile aggiungere un campo annidato non nullable a un elemento padre nullable. Impostare di conseguenza il supporto dei valori Null della colonna padre.

DELTA_NO_COMMITS_FOUND

SQLSTATE: KD006

Nessun commit trovato in <logPath>

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE: KD006

Nessun commit ricreabile trovato in <logPath>

DELTA_NO_RELATION_TABLE

SQLSTATE: 42P01

Tabella <tableIdent> non trovata

DELTA_NO_START_FOR_CDC_READ

SQLSTATE: 42601

Nessun valore startingVersion o startingTimestamp fornito per la lettura CDC.

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE: 42P18

Delta non accetta valori NullType nello schema per le scritture di streaming.

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE: 42601

Specificare "timestampAsOf" o "versionAsOf" per il viaggio in tempo.

DELTA_ONLY_OPERATION

SQLSTATE: 0AKDD

<operation> è supportato solo per le tabelle Delta.

DELTA_OPERATION_MISSING_PATH

SQLSTATE: 42601

Specificare il percorso o l'identificatore di tabella per <operation>.

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE: 0AKDC

Operazione non consentita: <operation> non è supportata per le tabelle Delta

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE: 0AKDC

Operazione non consentita: <operation> non è supportata per le tabelle Delta: <tableName>

DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> non è supportato per la colonna <colName> con regole <collation>di confronto non predefinite.

DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> non è supportato per l'espressione <exprText> perché usa regole di confronto non predefinite.

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE: 0A000

<operation> il comando in una vista temporanea che fa riferimento a una tabella Delta che contiene colonne generate non è supportato. Eseguire direttamente il <operation> comando nella tabella Delta

DELTA_OPERATION_ON_VIEW_NOT_ALLOWED

SQLSTATE: 0AKDC

Operazione non consentita: <operation> non può essere eseguita su una vista.

DELTA_OPTIMIZE_FULL_NOT_SUPPORTED

SQLSTATE: 42601

OPTIMIZE FULL è supportato solo per le tabelle in cluster con colonne di clustering non vuote.

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE: 42000

Impossibile specificare l'opzione Copy OverwriteSchema senza impostare OVERWRITE = 'true'.

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

Impossibile usare "overwriteSchema" in modalità sovrascrittura della partizione dinamica.

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE: 22525

Impossibile eseguire il cast del valore <value> a <dataType> per la colonna di partizione <columnName>

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE: 42703

<columnName> Colonna di partizione non trovata nello schema [<schemaMap>]

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE: 42613

Impossibile specificare lo schema di partizione durante la conversione delle tabelle Iceberg. Viene dedotto automaticamente.

DELTA_PATH_DOES_NOT_EXIST

SQLSTATE: 42K03

<path> non esiste o non è una tabella Delta.

DELTA_PATH_EXISTS

SQLSTATE: 42K04

Impossibile scrivere in un percorso <path> già esistente senza impostare OVERWRITE = 'true'.

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE: 2DKD0

Il commit nella versione <version> della tabella Delta è riuscito ma si è verificato un errore durante l'esecuzione dell'hook <name> post-commit <message>

DELTA_PROTOCOL_CHANGED

SQLSTATE: 2D521

ProtocolChangedException: la versione del protocollo della tabella Delta è stata modificata da un aggiornamento simultaneo. <additionalInfo> <conflictingCommit>

Per altri dettagli, vedere .<docLink>

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE: 42K06

La proprietà <key> Protocol deve essere un numero intero. Fondare <value>

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE: KD004

Impossibile aggiornare solo la versione del protocollo lettore per usare le funzionalità della tabella. La versione del protocollo writer deve essere almeno <writerVersion> per procedere. Per altre informazioni sulle versioni del protocollo di tabella, vedere .<docLink>

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE: 428GU

Si sta tentando di leggere una tabella <tableName> Delta che non contiene colonne.

Scrivere alcuni nuovi dati con l'opzione mergeSchema = true per poter leggere la tabella.

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE: 2201B

Ricontrollare la sintassi per '<regExpOption>'

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE: 42613

Non è possibile usare replaceWhere in combinazione con una sovrascrittura in base al filtro

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE: 44000

I dati scritti non sono conformi alla condizione di sovrascrittura della tabella parziale o al vincolo '<replaceWhere>'.

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

Non è possibile impostare un'espressione 'replaceWhere' e 'partitionOverwriteMode'='dynamic' nelle opzioni DataFrameWriter.

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE: 42613

'replaceWhere' non può essere usato con i filtri dati quando 'dataChange' è impostato su false. Filtri: <dataFilters>

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE: 22000

Non è possibile assegnare ID di riga senza statistiche sul numero di righe.

Raccogliere statistiche per la tabella eseguendo il codice seguente in un notebook Scala e riprovare:

import com.databricks.sql.transaction.tahoe.DeltaLog

import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection

import org.apache.spark.sql.catalyst.TableIdentifier

val log = DeltaLog.forTable(spark, TableIdentifier(table_name))

StatisticsCollection.recompute(spark, log)

DELTA_SCHEMA_CHANGED

SQLSTATE: KD007

Modifica dello schema rilevata:

schema dell'origine di streaming: <readSchema>

schema del file di dati: <dataSchema>

Provare a riavviare la query. Se questo problema si ripete tra i riavvii delle query senza

avanzamento, è stata apportata una modifica dello schema incompatibile ed è necessario avviare il

eseguire una query da zero usando una nuova directory del checkpoint.

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE: KD007

Rilevata modifica dello schema nella versione <version>:

schema dell'origine di streaming: <readSchema>

schema del file di dati: <dataSchema>

Provare a riavviare la query. Se questo problema si ripete tra i riavvii delle query senza

avanzamento, è stata apportata una modifica dello schema incompatibile ed è necessario avviare il

eseguire una query da zero usando una nuova directory del checkpoint. Se il problema persiste dopo

passare a una nuova directory del checkpoint, potrebbe essere necessario modificare la directory esistente

Opzione 'startingVersion' o 'startingTimestamp' per iniziare da una versione più recente di

<version> con una nuova directory del checkpoint.

DELTA_SCHEMA_CHANGED_WITH_VERSION

SQLSTATE: KD007

Rilevata modifica dello schema nella versione <version>:

schema dell'origine di streaming: <readSchema>

schema del file di dati: <dataSchema>

Provare a riavviare la query. Se questo problema si ripete tra i riavvii delle query senza

avanzamento, è stata apportata una modifica dello schema incompatibile ed è necessario avviare il

eseguire una query da zero usando una nuova directory del checkpoint.

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE: KD007

Lo schema della tabella Delta è cambiato in modo incompatibile dopo il dataframe

o l'oggetto DeltaTable è stato creato. Ridefinire l'oggetto DataFrame o DeltaTable.

Modifiche:

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

Lo schema della tabella non viene fornito. Specificare lo schema (definizione di colonna) della tabella quando si usa la tabella REPLACE e non viene fornita una query AS SELECT.

DELTA_SCHEMA_NOT_SET

SQLSTATE: KD008

Lo schema della tabella non è impostato. Scrivere dati in esso o usare CREATE TABLE per impostare lo schema.

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE: 42KD7

Lo schema del nuovo percorso Delta è diverso dallo schema della tabella corrente.

schema originale:

<original>

schema di destinazione:

<destination>

Se si tratta di una modifica prevista, è possibile disattivare questo controllo eseguendo:

%%sql set <config> = true

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE: 42K03

Impossibile trovare il file <filePath> a cui si fa riferimento nel log delle transazioni. Ciò può verificarsi quando i dati sono stati eliminati manualmente dal file system anziché usare l'istruzione table DELETE . Questa tabella sembra essere un clone superficiale, se questo è il caso, questo errore può verificarsi quando la tabella originale da cui è stata clonata questa tabella ha eliminato un file che il clone sta ancora usando. Se si desidera che i cloni siano indipendenti dalla tabella originale, usare invece un clone DEEP.

DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY

SQLSTATE: 42939

Le proprietà predefinite che iniziano con <prefix> non possono essere modificate.

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE: 42704

I dati sono limitati dalla proprietà <property> del destinatario che non si applicano al destinatario corrente nella sessione.

Per altri dettagli, vedere DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE: 42887

<operation> non può essere usato nelle visualizzazioni di condivisione delta condivise tra account.

DELTA_SHARING_INVALID_PROVIDER_AUTH

SQLSTATE: 28000

Tipo di <authenticationType> autenticazione non valido per il provider <provider>.

DELTA_SHARING_INVALID_RECIPIENT_AUTH

SQLSTATE: 28000

Tipo di <authenticationType> autenticazione non valido per il destinatario <recipient>.

DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

Nome non valido per fare riferimento a un <type> oggetto all'interno di una condivisione. È possibile usare il nome della condivisione seguendo il formato [schema].[<type>], oppure è anche possibile usare <type>il nome completo della tabella seguendo il formato di [catalog].[ schema]. [>type>].

Se non si è certi del nome da usare, è possibile eseguire "SHOW ALL IN SHARE [share]" e trovare il nome della <type> colonna da rimuovere: la colonna "name" è il <type>nome della condivisione e della colonna "shared_object" è il <type>nome completo originale.

DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED

SQLSTATE: 54000

Per il destinatario <recipient>sono presenti più di due token.

DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND

SQLSTATE: 42704

La proprietà <property> Recipient non esiste.

DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND

SQLSTATE: 42704

I token dei destinatari sono mancanti per il destinatario <recipient>.

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE: 42P10

Le colonne <badCols> non di partizionamento sono specificate per SHOW PARTITIONS

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE: 42809

SHOW PARTITIONS non è consentito in una tabella non partizionata: <tableName>

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE: 0A000

Rilevati dati eliminati (ad esempio <removedFile>) dall'origine di streaming alla versione <version>. Non supportato attualmente. Se si desidera ignorare le eliminazioni, impostare l'opzione 'ignoreDeletes' su 'true'. La tabella di origine è disponibile nel percorso <dataPath>.

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE: 0A000

È stato rilevato un aggiornamento dei dati (ad esempio <file>) nella tabella di origine alla versione <version>. Non supportato attualmente. Se questo avviene regolarmente e si sta bene per ignorare le modifiche, impostare l'opzione 'skipChangeCommits' su 'true'. Per riflettere l'aggiornamento dei dati, riavviare questa query con una nuova directory del checkpoint o eseguire un aggiornamento completo se si usa DLT. Se è necessario gestire queste modifiche, passare a MV. La tabella di origine è disponibile nel percorso <dataPath>.

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE: 42613

Specificare '<version>' o '<timestamp>'

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE: 42000

<statsType> statistiche non trovate per la colonna nei metadati Parquet: <columnPath>.

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE: KD002

È stata rilevata una o più modifiche dello schema non additive () tra<opType> la versione <previousSchemaChangeVersion> Delta e <currentSchemaChangeVersion> l'origine di streaming Delta.

Verificare se si desidera propagare manualmente le modifiche dello schema alla tabella sink prima di procedere con l'elaborazione del flusso usando lo schema finalizzato in <currentSchemaChangeVersion>.

Dopo aver corretto lo schema della tabella sink o aver deciso che non è necessario correggere, è possibile impostare (una delle configurazioni SQL seguenti) per sbloccare le modifiche dello schema non additive e continuare l'elaborazione del flusso.

Per sbloccare questo flusso specifico solo per questa serie di modifiche dello schema: impostare <allowCkptVerKey>` = `<allowCkptVerValue>.

Per sbloccare questo flusso specifico: set <allowCkptKey>` = `<allowCkptValue>

Per sbloccare tutti i flussi: impostare <allowAllKey>` = `<allowAllValue>.

In alternativa, se applicabile, è possibile sostituire <allowAllMode> con in <opSpecificMode> SQL conf per sbloccare il flusso solo per questo tipo di modifica dello schema.

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE: KD002

Impossibile ottenere lo snapshot del log Delta per la versione iniziale durante il controllo delle modifiche dello schema di mapping delle colonne. Scegliere una versione iniziale diversa oppure forzare l'abilitazione della lettura di streaming a proprio rischio impostando '<config>' su 'true'.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 42KD4

La lettura in streaming non è supportata nelle tabelle con modifiche dello schema non compatibili con lettura (ad esempio, rinomina o eliminazione o modifica del tipo di dati).

Per altre informazioni e i possibili passaggi successivi per risolvere il problema, consultare la documentazione all'indirizzo <docLink>

Leggere lo schema: <readSchema>. Schema dei dati non compatibile: <incompatibleSchema>.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE: 42KD4

La lettura in streaming non è supportata nelle tabelle con modifiche dello schema non compatibili con lettura (ad esempio, rinomina o eliminazione o modifica del tipo di dati).

Specificare uno "schemaTrackingLocation" per abilitare l'evoluzione dello schema non additivi per l'elaborazione del flusso Delta.

Per informazioni dettagliate, vedere <docLink>.

Leggere lo schema: <readSchema>. Schema dei dati non compatibile: <incompatibleSchema>.

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE: 22000

Lo schema, la configurazione della tabella o il protocollo della tabella Delta è cambiato durante lo streaming.

Lo schema o il log di rilevamento dei metadati è stato aggiornato.

Riavviare il flusso per continuare l'elaborazione usando i metadati aggiornati.

Schema aggiornato: <schema>.

Configurazioni della tabella aggiornate: <config>.

Protocollo di tabella aggiornato: <protocol>

DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS

SQLSTATE: 22000

Lo streaming dalla tabella <tableId> di origine con il rilevamento dello schema non supporta filtri di riga o maschere di colonna.

Eliminare i filtri di riga o le maschere di colonna o disabilitare il rilevamento dello schema.

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE: 22000

Rilevato percorso dello schema in conflitto '<loc>' durante lo streaming dalla tabella o dalla tabella che si trova in '<table>'.

Un altro flusso può riutilizzare lo stesso percorso dello schema, che non è consentito.

Specificare un nuovo percorso univoco schemaTrackingLocation o streamingSourceTrackingId come opzione di lettura per uno dei flussi di questa tabella.

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE: 22000

Il percorso dello schema '<schemaTrackingLocation>' deve essere posizionato nella posizione del checkpoint '<checkpointLocation>'.

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE: 22000

File di log incompleto nel log dello schema di origine del flusso Delta in '<location>'.

Il log dello schema potrebbe essere danneggiato. Selezionare una nuova posizione dello schema.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE: 22000

Rilevato un ID tabella Delta incompatibile durante il tentativo di leggere il flusso Delta.

ID tabella persistente: <persistedId>, ID tabella: <tableId>

Il log dello schema potrebbe essere stato riutilizzato. Selezionare una nuova posizione dello schema.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE: 22000

Rilevato schema di partizione incompatibile quando si tenta di leggere il flusso Delta.

Schema persistente: <persistedSchema>, schema di partizione Delta: <partitionSchema>

Selezionare un nuovo percorso dello schema per reinizializzare il log dello schema se lo schema di partizione della tabella è stato modificato manualmente di recente.

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE: 22000

Non è stato possibile inizializzare il log dello schema di origine del flusso Delta perché

È stata rilevata una modifica dello schema o del protocollo incompatibile durante la gestione di un batch di streaming dalla versione <a> della tabella a <b>.

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE: 22000

Impossibile analizzare lo schema dal log dello schema di origine del flusso Delta.

Il log dello schema potrebbe essere danneggiato. Selezionare una nuova posizione dello schema.

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

SQLSTATE: 42711

Impossibile abilitare Change Data Capture nella tabella. La tabella contiene già

colonne <columnList> riservate che verranno

essere usato internamente come metadati per il feed di dati delle modifiche della tabella. Per abilitare

Modificare il feed di dati nella tabella rinominare/eliminare queste colonne.

DELTA_TABLE_ALREADY_EXISTS

SQLSTATE: 42P07

Tabella <tableName> già esistente.

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE: 0AKDC

DeltaTable.forPath supporta attualmente solo le chiavi di configurazione hadoop a partire da <allowedPrefixes> ma ottenute <unsupportedOptions>

DELTA_TABLE_ID_MISMATCH

SQLSTATE: KD007

La tabella Delta in <tableLocation> è stata sostituita mentre questo comando usava la tabella.

L'ID tabella era <oldId> ma è ora <newId>.

Riprovare il comando corrente per assicurarsi che legga una visualizzazione coerente della tabella.

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE: 42613

La posizione della tabella <tableName> esistente è <existingTableLocation>. Non corrisponde alla posizione <tableLocation>specificata.

DELTA_TABLE_NOT_FOUND

SQLSTATE: 42P01

La tabella <tableName> Delta non esiste.

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE: 42809

La tabella non è supportata in <operation>. Usare invece un percorso.

DELTA_TABLE_ONLY_OPERATION

SQLSTATE: 0AKDD

<tableName> non è una tabella Delta. <operation> è supportato solo per le tabelle Delta.

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE: 428GU

Lo schema finale della tabella di destinazione è vuoto.

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE: 42816

Il timestamp specificato (<providedTimestamp>) è dopo la versione più recente disponibile per questo

tabella (<tableName>). Usare un timestamp prima o in <maximumTimestamp>.

DELTA_TIMESTAMP_INVALID

SQLSTATE: 42816

Il timestamp specificato (<expr>) non può essere convertito in un timestamp valido.

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE: 42604

<timeTravelKey> deve essere un valore di inizio valido.

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE: 42K03

<path>: impossibile ricostruire lo stato alla versione <version> perché il log delle transazioni è stato troncato a causa dell'eliminazione manuale o dei criteri di conservazione dei log () e dei criteri di conservazione dei checkpoint (<checkpointRetentionKey><logRetentionKey><checkpointRetention>=<logRetention>=)

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE: 0AKDC

Operazione non consentita: TRUNCATE TABLE nelle tabelle Delta non supporta predicati di partizione; usare DELETE per eliminare partizioni o righe specifiche.

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE: 42621

Trovato <udfExpr>. Una colonna generata non può usare una funzione definita dall'utente

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE: 42601

Espressione <expression>di azione imprevista.

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE: KD009

<expectedColsSize> Previsto colonne di partizione: <expectedCols>, ma sono state trovate <parsedColsSize> colonne di partizione: <parsedCols> dall'analisi del nome file:<path>

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE: KD00A

È prevista un'analisi completa delle origini Delta, ma è stata trovata un'analisi parziale. sentiero:<path>

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE: KD009

Previsto colonna di partizione , ma è stata trovata la colonna <expectedCol><parsedCol> di partizione dall'analisi del nome file:<path>

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE: KD009

CONVERT TO DELTA è stato chiamato con uno schema di partizione diverso dallo schema di partizione dedotto dal catalogo. Evitare di fornire lo schema in modo che lo schema di partizione possa essere scelto dal catalogo.

schema di partizione del catalogo:

<catalogPartitionSchema>

schema di partizione fornito:

<userPartitionSchema>

DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

SQLSTATE: KD00E

Leggere Iceberg con Delta Uniform non riuscito.

Per altri dettagli, vedere DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED

SQLSTATE: 0A000

La tabella di ingresso Uniform create o refresh non è supportata.

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT

SQLSTATE: 0AKDC

Il formato <fileFormat> non è supportato. È supportato solo l'iceberg come formato di file originale.

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE: 0AKDC

Il formato universale è supportato solo nelle tabelle del catalogo Unity.

DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED

SQLSTATE: KD00E

Impossibile convertire la versione <version> della tabella nel formato <format>universale . <message>

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE: KD00E

La convalida del formato universale (<format>) non è riuscita: <violation>

DELTA_UNKNOWN_CONFIGURATION

SQLSTATE: F0000

È stata specificata la configurazione sconosciuta: <config>

DELTA_UNKNOWN_PRIVILEGE

SQLSTATE: 42601

Privilegio sconosciuto: <privilege>

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE: 42601

ReadLimit sconosciuto: <limit>

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE: 42601

La modifica della colonna non riconosciuta è <otherClass>. È possibile che si esegua una versione Delta Lake non aggiornata.

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE: 56038

Invariante non riconosciuto. Aggiornare la versione di Spark.

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE: KD00B

File di log non riconosciuto <fileName>

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE: 42616

Tentativo di annullare l'impostazione della proprietà non esistente '<property>' nella tabella <tableName>

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE: 0AKDC

<path> non supporta l'aggiunta di file con un percorso assoluto

DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP

SQLSTATE: 0AKDC

ALTER TABLE CHANGE COLUMN non è supportato per la modifica della colonna <fieldPath> da <oldField> a <newField>

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE: 0AKDC

Operazione ALTER TABLE REPLACE COLUMNS non supportata. Ragione: <details>

Impossibile modificare lo schema da:

<oldSchema>

in:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE: 0AKDC

Si è tentato di sostituire una tabella esistente (<tableName>) con CLONE. Questa operazione è

Non supportato. Provare una destinazione diversa per CLONE o eliminare la tabella nella destinazione corrente.

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE: 0AKDC

La modifica della modalità di mapping delle colonne da '<oldMode>' a '<newMode>' non è supportata.

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE: KD004

La versione corrente del protocollo di tabella non supporta la modifica delle modalità di mapping delle colonne

utilizzando <config>.

Versione del protocollo Delta necessaria per il mapping delle colonne:

<requiredVersion>

Versione corrente del protocollo Delta della tabella:

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Viene rilevata la modifica dello schema:

schema precedente:

<oldTableSchema>

nuovo schema:

<newTableSchema>

Le modifiche dello schema non sono consentite durante la modifica della modalità di mapping delle colonne.

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE: 0AKDC

La scrittura di dati con la modalità di mapping delle colonne non è supportata.

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

La creazione di un indice di filtro bloom in una colonna con tipo <dataType> non è supportata: <columnName>

DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY

SQLSTATE: 0AKDC

Non è possibile aggiungere un commento a <fieldPath>. L'aggiunta di un commento a un elemento chiave/valore della mappa o matrice non è supportata.

DELTA_UNSUPPORTED_DATA_TYPES

SQLSTATE: 0AKDC

Colonne trovate con tipi di dati non supportati: <dataTypeList>. È possibile impostare '<config>' su 'false' per disabilitare il controllo del tipo. La disabilitazione di questo controllo dei tipi può consentire agli utenti di creare tabelle Delta non supportate e deve essere usata solo quando si tenta di leggere/scrivere tabelle legacy.

DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN

SQLSTATE: 42621

<dataType> non può essere il risultato di una colonna generata

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE: 0A000

Il clone profondo non è supportato per questa versione Delta.

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE: 42809

<view> è una visualizzazione. DESCRIBE DETAIL è supportato solo per le tabelle.

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE: 0AKDC

L'eliminazione delle colonne di clustering (<columnList>) non è consentita.

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE: 0AKDC

DROP COLUMN non è supportato per la tabella Delta. <advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE: 0AKDC

Può eliminare solo le colonne annidate da StructType. Fondare <struct>

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE: 0AKDC

L'eliminazione delle colonne di partizione (<columnList>) non è consentita.

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE: 0A000

Tipo di espressione non supportato (<expType>) per <causedBy>. I tipi supportati sono [<supportedTypes>].

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

<expression> non può essere usato in una colonna generata

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE: 56038

Funzionalità di lettura Delta non supportata: la tabella "<tableNameOrPath>" richiede funzionalità di tabella lettore non supportate da questa versione di Databricks: <unsupported>. Per altre informazioni sulla compatibilità delle funzionalità di Delta Lake, vedere <link> .

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE: 56038

Funzionalità di scrittura Delta non supportata: la tabella "<tableNameOrPath>" richiede funzionalità di tabella writer non supportate da questa versione di Databricks: <unsupported>. Per altre informazioni sulla compatibilità delle funzionalità di Delta Lake, vedere <link> .

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE: 56038

Le funzionalità di tabella configurate nelle configurazioni spark o nelle proprietà della tabella Delta seguenti non vengono riconosciute da questa versione di Databricks: <configs>.

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE: 0AKDE

Si prevede che lo stato della funzionalità <feature> di tabella sia "supportato", ma ottenuto "<status>".

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE: 0AKDC

L'aggiornamento dei campi annidati è supportato solo per StructType, ma si sta tentando di aggiornare un campo di <columnName>, che è di tipo : <dataType>.

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE: 0A000

Il comando 'FSCK REPAIR TABLE' non è supportato nelle versioni della tabella con file vettoriali di eliminazione mancanti.

Contattare il supporto tecnico.

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE: 0A000

Il comando 'GENERATE symlink_format_manifest' non è supportato nelle versioni di tabella con vettori di eliminazione.

Per produrre una versione della tabella senza vettori di eliminazione, eseguire 'REORG TABLE TABLE APPLY (PURGE)'. Eseguire quindi di nuovo il comando 'GENERATE'.

Assicurarsi che nessuna transazione simultanea stia aggiungendo nuovamente vettori di eliminazione tra REORG e GENERATE.

Se è necessario generare regolarmente manifesti o non è possibile impedire transazioni simultanee, è consigliabile disabilitare i vettori di eliminazione in questa tabella usando 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE: 0AKDC

Gli invarianti nei campi annidati diversi da StructTypes non sono supportati.

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE: 0AKDC

Nella sottoquery non è supportata nella <operation> condizione .

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE: 0A000

listKeywithPrefix non disponibile

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE: 0AKDC

La generazione del manifesto non è supportata per le tabelle che sfruttano il mapping delle colonne, perché i lettori esterni non possono leggere queste tabelle Delta. Per altri dettagli, vedere la documentazione delta.

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE: 0A000

Le operazioni MERGE INTO con evoluzione dello schema non supportano attualmente la scrittura di output CDC.

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE: 0AKDC

I predicati in più colonne non sono supportati nella <operation> condizione.

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

La creazione di un indice del filer bloom in una colonna nidificata non è attualmente supportata: <columnName>

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE: 0AKDC

Il campo annidato non è supportato nel <operation> campo (campo = <fieldName>).

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE: 0AKDC

La tabella di destinazione clone non è vuota. Prima di eseguire CLONE, eseguire TRUNCATE o DELETE FROM dalla tabella.

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE: 0AKDC

L'origine <dataSource> dati non supporta la <mode> modalità di output

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

La creazione di un indice di filtro bloom in una colonna di partizionamento non è supportata: <columnName>

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE: 0AKDC

La ridenominazione della colonna non è supportata per la tabella Delta. <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE: 0AKDC

Delta non supporta la specifica dello schema in fase di lettura.

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE: 0A000

SORTED BY non è supportato per le tabelle con bucket Delta

DELTA_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDD

<operation> destination supporta solo le origini Delta.

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE: 0AKDD

La specifica di partizioni statiche nella specifica di partizione non è attualmente supportata durante gli inserimenti

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE: 22023

Nome strategia non supportato: <strategy>

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE: 0AKDC

Le sottoquery non sono supportate nella <operation> (condizione = <cond>).

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE: 0AKDC

La sottoquery non è supportata nei predicati di partizione.

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE: 42613

Impossibile specificare il viaggio temporale in più formati.

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE: 0AKDC

Non è possibile eseguire visualizzazioni, sottoquery, flussi o query del feed di dati delle modifiche.

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE: 0A000

Il troncamento delle tabelle di esempio non è supportato

DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA

SQLSTATE: 0AKDC

Impossibile operare su questa tabella perché è stata applicata una modifica del tipo non supportata. Il campo <fieldName> è stato modificato da <fromType> a <toType>.

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE: 0AKDC

Specificare il percorso di base (<baseDeltaPath>) quando si esegue il vacuuming delle tabelle Delta. Il vuoto di partizioni specifiche non è attualmente supportato.

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE: 42807

L'implementazione della tabella non supporta le scritture: <tableName>

DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR

SQLSTATE: 0AKDC

Si sta tentando di eseguire scritture in una tabella registrata con il coordinatore <coordinatorName>del commit. Tuttavia, nessuna implementazione di questo coordinatore è disponibile nell'ambiente corrente e le scritture senza coordinatori non sono consentite.

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE: 0A000

La scrittura in tabelle di esempio non è supportata

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE: 42846

Impossibile eseguire il cast <fromCatalog> a <toCatalog>. Tutte le colonne nidificate devono corrispondere.

DELTA_VACUUM_COPY_INTO_STATE_FAILED

SQLSTATE: 22000

VACUUM nei file di dati è riuscito, ma copy into state Garbage Collection non è riuscito.

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE: KD00C

Le versioni (<versionList>) non sono contigue.

Per altri dettagli, vedere DELTA_VERSIONS_NOT_CONTIGUOUS

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE: 23001

Vincolo <constraintName> <expression> CHECK violato dalla riga con valori:

<values>

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE: 0A000

La convalida delle proprietà della tabella <table> è stata violata:

Per altri dettagli, vedere DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE: 0A000

<viewIdentifier> è una visualizzazione. Non è possibile scrivere dati in una visualizzazione.

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

La colonna <columnName> Ordinamento Z non esiste nello schema dei dati.

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE: KD00D

Z-Ordering on <cols> sarà

inefficace, perché attualmente non vengono raccolte statistiche per queste colonne. Fare riferimento alla sezione

<link>

per altre informazioni sull'ordinamento dei dati e sull'ordinamento z. È possibile disabilitare

questo controllo impostando

'%%sql set <zorderColStatKey> = false'

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE: 42P10

<colName> è una colonna di partizione. L'ordinamento Z può essere eseguito solo sulle colonne di dati

Autoloader

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE: 0A000

La modalità <addNewColumnsMode> di evoluzione dello schema non è supportata quando viene specificato lo schema. Per usare questa modalità, è possibile specificare lo schema tramite cloudFiles.schemaHints .

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE: 42000

Sono state trovate opzioni di autenticazione per l'installazione delle notifiche per la directory (predefinita)

modalità di presentazione:

<options>

Se si vuole usare la modalità di notifica file, impostare in modo esplicito:

.option("cloudFiles.<useNotificationsKey>", "true")

In alternativa, se si vuole ignorare la convalida delle opzioni e ignorare queste opzioni

è possibile impostare le opzioni di autenticazione:

.option("cloudFiles.ValidateOptionsKey>", "false")

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE: 42000

Modalità elenco incrementale (cloudFiles).<useIncrementalListingKey>

e notifica file (cloudFiles.<useNotificationsKey>)

sono state abilitate contemporaneamente.

Assicurarsi di selezionare solo uno.

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE: 42000

Richiedere adlsBlobSuffix e adlsDfsSuffix per Azure

CF_BUCKET_MISMATCH

SQLSTATE: 22000

L'oggetto <storeType> nell'evento <fileEvent> di file è diverso da quello previsto dall'origine: <source>.

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE: 22000

Impossibile evolvere lo schema quando il log dello schema è vuoto. Percorso del log dello schema: <logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE: 22000

Impossibile analizzare il messaggio della coda seguente: <message>

CF_CANNOT_RESOLVE_CONTAINER_NAME

SQLSTATE: 22000

Impossibile risolvere il nome del contenitore dal percorso: <path>, URI risolto: <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING

SQLSTATE: 22000

Impossibile eseguire l'elenco di directory quando è in esecuzione un thread di backfill asincrono

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE: 42000

Impossibile attivare cloudFiles.cleanSource e cloudFiles.allowOverwrites contemporaneamente.

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE: 42501

Il caricatore automatico non può eliminare i file elaborati perché non dispone delle autorizzazioni di scrittura per la directory di origine.

<reason>

Per risolvere il problema, è possibile:

  1. Concedere autorizzazioni di scrittura alla directory di origine OR
  2. Impostare cleanSource su 'OFF'

È anche possibile sbloccare il flusso impostando SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors su 'true'.

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE: 22000

Errore durante il tentativo di dedurre lo schema di partizione della tabella. La stessa colonna è duplicata nei percorsi di dati e partizione. Per ignorare il valore della partizione, specificare le colonne di partizione in modo esplicito usando: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE: 42000

Impossibile dedurre lo schema quando il percorso <path> di input è vuoto. Provare ad avviare il flusso quando sono presenti file nel percorso di input o specificare lo schema.

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE: 22000

Impossibile creare una sottoscrizione di Griglia di eventi. Assicurarsi che il servizio

principal include <permissionType> sottoscrizioni di Griglia di eventi. Per altre informazioni, vedere:

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE: 22000

Impossibile creare una sottoscrizione di Griglia di eventi. Assicurarsi che Microsoft.EventGrid sia

registrato come provider di risorse nella sottoscrizione. Per altre informazioni, vedere:

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE: 22000

Impossibile creare una sottoscrizione di Griglia di eventi. Assicurarsi che la risorsa di archiviazione

account (<storageAccount>) è nel gruppo di risorse (<resourceGroup>) e

l'account di archiviazione è un account "StorageV2 (utilizzo generico v2)". Per altre informazioni, vedere:

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE: 0A000

La modalità di notifica degli eventi del caricatore automatico non è supportata per <cloudStore>.

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE: 22000

Impossibile verificare se il flusso è nuovo

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE: 22000

Impossibile creare la sottoscrizione: <subscriptionName>. Esiste già una sottoscrizione con lo stesso nome ed è associata a un altro argomento: <otherTopicName>. L'argomento desiderato è <proposedTopicName>. Eliminare la sottoscrizione esistente o creare una sottoscrizione con un nuovo suffisso di risorsa.

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE: 22000

Impossibile creare l'argomento: <topicName>. Esiste già un argomento con lo stesso nome.<reason> Rimuovere l'argomento esistente o riprovare con un altro suffisso di risorsa

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

SQLSTATE: 22000

Impossibile eliminare la notifica con ID <notificationId> nel bucket <bucketName> per l'argomento <topicName>. Riprovare o rimuovere manualmente la notifica tramite la console GCP.

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE: 22000

Impossibile deserializzare lo schema persistente dalla stringa: '<jsonSchema>'

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE: 22000

Non è possibile evolvere lo schema senza un log dello schema.

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE: 42000

Impossibile trovare il provider per <fileFormatInput>

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE: 22000

Impossibile dedurre lo schema per il formato <fileFormatInput> dai file esistenti nel percorso <path>di input .

Per altri dettagli, vedere CF_FAILED_TO_INFER_SCHEMA

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE: 22000

Impossibile scrivere nel log dello schema nel percorso <path>.

CF_FILE_FORMAT_REQUIRED

SQLSTATE: 42000

Impossibile trovare l'opzione richiesta: cloudFiles.format.

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE: 22000

Sono state trovate più sottoscrizioni (<num>) con il prefisso del caricatore automatico per l'argomento <topicName>:

<subscriptionList>

Dovrebbe essere presente una sola sottoscrizione per argomento. Assicurarsi manualmente che l'argomento non abbia più sottoscrizioni.

CF_GCP_AUTHENTICATION

SQLSTATE: 42000

Specificare tutti gli elementi seguenti: <clientEmail>, <client>,

<privateKey>e <privateKeyId> o specificare nessuno di essi per usare il valore predefinito

Catena di provider di credenziali GCP per l'autenticazione con le risorse GCP.

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE: 22000

Troppe etichette ricevute (<num>) per la risorsa GCP. Il numero massimo di etichette per risorsa è <maxNum>.

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE: 22000

Sono stati ricevuti troppi tag di risorsa (<num>) per la risorsa GCP. Il numero massimo di tag delle risorse per risorsa è <maxNum>, perché i tag delle risorse vengono archiviati come etichette GCP nelle risorse e i tag specifici di Databricks usano alcune di queste quote di etichetta.

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE: 22000

File di log incompleto nel log dello schema nel percorso <path>

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE: 22000

File di metadati incompleto nel checkpoint del caricatore automatico

CF_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

Il metodo cloud_files accetta due parametri stringa obbligatori: il percorso da cui caricare e il formato di file. Le opzioni del lettore di file devono essere fornite in una mappa chiave-valore stringa. ad esempio cloud_files("path", "json", map("option1", "value1")). Ricevuto: <params>

CF_INTERNAL_ERROR

SQLSTATE: 42000

Errore interno.

Per altri dettagli, vedere CF_INTERNAL_ERROR

CF_INVALID_ARN

SQLSTATE: 42000

ARN non valido: <arn>

CF_INVALID_AZURE_CERTIFICATE

SQLSTATE: 42000

Non è possibile analizzare la chiave privata fornita con l'opzione cloudFiles.certificate. Specificare una chiave pubblica valida in formato PEM.

CF_INVALID_AZURE_CERT_PRIVATE_KEY

SQLSTATE: 42000

Non è possibile analizzare la chiave privata fornita con l'opzione cloudFiles.certificatePrivateKey. Specificare una chiave privata valida in formato PEM.

CF_INVALID_CHECKPOINT

SQLSTATE: 42000

Questo checkpoint non è un'origine CloudFiles valida

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE: 42000

Modalità non valida per l'opzione <value>di origine pulita .

CF_INVALID_GCP_RESOURCE_TAG_KEY

SQLSTATE: 42000

Chiave del tag di risorsa non valida per la risorsa GCP: <key>. Le chiavi devono iniziare con una lettera minuscola, avere una lunghezza compresa tra 1 e 63 caratteri e contenere solo lettere minuscole, numeri, caratteri di sottolineatura (_) e trattini (-).

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE: 42000

Valore del tag di risorsa non valido per la risorsa GCP: <value>. I valori devono essere compresi tra 0 e 63 caratteri e devono contenere solo lettere minuscole, numeri, caratteri di sottolineatura (_) e trattini (-).

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE: 42000

Il caricatore automatico non supporta le opzioni seguenti se usate con eventi di file gestiti:

<optionList>

È consigliabile rimuovere queste opzioni e quindi riavviare il flusso.

CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

SQLSTATE: 22000

Risposta non valida dal servizio eventi di file gestiti. Per assistenza, contattare il supporto di Databricks.

Per altri dettagli, vedere CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE: 42000

cloudFiles.<schemaEvolutionModeKey> deve essere uno di {

"<addNewColumns>"

"<failOnNewColumns>"

"<rescue>"

"<noEvolution>"}

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE: 42000

Gli hint dello schema possono specificare una sola volta una determinata colonna.

In questo caso, ridefinire la colonna: <columnName>

più volte in schemaHints:

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE: 42000

Gli hint dello schema non possono essere usati per eseguire l'override dei tipi annidati delle matrici e delle mappe.

Colonna in conflitto: <columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE: 22000

latestOffset deve essere chiamato con readLimit in questa origine.

CF_LOG_FILE_MALFORMED

SQLSTATE: 22000

Il file di log non è valido: non è stato possibile leggere la versione corretta del log da <fileName>.

CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS

SQLSTATE: 22000

È stato richiesto il caricatore automatico per ignorare i file esistenti nella posizione esterna impostando includeExistingFiles su false. Tuttavia, il servizio eventi file gestiti sta ancora individuando i file esistenti nel percorso esterno. Riprovare dopo il completamento dell'individuazione di tutti i file nella posizione esterna.

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE: 42000

Si usa il caricatore automatico con eventi di file gestiti, ma sembra che il percorso esterno per il percorso di input '<path>' non abbia eventi di file abilitati o il percorso di input non sia valido. Richiedere all'amministratore di Databricks di abilitare gli eventi di file nel percorso esterno per il percorso di input.

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE: 42000

Si usa il caricatore automatico con eventi di file gestiti, ma non si ha accesso al percorso esterno o al volume per il percorso di input '<path>' o il percorso di input non è valido. Richiedere all'amministratore di Databricks di concedere le autorizzazioni di lettura per il percorso o il volume esterno o fornire un percorso di input valido all'interno di un percorso esterno o di un volume esistente.

CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS

SQLSTATE: 56038

Il caricatore automatico con eventi di file gestiti è disponibile solo in Databricks serverless. Per continuare, spostare questo carico di lavoro in Databricks serverless o disattivare l'opzione cloudFiles.useManagedFileEvents.

CF_MAX_MUST_BE_POSITIVE

SQLSTATE: 42000

max deve essere positivo

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE: 22000

Più query di streaming usano simultaneamente <metadataFile>

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE: 42000

File di metadati nella directory del checkpoint di origine di streaming mancante. Questi metadati

il file contiene importanti opzioni predefinite per il flusso, quindi non è possibile riavviare il flusso

subito. Per assistenza, contattare il supporto di Databricks.

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE: 42000

La colonna <columnName> di partizione non esiste nello schema specificato:

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE: 42000

Specificare uno schema usando .schema() se non viene fornito un percorso all'origine CloudFiles durante l'uso della modalità di notifica file. In alternativa, per fare in modo che il caricatore automatico deduca lo schema fornisca un percorso di base in .load().

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE: 22000

Sono state trovate notifiche esistenti per l'argomento <topicName> nel bucket <bucketName>:

notifica, ID

<notificationList>

Per evitare di inquinare il sottoscrittore con eventi imprevisti, eliminare le notifiche precedenti e riprovare.

CF_NEW_PARTITION_ERROR

SQLSTATE: 22000

Le nuove colonne di partizione sono state dedotte dai file: [<filesList>]. Specificare tutte le colonne di partizione nello schema o specificare un elenco di colonne di partizione per cui estrarre i valori usando : .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")

CF_PARTITON_INFERENCE_ERROR

SQLSTATE: 22000

Errore durante il tentativo di dedurre lo schema di partizione del batch di file corrente. Specificare le colonne di partizione in modo esplicito usando : .option("cloudFiles.<partitionColumnOption>", "{virgola-separated-list}")

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES

SQLSTATE: 42000

Impossibile leggere i file quando il percorso <path> di input non esiste. Assicurarsi che il percorso di input esista e riprovare.

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE: 0A000

Il backfill periodico non è supportato se il riempimento backfill asincrono è disabilitato. È possibile abilitare l'elenco asincrono di backfill/directory impostando su spark.databricks.cloudFiles.asyncDirListing true

CF_PREFIX_MISMATCH

SQLSTATE: 22000

Trovato evento non corrispondente: la chiave <key> non ha il prefisso: <prefix>

CF_PROTOCOL_MISMATCH

SQLSTATE: 22000

<message>

Se non è necessario apportare altre modifiche al codice, impostare SQL

configurazione: '<sourceProtocolVersionKey> = <value>'

per riprendere il flusso. Fare riferimento a:

<docLink>

per altri dettagli.

CF_REGION_NOT_FOUND_ERROR

SQLSTATE: 42000

Impossibile ottenere l'area AWS predefinita. Specificare un'area usando l'opzione cloudFiles.region.

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE: 42000

Impossibile creare servizi di notifica: il suffisso della risorsa non può essere vuoto.

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE: 42000

Impossibile creare servizi di notifica: il suffisso della risorsa può contenere solo caratteri alfanumerici, trattini (-) e caratteri di sottolineatura (_).

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE: 42000

Impossibile creare servizi di notifica: il suffisso della risorsa può contenere solo lettere minuscole, numeri e trattini (-).

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE: 42000

Impossibile creare servizi di notifica: il suffisso della risorsa può contenere solo caratteri alfanumerici, trattini (-), caratteri di sottolineatura (_), punti (.), tilde (~) più segni (+) e segni di percentuale (<percentSign>).

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE: 42000

Impossibile creare servizi di notifica: il suffisso della risorsa non può contenere più di <limit> caratteri.

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE: 42000

Impossibile creare servizi di notifica: il suffisso della risorsa deve essere compreso tra <lowerLimit> e <upperLimit> i caratteri.

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE: 22000

È stata trovata la chiave del tag di risorsa GCP con restrizioni (<key>). Le chiavi del tag di risorsa GCP seguenti sono limitate per il caricatore automatico: [<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE: 42000

cloudFiles.cleanSource.retentionDuration non può essere maggiore di cloudFiles.maxFileAge.

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE: 22000

Impossibile creare la notifica per l'argomento: <topic> con prefisso: <prefix>. Esiste già un argomento con lo stesso nome con un altro prefisso: <oldPrefix>. Provare a usare un suffisso di risorsa diverso per l'installazione o eliminare l'installazione esistente.

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE: 42000

Specificare il percorso della directory di origine con l'opzione path

CF_SOURCE_UNSUPPORTED

SQLSTATE: 0A000

L'origine file cloud supporta solo i percorsi S3, Archiviazione BLOB di Azure (wasb/wasbs) e Azure Data Lake Gen1 (adl) e Gen2 (abfs/abfss). path: '<path>', URI risolto: '<uri>'

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

La funzione cloud_files_state accetta un parametro stringa che rappresenta la directory del checkpoint di un flusso cloudFiles o un tableName in più parti che identifica una tabella di streaming e un secondo parametro integer facoltativo che rappresenta la versione del checkpoint per cui caricare lo stato. Il secondo parametro può anche essere 'latest' per leggere il checkpoint più recente. Ricevuto: <params>

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE: 42000

Il percorso <path> del checkpoint di input non è valido. Il percorso non esiste o non sono state trovate cloud_files origini.

CF_STATE_INVALID_VERSION

SQLSTATE: 42000

La versione <version> specificata non esiste o è stata rimossa durante l'analisi.

CF_THREAD_IS_DEAD

SQLSTATE: 22000

<threadName> thread è morto.

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE: 42000

Impossibile derivare il percorso del checkpoint del flusso dal percorso del checkpoint di origine: <checkPointLocation>

CF_UNABLE_TO_DETECT_FILE_FORMAT

SQLSTATE: 42000

Impossibile rilevare il formato del file di origine da <fileSize> uno o più file campionati, trovato <formats>. Specificare il formato.

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE: 42000

Impossibile estrarre informazioni sui bucket. Percorso: '<path>', URI risolto: '<uri>'.

CF_UNABLE_TO_EXTRACT_KEY_INFO

SQLSTATE: 42000

Impossibile estrarre le informazioni sulla chiave. Percorso: '<path>', URI risolto: '<uri>'.

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE: 42000

Impossibile estrarre le informazioni dell'account di archiviazione; path: '<path>', URI risolto: '<uri>'

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE: 22000

È stato ricevuto un evento di ridenominazione della directory per il percorso <path>, ma non è possibile elencare questa directory in modo efficiente. Per continuare il flusso, impostare l'opzione 'cloudFiles.ignoreDirRenames' su true e valutare la possibilità di abilitare i backfill regolari con cloudFiles.backfillInterval per l'elaborazione di questi dati.

CF_UNEXPECTED_READ_LIMIT

SQLSTATE: 22000

ReadLimit imprevisto: <readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE: 42000

Sono state trovate chiavi di opzione sconosciute:

<optionList>

Assicurarsi che tutte le chiavi di opzione specificate siano corrette. Se si desidera ignorare il

convalida delle opzioni e ignorare queste opzioni sconosciute, è possibile impostare:

.option("cloudFiles.<validateOptions>", "false")

CF_UNKNOWN_READ_LIMIT

SQLSTATE: 22000

ReadLimit sconosciuto: <readLimit>

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION

SQLSTATE: 0A000

La funzione SQL 'cloud_files' per creare un'origine di streaming del caricatore automatico è supportata solo in una pipeline di tabelle live Delta. Per altre informazioni, vedere:

<docLink>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE: 0A000

L'inferenza dello schema non è supportata per il formato : <format>. Specificare lo schema.

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE: 0A000

UnsupportedLogVersion: la versione massima supportata del log è v<maxVersion>``, but encountered v``<version>. Il file di log è stato prodotto da una versione più recente di DBR e non può essere letto da questa versione. Aggiornare.

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE: 0A000

La modalità <mode> di evoluzione dello schema non è supportata per il formato: <format>. Impostare la modalità di evoluzione dello schema su 'none'.

CF_USE_DELTA_FORMAT

SQLSTATE: 42000

La lettura da una tabella Delta non è supportata con questa sintassi. Per usare i dati da Delta, fare riferimento alla documentazione: leggere una tabella Delta (<deltaDocLink>) o leggere una tabella Delta come origine di flusso (<streamDeltaDocLink>). L'origine di streaming da Delta è già ottimizzata per l'utilizzo incrementale dei dati.

GeoSpatial

EWKB_PARSE_ERROR

SQLSTATE: 22023

Errore durante l'analisi di EWKB: <parseError> in corrispondenza della posizione <pos>

GEOJSON_PARSE_ERROR

SQLSTATE: 22023

Errore durante l'analisi di GeoJSON: <parseError> in corrispondenza della posizione <pos>

Per altri dettagli, vedere GEOJSON_PARSE_ERROR

H3_INVALID_CELL_ID

SQLSTATE: 22023

<h3Cell> non è un ID cella H3 valido

Per altri dettagli, vedere H3_INVALID_CELL_ID

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE: 22023

La distanza <k> della griglia H3 deve essere non negativa

Per altri dettagli, vedere H3_INVALID_GRID_DISTANCE_VALUE

H3_INVALID_RESOLUTION_VALUE

SQLSTATE: 22023

La risoluzione <r> H3 deve essere compresa tra <minR> e <maxR>, inclusiva

Per altri dettagli, vedere H3_INVALID_RESOLUTION_VALUE

H3_NOT_ENABLED

SQLSTATE: 0A000

<h3Expression> è disabilitato o non supportato. Valutare la possibilità di abilitare Photon o passare a un livello che supporta espressioni H3

Per altri dettagli, vedere H3_NOT_ENABLED

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE: 22023

Un pentagono è stato incontrato durante il calcolo dell'anello esadecimale di con distanza della <h3Cell> griglia <k>

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE: 22023

Distanza della griglia H3 tra <h3Cell1> e <h3Cell2> non definita

ST_DIFFERENT_SRID_VALUES

SQLSTATE: 22023

Gli argomenti di "<sqlFunction>" devono avere lo stesso valore SRID. Valori SRID trovati: <srid1>, <srid2>

ST_INVALID_ARGUMENT

SQLSTATE: 22023

"<sqlFunction>": <reason>

ST_INVALID_ARGUMENT_TYPE

SQLSTATE: 22023

L'argomento di "<sqlFunction>" deve essere di tipo <validTypes>

ST_INVALID_CRS_TRANSFORMATION_ERROR

SQLSTATE: 22023

<sqlFunction>: trasformazione CRS non valida o non supportata da SRID <srcSrid> a SRID <trgSrid>

ST_INVALID_ENDIANNESS_VALUE

SQLSTATE: 22023

Endianness <e> deve essere "NDR" (little-endian) o "XDR" (big-endian)

ST_INVALID_GEOHASH_VALUE

SQLSTATE: 22023

<sqlFunction>: valore geohash non valido: '<geohash>'. I valori geohash devono essere stringhe base32 minuscole valide, come descritto inhttps://en.wikipedia.org/wiki/Geohash#Textual_representation

ST_INVALID_PRECISION_VALUE

SQLSTATE: 22023

La precisione <p> deve essere compresa tra <minP> e <maxP>, inclusiva

ST_INVALID_SRID_VALUE

SQLSTATE: 22023

SRID non valido o non supportato <srid>

ST_NOT_ENABLED

SQLSTATE: 0A000

<stExpression> è disabilitato o non supportato. Valutare la possibilità di abilitare Photon o passare a un livello che supporta le espressioni ST

ST_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

I tipi di dati GEOGRAPHY e GEOMETRY non possono essere restituiti nelle query. Usare una delle espressioni SQL seguenti per convertirle in formati di interscambio standard: <projectionExprs>.

WKB_PARSE_ERROR

SQLSTATE: 22023

Errore durante l'analisi WKB: <parseError> in corrispondenza della posizione <pos>

Per altri dettagli, vedere WKB_PARSE_ERROR

WKT_PARSE_ERROR

SQLSTATE: 22023

Errore durante l'analisi WKT: <parseError> in corrispondenza della posizione <pos>

Per altri dettagli, vedere WKT_PARSE_ERROR