Teilen über


Fehlerklassen in Azure Databricks

Gilt für:mit 'Ja' markiert Databricks SQL mit 'Ja' markiert Databricks Runtime 12.2 und höher

Fehlerklassen sind beschreibende, lesbare Zeichenfolgen, die für die Fehlerbedingung eindeutig sind.

Sie können Fehlerklassen verwenden, um Fehler in Ihrer Anwendung programmgesteuert zu behandeln, ohne die Fehlermeldung analysieren zu müssen.

Dies ist eine Liste allgemeiner, benannter Fehlerbedingungen, die von Azure Databricks zurückgegeben werden.

Databricks Runtime und Databricks SQL

ADD_DEFAULT_UNSUPPORTED

SQLSTATE: 42623

Fehler beim Ausführen des <statementType>-Befehls, da DEFAULT-Werte beim Hinzufügen neuer Spalten zur zuvor vorhandenen Zieldatenquelle mit dem Tabellenanbieter: "<dataSource>" nicht unterstützt werden.

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE: 42845

Nicht deterministischer Ausdruck <sqlExpr> sollte nicht in den Argumenten einer Aggregatfunktion angezeigt werden.

AI_FUNCTION_HTTP_PARSE_CAST_ERROR

SQLSTATE: 2203G

Fehler beim Parsen der Modellausgabe beim Umwandeln in den angegebenen Rückgabetyp: „<dataType>“, die JSON-Antwort lautete: „<responseString>“. Aktualisieren Sie den returnType so, dass er dem Inhalt des Typs entspricht, der durch den Antwort-JSON dargestellt wird, und wiederholen Sie dann die Abfrage erneut.

AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR

SQLSTATE: 2203G

Die tatsächliche Modellausgabe weist mehr als eine Spalte "<responseString>" auf. Der angegebene Rückgabetyp["<dataType>"] hat jedoch nur eine Spalte. Aktualisieren Sie den returnType so, dass er dieselbe Anzahl von Spalten wie die Modellausgabe enthält, und wiederholen Sie dann die Abfrage erneut.

AI_FUNCTION_HTTP_REQUEST_ERROR

SQLSTATE: 080000

Fehler beim Ausführen einer HTTP-Anforderung für die Funktion <funcName>: <errorMessage>

AI_FUNCTION_INVALID_HTTP_RESPONSE

SQLSTATE: 080000

Ungültige HTTP-Antwort für Funktion <funcName>: <errorMessage>

AI_FUNCTION_INVALID_MAX_WORDS

SQLSTATE: 22032

Die maximale Anzahl von Wörtern muss eine nicht negative ganze Zahl sein, es wurde aber <maxWords> erhalten.

AI_FUNCTION_INVALID_MODEL_PARAMETERS

SQLSTATE: 22023

Die bereitgestellten Modellparameter (<modelParameters>) sind in der AI_QUERY-Funktion für die Bereitstellung des Endpunkts "<endpointName>" ungültig.

Weitere Details finden Sie unter AI_FUNCTION_INVALID_MODEL_PARAMETERS

AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE

SQLSTATE: 0A000

AI-Funktion: "<functionName>" erfordert eine gültige <format>-Zeichenfolge für den responseFormat-Parameter, aber es wurde folgendes Antwortformat gefunden: "<invalidResponseFormat>". Ausnahme: <errorMessage>

AI_FUNCTION_JSON_PARSE_ERROR

SQLSTATE: 22000

Fehler beim Parsen der JSON-Antwort für Funktion <funcName>: <errorMessage>

AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR

SQLSTATE: 2203G

Fehler beim Analysieren des Schemas für den bereitgestellten Endpunkt "<endpointName>": <errorMessage>, Antwort-JSON lautete: "<responseJson>".

Legen Sie den returnType Parameter manuell in der AI_QUERY-Funktion fest, um die Schemaauflösung außer Kraft zu setzen.

AI_FUNCTION_UNSUPPORTED_ERROR

SQLSTATE: 56038

Die Funktion <funcName> wird in der aktuellen Umgebung nicht unterstützt. Sie ist nur in Databricks SQL Pro und Serverless verfügbar.

AI_FUNCTION_UNSUPPORTED_REQUEST

SQLSTATE: 0A000

Fehler beim Auswerten der SQL-Funktion "<functionName>", da das angegebene Argument von <invalidValue> "<invalidDataType>" aufweist, aber nur die folgenden Typen werden unterstützt: <supportedDataTypes>. Aktualisieren Sie den Funktionsaufruf, um ein Argument vom Zeichenfolgentyp bereitzustellen, und wiederholen Sie die Abfrage erneut.

AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT

SQLSTATE: 0A000

Ein nicht unterstütztes Antwortformat wurde gefunden.

Weitere Details finden Sie unter AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT.

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

KI-Funktion: "<functionName>" unterstützt nicht den folgenden Typ als Rückgabetyp: "<typeName>". Der Rückgabetyp muss ein gültiger SQL-Typ sein, der von Catalyst verstanden und von der KI-Funktion unterstützt wird. Aktuelle unterstützte Typen umfassen: <supportedValues>

AI_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22032

Der bereitgestellte Wert "<argValue>" wird von Argument "<argName>" nicht unterstützt. Unterstützte Werte sind: <supportedValues>

AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT

SQLSTATE: 0A000

Erwartet wurde, dass der Aufgabentyp des Endpunkts „Chat“ für die Unterstützung strukturierter Ausgaben ist, aber es wurde „<taskType>“ für den Endpunkt „<endpointName>“ gefunden.

AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH

SQLSTATE: 0A000

Der bereitgestellte Ausdruck „<sqlExpr>“ wird vom Argument „returnType“ nicht unterstützt.

AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR

SQLSTATE: 0A000

Konfliktierende Parameter für vector_search SQL-Funktion erkannt: <conflictParamNames>.<hint>

AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search SQL-Funktion mit eingebettetem Spaltentyp <embeddingColumnType> wird nicht unterstützt.

AI_SEARCH_EMPTY_QUERY_PARAM_ERROR

SQLSTATE: 0A000

vector_search Der SQL-Funktion fehlt der Abfrageeingabeparameter, bitte geben Sie mindestens einen von: <parameterNames>an.

AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR

SQLSTATE: 0A000

Der Parameter query für die vector_search SQL-Funktion wird nicht für die hybrid Vektorsuche unterstützt. Verwenden Sie stattdessen query_text.

AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR

SQLSTATE: 0A000

Der Abfragetext wurde in der sql-Funktion vector_search für hybrid Vektorsuche nicht gefunden. Geben Sie query_text an.

AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search SQL-Funktion mit Indextyp <indexType> wird nicht unterstützt.

AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR

SQLSTATE: 0A000

query_vector muss für index <indexName> angegeben werden, da sie keinem Einbettungsmodellendpunkt zugeordnet ist.

AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR

SQLSTATE: 0A000

Fehler beim Materialisieren der SQL-Funktionsabfrage vector_search vom Spark-Typ <dataType> für native Scala-Objekte während der Anforderungscodierung: <errorMessage>.

AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search SQL-Funktion mit Abfragetyp <unexpectedQueryType> wird nicht unterstützt. Geben Sie einen Typ aus <supportedQueryTypes> an.

AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR

SQLSTATE: 0A000

vector_search SQL-Funktion mit num_results größer als <maxLimit> wird nicht unterstützt. Der angegebene Grenzwert ist <requestedLimit>. Versuchen Sie es bitte erneut mit num_results <= <maxLimit>

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

Für die Verwendung von parametrisierten Namensabfragen müssen alle Parameter benannt werden. Parameter ohne Namen: <exprs>.

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE: KD005

Nicht alle Spalten können als Partitionsspalten verwendet werden.

ALTER_PLAN_EXISTIERT_NICHT

SQLSTATE: 42704

<scheduleType> einer Tabelle kann nicht geändert werden, ohne dass ein vorhandener Zeitplan oder Trigger vorhanden ist. Fügen Sie der Tabelle einen Zeitplan oder Trigger hinzu, bevor Sie versuchen, ihn zu ändern.

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

ALTER TABLE <type> Spalte <columnName> gibt deskriptor "<optionName>" mehrmals an, was ungültig ist.

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE: 42KD0

Der Name <name> ist im geschachtelten CTE mehrdeutig.

Legen Sie <config> auf "CORRECTED" fest, damit der in inneren CTE definierte Name Vorrang hat. Wenn sie auf "LEGACY" festgelegt ist, haben äußere CTE-Definitionen Vorrang.

Siehe https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine".

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE: 42702

Spalte oder Feld <name> ist mehrdeutig und weist <n> Übereinstimmungen auf.

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE: 42702

Spalten-<name> ist mehrdeutig. Dies liegt daran, dass Sie mehrere DataFrames miteinander verknüpft haben, und einige dieser DataFrames sind identisch.

Diese Spalte verweist auf einen der DataFrames, aber Spark kann nicht herausfinden, welches element.

Bitte weisen Sie den DataFrames über DataFrame.alias unterschiedliche Namen zu, bevor Sie sie zusammenführen.

und geben Sie die Spalte mithilfe des qualifizierten Namens an, z. B. df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).

UNEINDEUTIGE_EINSCHRÄNKUNG

SQLSTATE: 42K0C

Mehrdeutige Referenz auf Einschränkung <constraint>.

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE: 42702

Der Alias der Lateral-Spalte <name> ist mehrdeutig und weist <n> Übereinstimmungen auf.

AMBIGUOUS_REFERENCE

SQLSTATE: 42704

Der Verweis <name> ist mehrdeutig, könnte <referenceNames>sein.

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE: 420000

Mehrdeutiger Verweis auf das Feld <field>. Es erscheint <count> Mal im Schema.

ANALYZE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 0A000

ANALYZE CONSTRAINTS wird nicht unterstützt.

ANSI_CONFIG_CANNOT_BE_DISABLED

SQLSTATE: 56038

Die ANSI SQL-Konfiguration <config> kann in diesem Produkt nicht deaktiviert werden.

AQE_THREAD_INTERRUPTED

SQLSTATE: HY008

Der AQE-Thread wird unterbrochen, wahrscheinlich aufgrund des Abbruchs von Abfragen durch den Benutzer.

ARGUMENT_NOT_CONSTANT

SQLSTATE: 42K08

Die Funktion <functionName> enthält einen Parameter <parameterName> an position <pos>, der ein konstantes Argument erfordert. Berechnen Sie das Argument <sqlExpr> separat, und übergeben Sie das Ergebnis als Konstante.

ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<message>.<alternative> Legen Sie bei Bedarf <config> auf "false" fest, um diesen Fehler zu umgehen.

Weitere Details finden Sie unter ARITHMETIC_OVERFLOW.

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE: 42802

Die Anzahl der Spalten oder Variablen, die zugewiesen oder aliasiert werden: <numTarget> stimmt nicht mit der Anzahl der Quellausdrücke überein: <numExpr>.

AS_OF_JOIN

SQLSTATE: 42604

Ungültiger As-of-Join.

Weitere Details finden Sie unter AS_OF_JOIN.

AVRO_DEFAULT_VALUES_UNSUPPORTED

SQLSTATE: 0A000

Die Verwendung von Standardwerten wird nicht unterstützt, wennrescuedDataColumn aktiviert ist. Sie können diese Überprüfung möglicherweise entfernen, indem Sie spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue auf "false" festlegen, die Standardwerte werden jedoch nicht angewendet, und NULL-Werte werden weiterhin verwendet.

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE: 22KD3

Avro <avroPath> kann nicht in SQL-<sqlPath> konvertiert werden, da der ursprüngliche codierte Datentyp <avroType>ist. Sie versuchen jedoch, das Feld als <sqlType>zu lesen, was zu einer falschen Antwort führen würde.

Um das Lesen dieses Felds zuzulassen, aktivieren Sie die SQL-Konfiguration: „spark.sql.legacy.avro.allowIncompatibleSchema”.

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE: 0A000

Die Verwendung des Positionsfeldabgleichs wird nicht unterstützt, wenn entweder rescuedDataColumn oder failOnUnknownFields aktiviert ist. Entfernen Sie diese Optionen, um fortzufahren.

BATCH_METADATA_NOT_FOUND

SQLSTATE: 42K03

Batch-<batchMetadataFile>konnte nicht gefunden werden.

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE: 42616

BigQuery-Verbindungsanmeldeinformationen müssen entweder mit dem Parameter "GoogleServiceAccountKeyJson" oder mit allen folgenden Parametern angegeben werden: 'projectId', 'OAuthServiceAcctEmail', 'OAuthPvtKey'.

Binärer Arithmetiküberlauf

SQLSTATE: 22003

<value1> <symbol> <value2> verursachte Überlauf. Verwenden Sie <functionName>, um das Überlaufproblem zu ignorieren und NULLzurückzugeben.

BOOLEAN_STATEMENT_WITH_EMPTY_ROW

SQLSTATE: 210000

Boolesche Anweisung <invalidStatement> ist ungültig. Es wurde eine einzelne Zeile mit einem Wert des typs BOOLEAN erwartet, aber eine leere Zeile erhalten.

BUILT_IN_CATALOG

SQLSTATE: 42832

<operation> unterstützt keine integrierten Kataloge.

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE: 42KDE

Die Methode <methodName> kann nicht für Streaming-Dataset/DataFrame aufgerufen werden.

CANNOT_ALTER_COLLATION_BUCKET_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN kann die Sortierung von Typ/Untertypen von Bucket-Spalten nicht ändern, hat aber die Bucketspalte <columnName> in der Tabelle <tableName> gefunden.

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN wird für Partitionsspalten nicht unterstützt, aber es wurde die Partitionsspalte <columnName> in der Tabelle <tableName>gefunden.

CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK

SQLSTATE: 42611

Um die Spalte für die Ereigniszeit neu zuzuweisen, muss ein Wasserzeichen definiert werden. Die Wasserzeichendefinition in der Streamingabfrage konnte nicht gefunden werden.

CANNOT_CAST_DATATYPE

SQLSTATE: 42846

<sourceType> kann nicht in <targetType>umgestellt werden.

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

Protobuf-<protobufColumn> kann nicht in SQL-<sqlColumn> konvertiert werden, da das Schema nicht kompatibel ist (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

<protobufType> von Protobuf kann nicht in SQL-Typ <toType>konvertiert werden.

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQLSTATE: 42846

SQL-<sqlColumn> kann nicht in Protobuf-<protobufColumn> konvertiert werden, da das Schema nicht kompatibel ist (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE - Kann SQL-Wert nicht in Protobuf-Enum-Typ konvertieren

SQLSTATE: 42846

SQL-<sqlColumn> kann nicht in Protobuf-<protobufColumn> konvertiert werden, da <data> nicht unter den definierten Werten für Enum: <enumString>ist.

CANNOT_COPY_STATE

SQLSTATE: 0AKD0

Der Katalogstatus kann nicht wie aktuelle Datenbank und temporäre Ansichten aus dem Unity-Katalog in einen Legacykatalog kopiert werden.

CANNOT_CREATE_DATA_SOURCE_TABLE

SQLSTATE: 42KDE

Fehler beim Erstellen der Datenquellentabelle <tableName>:

Weitere Details finden Sie unter CANNOT_CREATE_DATA_SOURCE_TABLE.

KANN_URL_NICHT_ENTCODIEREN

SQLSTATE: 22546

Die angegebene URL kann nicht decodiert werden: <url>. Stellen Sie sicher, dass die URL ordnungsgemäß formatiert ist, und versuchen Sie es erneut.

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE: 42832

Der systemeigene <resourceType> kann nicht gelöscht werden.

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

Die Einschränkung mit dem Namen <constraintName>, der gemeinsam mit einer CHECK-Einschränkung

und einer PRIMARY KEY-oder FOREIGN KEY-Einschränkung verwendet wird, kann nicht getrennt werden. Sie können die PRIMARY KEY- oder

FOREIGN KEY-Beschränkung durch folgende Abfragen trennen:

ALTER TABLE .. DROP PRIMARY KEY oder

ALTER TABLE .. DROP FOREIGN KEY ..

KANN_KEINE_VERBINDUNG_HERSTELLEN

SQLSTATE: 08001

Eine Verbindung zur Remotedatenbank <jdbcDialectName> kann nicht hergestellt werden. Überprüfen Sie Verbindungsinformationen und Anmeldeinformationen, z. B. Host, Port, Benutzer, Kennwort und Datenbankoptionen. ** Wenn Sie der Meinung sind, dass die Informationen korrekt sind, überprüfen Sie bitte die Netzwerkeinrichtung Ihres Arbeitsbereichs, und stellen Sie sicher, dass sie keine ausgehenden Einschränkungen für den Host hat. Überprüfen Sie auch, ob der Host eingehende Verbindungen nicht vom Netzwerk blockiert, in dem die Spark-Cluster des Arbeitsbereichs bereitgestellt werden. ** Detaillierte Fehlermeldung: <causeErrorMessage>.

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE: 08001

Die Verbindung mit der Remotedatenbank <jdbcDialectName> kann nicht hergestellt werden. Überprüfen Sie Verbindungsinformationen und Anmeldeinformationen, z. B. Host, Port, Benutzer, Kennwort und Datenbankoptionen. ** Wenn Sie der Meinung sind, dass die Informationen korrekt sind, lassen Sie den eingehenden Datenverkehr vom Internet an Ihren Host zu, während Sie Serverless Compute verwenden. Wenn Ihre Netzwerkrichtlinien eingehenden Internetdatenverkehr nicht zulassen, verwenden Sie bitte nicht Serverless Compute, oder Wenden Sie sich an Ihren Databricks-Vertreter, um mehr über Serverless Private Networking zu erfahren. ** Detaillierte Fehlermeldung: <causeErrorMessage>.

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE: 0A000

Datasettransformationen und -aktionen können nur vom Treiber aufgerufen werden, nicht innerhalb anderer Datasettransformationen; Beispielsweise ist "dataset1.map(x => dataset2.values.count() * x) " ungültig, da die Wertetransformation und -zählungsaktion nicht innerhalb der Dataset1.map-Transformation ausgeführt werden kann. Weitere Informationen finden Sie unter SPARK-28702.

CANNOT_LOAD_FUNCTION_CLASS

SQLSTATE: 46103

Klasse <className> beim Registrieren der Funktion <functionName>kann nicht geladen werden. Stellen Sie sicher, dass sie sich auf dem Klassenpfad befindet.

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE: 42K03

Die Protobuf-Klasse mit dem Namen <protobufClassName>konnte nicht geladen werden. <explanation>.

CANNOT_LOAD_STATE_STORE

SQLSTATE: 58030

Beim Laden des Zustands ist ein Fehler aufgetreten.

Weitere Details finden Sie unter CANNOT_LOAD_STATE_STORE.

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE: 42825

Fehler beim Zusammenführen inkompatibler Datentypen <left> und <right>. Überprüfen Sie die Datentypen der zusammengeführten Spalten, und stellen Sie sicher, dass sie kompatibel sind. Ziehen Sie bei Bedarf die Umwandlung der Spalten in kompatible Datentypen in Betracht, bevor Sie die Zusammenführung versuchen.

CANNOT_MERGE_SCHEMAS

SQLSTATE: 42KD9

Fehler beim Zusammenführen von Schemas:

Anfängliches Schema:

<left>

Schema, das nicht mit dem ursprünglichen Schema zusammengeführt werden kann:

<right>.

CANNOT_MODIFY_CONFIG

SQLSTATE: 46110

Der Wert der Spark-Konfiguration kann nicht geändert werden: <key>.

Siehe auch https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements.

CANNOT_PARSE_DECIMAL

SQLSTATE: 22018

Dezimalwerte können nicht geparst werden. Bitte stellen Sie sicher, dass die Eingabe eine gültige Zahl mit optionalem Dezimalpunkt oder Dezimalkomma ist.

CANNOT_PARSE_INTERVAL

SQLSTATE: 22006

<intervalString> kann nicht geparst werden. Stellen Sie sicher, dass der angegebene Wert in einem gültigen Format zum Definieren eines Intervalls enthalten ist. Sie können auf die Dokumentation für das richtige Format verweisen. Wenn das Problem weiterhin besteht, überprüfen Sie bitte, ob der Eingabewert nicht null oder leer ist, und versuchen Sie es erneut.

CANNOT_PARSE_JSON_FIELD

SQLSTATE: 2203G

Der Feldname <fieldName> und der Wert <fieldValue> des JSON-Tokentyps <jsonType> können nicht auf den Spark-Zieldatentyp <dataType> geparst werden.

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

SQLSTATE: 22018

Fehler beim Analysieren von Deskriptorbytes in Protobuf FileDescriptorSet.

CANNOT_PARSE_TIMESTAMP

SQLSTATE: 22007

<message>. Verwenden Sie <func>, um eine ungültige Eingabezeichenfolge zu tolerieren und stattdessen NULL zurückzugeben.

CANNOT_QUERY_TABLE_DURING_INITIALIZATION

SQLSTATE: 55019

MV/ST kann während der Initialisierung nicht abgerufen werden.

Weitere Informationen finden Sie unter CANNOT_QUERY_TABLE_DURING_INITIALIZATION.

KANN_ARCHIVIERTE_DATEI_NICHT_LESEN

SQLSTATE: KD003

Die Datei kann nicht im Pfad <path> gelesen werden, da sie archiviert wurde. Passen Sie Die Abfragefilter an, um archivierte Dateien auszuschließen.

KANN_DATEI_NICHT_LESEN

SQLSTATE: KD003

Die <format>-Datei kann nicht gelesen werden unter Pfad: <path>.

Weitere Informationen finden Sie unter CANNOT_READ_FILE

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

SQLSTATE: 42501

Vertraulicher Schlüssel "<key>" kann nicht vom sicheren Anbieter gelesen werden.

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE: 429BB

Die Strukturtypzeichenfolge kann nicht erkannt werden: <fieldType>, Spalte: <fieldName>. Der angegebene Datentyp für das Feld kann von Spark SQL nicht erkannt werden. Überprüfen Sie den Datentyp des angegebenen Felds, und stellen Sie sicher, dass es sich um einen gültigen Spark SQL-Datentyp handelt. Eine Liste der gültigen Datentypen und deren Format finden Sie in der Spark SQL-Dokumentation. Wenn der Datentyp korrekt ist, stellen Sie sicher, dass Sie eine unterstützte Version von Spark SQL verwenden.

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE: 0AKD0

Auf einen Unity-Katalog <objType> in Hive-Metastore-Objekten kann nicht verwiesen werden.

CANNOT_REMOVE_RESERVED_PROPERTY

SQLSTATE: 420000

Reservierte Eigenschaft kann nicht entfernt werden: <property>.

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE: 0AKD0

Das Umbenennen einer <type> über Kataloge hinweg ist nicht zulässig.

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE: 0AKD0

Das Umbenennen einer <type> über Schemas hinweg ist nicht zulässig.

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE: 42704

DataFrame-Spalte <name>kann nicht identifiziert werden. Es liegt wahrscheinlich an illegalen Verweisen wie df1.select(df2.col("a")).

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE: 42704

<targetString>.* kann anhand der Eingabespalten <columns> nicht aufgelöst werden. Überprüfen Sie, ob die angegebene Tabelle oder Struktur vorhanden ist und auf die Eingabespalten zugegriffen werden kann.

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE: 58030

Fehler beim Festlegen von Berechtigungen für den erstellten Pfad <path> zurück zu <permission>.

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE: 0AKD0

Tabellen können zwischen Unity Catalog und Hive Metastore nicht flach geklont werden.

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE: 0AKUC

Eine Tabelle <table>, die bereits ein flacher Klon ist, kann nicht flach geklont werden.

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE: 0AKUC

Shallow Clone ist nur für den MANAGED Tabellentyp zulässig. Die Tabelle <table> ist nicht MANAGED Tabelle.

KANN_FELD_NICHT_AKTUALISIEREN

SQLSTATE: 0A000

Das <table>-Feld vom <fieldName>-Typ kann nicht aktualisiert werden:

Weitere Informationen finden Sie unter FELD_NICHT_AKTUALISIERBAR

CANNOT_UP_CAST_DATATYPE

SQLSTATE: 42846

<expression> kann nicht von <sourceType> in <targetType> umgewandelt werden.

<details>

CANNOT_USE_KRYO

SQLSTATE: 22KD3

Der Kryo-Serialisierungscodec kann nicht geladen werden. Die Kryo-Serialisierung kann nicht im Spark Connect-Client verwendet werden. Verwenden Sie die Java-Serialisierung, stellen Sie stattdessen einen benutzerdefinierten Codec bereit, oder verwenden Sie stattdessen Spark Classic.

CANNOT_VALIDATE_CONNECTION

SQLSTATE: 080000

Die Überprüfung der <jdbcDialectName>-Verbindung wird nicht unterstützt. Wenden Sie sich an die Databricks-Unterstützung für alternative Lösungen, oder legen Sie "spark.databricks.testConnectionBeforeCreation" auf "false" fest, um verbindungstests zu überspringen, bevor Sie ein Verbindungsobjekt erstellen.

CANNOT_WRITE_STATE_STORE

SQLSTATE: 58030

Fehler beim Schreiben von Zustandsspeicherdateien für Anbieter <providerClass>.

Weitere Informationen finden Sie unter CANNOT_WRITE_STATE_STORE.

CAST_INVALID_INPUT

SQLSTATE: 22018

Der Wert <expression> des Typs <sourceType> kann nicht in <targetType> umgewandelt werden, da er fehlerhaft ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie den Zieltyp. Verwenden Sie try_cast, um falsch formatierte Eingaben zu tolerieren und stattdessen NULL zurückzugeben.

Weitere Details finden Sie unter CAST_INVALID_INPUT.

CAST_OVERFLOW

SQLSTATE: 22003

Der Wert <value> des Typs <sourceType> kann aufgrund eines Überlaufs nicht in <targetType> umgewandelt werden. Verwenden Sie try_cast, um Überlauf zu tolerieren und stattdessen NULL zurückzugeben.

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE: 22003

Aufgrund eines Überlaufs konnte kein Wert vom Typ <sourceType> der <targetType>-Typspalte oder Variablen <columnName> zugewiesen werden. Verwenden Sie try_cast für den Eingabewert, um Überlauf zu tolerieren und stattdessen NULL zurückzugeben.

KATALOG_NICHT_GEFUNDEN

SQLSTATE: 42P08

Der Katalog <catalogName> nicht gefunden. Erwägen Sie, die SQL-Konfiguration <config> auf ein Katalog-Plug-In festzulegen.

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE: 560000

Prüfpunktblock <rddBlockId> nicht gefunden!

Entweder der Executor, der die Prüfpunkte für diese Partition ursprünglich festgelegt hat, ist nicht mehr aktiv, oder die ursprüngliche RDD wird nicht beständig gespeichert.

Wenn dieses Problem weiterhin besteht, können Sie stattdessen rdd.checkpoint() verwenden, was langsamer ist als lokale Prüfpunkte, aber fehlertoleranter.

CIRCULAR_CLASS_REFERENCE

SQLSTATE: 42602

In einer Klasse dürfen keine Zirkelbezüge vorhanden sein, aber in Klasse <t> wurde ein Zirkelbezug gefunden.

CLASS_NOT_OVERRIDE_EXPECTED_METHOD

SQLSTATE: 380000

<className> muss entweder <method1> oder <method2>überschreiben.

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE: 0A000

MapObjects unterstützt die Klasse <cls> nicht als resultierende Sammlung.

CLEANROOM_COMMANDS_NOT_SUPPORTED

SQLSTATE: 0A000

Clean Room-Befehle werden nicht unterstützt.

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

Ungültiger Name, um in einem Reinraum auf einen <type> Verweis zu verweisen. Verwenden Sie einen <type>-Namen innerhalb des Reinraums im Format [Katalog].[Schema].[<type>].

Wenn Sie nicht sicher sind, welchen Namen Sie verwenden sollen, können Sie "SHOW ALL IN CLEANROOM [clean_room]" ausführen und den Wert in der Spalte "Name" verwenden.

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE: 42K03

Für die Datei <filePath> wurde eine Dateibenachrichtigung empfangen, aber sie ist nicht mehr vorhanden. Stellen Sie sicher, dass Dateien nicht gelöscht werden, bevor sie verarbeitet werden. Um den Datenstrom fortzusetzen, können Sie die Spark SQL-Konfiguration <config> auf "true" festlegen.

CLOUD_PROVIDER_ERROR

SQLSTATE: 580000

Cloudanbieterfehler: <message>

CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

Das angegebene Clustering stimmt nicht mit der der vorhandenen Tabelle <tableName>überein.

Angegebene Clusteringspalten: [<specifiedClusteringString>].

Vorhandene Clusteringspalten: [<existingClusteringString>].

CLUSTERING_NOT_SUPPORTED

SQLSTATE: 420000

'<operation>' unterstützt keine Clustering.

CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED

SQLSTATE: 0A000

Wenden Sie sich bitte an Ihren Databricks-Vertreter, um die Cluster-by-Auto-Funktion zu aktivieren.

CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED

SQLSTATE: 56038

Bitte aktivieren Sie clusteringTable.enableClusteringTableFeature, um CLUSTER BY AUTO zu verwenden.

CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE: 56038

CLUSTER BY AUTO erfordert, dass die Predictive Optimization aktiviert ist.

CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR

SQLSTATE: 56038

CLUSTER BY AUTO wird nur in verwalteten UC-Tabellen unterstützt.

CODEC_NOT_AVAILABLE

SQLSTATE: 56038

Der Codec <codecName> ist nicht verfügbar.

Weitere Details finden Sie unter CODEC_NOT_AVAILABLE

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE: 42704

Es wurde kein Kurzname für den Codec <codecName>gefunden.

COLLATION_INVALID_NAME

SQLSTATE: 42704

Der Wert <collationName> stellt keinen korrekten Sortiernamen dar. Vorgeschlagene gültige Sortierungsnamen: [<proposals>].

COLLATION_INVALID_PROVIDER

SQLSTATE: 42704

Der Wert <provider> stellt keinen korrekten Sortieranbieter dar. Unterstützte Anbieter sind: [<supportedProviders>].

COLLATION_MISMATCH

SQLSTATE: 42P21

Es konnte nicht ermittelt werden, welche Sortierung für Zeichenfolgenfunktionen und Operatoren verwendet werden soll.

Weitere Details finden Sie unter COLLATION_MISMATCH.

SAMMLUNGSGRÖSSENLIMIT ÜBERSCHRITTEN

SQLSTATE: 540000

Kann kein Array mit <numberOfElements> Elementen erstellen, da dies die Größenbeschränkung <maxRoundedArrayLength>des Arrays überschreitet.

Weitere Details finden Sie unter COLLECTION_SIZE_LIMIT_EXCEEDED.

COLUMN_ALIASES_NOT_ALLOWED

SQLSTATE: 42601

Spaltenaliasen sind in <op>nicht zulässig.

COLUMN_ALREADY_EXISTS

SQLSTATE: 42711

Die Spalte <columnName> ist bereits vorhanden. Wählen Sie einen anderen Namen aus, oder benennen Sie die vorhandene Spalte um.

COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH

SQLSTATE: 0A000

Einige Werte im Feld <pos> sind mit dem Spaltenarraytyp nicht kompatibel. Erwarteter Typ <type>.

COLUMN_MASKS_ABAC_MISMATCH

SQLSTATE: 0A000

Spaltenformate konnten für <tableName> nicht aufgelöst werden, da zwischen Spaltenformaten, die von Richtlinien geerbt wurden, und explizit definierten Spaltenformaten ein Konflikt aufgetreten ist. Um fortzufahren, deaktivieren Sie bitte die Attributbasierte Zugriffssteuerung (Attribute Based Access Control, ABAC), und wenden Sie sich an den Databricks-Support.

COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

Das Erstellen einer CHECK-Einschränkung für Tabelle <tableName> mit Spaltenmaskenrichtlinien wird nicht unterstützt.

COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME

SQLSTATE: 42734

Eine <statementType>-Anweisung hat versucht, einer Spalte eine Spaltenmaskenrichtlinie zuzuweisen, die mindestens zwei andere referenzierte Spalten aus der Liste USING COLUMNS mit demselben Namen <columnName> enthielt. Dies ist ungültig.

COLUMN_MASKS_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

Spaltenmaskierungsrichtlinien für <tableName> werden nicht unterstützt:

Weitere Details finden Sie unter COLUMN_MASKS_FEATURE_NOT_SUPPORTED.

COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

<statementType> <columnName> in Tabelle <tableName> nicht möglich, da in einer Spaltenmaskenrichtlinie für Spalte <maskedColumn> darauf verwiesen wird. Die Person im Besitz der Tabelle muss vor dem Fortfahren diese Richtlinie entfernen oder ändern.

COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

MERGE INTO-Vorgänge unterstützen keine Spaltenmaskenrichtlinien in der Quelltabelle <tableName>.

COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

MERGE INTO-Vorgänge unterstützen das Schreiben in die Tabelle <tableName> mit Spaltenmaskenrichtlinien nicht.

COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME

SQLSTATE: 42K05

Diese Anweisung versuchte, einer Spalte <columnName> mit mehreren Namensbestandteilen eine Spaltenmaskenrichtlinie zuzuweisen, was ungültig ist.

COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME

SQLSTATE: 42K05

Diese Anweisung versucht, einer Spalte eine Spaltenmaskenrichtlinie zuzuweisen, und in der USING COLUMNS-Liste ist der Name <columnName> mit mehreren Namensbestandteilen enthalten, was ungültig ist.

COLUMN_MASKS_NOT_ENABLED

SQLSTATE: 56038

Die Unterstützung für das Definieren von Spaltenmasken ist nicht aktiviert.

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Spaltenmaskenrichtlinien werden nur im Unity Catalog unterstützt.

COLUMN_MASKS_SHOW_PARTITIONS_UNSUPPORTED

SQLSTATE: 0A000

SHOW PARTITIONS Befehl wird für<format> Tabellen mit Spaltenmasken nicht unterstützt.

COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

Ein <mode>-Klon aus der Tabelle <tableName> mit Spaltenmaskenrichtlinien wird nicht unterstützt.

COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

Ein <mode>-Klon in die Tabelle <tableName> mit Spaltenmaskenrichtlinien wird nicht unterstützt.

COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

Die Verwendung einer Konstante als Parameter in einer Spaltenmaskenrichtlinie wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Spaltenformatdefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.

COLUMN_MASKS_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

Fehler beim Ausführen des Befehls <statementType>, da das Zuweisen von Spaltenmaskenrichtlinien für die Zieldatenquelle mit dem Tabellenanbieter "<provider>" nicht unterstützt wird.

COLUMN_MASKS_UNSUPPORTED_SUBQUERY

SQLSTATE: 0A000

<operation> kann für Tabelle <tableName> nicht ausgeführt werden, da sie eine oder mehrere Spaltenmaskenrichtlinien mit Unterabfrageausdrücken enthält, die noch nicht unterstützt werden. Wenden Sie sich an den Besitzer der Tabelle, um die Spaltenmaskierungsrichtlinien zu aktualisieren, um fortzufahren.

COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN

SQLSTATE: 42734

Die Spalte <columnName> denselben Namen wie die Zielspalte hatte, was ungültig ist; entfernen Sie die Spalte aus der liste USING COLUMNS, und wiederholen Sie den Befehl.

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE: 42703

<colType> Spalte <colName> ist in Tabelle <tableName>nicht definiert, definierte Tabellenspalten sind: <tableCols>.

COLUMN_NOT_FOUND

SQLSTATE: 42703

Die Spalte <colName> wurde nicht gefunden. Überprüfen Sie die Schreib- und Korrektheit des Spaltennamens gemäß der SQL-Konfiguration <caseSensitiveConfig>.

COLUMN_ORDINAL_OUT_OF_BOUNDS

SQLSTATE: 22003

Spaltenordnungszahl liegt außerhalb der Grenzen. Die Anzahl der Spalten in der Tabelle ist <attributesLength>, die Spaltenordnungszahl ist jedoch <ordinal>.

Attribute sind die folgenden: <attributes>.

COMMA_PRECEDING_CONSTRAINT_ERROR

SQLSTATE: 42601

Unerwartetes „,“ vor Einschränkungsdefinition. Stellen Sie sicher, dass die Einschränkungsklausel nicht mit einem Komma beginnt, wenn Spalten (und Erwartungen) nicht definiert sind.

COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET

SQLSTATE: 420000

Der Befehl COMMENT ON CONNECTION ist noch nicht implementiert.

COMPARATOR_RETURNS_NULL

SQLSTATE: 22004

Der Vergleichsoperator hat NULL für einen Vergleich zwischen <firstValue> und <secondValue> zurückgegeben.

Es sollte eine positive ganze Zahl für "größer als", 0 für "gleich" und eine negative ganze Zahl für "kleiner als" zurückgeben.

Wenn Sie auf veraltetes Verhalten zurücksetzen möchten, bei dem NULL als 0 (gleich) behandelt wird, müssen Sie "spark.sql.legacy.allowNullComparisonResultInArraySort" auf "true" festlegen.

COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

SQLSTATE: 42K09

Eingabedatentypen für den Ausdruck können nicht verarbeitet werden: <expression>.

Weitere Details finden Sie unter COMPLEX_EXPRESSION_UNSUPPORTED_INPUT.

CONCURRENT_QUERY

SQLSTATE: 0A000

Eine weitere Instanz dieser Abfrage [ID: <queryId>] wurde gerade mit einer gleichzeitigen Sitzung gestartet [vorhandene runId: <existingQueryRunId> neue runId: <newQueryRunId>].

CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT

SQLSTATE: 530000

Die Mindestanzahl der im Cluster erforderlichen kostenlosen Slots ist <numTasks>, der Cluster verfügt jedoch nur über <numSlots> Slots kostenlos. Die Abfrage zögert oder schlägt fehl. Erhöhen Sie die Clustergröße, um fortzufahren.

CONCURRENT_STREAM_LOG_UPDATE

SQLSTATE: 40000

Gleichzeitiges Aktualisieren des Protokolls. Für <batchId> wurden mehrere Streamingaufträge erkannt.

Stellen Sie sicher, dass jeweils nur ein Streamingauftrag an einem bestimmten Prüfpunktstandort ausgeführt wird.

CONFIG_NOT_AVAILABLE

SQLSTATE: 42K0I

Die Konfiguration <config> ist nicht verfügbar.

Konfliktierende Verzeichnisstrukturen

SQLSTATE: KD009

Konfliktierende Verzeichnisstrukturen erkannt.

Verdächtige Pfade:

<discoveredBasePaths>

Wenn bereitgestellte Pfade Partitionsverzeichnisse sind, legen Sie "basePath" in den Optionen der Datenquelle fest, um das Stammverzeichnis der Tabelle anzugeben.

Wenn mehrere Stammverzeichnisse vorhanden sind, laden Sie sie bitte separat, und trennen Sie sie dann.

CONFLICTING_PARTITION_COLUMN_NAMES

SQLSTATE: KD009

In Konflikt stehende Partitionsspaltennamen wurden erkannt:

<distinctPartColLists>

Bei partitionierten Tabellenverzeichnissen sollten Datendateien nur in Blattverzeichnissen vorhanden sein.

Und Ordner auf derselben Ebene sollten denselben Partitionsspaltennamen haben.

Überprüfen Sie die folgenden Verzeichnisse auf unerwartete Dateien oder inkonsistente Partitionsspaltennamen:

<suspiciousPaths>

CONFLICTING_PROVIDER

SQLSTATE: 22023

Der angegebene Anbieter <provider> ist mit dem vorhandenen Kataloganbieter <expectedProvider>inkonsistent. Verwenden Sie "USING <expectedProvider>", und wiederholen Sie den Befehl.

CONNECT

SQLSTATE: 56K00

Generischer Spark Connect-Fehler.

Weitere Details finden Sie unter CONNECT

VERBINDUNG_BESTEHT_BEREITS

SQLSTATE: 420000

Es kann keine Verbindung <connectionName> erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen, legen Sie die vorhandene Verbindung ab, oder ersetzen Sie die vorhandene Verbindung, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Verbindungen zu tolerieren.

CONNECTION_NAME_CANNOT_BE_EMPTY

SQLSTATE: 420000

Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname nicht leer sein muss.

CONNECTION_NOT_FOUND

SQLSTATE: 420000

Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname <connectionName> nicht gefunden wurde.

CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE: 420000

Verbindungen vom Typ '<connectionType>' unterstützen nicht die folgenden Optionen: <optionsNotSupported>. Unterstützte Optionen: <allowedOptions>.

CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 420000

Verbindung vom Typ '<connectionType>kann nicht erstellt werden. Unterstützte Verbindungstypen: <allowedTypes>.

CONNECT_SESSION_MIGRATION

SQLSTATE: 56K00

Generischer Sitzungsmigrationsfehler (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).

Weitere Details finden Sie unter CONNECT_SESSION_MIGRATION.

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Tabelleneinschränkungen werden nur im Unity-Katalog unterstützt.

CONVERSION_INVALID_INPUT

SQLSTATE: 22018

Der Wert <str> (<fmt>) kann nicht in <targetType> konvertiert werden, da er fehlerhaft ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie das Format. Verwenden Sie <suggestion>, um falsch formatierte Eingaben zu tolerieren und stattdessen NULL zurückzugeben.

COPY_INTO_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

In <tableName> kann nicht geschrieben werden. Ursache:

Weitere Details finden Sie unter COPY_INTO_COLUMN_ARITY_MISMATCH.

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE: 0A000

Ungültiges Schema <scheme>. COPY INTO-Quellanmeldeinformationen unterstützen derzeit nur s3/s3n/s3a/wasbs/abfss.

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE: 42601

COPY INTO-Quellanmeldeinformationen müssen <keyList> angeben.

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE: 25000

Duplizierte Dateien wurden in einem gleichzeitigen COPY INTO-Vorgang committet. Versuchen Sie es später erneut.

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE: 0A000

Ungültiges Schema <scheme>. COPY INTO Quellverschlüsselung unterstützt derzeit nur s3/s3n/s3a/abfss.

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE: 0A000

COPY INTO Verschlüsselung unterstützt nur ADLS Gen2 oder abfss:// Dateischema

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE: 42601

COPY INTO Quellverschlüsselung muss "<key>" angeben.

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE: 42601

Ungültige Verschlüsselungsoption <requiredKey>. COPY INTO Quellverschlüsselung muss "<requiredKey>" = "<keyValue>" angeben.

COPY_INTO_FEATURE_INCOMPATIBLE_SETTING

SQLSTATE: 42613

Das COPY INTO Feature '<feature>' ist nicht kompatibel mit '<incompatibleSetting>'.

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE: 25000

COPY INTO Mit Ausnahme des Anfügens von Daten ist ein gleichzeitiges Ausführen mit anderen Transaktionen nicht erlaubt. Versuchen Sie es später erneut.

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE: 25000

COPY INTO konnte den Zustand nicht laden, die maximal zulässigen Wiederholungsversuche wurden überschritten.

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE: 42KDG

Beim Kopieren in die Delta-Tabelle (Tabelle: <table>) wurde ein Schemakonflikt erkannt.

Dies kann auf ein Problem mit den eingehenden Daten hinweisen, oder das Delta-Tabellenschema kann automatisch entsprechend den eingehenden Daten weiterentwickelt werden, indem Sie Folgendes festlegen:

COPY_OPTIONS (‘mergeSchema’ = ‘true’)

Schemaunterschied:

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE: 0A000

Das Format der Quelldateien muss eine von CSV, JSON, AVRO, ORC, PARQUET, TEXT oder BINARYFILEsein. Die Verwendung von COPY INTO in Delta-Tabellen als Quelle wird nicht unterstützt, da nach OPTIMIZE-Vorgängen doppelte Daten erfasst werden können. Diese Überprüfung kann durch Ausführen des SQL-Befehls set spark.databricks.delta.copyInto.formatCheck.enabled = falsedeaktiviert werden.

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE: 42KD9

Das Quellverzeichnis enthielt keine parsierbaren Dateien vom Typ <format>. Bitte überprüfen Sie den Inhalt von '<source>'.

Der Fehler kann stummgehalten werden, indem "<config>" auf "false" festgelegt wird.

COPY_INTO_STATE_INTERNAL_ERROR

SQLSTATE: 55019

Ein interner Fehler ist bei der Verarbeitung des Zustands COPY INTO aufgetreten.

Weitere Details finden Sie unter COPY_INTO_STATE_INTERNAL_ERROR.

COPY_INTO_SYNTAX_ERROR

SQLSTATE: 42601

Fehler beim Analysieren des befehls "COPY INTO".

Weitere Details finden Sie unter COPY_INTO_SYNTAX_ERROR.

COPY_INTO_UNSUPPORTED_FEATURE

SQLSTATE: 0A000

Das COPY INTO-Feature „<feature>“ wird nicht unterstützt:

COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED

SQLSTATE: 420000

Daten können nicht im Format "<formatType>" entladen werden. Unterstützte Formate für <connectionType> sind: <allowedFormats>.

CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET

SQLSTATE: 420000

Der Befehl CREATE FOREIGN SCHEMA ist noch nicht implementiert.

CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET

SQLSTATE: 420000

Der Befehl CREATE FOREIGN TABLE ist noch nicht implementiert.

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE: 0A000

CREATE ODER REFRESH von materialisierten Ansichten oder Streamingtabellen bei Angabe von ASYNC nicht möglich. Entfernen Sie ASYNC aus der CREATE OR REFRESH-Anweisung, oder verwenden Sie REFRESH ASYNC, um vorhandene materialisierte Ansichten oder Streamingtabellen asynchron zu aktualisieren.

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE: 0A000

Es ist nicht zulässig, die permanente Ansicht <name> zu erstellen, ohne dem Ausdruck <attr>explizit einen Alias zuzuweisen.

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

CREATE TABLE Spalte <columnName> gibt deskriptor "<optionName>" mehrmals an, was ungültig ist.

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

Ansicht <viewName>kann nicht erstellt werden, der Grund ist

Weitere Details finden Sie unter CREATE_VIEW_COLUMN_ARITY_MISMATCH.

CREDENTIAL_MISSING

SQLSTATE: 42601

Geben Sie beim Erstellen oder Aktualisieren externer Speicherorte Anmeldeinformationen an.

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE: 0A000

Die CSV-Option enforceSchema kann nicht festgelegt werden, wenn rescuedDataColumn oder failOnUnknownFieldsverwendet wird, da Spalten anstelle von Ordnungszahlen nach Namen gelesen werden.

CYCLIC_FUNCTION_REFERENCE

SQLSTATE: 42887

Zyklische Funktionsreferenz wurde erkannt: <path>.

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE: 56038

Databricks Delta ist in Ihrem Konto nicht aktiviert.<hints>

DATATYPE_MISMATCH

SQLSTATE: 42K09

<sqlExpr> kann aufgrund eines Datentypkonflikts nicht aufgelöst werden:

Weitere Details finden Sie unter DATATYPE_MISMATCH.

DATATYPE_MISSING_SIZE

SQLSTATE: 42K01

DataType <type> erfordert einen Längenparameter, z. B. <type>(10). Geben Sie die Länge an.

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE: 25000

Schreibzeile nicht erfolgreich: Fehlende entsprechende Beziehung zu Richtlinien für CLM/RLS.

DATENQUELLE_EXISTIERT_BEREITS

SQLSTATE: 42710

Die Datenquelle "<provider>" ist bereits vorhanden. Wählen Sie einen anderen Namen für die neue Datenquelle aus.

DATA_SOURCE_EXTERNAL_ERROR

SQLSTATE: KD010

Fehler beim Speichern in externer Datenquelle.

DATA_SOURCE_NOT_EXIST

SQLSTATE: 42704

Datenquelle '<provider>' nicht gefunden. Stellen Sie sicher, dass die Datenquelle registriert ist.

DATENQUELLE_NICHT_GEFUNDEN

SQLSTATE: 42K02

Fehler beim Auffinden der Datenquelle: <provider>. Stellen Sie sicher, dass der Anbietername korrekt ist und das Paket ordnungsgemäß registriert und mit Ihrer Spark-Version kompatibel ist.

DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS

SQLSTATE: 42602

Option <option> darf nicht leer sein und darf keine ungültigen Zeichen, Abfragezeichenfolgen oder Parameter enthalten.

DATA_SOURCE_OPTION_IS_REQUIRED

SQLSTATE: 42601

Option <option> ist erforderlich.

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE: 42K03

Das Schema der Datenquellentabelle stimmt nicht mit dem erwarteten Schema überein. Wenn Sie die DataFrameReader.schema-API verwenden oder eine Tabelle erstellen, vermeiden Sie die Angabe des Schemas.

Datenquellenschema: <dsSchema>

Erwartetes Schema: <expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE: 42KDB

Die JDBC-URL ist in den Datenquellenoptionen nicht zulässig, stattdessen sind die Optionen 'Host', 'Port' und 'Datenbank' anzugeben.

DATETIME_FIELD_OUT_OF_BOUNDS

SQLSTATE: 22023

<rangeMessage>. Legen Sie bei Bedarf <ansiConfig> auf "false" fest, um diesen Fehler zu umgehen.

DATETIME_OVERFLOW

SQLSTATE: 22008

Überlauf beim datetime-Vorgang: <operation>.

DC_API_QUOTA_EXCEEDED

SQLSTATE: KD000

Sie haben das API-Kontingent für die Datenquelle <sourceName>überschritten.

Weitere Details finden Sie unter DC_API_QUOTA_EXCEEDED.

DC_CONNECTION_ERROR

SQLSTATE: KD000

Fehler beim Herstellen einer Verbindung mit der <sourceName> Quelle. Fehlercode: <errorCode>.

Weitere Informationen finden Sie unter DC_CONNECTION_ERROR

DC_DYNAMICS_API_ERROR

SQLSTATE: KD000

Fehler in Dynamics-API-Aufrufen, errorCode: <errorCode>.

Weitere Informationen finden Sie unter DC_DYNAMICS_API_ERROR

DC_NETSUITE_ERROR

SQLSTATE: KD000

Fehler bei Netsuite JDBC-Anrufen, Fehlercode: <errorCode>.

Weitere Informationen finden Sie unter DC_NETSUITE_ERROR

DC_SCHEMA_CHANGE_ERROR

SQLSTATE: nicht zugewiesen

In der Tabelle <tableName> der <sourceName> Quelle ist eine Schemaänderung aufgetreten.

Weitere Details finden Sie unter DC_SCHEMA_CHANGE_ERROR

DC_SERVICENOW_API_ERROR

SQLSTATE: KD000

Fehler in ServiceNow-API-Aufrufen, errorCode: <errorCode>.

Weitere Informationen finden Sie unter DC_SERVICENOW_API_ERROR

DC_SFDC_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

Die Aufnahme für Objekt-<objName> ist unvollständig, da der Salesforce-API-Abfrageauftrag zu lang dauerte, fehlgeschlagen oder manuell abgebrochen wurde.

Um es erneut zu versuchen, können Sie entweder die gesamte Pipeline erneut ausführen oder diese bestimmte Zieltabelle aktualisieren. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein. Auftrags-ID: <jobId>. Auftragsstatus: <jobStatus>.

DC_SHAREPOINT_API_ERROR

SQLSTATE: KD000

Fehler in SharePoint-API-Aufrufen, errorCode: <errorCode>.

Weitere Informationen finden Sie unter DC_SHAREPOINT_API_ERROR

DC_SOURCE_API_ERROR

SQLSTATE: KD000

Fehler im <sourceName>-API-Aufruf. Quell-API-Typ: <apiType>. Fehlercode: <errorCode>.

Dies kann manchmal passieren, wenn Sie einen <sourceName> API-Grenzwert erreicht haben. Wenn Sie Ihren API-Grenzwert nicht überschritten haben, versuchen Sie, den Connector erneut auszuführen. Wenn das Problem weiterhin besteht, erstellen Sie ein Ticket.

DC_UNSUPPORTED_ERROR

SQLSTATE: 0A000

In der Datenquelle <sourceName>ist ein nicht unterstützter Fehler aufgetreten.

Weitere Details finden Sie unter DC_UNSUPPORTED_ERROR.

DC_WORKDAY_RAAS_API_ERROR

SQLSTATE: KD000

Fehler in Workday RAAS-API-Aufrufen, errorCode: <errorCode>.

Weitere Details finden Sie unter DC_WORKDAY_RAAS_API_ERROR.

DEZIMALPRÄZISION ÜBERSCHREITET MAXIMALE PRÄZISION

SQLSTATE: 22003

Die Dezimalgenauigkeit <precision> die maximale Genauigkeit <maxPrecision>überschreitet.

DEFAULT_DATABASE_NOT_EXISTS

SQLSTATE: 42704

Die Standarddatenbank <defaultDatabase> ist nicht vorhanden, erstellen Sie sie zuerst, oder ändern Sie die Standarddatenbank in <defaultDatabase>.

Standarddatei nicht gefunden

SQLSTATE: 42K03

Es ist möglich, dass die zugrunde liegenden Dateien aktualisiert wurden. Sie können den Cache in Spark explizit ungültig machen, indem Sie den Befehl 'REFRESH TABLE tableName' in SQL ausführen oder das dataset/DataFrame neu erstellen. Wenn der Festplattencache veraltet ist oder die zugrunde liegenden Dateien entfernt wurden, können Sie den Festplattencache manuell ungültig machen, indem Sie den Cluster neu starten.

DEFAULT_PLACEMENT_INVALID

SQLSTATE: 42608

Ein DEFAULT Schlüsselwort in einem MERGE, INSERT, UPDATEoder SET VARIABLE Befehl konnte einer Zielspalte nicht direkt zugewiesen werden, da es Teil eines Ausdrucks war.

Beispiel: UPDATE SET c1 = DEFAULT ist zulässig, UPDATE T SET c1 = ``DEFAULT`` + 1 ist jedoch nicht zulässig.

DEFAULT_UNSUPPORTED

SQLSTATE: 42623

Fehler beim Ausführen des <statementType>-Befehls, da die DEFAULT Werte für die Zieldatenquelle mit dem Tabellenanbieter nicht unterstützt werden: "<dataSource>".

DESCRIBE_JSON_NOT_EXTENDED

SQLSTATE: 0A000

DESCRIBE TABLE … AS JSON wird nur unterstützt, wenn [EXTENDED|FORMATTED] angegeben wird.

Beispiel: DESCRIBE EXTENDED <tableName> AS JSON wird unterstützt, aber DESCRIBE <tableName> AS JSON nicht.

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE: 55019

Die Streamingabfrage wurde aus einer unerwarteten Delta-Tabelle gelesen (ID = '<newTableId>').

Gemäß Prüfpunkt las sie ursprünglich aus einer anderen Delta-Tabelle (id = <oldTableId>).

Dies kann passieren, wenn Sie den Code so geändert haben, dass er aus einer neuen Tabelle gelesen oder gelöscht wurde und

Eine Tabelle neu erstellt. Bitte setzen Sie Ihre Änderung zurück oder löschen Sie Ihren Streamingabfrageprüfpunkt.

um noch einmal von vorn zu beginnen.

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE: 0A000

Verschiedene Fensterfunktionen werden nicht unterstützt: <windowExpr>.

DIVIDE_BY_ZERO

SQLSTATE: 22012

Division durch Null. Verwenden Sie try_divide, um divisor 0 zu tolerieren und stattdessen NULL zurückzugeben. Legen Sie bei Bedarf <config> auf "false" fest, um diesen Fehler zu umgehen.

Weitere Details finden Sie unter DIVIDE_BY_ZERO

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE: 56038

Erwartungen werden nur innerhalb einer Delta Live Tables-Pipeline unterstützt.

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED-Ansichten mit einer CLUSTER BY-Klausel werden nur in einer Delta Live Tables-Pipeline unterstützt.

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE: 56038

<mv>-Speicherorte werden nur in einer Delta Live Tables-Pipeline unterstützt.

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE: 56038

<mv> Schemas mit einem angegebenen Typ werden nur in einer Delta Live Tables-Pipeline unterstützt.

DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 56038

CONSTRAINT-Klauseln in einer Ansicht werden nur in einer Delta Live Tables-Pipeline unterstützt.

DROP_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 420000

SCHEDULE kann nicht in einer Tabelle ohne vorhandenen Zeitplan oder Trigger abgelegt werden.

DUPLICATED_CTE_NAMES

SQLSTATE: 42602

Die CTE-Definition darf keine doppelten Namen haben: <duplicateNames>.

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE: 42713

Doppelte Feldnamen in Arrow Struct sind nicht zulässig, <fieldNames> abgerufen.

DUPLICATED_MAP_KEY

SQLSTATE: 23505

Duplizierter Zuordnungsschlüssel <key> wurde gefunden, bitte überprüfen Sie die Eingabedaten.

Wenn Sie die duplizierten Schlüssel entfernen möchten, können Sie <mapKeyDedupPolicy> auf "LAST_WIN" festlegen, damit der eingefügte Schlüssel zuletzt Vorrang hat.

DUPLICATED_METRICS_NAME

SQLSTATE: 42710

Der Metrikname ist nicht eindeutig: <metricName>. Derselbe Name kann nicht für Metriken mit unterschiedlichen Ergebnissen verwendet werden.

Mehrere Instanzen von Metriken mit demselben Ergebnis und Namen sind jedoch zulässig (z. B. Self-Joins).

DUPLICATE_ASSIGNMENTS

SQLSTATE: 42701

Die Spalten oder Variablen <nameList> werden mehr als einmal als Zuweisungsziele verwendet.

DUPLICATE_CLAUSES

SQLSTATE: 42614

Doppelte Klauseln gefunden: <clauseName>. Entfernen Sie eine davon.

DUPLIZIERTER_SCHLÜSSEL

SQLSTATE: 23505

Doppelte Schlüssel <keyColumn>gefunden.

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE: 4274K

Der Aufruf an routine <routineName> ist ungültig, da er mehrere Argumentzuweisungen zum gleichen Parameternamen <parameterName>enthält.

Weitere Details finden Sie unter DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT.

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE: 42734

Doppelte Namen in der Parameterliste der benutzerdefinierten Routine gefunden <routineName>: <names>.

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE: 42711

Doppelte Spalten in der RETURNS Klauselspaltenliste der benutzerdefinierten Routine <routineName>gefunden: <columns>.

EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED

SQLSTATE: 42815

Vorheriger Knoten hat eine Zeile mit eventTime=<emittedRowEventTime> ausgegeben, die älter als current_watermark_value=<currentWatermark> ist.

Dies kann zu Problemen bei der Korrektheit in den zustandsbehafteten Operatoren führen, die in der Ausführungspipeline nachgelagert sind.

Korrigieren Sie die Operatorlogik, um Zeilen nach dem aktuellen globalen Wasserzeichenwert auszugeben.

EMPTY_JSON_FIELD_VALUE

SQLSTATE: 42604

Fehler beim Analysieren einer leeren Zeichenfolge für den Datentyp <dataType>.

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE: 22023

Leere lokale Datei in Staging-<operation>-Abfrage

EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE

SQLSTATE: 0A000

Die <format>-Datenquelle unterstützt das Schreiben leerer oder geschachtelter leerer Schemas nicht. Stellen Sie sicher, dass das Datenschema mindestens eine Spalte(n) aufweist.

ENCODER_NOT_FOUND

SQLSTATE: 42704

Es wurde kein Encoder des Typs <typeName> für die interne Darstellung von Spark SQL gefunden.

Erwägen Sie, den Eingabetyp in einen der unterstützten Werte unter "<docroot>/sql-ref-datatypes.html" zu ändern.

END_LABEL_WITHOUT_BEGIN_LABEL

SQLSTATE: 42K0L

Die Endmarke <endLabel> kann nicht ohne eine Anfangsmarke existieren.

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Einige Partitionen in Kafka-Topic(s) berichten über einen verfügbaren Offset, der kleiner ist als der End-Offset, während eine Abfrage mit Trigger.AvailableNow ausgeführt wird. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

Neuester Offset: <latestOffset>, Endoffset: <endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE: KD000

Für die Kafka-Datenquelle mit „Trigger.AvailableNow“ sollte der Endoffset pro Themenpartition über einen geringeren oder gleichen Offset verfügen als der vorab abgerufene Offset. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

Vorab abgerufener Offset: <prefetchedOffset>, Endoffset: <endOffset>.

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE: KD00B

Fehler beim Lesen von Avro-Daten – unbekannter Fingerabdruck: <fingerprint>, nicht sicher, welches Schema verwendet werden soll.

Dies kann passieren, wenn Sie nach dem Starten des Spark-Kontexts zusätzliche Schemas registriert haben.

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE: 42601

Ereignisprotokolle können nicht aus einem Cluster vom Typ „Zugewiesen“ oder „Keine Isolation freigegeben“ abgefragt werden, bitte verwenden Sie stattdessen einen Cluster vom Typ „Freigegeben“ oder ein Databricks SQL-Warehouse.

EVENT_LOG_UNAVAILABLE

SQLSTATE: 55019

Für <tableOrPipeline>sind keine Ereignisprotokolle verfügbar. Versuchen Sie es später erneut, nachdem die Ereignisse generiert worden sind.

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE: 42832

Der Tabellentyp von <tableIdentifier> ist <tableType>.

Das Abfragen von Ereignisprotokollen unterstützt nur materialisierte Ansichten, Streamingtabellen oder Delta Live Tables-Pipelines.

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE: 42K09

Die Ereigniszeit <eventName> hat den ungültigen Typ <eventType>, TIMESTAMP erwartet.

EXCEED_LIMIT_LENGTH

SQLSTATE: 54006

Überschreitet die Einschränkung der Zeichen-/Varchar-Typlänge: <limit>.

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE: 428H2

EXCEPT Spalte <columnName> wurde gelöst und es wurde erwartet, dass es sich um StructType handelt, es wurde jedoch Typ <dataType>gefunden.

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE: 42702

Spalten in einer EXCEPT-Liste müssen eindeutig und nicht überlappend sein, empfangen wurde aber (<columns>).

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE: 42703

EXCEPT-Spalten [<exceptColumns>] wurden aufgelöst, entsprechen jedoch keiner der Spalten [<expandedColumns>] aus der Sternerweiterung.

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE: 42703

Der Spalten-/Feldname <objectName> in der EXCEPT-Klausel kann nicht aufgelöst werden. Meinten Sie eine der folgenden: [<objectList>]?

Hinweis: Geschachtelte Spalten in der EXCEPT-Klausel dürfen während einer struct-Erweiterung keine Qualifizierer (Tabellenname, Name der übergeordneten struct-Spalte usw.) enthalten. Versuchen Sie, Qualifizierer zu entfernen, wenn sie mit geschachtelten Spalten verwendet werden.

EXECUTOR_BROADCAST_JOIN_OOM

SQLSTATE: 53200

Es ist nicht genügend Arbeitsspeicher vorhanden, um die Übertragungsbeziehung <relationClassName>zu erstellen. Beziehungsgröße = <relationSize>. Gesamtspeicher, der von dieser Aufgabe verwendet wird = <taskMemoryUsage>. Arbeitsspeichermanager-Metriken für Executor: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>. [sparkPlanId: <sparkPlanId>] Deaktivieren Sie Übertragungen für diese Abfrage mithilfe von „set spark.sql.autoBroadcastJoinThreshold=-1“, oder verwenden Sie Join-Hinweise, um unsortierte Joins zu erzwingen.

EXECUTOR_BROADCAST_JOIN_STORE_OOM

SQLSTATE: 53200

Es ist nicht genügend Arbeitsspeicher vorhanden, um die Übertragungsbeziehung <relationClassName>zu speichern. Beziehungsgröße = <relationSize>. StorageLevel = <storageLevel>. [sparkPlanId: <sparkPlanId>] Deaktivieren Sie Übertragungen für diese Abfrage mithilfe von „set spark.sql.autoBroadcastJoinThreshold=-1“, oder verwenden Sie Join-Hinweise, um unsortierte Joins zu erzwingen.

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE: 42701

Die USING Klausel dieses EXECUTE IMMEDIATE Befehls enthielt mehrere Argumente mit demselben Alias (<aliases>), was ungültig ist; Aktualisieren Sie den Befehl, um eindeutige Aliase anzugeben, und versuchen Sie es dann erneut.

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE: 42809

'<operation>' erwartet eine permanente Ansicht, aber <viewName> ist eine temporäre Ansicht.

EXPECT_TABLE_NOT_VIEW

SQLSTATE: 42809

<operation>“ erwartet eine Tabelle, aber <viewName> ist eine Ansicht.

Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_VIEW

EXPECT_VIEW_NOT_TABLE

SQLSTATE: 42809

Die Tabelle <tableName> unterstützt <operation>nicht.

Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_TABLE

EXPRESSION_DECODING_FAILED

SQLSTATE: 42846

Fehler beim Decodieren einer Zeile in einen Wert der Ausdrücke: <expressions>.

EXPRESSION_ENCODING_FAILED

SQLSTATE: 42846

Fehler beim Codieren eines Werts der Ausdrücke: <expressions> in eine Zeile.

EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

Der Spaltenausdruck <expr> kann nicht sortiert werden, da der Typ <exprType> nicht sortiert werden kann.

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE: 0A000

Externe Tabellen unterstützen das <scheme> Schema nicht.

FABRIC_REFRESH_INVALID_SCOPE

SQLSTATE: 0A000

Fehler beim Ausführen von 'REFRESH FOREIGN <scope> <name>'. Ein Fabric-<scope> kann nicht direkt aktualisiert werden. Verwenden Sie stattdessen "REFRESH FOREIGN CATALOG <catalogName>", um den Fabric-Katalog zu aktualisieren.

FAILED_EXECUTE_UDF

SQLSTATE: 390000

Benutzerdefinierte Funktion (<functionName>: (<signature>) =><result>) ist fehlgeschlagen wegen: <reason>.

FAILED_FUNCTION_CALL

SQLSTATE: 380000

Fehler beim Vorbereiten der Funktion <funcName> für den Aufruf. Bitte überprüfen Sie die Argumente der Funktion.

FAILED_JDBC

SQLSTATE: HV000

Fehler beim JDBC-Operator <url> im Vorgang:

Weitere Informationen finden Sie unter FAILED_JDBC

FAILED_PARSE_STRUCT_TYPE

SQLSTATE: 22018

Fehler beim Analysieren der Struktur: <raw>.

FEHLER_BEIM_LESEN_DER_DATEI

SQLSTATE: KD001

Fehler beim Lesen der Datei <path>.

Weitere Details finden Sie unter FAILED_READ_FILE.

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE: KD000

Fehler beim Registrieren von Klassen bei Kryo.

FAILED_RENAME_PATH

SQLSTATE: 42K04

Fehler beim Umbenennen von <sourcePath> in <targetPath>, da das Ziel bereits vorhanden ist.

FAILED_RENAME_TEMP_FILE

SQLSTATE: 58030

Fehler beim Umbenennen der temporären Datei <srcPath> in <dstPath>, da FileSystem.rename den Wert "false" zurückgegeben hat.

FAILED_ROW_TO_JSON

SQLSTATE: 2203G

Fehler beim Konvertieren des Zeilenwerts <value> der Klasse <class> in den SQL-Zieltyp <sqlType> im JSON-Format.

FAILED_TO_LOAD_ROUTINE

SQLSTATE: 380000

Fehler beim Laden der Routine-<routineName>.

FAILED_TO_PARSE_TOO_COMPLEX

SQLSTATE: 54001

Die Anweisung, einschließlich potenzieller SQL-Funktionen und referenzierter Ansichten, war zu komplex, um zu analysieren.

Um diesen Fehler zu vermeiden, teilen Sie die Anweisung in mehrere, weniger komplexe Blöcke auf.

FEATURE_NOT_ENABLED

SQLSTATE: 56038

Das Feature <featureName> ist nicht aktiviert. Erwägen Sie, die Konfiguration <configKey> auf <configValue> festzulegen, um diese Funktion zu aktivieren.

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE: 56038

<feature> wird für klassische SQL-Lagerhäuser nicht unterstützt. Um dieses Feature zu verwenden, verwenden Sie ein Pro- oder Serverless SQL Warehouse.

FEATURE_REQUIRES_UC

SQLSTATE: 0AKUD

<feature> wird ohne Unity-Katalog nicht unterstützt. Um dieses Feature zu verwenden, aktivieren Sie Unity-Katalog.

FEATURE_UNAVAILABLE

SQLSTATE: 56038

<feature> wird in Ihrer Umgebung nicht unterstützt. Wenden Sie sich an den Databricks-Support, um dieses Feature zu verwenden.

FIELD_ALREADY_EXISTS

SQLSTATE: 42710

<op> für Spalte nicht möglich, da <fieldNames> bereits in <struct> vorhanden ist.

Feld nicht gefunden

SQLSTATE: 42704

Kein solches Strukturfeld <fieldName> in <fields>.

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE: 42K04

Die Datei im Stagingpfad <path> ist bereits vorhanden, aber OVERWRITE ist nicht festgelegt

FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR

SQLSTATE: 390000

Fehler in der vom Benutzer bereitgestellten Funktion in flatMapGroupsWithState. Grund: <reason>

FORBIDDEN_DATASOURCE_IN_SERVERLESS

SQLSTATE: 0A000

Das Abfragen der Datenquelle <source> in serverloser Berechnung ist nicht zulässig. Nur <allowlist> Datenquellen werden in serverloser Berechnung unterstützt.

VERBOTENE_OPERATION

SQLSTATE: 42809

Der Vorgang <statement> ist für den <objectType>nicht zulässig: <objectName>.

FOREACH_BATCH_USER_FUNCTION_ERROR

SQLSTATE: 390000

Fehler in der vom Benutzer bereitgestellten Funktion in der Batchsenke. Grund: <reason>

FOREACH_USER_FUNCTION_ERROR

SQLSTATE: 390000

Fehler in der benutzerseitig bereitgestellten Funktion in foreach-Senke. Grund: <reason>

FOREIGN_KEY_MISMATCH

SQLSTATE: 42830

Übergeordnete Fremdschlüsselspalten <parentColumns> stimmen nicht mit untergeordneten Primärschlüsselspalten <childColumns> überein.

Fremdobjektname_kann_nicht_leer_sein

SQLSTATE: 420000

Dieser Befehl kann nicht ausgeführt werden, da der Fremdname <objectType> nicht leer sein darf.

FOUND_MULTIPLE_DATA_SOURCES

SQLSTATE: 42710

Es wurden mehrere Datenquellen mit dem Namen "<provider>" erkannt. Überprüfen Sie, ob die Datenquelle nicht gleichzeitig registriert ist und sich im Klassenpfad befindet.

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE: 42601

Bei einem from_json-Rückschluss wurden an folgender Stelle widersprüchliche Schemaaktualisierungen festgestellt: <location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE: 42601

from_json gefunden columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) in einem

JSON-Objekt gefunden. Fortsetzung nicht möglich. Bitte konfigurieren Sie einen anderen Wert für

die Option „columnNameOfCorruptRecord“.

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE: 42601

from_json Inference konnte das unter <location> gespeicherte Schema nicht lesen.

FROM_JSON_INFERENCE_FAILED

SQLSTATE: 42601

from_json konnte das Schema nicht ableiten. Bitte geben Sie stattdessen eine an.

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE: 0A000

Ein from_json Rückschluss wird nur beim Definieren von Streamingtabellen unterstützt.

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE: 42601

from_json Konfiguration ist ungültig:

Weitere Details finden Sie unter FROM_JSON_INVALID_CONFIGURATION.

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE: 22KD3

from_json konnte sich nicht von <old> zu <new> entwickeln.

FUNCTION_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

Für die Funktion <function> sind benannte Parameter erforderlich. Parameter ohne Namen: <exprs>. Bitte aktualisieren Sie den Funktionsaufruf, um Namen für alle Parameter hinzuzufügen, z. B. <function>(param_name => ...).

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE: 42623

Eine Spalte kann nicht sowohl einen Standardwert als auch einen Generierungsausdruck aufweisen, aber <colName> hat Standardwert: (<defaultValue>) und Generierungsausdruck: (<genExpr>).

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE: 56038

Hive 2.2 und niedrigere Versionen unterstützen getTablesByType nicht. Verwenden Sie hive 2.3 oder höher.

GET_WARMUP_TRACING_FAILED

SQLSTATE: 42601

Fehler beim Abrufen der Warmup-Ablaufverfolgung. Ursache: <cause>.

GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED

SQLSTATE: 42601

Funktion „get_warmup_tracing()“ nicht zulässig.

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE: KD000

Ungültiges Graphite-Protokoll: <protocol>.

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE: KD000

Graphite-Senke erfordert die „<property>“-Eigenschaft.

GROUPING_COLUMN_MISMATCH

SQLSTATE: 42803

Die Spalte der Gruppierung (<grouping>) kann in den Gruppierungsspalten <groupingColumns> nicht gefunden werden.

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE: 42803

Spalten von grouping_id (<groupingIdColumn>) stimmen nicht mit den Gruppierungsspalten (<groupByColumns>) überein.

GROUPING_SIZE_LIMIT_EXCEEDED

SQLSTATE: 540000

Die Größe der Gruppierungssätze darf nicht größer sein als <maxSize>.

GROUP_BY_AGGREGATE

SQLSTATE: 42903

Aggregatfunktionen sind in GROUP BYnicht zulässig, doch wurden sie in <sqlExpr>gefunden.

Weitere Details finden Sie unter GROUP_BY_AGGREGATE.

GROUP_BY_POS_AGGREGATE

SQLSTATE: 42903

GROUP BY <index> bezieht sich auf einen Ausdruck <aggExpr>, der eine Aggregatfunktion enthält. Aggregatfunktionen sind in GROUP BYnicht zulässig.

GROUP_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

Position GROUP BY<index> ist nicht in der Auswahlliste enthalten (gültiger Bereich ist [1, <size>]).

GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

Der Ausdruck <sqlExpr> kann nicht als Gruppierungsausdruck verwendet werden, da der Datentyp <dataType> kein geordneter Datentyp ist.

HDFS_HTTP_ERROR

SQLSTATE: KD00F

Beim Versuch, aus HDFS zu lesen, ist die HTTP-Anforderung fehlgeschlagen.

Weitere Informationen finden Sie unter HDFS_HTTP_ERROR

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

Ungültiger Aufruf von <function>; nur gültige HLL-Skizzenpuffer werden als Eingaben (z. B. von der hll_sketch_agg-Funktion erzeugte) unterstützt.

HLL_INVALID_LG_K

SQLSTATE: 22546

Ungültiger Aufruf von <function>; der Wert lgConfigK muss zwischen <min> und <max> liegen (einschließlich): <value>.

HLL_UNION_DIFFERENT_LG_K

SQLSTATE: 22000

Skizzen weisen unterschiedliche lgConfigK Werte auf: <left> und <right>. Legen Sie den parameter allowDifferentLgConfigK auf "true" fest, um <function> mit unterschiedlichen lgConfigK Werten aufzurufen.

HYBRID_ANALYZER_EXCEPTION

SQLSTATE: 0A000

Es trat ein Fehler auf, als versucht wurde, eine Abfrage oder einen Befehl sowohl mit dem veralteten Fixed-Point-Analyzer als auch mit dem Single-Pass-Resolver zu verarbeiten.

Weitere Details finden Sie in HYBRID_ANALYZER_EXCEPTION.

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE: 42601

<identifier> ist kein gültiger Bezeichner, da er mehr als 2 Namensteile enthält.

IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION

SQLSTATE: 42601

Duplizierte Option für Sequenzgenerator für IDENTITY-Spalte: <sequenceGeneratorOption>.

IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

IDENTITY Spaltenschritt darf nicht 0 sein.

IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

DataType-<dataType> wird für IDENTITY Spalten nicht unterstützt.

ILLEGAL_DAY_OF_WEEK

SQLSTATE: 22009

Unzulässige Eingabe für Wochentag: <string>.

ILLEGAL_STATE_STORE_VALUE

SQLSTATE: 42601

Ungültiger Wert, der für den Zustandsspeicher bereitgestellt wird

Weitere Details finden Sie unter ILLEGAL_STATE_STORE_VALUE.

INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION

SQLSTATE: 42616

Die Verbindung kann aufgrund eines unangemessenen Schemas von URI-<uri> für die Verbindungsoption '<option>' nicht erstellt werden.

Zulässige(s) Schema(s): <allowedSchemes>.

Fügen Sie ein Schema hinzu, wenn es nicht im URI vorhanden ist, oder geben Sie ein Schema aus den zulässigen Werten an.

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE: 42818

Ungültige Pivotspalte <columnName>. Pivotspalten müssen vergleichbar sein.

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE: 42825

<operator> kann nur für Tabellen mit kompatiblen Spaltentypen ausgeführt werden. Die <columnOrdinalNumber>-Spalte der <tableOrdinalNumber>-Tabelle hat den Typ <dataType1>, welcher nicht mit <dataType2> in der gleichen Spalte der ersten Tabelle kompatibel ist.<hint>.

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE: 56038

Es wurde ein inkompatibles DataSourceRegister erkannt. Entfernen Sie die inkompatible Bibliothek aus dem Klassenpfad, oder aktualisieren Sie sie. Fehler: <message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE: KD000

Inkompatible Daten für die Tabelle <tableName>können nicht geschrieben werden:

Weitere Details finden Sie unter INCOMPATIBLE_DATA_FOR_TABLE.

INCOMPATIBLE_JOIN_TYPES

SQLSTATE: 42613

Die Verknüpfungstypen <joinType1> und <joinType2> sind inkompatibel.

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE: 51024

Die SQL-Abfrage der Ansicht <viewName> weist eine inkompatible Schemaänderung auf und die Spalte <colName> kann nicht aufgelöst werden. Es wurden <expectedNum> Spalten mit dem Namen <colName> erwarten, aber erhalten wurden <actualCols>.

Versuchen Sie, die Ansicht erneut zu erstellen, indem Sie folgendes ausführen: <suggestion>.

INCOMPLETE_TYPE_DEFINITION

SQLSTATE: 42K01

Unvollständiger komplexer Typ:

Weitere Details finden Sie unter INCOMPLETE_TYPE_DEFINITION.

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE: 42K0B

Möglicherweise erhalten Sie aufgrund des Upgrades ein anderes Ergebnis

Weitere Details finden Sie unter INCONSISTENT_BEHAVIOR_CROSS_VERSION.

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE: 42605

<failure>, <functionName> erfordert mindestens <minArgs> Argumente und maximal <maxArgs> Argumente.

INCORRECT_RAMP_UP_RATE

SQLSTATE: 22003

Der Maximalwert für den Offset bei <rowsPerSecond> rowsPerSecond ist <maxSeconds>, während 'rampUpTimeSeconds' <rampUpTimeSeconds>beträgt.

INDETERMINATE_COLLATION

SQLSTATE: 42P22

Es konnte nicht ermittelt werden, welche Sortierung für den Zeichenfolgevorgang verwendet werden soll. Verwenden Sie die COLLATE-Klausel, um die Sortierung explizit festzulegen.

INDETERMINATE_COLLATION_IN_EXPRESSION

SQLSTATE: 42P22

Der Datentyp von <expr> hat eine unbestimmte Sortierung. Verwenden Sie die COLLATE-Klausel, um die Sortierung explizit festzulegen.

INDETERMINATE_COLLATION_IN_SCHEMA

SQLSTATE: 42P22

Das Schema enthält unbestimmte Sortierung bei: [<columnPaths>]. Verwenden Sie die COLLATE-Klausel, um die Sortierung explizit festzulegen.

INDEX_EXISTIERT_BEREITS

SQLSTATE: 42710

Der Index <indexName> kann für die Tabelle <tableName> nicht erstellt werden, da er bereits existiert.

INDEX_NOT_FOUND

SQLSTATE: 42704

Der Index <indexName> in tabelle <tableName>wurde nicht gefunden.

INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED

SQLSTATE: 0A000

Der Triggertyp <trigger> wird für diesen Clustertyp nicht unterstützt.

Verwenden Sie einen anderen Triggertyp, z. B. AvailableNow, Once.

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

In <tableName> kann nicht geschrieben werden. Ursache:

Weitere Informationen finden Sie unter INSERT_COLUMN_ARITY_MISMATCH.

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

In <tableName>kann nicht geschrieben werden. <reason>:

Tabellenspalten: <tableColumns>.

Partitionsspalten mit statischen Werten: <staticPartCols>.

Datenspalten: <dataColumns>.

INSUFFICIENT_PERMISSIONS

SQLSTATE: 42501

Unzureichende Berechtigungen:

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE: 42501

Der Benutzer <user> verfügt über unzureichende Berechtigungen für externe Speicherorte <location>.

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE: 42501

Für <securableName>gibt es keinen Besitzer. Bitten Sie Ihren Administrator, einen Besitzer festzulegen.

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE: 42501

Die benutzende Person besitzt <securableName> nicht.

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE: 42501

Der Benutzer verfügt nicht über die Berechtigung <action> für <securableName>.

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE: 42501

Der Besitzer von <securableName> unterscheidet sich vom Besitzer von <parentSecurableName>.

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE: 42501

Die Speicheranmeldeinformation <credentialName> verfügt nicht über ausreichend Berechtigungen.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE: 42501

Die benutzende Person kann <action> auf <securableName> aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE: 42501

Die benutzende Person kann <action> auf <securableName> aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen:

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE: 22015

Ganzzahlüberlauf beim Betrieb mit Intervallen.

Weitere Details finden Sie unter INTERVAL_ARITHMETIC_OVERFLOW.

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE: 22012

Division durch Null. Verwenden Sie try_divide, um divisor 0 zu tolerieren und stattdessen NULL zurückzugeben.

UNGÜLTIGER_AGGREGATFILTER

SQLSTATE: 42903

Der FILTER Ausdruck <filterExpr> in einer Aggregatfunktion ist ungültig.

Weitere Details finden Sie unter INVALID_AGGREGATE_FILTER.

INVALID_ARRAY_INDEX

SQLSTATE: 22003

Der Index <indexValue>liegt außerhalb der Begrenzung. Das Array verfügt über <arraySize> Elemente. Verwenden Sie die SQL-Funktion get(), um den Zugriff auf Elemente bei ungültigen Indexen zu tolerieren und stattdessen NULL zurückzugeben.

Weitere Details finden Sie unter INVALID_ARRAY_INDEX.

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE: 22003

Der Index <indexValue>liegt außerhalb der Begrenzung. Das Array verfügt über <arraySize> Elemente. Verwenden Sie try_element_at, um den Zugriff auf Elemente bei ungültigen Index zu tolerieren und stattdessen NULL zurückzugeben.

Weitere Details finden Sie unter INVALID_ARRAY_INDEX_IN_ELEMENT_AT.

INVALID_ATTRIBUTE_NAME_SYNTAX

SQLSTATE: 42601

Syntaxfehler im Attributnamen: <name>. Überprüfen Sie, ob Backticks paarweise vorkommen, eine in Anführungszeichen gesetzte Zeichenfolge ein vollständiger Namensteil ist, und verwenden Sie einen Backtick nur innerhalb von Namensteilen in Anführungszeichen.

UNGÜLTIGE_AWS_AUTHENTIFIZIERUNG

SQLSTATE: 420000

Wählen Sie genau eine der folgenden Authentifizierungsmethoden aus:

  • Geben Sie den Namen Ihrer Databricks-Dienstanmeldeinformationen (<serviceCredential>) (als Sparkstreamoption oder als Clusterumgebungsvariable) an.
  • Stellen Sie sowohl aws AccessKey (<awsAccessKey>) als auch SecretAccessKey (<awsSecretKey>) bereit, um AWS-Schlüssel zu verwenden.
  • Stellen Sie weder die AWS-Schlüssel noch die Databricks-Dienstanmeldeinformationen bereit, um die standardmäßige AWS-Anmeldeinformationsanbieterkette für die Kinesis-Authentifizierung zu verwenden.

INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS

SQLSTATE: 420000

Geben Sie entweder den Namen Ihrer Databricks-Dienstanmeldeinformationen an (<serviceCredential>)

ODER sowohl <awsAccessKey> als auch <awsSecretKey>

INVALID_BITMAP_POSITION

SQLSTATE: 22003

Die mit 0 indizierte Bitmapposition <bitPosition> liegt außerhalb der zulässigen Grenzen. Die Bitmap verfügt über <bitmapNumBits> Bits (<bitmapNumBytes> Bytes).

INVALID_BOOLEAN_STATEMENT

SQLSTATE: 22546

Boolesche Anweisung wird in der Bedingung erwartet, aber <invalidStatement> wurde gefunden.

UNGÜLTIGE_GRENZE

SQLSTATE: 22003

Die Grenze <boundary> ist ungültig: <invalidValue>.

Weitere Informationen finden Sie unter UNGÜLTIGE_GRENZE

INVALID_BUCKET_COLUMN_DATA_TYPE

SQLSTATE: 42601

Für Bucketspalte kann nicht <type> verwendet werden. Sortierte Datentypen werden für die Bucketerstellung nicht unterstützt.

INVALID_BUCKET_FILE

SQLSTATE: 58030

Ungültige Bucketdatei: <path>.

INVALID_BYTE_STRING

SQLSTATE: 22P03

Das erwartete Format ist ByteString, war aber <unsupported> (<class>).

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE: 46121

Die Datenquelle <datasource> die Spalte <columnName> nicht speichern kann, da ihr Name einige Zeichen enthält, die in Dateipfaden nicht zulässig sind. Verwenden Sie einen Alias, um ihn umzubenennen.

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE: 420000

Spalten- oder Feld-<name> ist vom Typ <type>, es muss jedoch vom Typ <expectedType>sein.

INVALID_CONF_VALUE

SQLSTATE: 22022

Der Wert '<confValue>' in der Konfiguration "<confName>" ist ungültig.

Weitere Details finden Sie unter INVALID_CONF_VALUE.

INVALID_CORRUPT_RECORD_TYPE

SQLSTATE: 42804

Die Spalte <columnName> für beschädigte Datensätze muss den Nullwerte zulassenden STRING Typ besitzen, aber hat <actualType> erhalten.

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE: 42887

Die current_recipient-Funktion kann nur in der CREATE VIEW-Anweisung oder der ALTER VIEW-Anweisung verwendet werden, um in Unity Catalog eine Ansicht nur für die Freigabe zu definieren.

INVALID_CURSOR

SQLSTATE: HY109

Der Cursor ist ungültig.

Weitere Details finden Sie unter INVALID_CURSOR.

INVALID_DATETIME_PATTERN

SQLSTATE: 22007

Unbekanntes Datetime-Muster: <pattern>.

Weitere Details finden Sie unter INVALID_DATETIME_PATTERN.

INVALID_DEFAULT_VALUE

SQLSTATE: 42623

Fehler beim Ausführen des Befehls <statement>, da die Zielspalte oder Variable <colName> einen DEFAULT-Wert <defaultValue>hat.

Weitere Details finden Sie unter INVALID_DEFAULT_VALUE.

INVALID_DELIMITER_VALUE

SQLSTATE: 42602

Ungültiger Wert für Trennzeichen.

Weitere Details finden Sie unter INVALID_DELIMITER_VALUE.

INVALID_DEST_CATALOG

SQLSTATE: 42809

Der Zielkatalog des Befehls SYNC muss sich im Unity-Katalog befinden. Es wurde <catalog> gefunden.

INVALID_DRIVER_MEMORY

SQLSTATE: F0000

Systemspeicher <systemMemory> muss mindestens <minSystemMemory>sein.

Erhöhen Sie die Heapgröße mithilfe der Option „–driver-memory“ oder <config> in der Spark-Konfiguration.

INVALID_DYNAMIC_OPTIONS

SQLSTATE: 42K10

Optionen, die an <option_list> übergeben werden, sind für die Fremdtabelle <table_name>verboten.

INVALID_EMPTY_LOCATION

SQLSTATE: 42K05

Der Speicherortname darf keine leere Zeichenfolge sein, aber <location> wurde angegeben.

INVALID_ESC

SQLSTATE: 42604

Es wurde eine ungültige Escapezeichenfolge gefunden: <invalidEscape>. Die Escapezeichenfolge darf nur ein Zeichen enthalten.

INVALID_ESCAPE_CHAR

SQLSTATE: 42604

EscapeChar muss ein Zeichenfolgenliteral der Länge 1 sein, enthielt jedoch <sqlExpr>.

INVALID_EXECUTOR_MEMORY

SQLSTATE: F0000

Der Speicher des Executors <executorMemory> muss mindestens <minSystemMemory>sein.

Erhöhen Sie den Ausführungsspeicher mithilfe der Option "–executor-memory" oder "<config>" in der Spark-Konfiguration.

INVALID_EXPRESSION_ENCODER

SQLSTATE: 42001

Es wurde ein ungültiger Ausdrucksencoder gefunden. Erwartet eine Instanz von „ExpressionEncoder“, erhielt aber <encoderType>. Weitere Informationen finden Sie unter '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.

INVALID_EXTERNAL_TYPE

SQLSTATE: 42K0N

Der externe Typ <externalType> ist für den Typ <type> im Ausdruck <expr>ungültig.

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE: 420000

Ein Wert kann nicht aus <base>extrahiert werden. Komplexer Typ [STRUCT, ARRAY, MAP] erforderlich, aber <other> erhalten.

INVALID_EXTRACT_FIELD

SQLSTATE: 42601

<field> kann nicht aus <expr>extrahiert werden.

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE: 420000

Der Feldname muss ein Zeichenfolgenliteral ungleich NULL sein, aber er ist <extraction>.

INVALID_FIELD_NAME

SQLSTATE: 420000

Der Feldname <fieldName> ist ungültig: <path> ist keine Struktur.

INVALID_FORMAT

SQLSTATE: 42601

Das Format ist ungültig: <format>.

Weitere Details finden Sie unter INVALID_FORMAT.

INVALID_FRACTION_OF_SECOND

SQLSTATE: 22023

Gültiger Bereich für Sekunden ist [0, 60] (einschließlich), der angegebene Wert ist jedoch <secAndMicros>. Um diesen Fehler zu vermeiden, verwenden Sie try_make_timestamp, die NULL beim Fehler zurückgibt.

Wenn Sie nicht die Standardeinstellung der Sitzung für die Zeitstempelversion dieser Funktion verwenden möchten, nutzen Sie try_make_timestamp_ntz oder try_make_timestamp_ltz.

INVALID_HANDLE

SQLSTATE: HY000

Das Handle <handle> ist ungültig.

Weitere Details finden Sie unter INVALID_HANDLE.

UNGÜLTIGE_HTTP_ANFORDERUNGSMETHODE

SQLSTATE: 22023

Der Eingabeparameter: Methode, Wert: <paramValue> ist kein gültiger Parameter für http_request, da es sich nicht um eine gültige HTTP-Methode handelt.

INVALID_HTTP_REQUEST_PATH

SQLSTATE: 22023

Der Eingabeparameter: Pfad, Wert: <paramValue> ist kein gültiger Parameter für http_request, da der Pfad-Traversal nicht zulässig ist.

INVALID_IDENTIFIER

SQLSTATE: 42602

Der nicht zitierte Bezeichner <ident> ist ungültig und muss wie folgt in Anführungszeichen gesetzt werden: <ident>.

Nicht notierte Bezeichner können nur ASCII Buchstaben ('a' - 'z', 'A' - 'Z'), Ziffern ('0' - '9') und Unterstriche ('_') enthalten.

Nicht zitierte Bezeichner dürfen auch nicht mit einer Ziffer beginnen.

Unterschiedliche Datenquellen und Metaspeicher können zusätzliche Einschränkungen für gültige Bezeichner erzwingen.

INVALID_INDEX_OF_ZERO

SQLSTATE: 22003

Der Index 0 ist ungültig. Ein Index muss entweder < 0 oder > 0 sein (das erste Element hat Index 1).

INVALID_INLINE_TABLE

SQLSTATE: 420000

Ungültige Inlinetabelle.

Weitere Details finden Sie unter INVALID_INLINE_TABLE.

UNGÜLTIGES_INTERVALLFORMAT

SQLSTATE: 22006

Fehler beim Analysieren von „<input>“ in Intervall. Stellen Sie sicher, dass der angegebene Wert in einem gültigen Format zum Definieren eines Intervalls enthalten ist. Sie können auf die Dokumentation für das richtige Format verweisen.

Weitere Details finden Sie unter INVALID_INTERVAL_FORMAT.

INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION

SQLSTATE: 22006

Ein Intervall zu einem Datum kann nicht hinzugefügt werden, da sein Mikrosekundenteil nicht 0 ist. Legen Sie bei Bedarf <ansiConfig> auf "false" fest, um diesen Fehler zu umgehen.

Ungültige inverse Verteilungsfunktion

SQLSTATE: 42K0K

Ungültige Umgekehrte Verteilungsfunktion <funcName>.

Weitere Details finden Sie unter INVALID_INVERSE_DISTRIBUTION_FUNCTION.

INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME

SQLSTATE: 46121

<fieldName> ist kein gültiger Bezeichner von Java und kann nicht als Feldname verwendet werden.

<walkedTypePath>.

INVALID_JOIN_TYPE_FOR_JOINWITH

SQLSTATE: 42613

Ungültiger Verknüpfungstyp in joinWith: <joinType>.

INVALID_JSON_DATA_TYPE

SQLSTATE: 2203G

Fehler beim Konvertieren der JSON-Zeichenfolge '<invalidType>' in einen Datentyp. Geben Sie einen gültigen Datentyp ein.

INVALID_JSON_DATA_TYPE_FOR_COLLATIONS

SQLSTATE: 2203G

Sortierungen können nur auf Zeichenfolgentypen angewendet werden, der JSON-Datentyp ist jedoch <jsonType>.

INVALID_JSON_RECORD_TYPE

SQLSTATE: 22023

Ein ungültiger Typ eines JSON-Eintrags wurde erkannt, während ein allgemeines Schema im Modus <failFastMode>abgeleitet wird. Ein STRUCT-Typ wurde erwartet, jedoch wurde ein <invalidType>gefunden.

UNGÜLTIGES_JSON_ROOT_FELD

SQLSTATE: 22032

Das JSON-Stammfeld kann nicht in den Spark-Zieltyp konvertiert werden.

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE: 22032

Eingabeschema-<jsonSchema> kann nur STRING als Schlüsseltyp für eine MAPenthalten.

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE: F0000

Der Wert der Konfiguration „<bufferSizeConfKey>“ muss kleiner als 2.048 MiB sein, enthält jedoch <bufferSizeConfValue> MiB.

UNGÜLTIGE_ETIKETTENVERWENDUNG

SQLSTATE: 42K0L

Die Verwendung der Bezeichnung <labelName> ist ungültig.

Weitere Details finden Sie unter INVALID_LABEL_USAGE.

INVALID_LAMBDA_FUNCTION_CALL

SQLSTATE: 42K0D

Ungültiger Lambda-Funktionsaufruf.

Weitere Details finden Sie unter INVALID_LAMBDA_FUNCTION_CALL.

INVALID_LATERAL_JOIN_TYPE

SQLSTATE: 42613

Der <joinType>JOIN mit LATERAL-Korrelation ist nicht zulässig, da eine OUTER-Unterabfrage nicht mit ihrem Joinpartner korrelieren kann. Entfernen Sie die LATERAL-Korrelation, oder verwenden Sie stattdessen einen INNERJOIN oder LEFT OUTERJOIN.

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE: 42K0E

Der Limit-Like- Ausdruck <expr> ist ungültig.

Weitere Details finden Sie unter INVALID_LIMIT_LIKE_EXPRESSION.

INVALID_NON_ABSOLUTE_PATH

SQLSTATE: 22KD1

Der bereitgestellte, nicht absolute Pfad <path> kann nicht qualifiziert werden. Aktualisieren Sie den Pfad zu einem gültigen DBFS-Bereitstellungsspeicherort.

INVALID_NON_DETERMINISTIC_EXPRESSIONS

SQLSTATE: 42K0E

Der Operator erwartet einen deterministischen Ausdruck, aber der tatsächliche Ausdruck ist <sqlExprs>.

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE: 22003

Numerisches Literal <rawStrippedQualifier> liegt außerhalb des gültigen Bereichs für <typeName>, mit einem Minimalwert von <minValue> und einem Maximalwert von <maxValue>. Bitte passen Sie den Wert entsprechend an.

INVALID_OBSERVED_METRICS

SQLSTATE: 42K0E

Ungültige beobachtete Metriken.

Weitere Details finden Sie unter INVALID_OBSERVED_METRICS.

INVALID_OPTIONS

SQLSTATE: 42K06

Ungültige Optionen:

Weitere Einzelheiten siehe UNGÜLTIGE_OPTIONEN

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE: 0A000

Die pandas-UDF <functionList> für die Gruppenaggregierung kann nicht zusammen mit anderen Nicht-pandas-Aggregatfunktionen aufgerufen werden.

INVALID_PARAMETER_MARKER_VALUE

SQLSTATE: 22023

Es wurde eine ungültige Parameterzuordnung bereitgestellt:

Weitere Details finden Sie unter INVALID_PARAMETER_MARKER_VALUE.

INVALID_PARAMETER_VALUE

SQLSTATE: 22023

Der Wert der parameter(n) <parameter> in <functionName> ist ungültig:

Weitere Details finden Sie unter INVALID_PARAMETER_VALUE.

INVALID_PARTITION_COLUMN_DATA_TYPE

SQLSTATE: 0A000

<type> kann nicht für die Partitionsspalte verwendet werden.

INVALID_PARTITION_OPERATION

SQLSTATE: 42601

Der Partitionsbefehl ist ungültig.

Weitere Details finden Sie unter INVALID_PARTITION_OPERATION.

INVALID_PARTITION_VALUE

SQLSTATE: 42846

Fehler beim Umwandeln des Werts <value> in den Datentyp <dataType> für Partitionsspalte <columnName>. Stellen Sie sicher, dass der Wert dem erwarteten Datentyp für diese Partitionsspalte entspricht.

INVALID_PIPELINE_ID

SQLSTATE: 42604

Die Pipeline-ID <pipelineId> ist ungültig.

Eine Pipeline-ID sollte eine UUID im Format "xx-xxxx-xxxx-xxxx-xxxx-xxxx" sein.

INVALID_PRIVILEGE

SQLSTATE: 42852

Berechtigung <privilege> ist für <securable>ungültig.

UNGÜLTIGER_EIGENSCHAFTSSCHLÜSSEL

SQLSTATE: 42602

<key> ein ungültiger Eigenschaftsschlüssel ist, verwenden Sie bitte Anführungszeichen, z. B. SET <key>=<value>.

INVALID_PROPERTY_VALUE

SQLSTATE: 42602

Der Wert <value> ist ein ungültiger Eigenschaftswert, bitte verwenden Sie Anführungszeichen, z. B. SET <key>=<value>.

INVALID_QUALIFIED_COLUMN_NAME

SQLSTATE: 420000

Der Spaltenname <columnName> ist ungültig, da er nicht mit einem Tabellennamen qualifiziert ist oder aus mehr als 4 Namenteilen besteht.

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE: 42613

Parametrisierte Abfragen müssen entweder Positionsparameter oder benannte Parameter verwenden, aber nicht beide.

INVALID_REGEXP_REPLACE

SQLSTATE: 22023

Das Ausführen von regexp_replace für Quelle = "<source>", Muster = "<pattern>", Ersetzung = "<replacement>" und Position = <position>konnte nicht durchgeführt werden.

INVALID_RESET_COMMAND_FORMAT

SQLSTATE: 420000

Das erwartete Format ist "RESET" oder "RESET Schlüssel". Wenn Sie Sonderzeichen in die Taste aufnehmen möchten, verwenden Sie bitte Anführungszeichen, z. B. RESET key.

INVALID_S3_COPY_CREDENTIALS

SQLSTATE: 42501

COPY INTO-Anmeldeinformationen müssen AWS_ACCESS_KEY, AWS_SECRET_KEYund AWS_SESSION_TOKEN enthalten.

INVALID_SAVE_MODE

SQLSTATE: 420000

Der angegebene Speichermodus <mode> ist ungültig. Gültige Speichermodi sind: „append“, „overwrite“, „ignore“, „error“, „errorifexists“ und „default“.

INVALID_SCHEMA

SQLSTATE: 42K07

Das Eingabeschema <inputSchema> ist keine gültige Schemazeichenfolge.

Weitere Details finden Sie unter INVALID_SCHEMA.

INVALID_SCHEMA_OR_RELATION_NAME

SQLSTATE: 42602

<name> ist kein gültiger Name für Tabellen/Schemas. Gültige Namen enthalten nur Alphabetzeichen, Zahlen und _.

INVALID_SCHEME

SQLSTATE: 0AKUC

Der Unity-Katalog unterstützt <name> nicht als Standarddateischema.

INVALID_SECRET_LOOKUP

SQLSTATE: 22531

Geheimnislookup ungültig:

Weitere Details finden Sie unter INVALID_SECRET_LOOKUP.

INVALID_SET_SYNTAX

SQLSTATE: 420000

Das erwartete Format lautet "SET", "SET Schlüssel" oder "SET Schlüssel=Wert". Wenn Sie Sonderzeichen in den Schlüssel oder Semikolon in den Wert einschließen möchten, verwenden Sie rückwärts gerichtete Anführungszeichen, z. B. SET key=value.

INVALID_SHARED_ALIAS_NAME

SQLSTATE: 42601

Der Name des <sharedObjectType> Alias muss das Format "schema.name" aufweisen.

INVALID_SINGLE_VARIANT_COLUMN

SQLSTATE: 42613

Die option singleVariantColumn kann nicht verwendet werden, wenn auch ein vom Benutzer angegebenes Schema vorhanden ist.

INVALID_SOURCE_CATALOG

SQLSTATE: 42809

Der Quellkatalog darf nicht im Unity-Katalog für den Befehl SYNC sein. Es wurde <catalog> gefunden.

Ungültiges SQL-Argument (INVALID_SQL_ARG)

SQLSTATE: 42K08

Das Argument <name> von sql() ist ungültig. Erwägen Sie, sie entweder durch ein SQL-Literal oder durch Sammlungskonstruktorfunktionen wie map(), array(), struct()zu ersetzen.

INVALID_SQL_SYNTAX

SQLSTATE: 420000

Ungültige SQL-Syntax:

Weitere Details finden Sie unter INVALID_SQL_SYNTAX.

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE: 42604

Ungültiger Stagingpfad in der Staging-<operation>-Abfrage: <path>

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE: 07501

Die INTO-Klausel von EXECUTE IMMEDIATE ist nur für Abfragen gültig, aber die angegebene Anweisung ist keine Abfrage: <sqlString>.

INVALID_STATEMENT_OR_CLAUSE

SQLSTATE: 42601

Die Anweisung oder Klausel: <operation> ist ungültig.

INVALID_SUBQUERY_EXPRESSION

SQLSTATE: 42823

Ungültige Unterabfrage:

Weitere Details finden Sie unter INVALID_SUBQUERY_EXPRESSION.

INVALID_TARGET_FOR_ALTER_COMMAND

SQLSTATE: 42809

ALTER <commandTableType><command> unterstützt <tableName>nicht. Bitte verwenden Sie ALTER <targetTableType> ... Stattdessen <command>.

INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND

SQLSTATE: 42809

ALTER <commandTableType>SET TBLPROPERTIES unterstützt <tableName>nicht. Bitte verwenden Sie ALTER <targetTableType> ... stattdessen SET TBLPROPERTIES.

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE: 42K0F

Das persistente Objekt <objName> des Typs <obj> kann nicht erstellt werden, da es auf das temporäre Objekt <tempObjName> des Typs <tempObj>verweist. Stellen Sie das temporäre Objekt <tempObjName> beständig, oder stellen Sie das persistente Objekt <objName> temporär.

INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22000

Der angegebene Zeitstempel <timestamp> stimmt nicht mit der erwarteten Syntax <format>überein.

UNGÜLTIGE_ZEITZONE

SQLSTATE: 22009

Die Zeitzone: <timeZone> ist ungültig. Die Zeitzone muss entweder eine regionsbasierte Zonen-ID oder ein Zonenoffset sein. Regions-IDs müssen das Formular "Fläche/Stadt" aufweisen, z. B. "Amerika/Los_Angeles". Zonenoffsets müssen im Format '(+|-)HH', '(+|-)HH:mm' oder '(+|-)HH:mm:ss' vorliegen, z. B. '-08', '+01:00' oder '-13:33:33', und muss sich im Bereich von -18:00 bis +18:00 befinden. "Z" und "UTC" werden als Synonyme für "+00:00" akzeptiert.

INVALID_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

Bei einer Zeitreise der Tabelle können nicht sowohl die Version als auch der Zeitstempel angegeben werden.

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE: 42K0E

Der Zeitreisezeitstempelausdruck <expr> ist ungültig.

Weitere Details finden Sie unter INVALID_TIME_TRAVEL_TIMESTAMP_EXPR.

INVALID_TYPED_LITERAL

SQLSTATE: 42604

Der Wert des typierten Literals <valueType> ist ungültig: <value>.

INVALID_UDF_IMPLEMENTATION

SQLSTATE: 380000

Funktion <funcName> implementiert keine ScalarFunction oder AggregateFunction.

INVALID_UPGRADE_SYNTAX

SQLSTATE: 42809

<command> <supportedOrNot> Die Quelltabelle befindet sich im Hive-Metastore und die Zieltabelle in Unity Catalog.

INVALID_URL

SQLSTATE: 22P02

Die URL ist ungültig: <url>. Verwenden Sie try_parse_url, um ungültige URL zu tolerieren und stattdessen NULL zurückzugeben.

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE: 420000

Ungültige Verwendung von <elem> in <prettyName>.

INVALID_UTF8_STRING

SQLSTATE: 22029

Ungültige UTF8-Bytesequenz in Zeichenfolge: <str>.

INVALID_UUID

SQLSTATE: 42604

Eingabe-<uuidInput> ist keine gültige UUID.

Die UUID sollte im Format "xx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxx" vorliegen.

Bitte überprüfen Sie das Format der UUID.

INVALID_VARIABLE_DECLARATION

SQLSTATE: 42K0M

Ungültige Variablendeklaration.

Weitere Details finden Sie unter INVALID_VARIABLE_DECLARATION.

INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE: 42K09

Der Variablentyp muss eine Zeichenfolge (string) sein, empfangen wurde aber <varType>.

INVALID_VARIANT_CAST

SQLSTATE: 22023

Der Variant-Wert <value> kann nicht in <dataType>umgewandelt werden. Verwenden Sie stattdessen try_variant_get.

INVALID_VARIANT_FROM_PARQUET

SQLSTATE: 22023

Ungültige Variante.

Weitere Details finden Sie unter INVALID_VARIANT_FROM_PARQUET.

INVALID_VARIANT_GET_PATH

SQLSTATE: 22023

Der Pfad <path> ist kein gültiger Variant-Extraktionspfad in <functionName>.

Ein gültiger Pfad sollte mit $ beginnen und gefolgt von null oder mehr Segmenten wie [123], .name, ['name']oder ["name"].

INVALID_VARIANT_SHREDDING_SCHEMA

SQLSTATE: 22023

Das Schema <schema> ist kein gültiges Variant-Shredding-Schema.

INVALID_WHERE_CONDITION

SQLSTATE: 42903

Die WHERE Bedingung <condition> enthält ungültige Ausdrücke: <expressionList>.

Schreiben Sie die Abfrage neu, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE-Klausel zu vermeiden.

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE: 42601

Es kann weder ORDER BY noch ein Fensterrahmen für <aggFunc> angegeben werden.

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE: 42KDE

Der Datenquellen-Schreiber hat eine ungültige Anzahl von Commit-Nachrichten generiert. Es wurde genau eine Commitnachricht für jede Aufgabe vom Writer erwartet, aber <detail> empfangen.

INVALID_WRITE_DISTRIBUTION

SQLSTATE: 420000

Die angeforderte Schreibverteilung ist ungültig.

Weitere Details finden Sie unter INVALID_WRITE_DISTRIBUTION.

ISOLATED_COMMAND_FAILURE

SQLSTATE: 390000

Fehler beim Ausführen von <command>. Befehlsausgabe:

<output>

ISOLATED_COMMAND_UNKNOWN_FAILURE

SQLSTATE: 390000

Fehler beim Ausführen des Befehls <command>.

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE: 42K0E

Die Verknüpfungsbedingung <joinCondition> weist den ungültigen Typ <conditionType> auf, „BOOLEAN“ wurde erwartet.

KAFKA_DATA_LOSS

SQLSTATE: 22000

Einige Daten sind möglicherweise verloren gegangen, weil sie in Kafka nicht mehr verfügbar sind;

entweder die Daten wurden von Kafka ausgelöscht, oder das Thema wurde möglicherweise gelöscht, bevor alle Daten im

Thema verarbeitet wurden.

Wenn Ihre Streamingabfrage in solchen Fällen nicht fehlschlagen soll, setzen Sie die Quelloption failOnDataLoss auf "false".

Grund:

Weitere Informationen finden Sie unter KAFKA_DATA_LOSS

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE: 22000

Konnte nicht bis zur gewünschten Sequenznummer <endSeqNum> für Shard <shardId> im

kinesis-Stream <stream> mit Consumermodus <consumerMode>. Die Abfrage führt aufgrund eines

potenzieller Datenverlust. Der letzte Lesedatensatz befand sich bei Sequenznummer <lastSeqNum>.

Dies kann passieren, wenn die Daten mit endSeqNum bereits veraltet sind oder der Kinesis-Datenstrom abgelaufen war.

gelöscht und mit demselben Namen rekonstruiert wurde. Das Fehlerverhalten kann außer Kraft gesetzt werden.

durch Festlegen von spark.databricks.kinesis.failOnDataLoss auf "false" in der Spark-Konfiguration.

KINESIS_EFO_CONSUMER_NOT_FOUND

SQLSTATE: 510000

Für den Kinesis-Stream <streamId>wurde der zuvor registrierte EFO-Nutzer <consumerId> des Datenstroms gelöscht.

Starten Sie die Abfrage neu, damit ein neuer Consumer registriert wird.

KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED

SQLSTATE: 510000

Für Shard <shard>erfolgte der vorherige Aufruf der subscribeToShard-API innerhalb von 5 Sekunden vor dem nächsten Aufruf.

Starten Sie die Abfrage nach 5 Sekunden oder mehr neu.

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE: 42K04

Die abgerufene Mindest-ShardId von Kinesis (<fetchedShardId>)

ist kleiner als die nachverfolgte Mindest-shardId (<trackedShardId>).

Dies ist unerwartet und tritt auf, wenn ein Kinesis-Datenstrom gelöscht und mit demselben Namen neu erstellt wird.

und eine Streamingabfrage mit diesem Kinesis-Stream mithilfe eines vorhandenen Prüfpunktorts neu gestartet wird.

Starten Sie die Streamingabfrage mit einem neuen Prüfpunktort neu, oder erstellen Sie einen Stream mit einem neuen Namen.

KINESIS_POLLING_MODE_UNSUPPORTED

SQLSTATE: 0A000

Der Kinesis-Abrufmodus wird nicht unterstützt.

KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION

SQLSTATE: 22000

Bei Shard <shard>hatte der letzte Datensatz, der in vorherigen Abrufen von Kinesis gelesen wurde, die Sequenznummer <lastSeqNum>.

der größer als der Datensatz ist, der im aktuellen Abruf mit Sequenznummer <recordSeqNum> gelesen wird.

Dies ist unerwartet und kann auftreten, wenn die Startposition des Wiederholungs- oder nächsten Abrufszyklus falsch initialisiert ist und dies kann zu doppelten Datensätzen im weiteren Verlauf führen.

KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS

SQLSTATE: 42KDF

Um aus Kinesis-Streams mit Consumerkonfigurationen zu lesen (consumerName, consumerNamePrefixoder registeredConsumerId), muss consumerMode efo sein.

KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE

SQLSTATE: 42KDF

Um aus Kinesis-Streams mit registrierten Consumern zu lesen, müssen Sie sowohl die Option registeredConsumerId als auch registeredConsumerIdType angeben.

KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS

SQLSTATE: 42KDF

Zum Lesen aus Kinesis Streams müssen Sie entweder die streamName- oder streamARN-Option als durch Kommas getrennte Liste von Datenstromnamen/ARNs konfigurieren, aber nicht beide gleichzeitig.

KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS

SQLSTATE: 42KDF

Um aus Kinesis-Streams mit registrierten Consumern zu lesen, konfigurieren Sie nicht die Option consumerName oder consumerNamePrefix, da diese nicht wirksam werden.

KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH

SQLSTATE: 22023

Die Anzahl der registrierten Consumer-IDs muss der Anzahl der Kinesis-Streams entsprechen, es wurden jedoch <numConsumerIds> Consumer-IDs und <numStreams> Streams erkannt.

KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND

SQLSTATE: 22023

Der von <consumerId> angegebene registrierte Consumer kann für streamARN <streamARN> nicht gefunden werden. Stellen Sie sicher, dass Sie den Verbraucher registriert haben, oder stellen Sie die option registeredConsumerId nicht bereit.

KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID

SQLSTATE: 22023

Der registrierte Consumertyp <consumerType> ist ungültig. Es muss entweder name oder ARNsein.

KRYO_BUFFER_OVERFLOW

SQLSTATE: 54006

Fehler bei der Kryo-Serialisierung: <exceptionMsg>. Um dies zu vermeiden, erhöhen Sie den Wert "<bufferSizeConfKey>".

LABELS_MISMATCH

SQLSTATE: 42K0L

Begin label <beginLabel> stimmt nicht mit der Endbezeichnung <endLabel>überein.

LABEL_ALREADY_EXISTS

SQLSTATE: 42K0L

Die Bezeichnung <label> ist bereits vorhanden. Wählen Sie einen anderen Namen aus, oder benennen Sie die vorhandene Bezeichnung um.

LOAD_DATA_PATH_NOT_EXISTS

SQLSTATE: 42K03

LOAD DATA Eingabepfad existiert nicht: <path>.

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE: 42601

LOCAL muss zusammen mit dem Schema von file verwendet werden, enthielt jedoch Folgendes: <actualSchema>.

LOCATION_ALREADY_EXISTS

SQLSTATE: 42710

Die verwaltete Tabelle kann nicht als <identifier>benannt werden, da der zugeordnete Speicherort <location> bereits vorhanden ist. Wählen Sie einen anderen Tabellennamen aus, oder entfernen Sie zuerst den vorhandenen Speicherort.

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Einige Partitionen in Kafka-Themen sind während der Ausführung der Abfrage mit Trigger.AvailableNow verloren gegangen. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

Themenpartitionen für den neuesten Offset: <tpsForLatestOffset>, Themenpartitionen für den Endoffset: <tpsForEndOffset>

MALFORMED_AVRO_MESSAGE

SQLSTATE: KD000

Falsch formatierte Avro-Nachrichten werden in der Deserialisierung von Nachrichten erkannt. Parsemodus: <mode>. Um falsch formatierte Avro-Nachricht als NULL-Ergebnis zu verarbeiten, versuchen Sie, die Option "Modus" als "PERMISSIVE" festzulegen.

MALFORMED_CHARACTER_CODING

SQLSTATE: 22000

Ungültiger Wert beim Ausführen von <function> mit <charset> gefunden

MALFORMIERTER_CSV_EINTRAG

SQLSTATE: KD000

Falsch formatierter CSV-Eintrag: <badRecord>

MALFORMED_RECORD_IN_PARSING

SQLSTATE: 22023

Beim Parsen von Datensätzen werden nicht wohlgeformte Datensätze erkannt: <badRecord>.

Parsemodus: <failFastMode>. Um falsch formatierte Datensätze als NULL-Ergebnis zu verarbeiten, versuchen Sie, die Option "Modus" als "PERMISSIVE" festzulegen.

Weitere Details finden Sie unter MALFORMED_RECORD_IN_PARSING.

MALFORMED_VARIANT

SQLSTATE: 22023

Die Variant-Binärdatei ist falsch formatiert. Überprüfen Sie, ob die Datenquelle gültig ist.

MANAGED_TABLE_WITH_CRED

SQLSTATE: 42613

Das Erstellen einer verwalteten Tabelle mit Speicheranmeldeinformationen wird nicht unterstützt.

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE: 55019

Die materialisierte Sicht kann nicht <refreshType> werden, da sie vor „pipelineId“ vorhanden war. Um <refreshType> zu aktivieren, löschen Sie bitte die materialisierte Sicht und erstellen sie neu.

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE: 56038

Der materialisierte Ansichtsvorgang <operation> ist nicht zulässig:

Weitere Details finden Sie unter MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED.

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE: 0A000

Der Ausgabeausdruck <expression> in einer materialisierten Sicht muss explizit mit einem Alias erstellt werden.

MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID

SQLSTATE: 420000

materialisierte Ansicht <name> konnte nicht mit Streaming-Abfrage erstellt werden. Verwenden Sie CREATE [OR REFRESH] <st> oder entfernen Sie das schlüsselwort STREAM in Ihre FROM Klausel, um diese Beziehung stattdessen in eine Batchabfrage umzuwandeln.

MATERIALIZED_VIEW_UNSUPPORTED_OPERATION

SQLSTATE: 0A000

Vorgang <operation> wird für materialisierte Ansichten derzeit nicht unterstützt.

MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED

SQLSTATE: 54KD1

Die neue Variable <variableName> kann nicht erstellt werden, da die Anzahl der Variablen in der Sitzung die maximal zulässige Anzahl (<maxNumVariables>) überschreitet.

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE: 22023

maxRecordsPerFetch muss eine positive ganze Zahl kleiner oder gleich <kinesisRecordLimit> sein.

MERGE_CARDINALITY_VIOLATION

SQLSTATE: 23K01

Die ON-Suchbedingung der MERGE-Anweisung stimmt überein mit einer einzelnen Zeile der Zieltabelle, die sich mit mehreren Zeilen der Quelltabelle deckt.

Dies kann dazu führen, dass die Zielzeile mehrmals mit einem Aktualisierungs- oder Löschvorgang bearbeitet wird, was nicht zulässig ist.

MERGE_WITHOUT_WHEN

SQLSTATE: 42601

Es muss mindestens eine WHEN-Klausel in einer MERGE-Anweisung vorhanden sein.

METRIC_CONSTRAINT_NOT_SUPPORTED

SQLSTATE: 0A000

METRIC CONSTRAINT ist nicht aktiviert.

METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22023

Der bereitgestellte Wert "<argValue>" wird von Argument "<argName>" für die METRIC_STORE Tabellenfunktion nicht unterstützt.

Weitere Details finden Sie unter METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR.

METRIC_STORE_UNSUPPORTED_ERROR

SQLSTATE: 56038

Die metrische Store-Routine <routineName> ist derzeit in dieser Umgebung deaktiviert.

METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED

SQLSTATE: 42K0E

Die Metrikansicht darf keine Cachetabellen verwenden.

METRIC_VIEW_FEATURE_DISABLED

SQLSTATE: 42K0E

Das Feature "Metrikansicht" ist deaktiviert. Stellen Sie sicher, dass "spark.databricks.sql.metricView.enabled" auf "true" festgelegt ist.

METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT

SQLSTATE: 42K0E

Die funktion MEASURE() akzeptiert nur ein Attribut als Eingabe, hat aber <expr>

METRIC_VIEW_IN_CTE_NOT_SUPPORTED

SQLSTATE: 42K0E

Die Metrikansicht ist in CTE-Definitionen nicht zulässig. Plan: <plan>

METRIC_VIEW_JOIN_NOT_SUPPORTED

SQLSTATE: 42K0E

Die Metrikansicht darf Verknüpfungen nicht verwenden. Plan: <plan>

METRIC_VIEW_MISSING_MEASURE_FUNCTION

SQLSTATE: 42K0E

Die Verwendung der Messspalte <column> einer Metrikansicht erfordert eine MEASURE() Funktion, um Ergebnisse zu erhalten.

METRIC_VIEW_UNSUPPORTED_USAGE

SQLSTATE: 42K0E

Die Verwendung der Metrikansicht wird nicht unterstützt. Plan: <plan>

METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED

SQLSTATE: 42K0E

Die Metrikansicht darf die Fensterfunktion <expr> nicht verwenden.

MIGRATION_NICHT_UNTERSTÜTZT

SQLSTATE: 42601

<table> wird für die Migration zu verwalteter Tabelle nicht unterstützt, da es sich nicht um eine <tableKind> Tabelle handelt.

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE: KD000

Die Kafka-Datenquelle in „Trigger.AvailableNow“ muss die gleichen Themenpartitionen im vorab abgerufenen Offset bis zum End-Offset für jeden Mikrobatch bereitstellen. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

Themenpartitionen für den vorab abgerufenen Offset: <tpsForPrefetched>, Themenpartitionen für den Endoffset: <tpsForEndOffset>.

MISSING_AGGREGATION

SQLSTATE: 42803

Der nicht aggregierende Ausdruck <expression> basiert auf Spalten, die nicht an der GROUP BY-Klausel teilnehmen.

Fügen Sie dem GROUP BYdie Spalten oder den Ausdruck hinzu, aggregieren Sie den Ausdruck, oder verwenden Sie <expressionAnyValue>, wenn es Ihnen egal ist, welcher Wert innerhalb einer Gruppe zurückgegeben wird.

Weitere Details finden Sie unter MISSING_AGGREGATION.

MISSING_CLAUSES_FOR_OPERATION

SQLSTATE: 42601

Fehlende Klausel <clauses> für den Vorgang <operation>. Fügen Sie die erforderlichen Klauseln hinzu.

MISSING_CONNECTION_OPTION

SQLSTATE: 420000

Verbindungen vom Typ '<connectionType>' müssen die folgenden Optionen enthalten: <requiredOptions>.

MISSING_DATABASE_FOR_V1_SESSION_CATALOG

SQLSTATE: 3F000

Der Datenbankname wird im v1-Sitzungskatalog nicht angegeben. Stellen Sie sicher, dass Sie beim Interagieren mit dem v1-Katalog einen gültigen Datenbanknamen angeben.

MISSING_GROUP_BY

SQLSTATE: 42803

Die Abfrage enthält keine GROUP BY Klausel. Fügen Sie GROUP BY hinzu, oder bauen Sie es mithilfe von OVER-Klauseln in Fensterfunktionen um.

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE: 420000

CHECK Constraint muss einen Namen haben.

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE: 42KDF

Parameter <parameterName> ist für Kafka erforderlich, wird jedoch in <functionName>nicht angegeben.

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE: 42KDF

Parameter <parameterName> ist erforderlich, wird jedoch in <functionName>nicht angegeben.

MISSING_SCHEDULE_DEFINITION

SQLSTATE: 420000

Eine Zeitplandefinition muss nach SCHEDULE bereitgestellt werden.

MISSING_TIMEOUT_CONFIGURATION

SQLSTATE: HY000

Der Vorgang hat ein Timeout, es ist jedoch keine Timeoutdauer konfiguriert. Verwenden Sie zum Festlegen eines zeitbasierten Verarbeitungstimeouts "GroupState.setTimeoutDuration()" in Ihrem 'mapGroupsWithState'- oder 'flatMapGroupsWithState'-Vorgang. Verwenden Sie für ereigniszeitbasiertes Timeout "GroupState.setTimeoutTimestamp()" und definieren Sie ein Wasserzeichen mithilfe von "Dataset.withWatermark()".

MISSING_WINDOW_SPECIFICATION

SQLSTATE: 42P20

Die Fensterspezifikation ist in der WINDOW-Klausel für <windowName>nicht definiert. Weitere Informationen zu WINDOW Klauseln finden Sie unter "<docroot>/sql-ref-syntax-qry-select-window.html".

MODIFY_BUILTIN_CATALOG

SQLSTATE: 42832

Das Ändern des integrierten Katalogs <catalogName> wird nicht unterstützt.

MULTIPLE_LOAD_PATH

SQLSTATE: 420000

Databricks Delta unterstützt nicht mehrere Eingabepfade in der load()-API.

Pfade: <pathList>. So erstellen Sie einen einzelnen DataFrame durch Laden

mehrere Pfade aus derselben Delta-Tabelle laden, sollten Sie den Stammpfad der

die Delta-Tabelle mit den entsprechenden Partitionsfiltern. Wenn mehrere Pfade

aus verschiedenen Delta-Tabellen stammen, verwenden Sie die APIs union() oder unionByName() des Datasets,

um die DataFrames zu kombinieren, die durch separate load()-API-Aufrufe generiert werden.

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE: 42891

Es wurden mindestens zwei übereinstimmende Einschränkungen mit der angegebenen Bedingung gefunden.

MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS

SQLSTATE: 420000

<clause1> und <clause2> können nicht im selben SQL-Pipe-Operator mit '|>' koexistieren. Trennen Sie die mehreren Ergebnisklauseln in separate Pipeoperatoren, und wiederholen Sie dann die Abfrage erneut.

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

Die Zeitreise kann nicht sowohl in der Zeitreiseklausel als auch in den Optionen angegeben werden.

MEHRERE_XML_DATENQUELLE

SQLSTATE: 42710

Es wurden mehrere Datenquellen mit dem Namen <provider> (<sourceNames>) erkannt. Geben Sie den vollqualifizierten Klassennamen an, oder entfernen Sie <externalSource> aus dem Klassenpfad.

MULTI_ALIAS_WITHOUT_GENERATOR

SQLSTATE: 42K0E

Mehrteiliges Aliasing (<names>) wird mit <expr> nicht unterstützt, da es sich nicht um eine Generatorfunktion handelt.

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE: 42K0E

Der Ausdruck <expr> unterstützt nicht mehr als eine Quelle.

MULTI_UDF_INTERFACE_ERROR

SQLSTATE: 0A000

Nicht zulässig, mehrere UDF-Schnittstellen zu implementieren, UDF-Klasse <className>.

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE: 42613

Sich gegenseitig ausschließende Klauseln oder Optionen <clauses>. Entfernen Sie eine dieser Klauseln.

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE: 42601

Die Eingabeabfrage erwartet eine <expectedType>, die zugrunde liegende Tabelle ist jedoch eine <givenType>.

BENANNTE_PARAMETER_NICHT_UNTERSTÜTZT

SQLSTATE: 4274K

Benannte Parameter werden für die Funktion <functionName>nicht unterstützt; bitte versuchen Sie es erneut, indem Sie Positionsargumente für den Funktionsaufruf verwenden.

BENANNTE_PARAMETER_WERDEN_FÜR_SQL_UDFS_NICHT_UNTERSTÜTZT

SQLSTATE: 0A000

Funktion <functionName> kann nicht aufgerufen werden, weil benannte Argumentverweise nicht unterstützt werden. In diesem Fall wurde der benannte Argumentverweis <argument>verwendet.

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE: 0A000

Die Funktion <functionName> kann nicht aufgerufen werden, da hier keine benannten Argumentverweise aktiviert sind.

In diesem Fall lautete der benannte Argumentverweis <argument>.

Legen Sie "spark.sql.allowNamedFunctionArguments" auf "true" fest, um das Feature zu aktivieren.

NAMESPACE_ALREADY_EXISTS

SQLSTATE: 420000

Namespace-<nameSpaceName> kann nicht erstellt werden, da er bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, legen Sie den vorhandenen Namespace ab, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Namespaces zu tolerieren.

NAMESPACE_NOT_EMPTY

SQLSTATE: 420000

Ein Namespace-<nameSpaceNameName> kann nicht gelöscht werden, da er Objekte enthält.

Verwenden Sie DROP NAMESPACE ... CASCADE, um den Namespace und alle zugehörigen Objekte abzulegen.

NAMESPACE_NOT_FOUND

SQLSTATE: 420000

Der Namespace <nameSpaceName> kann nicht gefunden werden. Überprüfen Sie die Schreib- und Korrektheit des Namespaces.

Wenn Sie den Namen nicht mit einem qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen.

Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP NAMESPACE IF EXISTS.

NATIVE_IO_ERROR

SQLSTATE: KD00F

Native Anforderung fehlgeschlagen. RequestId: <requestId>, Cloud: <cloud>, Vorgang: <operation>

Anforderung: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],

fehler: <error>

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE: 56038

Native XML-Datenquelle ist in diesem Cluster nicht aktiviert.

NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION

SQLSTATE: 22003

Es wurde ein negativer Wert in <frequencyExpression> gefunden: <negativeValue>, aber ein positiver Integralwert wurde erwartet.

NESTED_AGGREGATE_FUNCTION

SQLSTATE: 42607

Es ist nicht zulässig, eine Aggregatfunktion im Argument einer anderen Aggregatfunktion zu verwenden. Verwenden Sie die innere Aggregatfunktion in einer Unterabfrage.

NESTED_EXECUTE_IMMEDIATE

SQLSTATE: 07501

Geschachtelte EXECUTE IMMEDIATE Befehle sind nicht zulässig. Stellen Sie sicher, dass die bereitgestellte SQL-Abfrage (<sqlString>) keinen anderen EXECUTE IMMEDIATE Befehl enthält.

NONEXISTENT_FIELD_NAME_IN_LIST

SQLSTATE: HV091

Feld(er) <nonExistFields> nicht vorhanden. Verfügbare Felder: <fieldNames>

NON_FOLDABLE_ARGUMENT

SQLSTATE: 42K08

Für die Funktion <funcName> muss der Parameter <paramName> ein faltbarer Ausdruck des Typs <paramType>sein, das tatsächliche Argument ist jedoch nicht faltbar.

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Wenn es in einer MERGE-Anweisung mehr als eine MATCHED-Klausel gibt, kann nur die letzte MATCHED-Klausel die Bedingung weglassen.

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Wenn eine NOT MATCHED BY SOURCE-Anweisung mehr als eine MERGE-Klausel enthält, darf nur die letzte NOT MATCHED BY SOURCE-Klausel die Bedingung auslassen.

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Wenn eine NOT MATCHED [BY TARGET-Anweisung mehr als eine MERGE-Klausel enthält, darf nur die letzte NOT MATCHED [BY TARGET-Klausel die Bedingung auslassen.

NON_LITERAL_PIVOT_VALUES

SQLSTATE: 42K08

Literalausdrücke sind für Pivotwerte erforderlich, es wurde <expression> gefunden.

NON_PARTITION_COLUMN

SQLSTATE: 420000

PARTITION-Klausel darf keine Nicht-Partitionsspalten enthalten: <columnName>.

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE: 42KDE

Die WINDOW-Funktion wird in <windowFunc> (als Spalte <columnName>) für Streaming-DataFrames/Datasets nicht unterstützt.

Strukturiertes Streaming unterstützt nur die Zeitfensteraggregation mithilfe der WINDOW-Funktion. (Fensterspezifikation: <windowSpec>)

NOT_ALLOWED_IN_FROM

SQLSTATE: 42601

In der FROM-Klausel nicht zulässig:

Weitere Details finden Sie unter NOT_ALLOWED_IN_FROM.

NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

SQLSTATE: 42601

In der Pipe-WHERE-Klausel nicht zulässig:

Weitere Details finden Sie unter NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE.

NOT_A_CONSTANT_STRING

SQLSTATE: 42601

Der Ausdruck <expr>, der für die Routine- oder Klausel <name> verwendet wird, muss eine Konstante STRING sein, die NOT NULList.

Weitere Details finden Sie unter NOT_A_CONSTANT_STRING.

NOT_A_PARTITIONED_TABLE

SQLSTATE: 42809

Der Vorgang <operation> ist für <tableIdentWithDB> nicht zulässig, da es sich nicht um eine partitionierte Tabelle handelt.

NOT_A_SCALAR_FUNCTION

SQLSTATE: 42887

<functionName> wird hier als skalarer Ausdruck angezeigt, aber die Funktion wurde als Tabellenfunktion definiert. Aktualisieren Sie die Abfrage, um den Funktionsaufruf in die FROM-Klausel zu verschieben, oder definieren Sie stattdessen <functionName> als skalare Funktion neu.

NOT_A_TABLE_FUNCTION

SQLSTATE: 42887

<functionName> wird hier als Tabellenfunktion angezeigt, aber die Funktion wurde als skalare Funktion definiert. Aktualisieren Sie die Abfrage, um den Funktionsaufruf außerhalb der FROM-Klausel zu verschieben, oder definieren Sie stattdessen <functionName> als Tabellenfunktion neu.

NOT_NULL_ASSERT_VIOLATION

SQLSTATE: 420000

NULL-Wert in Non-Nullable-Feld: <walkedTypePath>Wenn das Schema aus einem Scala-Tupel/einer Scala-Fallklasse oder einem Java-Bean abgeleitet wird, versuchen Sie, „scala.Option[_]“ oder andere Nullwerte zulassende Typen (z. B. „java.lang.Integer“ anstelle von „int/scala.Int“) zu verwenden.

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE: 420000

Das Zuweisen eines NULL-Werts ist hier nicht zulässig.

Weitere Details finden Sie unter NOT_NULL_CONSTRAINT_VIOLATION.

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER / CHANGE COLUMN wird nicht unterstützt, um die Spalte <originName> von <table> mit dem Typ <originType> in <newName> mit dem Typ <newType> zu ändern.

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE: 0A000

<cmd> wird für v2-Tabellen nicht unterstützt.

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE: 0A000

<cmd> wird nicht unterstützt, wenn Sie ihn aktivieren möchten, legen Sie "spark.sql.catalogImplementation" auf "hive" fest.

NOT_SUPPORTED_IN_JDBC_CATALOG

SQLSTATE: 0A000

Nicht unterstützter Befehl im JDBC-Katalog:

Weitere Informationen finden Sie unter NOT_SUPPORTED_IN_JDBC_CATALOG

Nicht unterstützt mit DB_SQL

SQLSTATE: 0A000

<operation> wird in einer SQL <endpoint> nicht unterstützt.

NOT_SUPPORTED_WITH_SERVERLESS

SQLSTATE: 0A000

<operation> wird auf serverloser Berechnung nicht unterstützt.

NOT_UNRESOLVED_ENCODER

SQLSTATE: 42601

Nicht aufgelöster Encoder erwartet, aber <attr> wurde gefunden.

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE: 42608

Der Standardwert für <colName> kann nicht bestimmt werden, da er nicht nullfähig ist und keinen Standardwert aufweist.

NO_HANDLER_FOR_UDAF

SQLSTATE: 420000

Kein Handler für UDAF „<functionName>“. Verwenden Sie stattdessen sparkSession.udf.register(...)

NO_MERGE_ACTION_SPECIFIED

SQLSTATE: 42K0E

Nach „df.mergeInto“ muss mindestens eine der folgenden Optionen folgen:whenMatched, whenNotMatched, whenNotMatchedBySource.

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE: nicht zugewiesen

Für Pfad '<path>' wurde kein übergeordneter externer Speicherort gefunden. Erstellen Sie einen externen Speicherort auf einem der übergeordneten Pfade, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

SQLSTATE: 42S22

<catalystFieldPath> im Protobuf-Schema wurde nicht gefunden.

NO_STORAGE_LOCATION_FOR_TABLE

SQLSTATE: nicht zugewiesen

Beim Generieren von Tabellenanmeldeinformationen wurde kein Speicherort für die Tabelle '<tableId>' gefunden. Überprüfen Sie den Tabellentyp und die Tabellenspeicherort-URL, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE: 42704

Katalog '<catalog>' wurde nicht gefunden. Überprüfen Sie den Katalognamen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_CLEANROOM_EXCEPTION

SQLSTATE: nicht zugewiesen

Der Reinraum „<cleanroom>“ existiert nicht. Überprüfen Sie, ob der Name des Reinraums richtig geschrieben ist und dem Namen eines gültigen vorhandenen Reinraums entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE: nicht zugewiesen

Der externe Speicherort '<externalLocation>' ist nicht vorhanden. Vergewissern Sie sich, dass der Name des externen Speicherorts korrekt ist, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE: nicht zugewiesen

Der Metaspeicher wurde nicht gefunden. Bitten Sie Ihren Kontoadministrator, dem aktuellen Arbeitsbereich einen Metastore zuzuweisen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE: nicht zugewiesen

Der Freigabeanbieter „<providerName>“ ist nicht vorhanden. Überprüfen Sie, ob der Name des Freigabeanbieters richtig geschrieben ist und dem Namen eines gültigen vorhandenen Anbieternamens entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE: nicht zugewiesen

Der Empfänger '<recipient>' ist nicht vorhanden. Vergewissern Sie sich, dass der Empfängername richtig geschrieben ist und dem Namen eines gültigen vorhandenen Empfängers entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_SHARE_EXCEPTION

SQLSTATE: nicht zugewiesen

Die Aktie "<share>" existiert nicht. Überprüfen Sie, ob der Freigabename richtig geschrieben ist und dem Namen einer gültigen vorhandenen Freigabe entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE: nicht zugewiesen

Die Speicheranmeldeinformationen „<storageCredential>“ sind nicht vorhanden. Überprüfen Sie, ob der Name der Speicheranmeldeinformationen richtig geschrieben ist und dem Namen einer gültigen vorhandenen Speicheranmeldeinformation entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_USER_EXCEPTION

SQLSTATE: nicht zugewiesen

Der Benutzer "<userName>" ist nicht vorhanden. Vergewissern Sie sich, dass der Benutzer, dem Sie die Berechtigung erteilen oder den Besitz ändern, richtig geschrieben ist und dem Namen eines gültigen vorhandenen Benutzers entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_UDF_INTERFACE

SQLSTATE: 380000

Die UDF-Klasse <className> implementiert keine UDF-Schnittstelle.

NULLABLE_COLUMN_OR_FIELD

SQLSTATE: 420000

Spalte oder Feld <name> lässt Nullwerte zu, obwohl sie/es keine Nullwerte zulassend darf.

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE: 420000

Zeilen-ID-Attribute dürfen keine Nullwerte zulassen: <nullableRowIdAttrs>.

NULL_DATA_SOURCE_OPTION

SQLSTATE: 22024

Die Option "Lese-/Schreibzugriff der Datenquelle" <option> darf keinen Nullwert aufweisen.

NULL_MAP_KEY

SQLSTATE: 2200E

Null kann nicht als Zuordnungsschlüssel verwendet werden.

NULL_QUERY_STRING_EXECUTE_IMMEDIATE

SQLSTATE: 22004

"Direkt ausführen" erfordert eine Nicht-NULL-Variable als Abfragezeichenfolge, die bereitgestellte Variable <varName> ist jedoch NULL.

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE: 22003

Der Wert <value> kann nicht als numerischer Wert interpretiert werden, da er mehr als 38 Ziffern aufweist.

NUMERIC_VALUE_OUT_OF_RANGE

SQLSTATE: 22003

Weitere Details finden Sie unter NUMERIC_VALUE_OUT_OF_RANGE.

NUM_COLUMNS_MISMATCH

SQLSTATE: 42826

<operator> kann nur bei Eingaben mit der gleichen Anzahl von Spalten ausgeführt werden, aber die erste Eingabe hat <firstNumColumns> Spalten und die <invalidOrdinalNum> Eingabe hat <invalidNumColumns> Spalten.

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE: 42826

Die Anzahl der angegebenen Aliase stimmt nicht mit der Anzahl der Ausgabespalten überein.

Funktionsname: <funcName>; Anzahl der Aliase: <aliasesNum>; Anzahl der Ausgabespalten: <outColsNum>.

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE: 22KD2

Es wurde kein benutzerdefinierter Identitätsanspruch bereitgestellt.

ONLY_SECRET_FUNCTION_SUPPORTED_HERE

SQLSTATE: 42K0E

Das Aufrufen der Funktion <functionName> wird in diesem <location> nicht unterstützt. <supportedFunctions> wird hier unterstützt.

ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR

SQLSTATE: 0A000

SQL-Vorgang <operation> wird nur für Databricks SQL-Connectors mit Unity-Katalogunterstützung unterstützt.

OPERATION_CANCELED

SQLSTATE: HY008

Der Vorgang wurde abgebrochen.

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE: 0AKUD

Für den Vorgang <operation> muss der Unity-Katalog aktiviert sein.

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE: 42KD1

<plan> wird im schreibgeschützten Sitzungsmodus nicht unterstützt.

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

ORDER BY-Position <index> befindet sich nicht in der Auswahlliste (gültiger Bereich ist [1, <size>]).

PARQUET_CONVERSION_FAILURE

SQLSTATE: 42846

Für den Datentyp <dataType>, dessen Parketttyp <parquetType>ist, kann kein Parkettkonverter erstellt werden.

Weitere Details finden Sie unter PARQUET_CONVERSION_FAILURE.

PARQUET_TYPE_ILLEGAL

SQLSTATE: 42846

Unzulässiger Parquet-Typ: <parquetType>.

PARQUET_TYPE_NOT_RECOGNIZED

SQLSTATE: 42846

Unbekannter Parketttyp: <field>.

PARQUET_TYPE_NOT_SUPPORTED

SQLSTATE: 42846

Der Parketttyp <parquetType>wird noch nicht unterstützt.

PARSE_EMPTY_STATEMENT

SQLSTATE: 42617

Syntaxfehler, unerwartete leere Anweisung.

PARSE_MODE_UNSUPPORTED

SQLSTATE: 42601

Die Funktion <funcName> unterstützt den <mode> Modus nicht. Akzeptable Modi sind PERMISSIVE und FAILFAST.

PARSE_SYNTAX_ERROR

SQLSTATE: 42601

Syntaxfehler bei oder in der Nähe von <error> <hint>.

PARTITIONS_ALREADY_EXIST

SQLSTATE: 428FT

Partitionen können nicht mit ADD oder RENAME TO <partitionList> zu Tabelle <tableName> hinzugefügt werden, da sie bereits vorhanden sind.

Wählen Sie einen anderen Namen aus, legen Sie die vorhandene Partition ab, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um eine bereits vorhandene Partition zu tolerieren.

PARTITIONS_NOT_FOUND

SQLSTATE: 428FT

Die Partition(en) <partitionList> können in Tabelle <tableName>nicht gefunden werden.

Überprüfen Sie die Partitionsspezifikation und den Tabellennamen.

Um den Fehler beim „Drop“ zu tolerieren, verwenden Sie ALTER TABLE ... DROP IF EXISTS PARTITION.

PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 420000

Partitionsspalte <column> in Schema-<schema>nicht gefunden. Geben Sie die vorhandene Spalte für die Partitionierung an.

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE: 42K04

Partitionsspeicherort <locationPath> ist bereits in Tabelle <tableName>vorhanden.

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE: 42KD5

Fehler beim Ausführen der ALTER TABLE SET PARTITION LOCATION-Anweisung, da der

Der Partitionsspeicherort <location> befindet sich nicht unter dem Tabellenverzeichnis <table>.

Um dies zu beheben, legen Sie den Speicherort der Partition auf ein Unterverzeichnis von <table>fest.

PARTITION_METADATA

SQLSTATE: 0AKUC

<action> ist für Tabellen-<tableName> nicht zulässig, da das Speichern von Partitionsmetadaten im Unity-Katalog nicht unterstützt wird.

PARTITION_NUMBER_MISMATCH

SQLSTATE: KD009

Die Anzahl der Werte (<partitionNumber>) stimmt nicht mit der Schemagröße überein (<partitionSchemaSize>): Werte sind <partitionValues>, Schema ist <partitionSchema>, Dateipfad ist <urlEncodedPath>.

Materialisieren Sie die Tabelle neu, oder wenden Sie sich an die Person, die sie besitzt.

PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY

SQLSTATE: 42S23

Der Ausdruck <expression> muss sich innerhalb von "partitionedBy" befinden.

PATH_ALREADY_EXISTS

SQLSTATE: 42K04

Der Pfad <outputPath> ist bereits vorhanden. Legen Sie den Modus als "überschreiben" fest, um den vorhandenen Pfad zu überschreiben.

PATH_NOT_FOUND

SQLSTATE: 42K03

Pfad ist nicht vorhanden: <path>.

PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE: 540000

Die Deserialisierung des Photon-protobuf-Plans erfordert mindestens <size> Bytes, was den

Grenzwert von <limit> Bytes überschreitet. Dies könnte auf einen sehr großen Plan oder das Vorhandensein eines solchen zurückzuführen sein.

breites Schema. Versuchen Sie, die Abfrage zu vereinfachen, unnötige Spalten zu entfernen oder Photon zu deaktivieren.

PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE: 540000

Der serialisierte Photon-protobuf-Plan hat eine Größe von <size> Bytes, die den Grenzwert von

<limit> Bytes überschreitet. Die serialisierte Größe von Datentypen im Plan ist <dataTypeSize> Bytes.

Dies kann auf einen sehr großen Plan oder das Vorhandensein eines sehr breiten Schemas zurückzuführen sein.

Erwägen Sie das Umschreiben der Abfrage, um unerwünschte Vorgänge und Spalten zu entfernen oder Photon zu deaktivieren.

PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION

SQLSTATE: 0A000

Nicht gruppierender Ausdruck <expr> wird als Argument an den |>AGGREGATE Pipe-Operator übergeben, enthält jedoch keine Aggregatfunktion. Bitte aktualisieren Sie ihn, um eine Aggregatfunktion einzuschließen, und führen Sie die Abfrage dann erneut aus.

PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION

SQLSTATE: 0A000

Aggregatfunktion <expr> ist bei Verwendung der Pipeoperatorklausel | ><clause> nicht zulässig; verwenden Sie stattdessen die Pipeoperatorklausel |>AGGREGATE.

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Ungültiger Pivotwert '<value>': Wert-Datentyp <valueType> stimmt nicht mit dem Datentyp der Pivotspalte überein <pivotType>.

PROCEDURE_ARGUMENT_NUMBER_MISMATCH

SQLSTATE: 42605

Die Prozedur <procedureName> erwartet <expected> Argumente, <actual> wurden jedoch bereitgestellt.

PROCEDURE_CREATION_EMPTY_ROUTINE

SQLSTATE: 0A000

CREATE PROCEDURE mit einer leeren Routinedefinition ist nicht zulässig.

PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT

SQLSTATE: 42601

Der Parameter <parameterName> wird mit dem Parametermodus <parameterMode>definiert. OUT- und INOUT-Parameter können beim Aufrufen einer Routine nicht weggelassen werden und unterstützen daher keinen DEFAULT Ausdruck. Um fortzufahren, entfernen Sie die DEFAULT-Klausel, oder ändern Sie den Parametermodus in IN.

PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

Die gespeicherte Prozedur wird nicht unterstützt

PROCEDURE_NOT_SUPPORTED_WITH_HMS

SQLSTATE: 0A000

Gespeicherte Prozeduren werden vom Hive-Metastore nicht unterstützt. Verwenden Sie stattdessen Unity-Katalog.

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE: 42K0G

Die Abhängigkeit <dependencyName> wurde nicht gefunden.

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE: 42K0G

Fehler beim Lesen der Protobuf-Deskriptordatei unter Pfad: <filePath>.

PROTOBUF_FIELD_MISSING

SQLSTATE: 42K0G

Die Suche nach <field> im Protobuf-Schema bei <protobufSchema> hat <matchSize> Übereinstimmungen ergeben. Kandidaten: <matches>.

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

SQLSTATE: 42K0G

Es wurde <field> im Protobuf-Schema gefunden, aber es gibt keine Übereinstimmung im SQL-Schema.

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE: 42K0G

Für Feld <field> wurde ein Typenkonflikt gefunden.

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE: 0A000

Java-Klassen werden für <protobufFunction>nicht unterstützt. Wenden Sie sich an den Databricks-Support über alternative Optionen.

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE: 42K0G

Die Nachricht <messageName> konnte im Deskriptor nicht gefunden werden.

PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE: 22KD3

Die <functionName> SQL-Funktion kann nicht aufgerufen werden, da die Protobuf-Datenquelle nicht geladen wird.

Starten Sie den Auftrag oder die Sitzung neu, indem Sie das geladene Paket "spark-protobuf" verwenden, z. B. mithilfe des Arguments "-packages" in der Befehlszeile, und versuchen Sie dann die Abfrage oder den Befehl erneut.

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE: 42K0G

Der Protobuf-Typ <protobufType> wird noch nicht unterstützt.

PS_FETCH_RETRY_EXCEPTION

SQLSTATE: 22000

Die Aufgabe in der PubSub-Abrufstage kann nicht wiederholt werden. Partition <partitionInfo> in Stage <stageInfo>, TID <taskId>.

PS_INVALID_EMPTY_OPTION

SQLSTATE: 420000

<key> kann keine leere Zeichenfolge sein.

PS_UNGÜLTIGER_SCHLÜSSEL_TYP

SQLSTATE: 22000

Ungültiger Schlüsseltyp für PubSub Dedup: <key>.

PS_INVALID_OPTION

SQLSTATE: 420000

Die Option <key> wird von PubSub nicht unterstützt. Sie kann nur in Tests verwendet werden.

PS_INVALID_OPTION_TYPE

SQLSTATE: 420000

Ungültiger Typ für <key>. Erwarteter Typ von <key> soll Typ <type>sein.

PS_INVALID_READ_LIMIT

SQLSTATE: 420000

Ungültiger Lesegrenzwert für PubSub-Datenstrom: <limit>.

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE: 22000

Ungültige UnsafeRow zum Decodieren in PubSubMessageMetadata. Gewünschtes Protokollschema: <protoSchema>. Die Eingabe "UnsafeRow" ist möglicherweise beschädigt: <unsafeRow>.

PS_MISSING_AUTH_INFO

SQLSTATE: 420000

Fehler beim Auffinden vollständiger PubSub-Authentifizierungsinformationen.

PS_MISSING_REQUIRED_OPTION

SQLSTATE: 420000

Erforderliche Option konnte nicht gefunden werden: <key>.

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE: 22000

Fehler beim Verschieben von Rohdaten-Prüfpunktdateien aus <src> in das Zielverzeichnis: <dest>.

PS_MULTIPLE_AUTH_OPTIONS

SQLSTATE: 420000

Geben Sie entweder Ihre Databricks-Dienstanmeldeinformationen oder Ihre GCP-Dienstkontoanmeldeinformationen an.

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE: 22000

Der PubSub-Stream kann nicht gestartet werden, da mehr als ein fehler beim Abrufen vorhanden ist: <failedEpochs>.

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE: 22000

<key> muss innerhalb der folgenden Grenzwerte liegen (ausschließlich): <min>, <max>.

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE: 420000

Freigegebene Cluster unterstützen keine Authentifizierung mit Instanzprofilen. Geben Sie Anmeldeinformationen mithilfe von „.option()“ direkt für den Stream an.

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE: 0A000

Der PubSub-Quell-Connector ist nur in einem Cluster verfügbar, in dem spark.speculation deaktiviert ist.

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE: 420000

Fehler beim Versuch, ein Abonnement <subId> zu Thema <topicId>zu erstellen. Überprüfen Sie, ob ausreichende Berechtigungen zum Erstellen eines Abonnements vorhanden sind, und versuchen Sie es erneut.

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE: 22000

Serialisierte Bytes können nicht geparst werden, um das Protokoll zu generieren.

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE: 0A000

getOffset wird nicht unterstützt, ohne einen Grenzwert zu liefern.

PYTHON_DATA_SOURCE_ERROR

SQLSTATE: 380000

Fehler bei der <action>-Python-Datenquelle <type>: <msg>

PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR

SQLSTATE: 380000

Fehler beim Ausführen der Python-Streamingdatenquelle <action>: <msg>

QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

SQLSTATE: 428HD

Auf die referenzierte Tabelle kann nicht zugegriffen werden, da eine zuvor zugewiesene Spaltenmaske derzeit mit dem Tabellenschema nicht kompatibel ist; um den Vorgang fortzusetzen, wenden Sie sich bitte an den Eigentümer der Tabelle, um die Richtlinie zu aktualisieren.

Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY.

QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

SQLSTATE: 428HD

Auf referenzierte Tabelle kann nicht zugegriffen werden, da derzeit eine zuvor zugewiesene Sicherheitsrichtlinie auf Zeilenebene mit dem Tabellenschema nicht kompatibel ist. um den Vorgang fortzusetzen, wenden Sie sich bitte an den Besitzer der Tabelle, um die Richtlinie zu aktualisieren:

Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY.

QUERY_EXECUTION_TIMEOUT_EXCEEDED

SQLSTATE: 57KD0

Die Abfrageausführung wurde aufgrund einer Überschreitung des Timeouts (<timeoutSec>s) abgebrochen. Sie können den Grenzwert in Sekunden erhöhen, indem Sie <config>festlegen.

READ_CURRENT_FILE_NOT_FOUND

SQLSTATE: 42K03

<message>

Es ist möglich, dass die zugrunde liegenden Dateien aktualisiert wurden. Sie können den Cache in Spark explizit ungültig machen, indem Sie den Befehl 'REFRESH TABLE tableName' in SQL ausführen oder das dataset/DataFrame neu erstellen.

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE: 4274K

Der Aufruf der Funktion <functionName> hat <parameterName> und <alternativeName> festgelegt, die gegenseitige Aliase sind. Bitte legen Sie nur einen davon fest.

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE: 4274K

Der erforderliche Parameter <parameterName> für die Funktion <functionName> muss an der Position <expectedPos> ohne den Namen zugewiesen werden.

RECIPIENT_EXPIRATION_NOT_SUPPORTED

SQLSTATE: 0A000

Nur TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ-Typen werden für den Ablaufzeitstempel des Empfängers unterstützt.

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE: 42K0G

Rekursive Referenz im Protobuf-Schema gefunden, das von Spark standardmäßig nicht verarbeitet werden kann: <fieldDescriptor>. versuchen Sie, die Option recursive.fields.max.depth 1 bis 10 festzulegen. Es ist nicht zulässig, über 10 Rekursionsebenen hinauszugehen.

RECURSIVE_VIEW

SQLSTATE: 42K0H

Rekursive Ansicht <viewIdent> erkannt (Zyklus: <newPath>).

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE: 42601

Verweise auf DEFAULT Spaltenwerte sind in der PARTITION-Klausel nicht zulässig.

RELATION_LARGER_THAN_8G

SQLSTATE: 540000

Eine <relationName>, die größer als 8G ist, kann nicht erstellt werden.

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE: 57012

Fehler bei der Remote-HTTP-Anforderung mit code <errorCode>und Fehlermeldung <errorMessage>

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE: 22032

Fehler beim Auswerten der <functionName> SQL-Funktion aufgrund der Unfähigkeit, das JSON-Ergebnis aus der Remote-HTTP-Antwort zu analysieren; die Fehlermeldung <errorMessage>ist. Überprüfen Sie die API-Dokumentation: <docUrl>. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE: 57012

Fehler beim Auswerten der <functionName> SQL-Funktion, weil die unerwartete Remote-HTTP-Antwort nicht verarbeitet werden konnte. Die Fehlermeldung ist <errorMessage>. Überprüfen Sie die API-Dokumentation: <docUrl>. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE: 57012

Fehler bei der Remoteanforderung nach <N> Wiederholungsversuchen. Der letzte HTTP-Fehlercode war <errorCode>, und die Meldung lautete <errorMessage>

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE: 57012

Fehler beim Auswerten der SQL-Funktion <functionName>, aufgrund von <errorMessage>. Überprüfen Sie die Anforderungen in <docUrl>. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE: 42K03

Fehler beim Umbenennen, da <sourcePath> nicht gefunden wurde.

REPEATED_CLAUSE

SQLSTATE: 42614

Die <clause>-Klausel kann höchstens einmal pro <operation> Vorgang verwendet werden.

REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY

SQLSTATE: 4274K

Der erforderliche Parameter <parameterName> der Routine <routineName> wurde an Position <positionalIndex> ohne den Namen zugewiesen.

Aktualisieren Sie den Funktionsaufruf, um entweder das benannte Argument mit <parameterName> für diesen Parameter zu entfernen oder das positionsbezogene Argument zu entfernen.

Positionsargument bei <positionalIndex> und versuchen Sie es dann nochmal.

ERFORDERLICHER_PARAMETER_NICHT_GEFUNDEN

SQLSTATE: 4274K

Routine-<routineName> kann nicht aufgerufen werden, da der Parameter mit dem Namen <parameterName> erforderlich ist, aber der Routineaufruf hat keinen Wert angegeben. Aktualisieren Sie den Routineaufruf, um einen Argumentwert anzugeben (entweder positional bei Index <index> oder nach Name), und wiederholen Sie die Abfrage erneut.

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE: 42K05

<sessionCatalog> erfordert einen einzelteiligen Namespace, hat aber <namespace>.

RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT

SQLSTATE: 4274K

Die DataFrame-API-Leseoption „rescuedDataColumn“ und die DataFrame-API-Option „singleVariantColumn“ schließen sich gegenseitig aus.

Entfernen Sie einen dieser Elemente, und wiederholen Sie dann den DataFrame-Vorgang erneut.

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE: 42939

Der Schreibvorgang umfasst reservierte Spalten <columnList>, die genutzt werden.

intern als Metadaten für den Änderungsdatenfeed verwendet werden. Zum Schreiben in die Tabelle müssen Sie diese Spalten entweder umbenennen/entfernen

oder den Änderungsdatenfeed in der Tabelle deaktivieren, indem

<config> auf FALSCH festgelegt wird.

RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

SQLSTATE: 0A000

Die Option <option> hat eingeschränkte Werte für freigegebene Cluster für die Quelle <source>.

Weitere Details finden Sie unter RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.

ROUTINE_ALREADY_EXISTS

SQLSTATE: 42723

Die <newRoutineType> <routineName> kann nicht erstellt werden, da bereits ein <existingRoutineType> mit diesem Namen vorhanden ist.

Wählen Sie einen anderen Namen aus, legen Sie den vorhandenen <existingRoutineType>ab, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um eine bereits vorhandene <newRoutineType>zu tolerieren.

ROUTINE_NOT_FOUND

SQLSTATE: 42883

Die Routine <routineName> kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.

Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.

Tolerieren Sie den Fehler beim Ablegen mit DROPIF EXISTS.

ROUTINE_PARAMETER_NOT_FOUND

SQLSTATE: 420000

Die Routine <routineName> unterstützt den an Position <pos>angegebenen Parameter <parameterName> nicht.<suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE: 42939

Die Funktion <routineName> kann nicht erstellt werden, da der angegebene Klassenname '<className>' für die Systemverwendung reserviert ist. Benennen Sie den Kurs um, und versuchen Sie es erneut.

ROW_LEVEL_SECURITY_ABAC_MISMATCH

SQLSTATE: 0A000

Für <tableName> konnten die Zeilenfilter nicht aufgelöst werden, weil es einen Unterschied zwischen den von Richtlinien geerbten Zeilenfiltern und den explizit definierten Zeilenfiltern gab. Um fortzufahren, deaktivieren Sie bitte die Attributbasierte Zugriffssteuerung (Attribute Based Access Control, ABAC), und wenden Sie sich an den Databricks-Support.

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

Das Erstellen einer CHECK-Einschränkung an der Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE: 42734

Eine <statementType>-Anweisung hat versucht, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber zwei oder mehr spalten, auf die verwiesen wird, weisen denselben Namen <columnName>auf, was ungültig ist.

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

Sicherheitsrichtlinien auf Zeilenebene für <tableName> werden nicht unterstützt:

Weitere Details finden Sie unter ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED.

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

<statementType> <columnName> in Tabelle <tableName> ist nicht möglich, da in einer Sicherheitsrichtlinie auf Zeilenebene darauf verwiesen wird. Die Person im Besitz der Tabelle muss vor dem Fortfahren diese Richtlinie entfernen oder ändern.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

MERGE INTO-Vorgänge unterstützen keine Sicherheitsrichtlinien auf Zeilenebene in Quelltabelle <tableName>.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

MERGE INTO-Vorgänge unterstützen das Schreiben in die Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene nicht.

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE: 42K05

Diese Anweisung versuchte, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber der Verweis auf Spalte <columnName> hatte mehrere Namensbestandteile, was ungültig ist.

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Sicherheitsrichtlinien auf Zeilenebene werden nur im Unity-Katalog unterstützt.

ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED

SQLSTATE: 0A000

SHOW PARTITIONS Befehl wird für<format> Tabellen mit Sicherheitsrichtlinie auf Zeilenebene nicht unterstützt.

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

Ein <mode>-Klon aus der Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

Ein <mode>-Klon in die Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.

ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

Die Verwendung einer Konstante als Parameter in einer Sicherheitsrichtlinie auf Zeilenebene wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Zeilenfilterdefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

Fehler beim Ausführen des <statementType>-Befehls, da das Zuweisen einer Sicherheitsrichtlinie auf Zeilenebene für die Zieldatenquelle mit dem Tabellenanbieter nicht unterstützt wird: "<provider>".

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 210000

Mehr als eine Zeile, die von einer Teilabfrage zurückgegeben wurden, werden als Zeile verwendet.

ROW_VALUE_IS_NULL

SQLSTATE: 22023

NULL wurde in einer Reihe beim Index <index> gefunden, erwartet wurde ein Wert, der nicht NULL ist.

RULE_ID_NOT_FOUND

SQLSTATE: 22023

Es wurde keine ID für den Regelnamen "<ruleName>" gefunden. Ändern Sie "RuleIdCollection.scala", wenn Sie eine neue Regel hinzufügen.

SAMPLE_TABLE_PERMISSIONS

SQLSTATE: 42832

Berechtigungen werden in Beispieldatenbanken/-tabellen nicht unterstützt.

SCALAR_FUNCTION_NOT_COMPATIBLE

SQLSTATE: 42K0O

ScalarFunction <scalarFunc> überschreibt die Methode „produceResult(InternalRow)“ nicht mit einer benutzerdefinierten Implementierung.

SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED

SQLSTATE: 42K0P

ScalarFunction <scalarFunc> implementiert oder überschreibt die Methode „produceResult(InternalRow)“ nicht.

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE: 0A000

Die korrelierte skalare Unterabfrage "<sqlExpr>" ist weder in GROUP BYnoch in einer Aggregatfunktion vorhanden.

Fügen Sie sie GROUP BY anhand der Ordnungsposition hinzu, oder umschließen Sie sie in first() (oder first_value), wenn der Ergebniswert nicht relevant ist.

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 210000

Mehr als eine Zeile, die von einer Teilabfrage zurückgegeben wurden, wird als Ausdruck verwendet.

ZEITPLAN_EXISTIERT_BEREITS

SQLSTATE: 42710

Einer Tabelle, die bereits <existingScheduleType>hat, kann <scheduleType> nicht hinzugefügt werden. Bitte legen Sie den vorhandenen Zeitplan ab oder verwenden Sie ALTER TABLE ... ALTER <scheduleType> … , um sie zu ändern.

SCHEDULE_PERIOD_INVALID

SQLSTATE: 22003

Der Zeitplanzeitraum für <timeUnit> muss ein ganzzahliger Wert zwischen 1 und <upperBound> (einschließlich) sein. Empfangen: <actual>.

SCHEMA_EXISTIERT_BEREITS

SQLSTATE: 42P06

Schema-<schemaName> kann nicht erstellt werden, da es bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Schema ab, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Schemas zu tolerieren.

SCHEMA_NOT_EMPTY

SQLSTATE: 2BP01

Ein Schema <schemaName> kann nicht gelöscht werden, da es Objekte enthält.

Verwenden Sie DROP SCHEMA ... CASCADE, um das Schema und alle zugehörigen Objekte abzulegen.

SCHEMA_NOT_FOUND

SQLSTATE: 42704

Das Schema <schemaName> wurde nicht gefunden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.

Wenn Sie den Namen nicht mit einem Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Katalog.

Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP SCHEMA IF EXISTS.

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE: 42K0G

Das Schema aus der Schemaregistrierung konnte nicht initialisiert werden. <reason>.

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

SQLSTATE: 22023

Das zweite Argument der funktion <functionName> muss eine ganze Zahl sein.

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE: 42K0E

<commandType> Befehl mit mindestens einem nicht verschlüsselten Verweis auf die SECRET-Funktion kann nicht ausgeführt werden. verschlüsseln Sie das Ergebnis jedes solchen Funktionsaufrufs mit AES_ENCRYPT, und versuchen Sie es erneut.

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE: 42K08

Der Ausgangsausdruck <seedExpr> des Ausdrucks <exprWithSeed> muss faltbar sein.

Server ist ausgelastet

SQLSTATE: 08KD1

Der Server ist ausgelastet und konnte die Anforderung nicht verarbeiten. Bitte warten Sie einen Moment, und versuchen Sie es erneut.

SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE

SQLSTATE: 42K05

SHOW COLUMNS mit widersprüchlichen Namespaces: <namespaceA> != <namespaceB>.

SORT_BY_WITHOUT_BUCKETING

SQLSTATE: 42601

"sortBy" muss zusammen mit bucketBy verwendet werden.

SPARK_JOB_CANCELLED

SQLSTATE: HY008

Auftrag <jobId> abgebrochen <reason>

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42601

CREATE TABLE ohne explizite Spaltenliste kann keine Bucketing-Informationen angeben.

Verwenden Sie die Form mit expliziter Spaltenliste, und geben Sie Bucketing-Informationen an.

Alternativ können Sie zulassen, dass die Bucketing-Informationen durch das Weglassen der Klausel abgeleitet werden.

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42908

Sowohl CLUSTER BY als auch CLUSTERED BY INTO BUCKETSkönnen nicht angegeben werden.

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE: 42908

Sowohl CLUSTER BY als auch PARTITIONED BYkönnen nicht angegeben werden.

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE: 42601

Eine CREATE TABLE ohne explizite Spaltenliste kann PARTITIONED BYnicht angeben.

Verwenden Sie das Formular mit expliziter Spaltenliste, und geben Sie PARTITIONED BYan.

Alternativ können Sie zulassen, dass die Partitionierung durch das Weglassen der PARTITION BY-Klausel abgeleitet wird.

SQL_CONF_NOT_FOUND

SQLSTATE: 42K0I

Die SQL-Konfigurationskonfiguration <sqlConf> konnte nicht gefunden werden. Überprüfen Sie, ob die Konfiguration vorhanden ist.

STAGING_PATH_CURRENTLY_INACCESSIBLE

SQLSTATE: 22000

Vorübergehender Fehler beim Zugriff auf den Ziel-Stagingpfad <path>. Versuchen Sie es in einigen Minuten.

STAR_GROUP_BY_POS

SQLSTATE: 0A000

Die Sternvariable (*) ist in einer Auswahlliste nicht zulässig, wenn für GROUP BY eine Ordinalposition verwendet wird.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE

SQLSTATE: 42802

Fehler beim Ausführen eines zustandsbehafteten Prozessorvorgangs=<operationType> mit ungültigem Handle-Zustand=<handleState>.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE

SQLSTATE: 42802

Fehler beim Ausführen des zustandsbehafteten Prozessorvorgangs=<operationType> mit ungültigem timeMode=<timeMode>

STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED

SQLSTATE: 42802

Statusvariable mit dem Namen <stateVarName> wurde bereits im StatefulProcessor definiert.

STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL

SQLSTATE: 42802

TTL kann nicht für state=<stateName> in timeMode=<timeMode>verwendet werden, verwenden Sie stattdessen TimeMode.ProcessingTime().

STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE

SQLSTATE: 42802

Die TTL-Dauer muss größer als Null für den Zustandsspeichervorgang=<operationType> für "state=<stateName>" sein.

STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE

SQLSTATE: 42802

Unbekannter Zeitmodus <timeMode>. Akzeptierte TimeMode-Modi sind 'none', 'processingTime', 'eventTime'

STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS

SQLSTATE: 42802

Fehler beim Erstellen einer Spaltenfamilie mit nicht unterstütztem Anfangszeichen und Name=<colFamilyName>.

STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME

SQLSTATE: 42802

Fehler beim Ausführen des Spaltenfamilienvorgangs=<operationName> mit ungültiger Name=<colFamilyName>. Spaltenfamilienname darf nicht leer sein oder führende/nachfolgende Leerzeichen enthalten oder das reservierte Schlüsselwort=Standard verwenden

STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE

SQLSTATE: 42802

Inkompatible Schematransformation mit Spaltenfamilie=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.

STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR

SQLSTATE: 42K06

StateStore-<inputClass> unterstützt keinen wiederverwendbaren Iterator.

STATE_STORE_HANDLE_NOT_INITIALIZED

SQLSTATE: 42802

Das Handle wurde für diesen StatefulProcessor nicht initialisiert.

Verwenden Sie den StatefulProcessor nur im Operator transformWithState.

STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN

SQLSTATE: 42802

Falsche Anzahl von Ordnungszahlen=<numOrderingCols> für Bereichsscan-Encoder. Die Anzahl der Ordnungszahlen darf nicht null oder größer als die Anzahl der Schemaspalten sein.

STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN

SQLSTATE: 42802

Falsche Anzahl von Präfixspalten=<numPrefixCols> für Präfixscan-Encoder. Präfixspalten dürfen nicht null oder größer oder gleich der Anzahl der Schemaspalten sein.

STATE_STORE_INVALID_CONFIG_AFTER_RESTART

SQLSTATE: 42K06

<configName> kann zwischen Neustarts nicht von <oldConfig> in <newConfig> geändert werden. Legen Sie <configName> auf <oldConfig>fest, oder starten Sie es mit einem neuen Prüfpunktverzeichnis neu.

STATE_STORE_INVALID_PROVIDER

SQLSTATE: 42K06

Der angegebene State Store-Anbieter <inputClass> erweitert nicht org.apache.spark.sql.execution.streaming.state.StateStoreProvider.

STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE

SQLSTATE: 42K06

<stateVarName> kann zwischen Neustarts der Abfrage nicht in <newType> geändert werden. Legen Sie <stateVarName> auf <oldType>fest, oder starten Sie es mit einem neuen Prüfpunktverzeichnis neu.

STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

Nulltyp-Sortierspalte mit name=<fieldName> bei index=<index> wird für Bereichsscan-Encoder nicht unterstützt.

STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

SQLSTATE: 42K06

Der angegebene Zustandsspeicheranbieter <inputClass> erweitert „org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay“ nicht.

Daher werden die Optionen "snapshotStartBatchId" oder "readChangeFeed" in der Status-Datenquelle nicht unterstützt.

STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED

SQLSTATE: 42K06

Die Anzahl der Zustandsschemadateien <numStateSchemaFiles> überschreitet die maximale Anzahl von Zustandsschemadateien für diese Abfrage: <maxStateSchemaFiles>.

Hinzugefügt: <addedColumnFamilies>, Entfernt: <removedColumnFamilies>

Legen Sie "spark.sql.streaming.stateStore.stateSchemaFilesThreshold" auf eine höhere Zahl fest, oder setzen Sie Zustandsschemaänderungen zurück.

STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY

SQLSTATE: 42802

Zustandsspeichervorgang=<operationType> wird für fehlende Spaltenfamilie=<colFamilyName>nicht unterstützt.

STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED

SQLSTATE: 42K06

Die Anzahl der Zustandsschemaentwicklungen <numSchemaEvolutions> überschreitet die maximale Anzahl von Zustandsschemaentwicklungen, <maxSchemaEvolutions>, die für diese Spaltenfamilie zulässig sind.

Fehlerhafte Spaltenfamilie: <colFamilyName>

Legen Sie "spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold" auf eine höhere Zahl fest, oder setzen Sie Zustandsschemaänderungen zurück.

STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

Die Sortierspalte variabler Größe mit name=<fieldName> bei index=<index> wird für Bereichsscan-Encoder nicht unterstützt.

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE: 42713

Statische Partitionsspalte <staticName> wird auch in der Spaltenliste angegeben.

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE: KD006

Es wurde kein committeter Batch gefunden, Prüfpunktspeicherort: <checkpointLocation>. Stellen Sie sicher, dass die Abfrage ausgeführt wurde und alle Microbatches vor dem Beenden festgeschrieben wurden.

STDS_CONFLICT_OPTIONS

SQLSTATE: 42613

Die Optionen <options> können nicht zusammen angegeben werden. Bitte geben Sie den einen an.

STDS_FAILED_TO_READ_OPERATOR_METADATA

SQLSTATE: 42K03

Fehler beim Lesen der Operatormetadaten für checkpointLocation=<checkpointLocation> und batchId=<batchId>.

Entweder ist die Datei nicht vorhanden, oder die Datei ist beschädigt.

Führen Sie die Streamingabfrage erneut aus, um die Operatormetadaten zu erstellen. Sollten weiterhin Fehler auftreten, berichten Sie dies den entsprechenden Gemeinschaften oder Anbietern.

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE: 42K03

Fehler beim Lesen des Statusschemas. Entweder ist die Datei nicht vorhanden, oder die Datei ist beschädigt. Optionen: <sourceOptions>.

Führen Sie die Streamingabfrage erneut aus, um das Statusschema zu erstellen, und melden Sie den entsprechenden Communities oder Anbietern, wenn der Fehler weiterhin besteht.

STDS_INVALID_OPTION_VALUE

SQLSTATE: 42616

Ungültiger Wert für die Quelloption '<optionName>':

Weitere Details finden Sie unter STDS_INVALID_OPTION_VALUE.

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE: KD006

Der Staat hat keine Partition. Überprüfen Sie bitte, ob die Abfrage auf den gültigen Zustand verweist. optionen: <sourceOptions>

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

Das Offsetprotokoll für <batchId> ist nicht vorhanden, Prüfpunktspeicherort: <checkpointLocation>.

Geben Sie die Batch-ID an, die für die Abfrage verfügbar ist . Sie können die verfügbaren Batch-IDs mithilfe der Zustandsmetadatenquelle abfragen.

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE: KD006

Für das Offsetprotokoll für <batchId> sind keine Metadaten vorhanden, Prüfpunktspeicherort: <checkpointLocation>.

Der Prüfpunkt scheint nur mit älteren Spark-Versionen ausgeführt zu werden. Führen Sie die Streamingabfrage mit der aktuellen Spark-Version aus, sodass Spark die Statusmetadaten erstellt.

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE: 42601

'<optionName>' muss angegeben werden.

STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS

SQLSTATE: 0A000

Die Ausführung adaptiver Abfragen wird für zustandsbehaftete Operatoren im strukturierten Streaming nicht unterstützt.

STREAMING_FROM_MATERIALIZED_VIEW

SQLSTATE: 0A000

Aus der materialisierten Ansicht <viewName> kann nicht gestreamt werden. Das Streaming von materialisierten Sichten wird nicht unterstützt.

STREAMING_OUTPUT_MODE

SQLSTATE: 42KDE

Ungültiger Streamingausgabemodus: <outputMode>.

Weitere Details finden Sie unter STREAMING_OUTPUT_MODE.

STREAMING_REAL_TIME_MODE

SQLSTATE: 0A000

Der Streaming-Echtzeitmodus hat die folgende Einschränkung:

Weitere Details finden Sie unter STREAMING_REAL_TIME_MODE.

STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

SQLSTATE: 42K03

Der Name des Streamingstatusoperators stimmt nicht mit dem Operator in Zustandsmetadaten überein. Dies geschieht wahrscheinlich, wenn der Benutzer den zustandsbehafteten Operator einer vorhandenen Streamingabfrage hinzufügt/entfernt/ändert.

Zustandsbehaftete Operatoren in den Metadaten: [<OpsInMetadataSeq>]; Zustandsbehaftete Operatoren im aktuellen Batch: [<OpsInCurBatchSeq>].

STREAMING_TABLE_NEEDS_REFRESH

SQLSTATE: 55019

Die Streamingtabelle <tableName> muss aktualisiert werden, um <operation>auszuführen.

Wenn die Tabelle aus DBSQLerstellt wird, führen Sie bitte REFRESH <st>aus.

Wenn die Tabelle von einer Pipeline in Delta Live Tables erstellt wird, führen Sie bitte ein Pipelineupdate aus.

STREAMING_TABLE_NOT_SUPPORTED

SQLSTATE: 56038

Streamingtabellen können nur in Delta Live Tables und Databricks SQL Warehouses erstellt und aktualisiert werden.

STREAMING_TABLE_OPERATION_NOT_ALLOWED

SQLSTATE: 42601

Der Vorgang <operation> ist nicht zulässig:

Weitere Details finden Sie unter STREAMING_TABLE_OPERATION_NOT_ALLOWED.

STREAMING_TABLE_QUERY_INVALID

SQLSTATE: 420000

Streamingtabelle <tableName> kann nur aus einer Streamingabfrage erstellt werden. Fügen Sie Ihrer FROM-Klausel das Schlüsselwort STREAM hinzu, um diese Beziehung in eine Streamingabfrage umzuwandeln.

STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE: 42K02

Kinesis-Stream <streamName> in <region> nicht gefunden.

Beginnen Sie eine neue Abfrage, die auf den richtigen Streamnamen zeigt.

STRUCT_ARRAY_LENGTH_MISMATCH

SQLSTATE: 2201E

Die Eingabezeile hat nicht die erwartete Anzahl von Werten, die für das Schema erforderlich sind. <expected> Felder sind erforderlich, während <actual> Werte bereitgestellt werden.

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE: 22003

Die Summe der LIMIT-Klausel und der OFFSET-Klausel darf nicht größer als der maximal zulässige ganzzahlige 32-Bit-Wert (2.147.483.647) sein, aber der gefundene Grenzwert = <limit>. Offset = <offset>.

SYNC_METADATA_DELTA_ONLY

SQLSTATE: 0AKDD

Der Befehl "Tabellensynchronisierungsmetadaten reparieren" wird nur für die Delta-Tabelle unterstützt.

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE: 42KD2

Der Name der Quelltabelle <srcTable> muss mit dem Namen der Zieltabelle <destTable>übereinstimmen.

SYNTAX_DISCONTINUED

SQLSTATE: 42601

Die Unterstützung der Klausel oder des Schlüsselworts <clause> wurde in diesem Kontext eingestellt.

Weitere Details finden Sie unter SYNTAX_DISCONTINUED.

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Tabelle oder Ansicht <relationName> kann nicht erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Objekte zu tolerieren, die OR-REPLACE-Klausel hinzuzufügen, um die vorhandene materialisierte Ansicht zu ersetzen, oder fügen Sie die OR-REFRESH-Klausel hinzu, um die vorhandene Streamingtabelle zu aktualisieren.

TABLE_OR_VIEW_NOT_FOUND

SQLSTATE: 42P01

Die Tabelle oder Ansicht <relationName> kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.

Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.

Um den Fehler beim Löschen zu tolerieren, verwenden Sie DROP VIEW IF EXISTS oder DROP TABLE IF EXISTS.

Weitere Details finden Sie unter TABLE_OR_VIEW_NOT_FOUND.

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE: 0A000

Die Aktion <action> ist für die benutzerdefinierte SQL-Funktion <functionName> mit TABLE-Argumenten nicht möglich, weil diese Funktionalität noch nicht implementiert ist.

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE: 380000

Fehler beim Analysieren der benutzerdefinierten Tabellenfunktion python: <msg>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE: 22023

Fehler beim Auswerten der Tabellenfunktion <functionName>, da die Tabellenmetadaten <requestedMetadata> sind, aber der Funktionsaufruf <invalidFunctionCallProperty>.

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE: 22023

Fehler beim Auswerten der Tabellenfunktion <functionName>, da die Tabellenmetadaten ungültig waren; <reason>.

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE: 54023

Es gibt zu viele Tabellenargumente für die Tabellenwertfunktion.

Ein Tabellenargument ist zulässig, sie enthielt jedoch Folgendes: <num>.

Wenn Sie dies zulassen möchten, legen Sie "spark.sql.allowMultipleTableArguments.enabled" auf "true" fest.

TABLE_WITH_ID_NOT_FOUND

SQLSTATE: 42P01

Tabelle mit ID <tableId> kann nicht gefunden werden. Überprüfen Sie die Richtigkeit der UUID.

TASK_WRITE_FAILED

SQLSTATE: 58030

Aufgabenfehler beim Schreiben von Zeilen in <path>.

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Die temporäre Ansicht <relationName> kann nicht erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen, legen Sie die vorhandene Ansicht ab, oder ersetzen Sie die vorhandene Ansicht, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Ansichten zu tolerieren.

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE: 428EK

CREATE TEMPORARY VIEW oder die entsprechenden Dataset-APIs akzeptieren nur einteilige Ansichtsnamen, erhielten aber: <actualName>.

TRAILING_COMMA_IN_SELECT

SQLSTATE: 42601

Nachstehendes Komma in SELECT-Klausel erkannt. Entfernen Sie das nachfolgende Komma vor der FROM-Klausel.

TRIGGER_INTERVAL_INVALID

SQLSTATE: 22003

Das Triggerintervall muss eine positive Dauer sein, die in ganze Sekunden konvertiert werden kann. Empfangen: <actual> Sekunden.

UC_BUCKETED_TABLES

SQLSTATE: 0AKUC

Zusammengefasste Tabellen werden im Unity-Katalog nicht unterstützt.

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE: 3D000

Geben Sie für Unity-Katalog den Katalognamen explizit an. z. B. SHOW GRANT your.address@email.com ON CATALOG Haupt.

UC_COMMAND_NOT_SUPPORTED

SQLSTATE: 0AKUC

Die Befehle: <commandName> werden im Unity-Katalog nicht unterstützt.

Weitere Details finden Sie unter UC_COMMAND_NOT_SUPPORTED.

UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS

SQLSTATE: 0AKUC

Die Befehle: <commandName> werden für Unity-Katalogcluster ohne Server nicht unterstützt. Verwenden Sie stattdessen Einzelbenutzercluster oder gemeinsam verwendete Cluster.

UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE

SQLSTATE: 0AKUC

Die Befehle: <commandName> werden für Unity-Katalogcluster im Modus für gemeinsam genutzten Zugriff nicht unterstützt. Verwenden Sie stattdessen den Einzelbenutzerzugriffsmodus.

UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED

SQLSTATE: 0AKUC

Die angegebene Anmeldeinformationsart wird nicht unterstützt.

UC_DATASOURCE_NOT_SUPPORTED

SQLSTATE: 0AKUC

Das Datenquellenformat <dataSourceFormatName> wird im Unity-Katalog nicht unterstützt.

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE: 0AKUC

Datenquellenoptionen werden im Unity-Katalog nicht unterstützt.

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE: 42601

LOCATION-Klausel muss für externes Volume vorhanden sein. Bitte überprüfen Sie die Syntax 'CREATE EXTERNAL VOLUME ... LOCATION …’ zum Erstellen eines externen Volumes.

UC_FAILED_PROVISIONING_STATE

SQLSTATE: 0AKUC

Fehler bei der Abfrage, da versucht wurde, auf tabelle <tableName> zu verweisen, dies aber nicht möglich war: <failureReason>. Aktualisieren Sie die Tabelle <tableName>, um sicherzustellen, dass sie sich in einem aktiven Bereitstellungsstatus befindet, und wiederholen Sie dann die Abfrage erneut.

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

Das Erstellen einer Tabelle im Unity-Katalog mit dateischema <schemeName> wird nicht unterstützt.

Erstellen Sie stattdessen eine Verbunddatenquellenverbindung mit dem Befehl CREATE CONNECTION für denselben Tabellenanbieter, und erstellen Sie dann einen Katalog basierend auf der Verbindung mit einem CREATE FOREIGN CATALOG-Befehl, um auf die darin enthaltenen Tabellen zu verweisen.

UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED

SQLSTATE: 56038

Die Hive Metastore Federationsansicht unterstützt keine Abhängigkeiten über mehrere Kataloge hinweg. Ansicht <view> im Hive-Metastore-Verbundkatalog muss Abhängigkeiten aus dem hive_metastore- oder dem spark_catalog-Katalog verwenden, aber die Abhängigkeit <dependency> befindet sich in einem anderen Katalog <referencedCatalog>. Aktualisieren Sie die Abhängigkeiten, um diese Einschränkung zu erfüllen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE: 0A000

Der Hive-Metastore-Partnerverbund ist für diesen Cluster nicht aktiviert.

Der Zugriff auf den Katalog <catalogName> wird in diesem Cluster nicht unterstützt.

UC_INVALID_DEPENDENCIES

SQLSTATE: 56098

Abhängigkeiten von <viewName> werden als <storedDeps> aufgezeichnet, während sie als <parsedDeps>geparst werden. Dies ist wahrscheinlich durch falsche Verwendung einer NICHT-SQL-API aufgetreten. Sie können Abhängigkeiten in Databricks Runtime reparieren, indem Sie ALTER VIEW <viewName> AS <viewText>ausführen.

UC_INVALID_NAMESPACE

SQLSTATE: 0AKUC

Geschachtelte oder leere Namespaces werden im Unity-Katalog nicht unterstützt.

UC_INVALID_REFERENCE

SQLSTATE: 0AKUC

Auf nichtUnity-Catalog Objekt <name> kann in Unity Catalog-Objekten nicht verwiesen werden.

UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED

SQLSTATE: 56038

Die Unity Catalog Lakehouse Federation-Schreibunterstützung ist für den Anbieter <provider> in diesem Cluster nicht aktiviert.

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE: 42601

Das verwaltete Volume akzeptiert keine LOCATION-Klausel. Bitte überprüfen Sie die Syntax 'CREATE VOLUME ...' zum Erstellen eines verwalteten Volumes.

UC_NOT_ENABLED

SQLSTATE: 56038

Unity-Katalog ist für diesen Cluster nicht aktiviert.

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE: 56038

Unity Catalog Query Federation ist für diesen Cluster nicht aktiviert.

UC_SERVICE_CREDENTIALS_NOT_ENABLED

SQLSTATE: 56038

Dienstanmeldedaten sind für diesen Cluster nicht aktiviert.

UC_VOLUMES_NOT_ENABLED

SQLSTATE: 56038

Die Unterstützung für Unity-Katalogvolumes ist für diese Instanz nicht aktiviert.

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE: 56038

Die Unterstützung für Volume-Sharing ist für diese Instanz nicht aktiviert.

UC_VOLUME_NOT_FOUND

SQLSTATE: 42704

Volume <name> existiert nicht. Verwenden Sie "SHOW VOLUMES", um verfügbare Volumes auflisten zu können.

UDF_ENVIRONMENT_ERROR

SQLSTATE: 390000

Fehler beim Installieren von UDF-Abhängigkeiten für <udfName>.

Weitere Details finden Sie unter UDF_ENVIRONMENT_ERROR.

UDF_ERROR

SQLSTATE: nicht zugewiesen

Fehler bei der Ausführung der Funktion <fn>

Weitere Details finden Sie unter UDF_ERROR

UDF_LIMITS

SQLSTATE: 54KD0

Mindestens ein UDF-Grenzwert wurde verletzt.

Weitere Informationen finden Sie unter UDF_LIMITS

UDF_MAX_COUNT_EXCEEDED

SQLSTATE: 54KD0

Der abfrageweite UDF-Grenzwert von <maxNumUdfs> UDFs wurde überschritten (während der öffentlichen Vorschau beschränkt). Es wurde <numUdfs> gefunden. Die UDFs waren: <udfNames>.

UDF_PYSPARK_ERROR

SQLSTATE: 390000

Python-Worker unerwartet beendet

Weitere Informationen finden Sie unter UDF_PYSPARK_ERROR

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE: 0A000

PySpark UDF <udf> (<eval-type>) wird auf Clustern im Shared Access-Modus nicht unterstützt.

UDF_PYSPARK_USER_CODE_ERROR

SQLSTATE: 390000

Fehler bei der Ausführung.

Weitere Details finden Sie unter UDF_PYSPARK_USER_CODE_ERROR.

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE: 0A000

Der Parameterstandardwert wird für benutzerdefinierte <functionType>-Funktion nicht unterstützt.

UDF_USER_CODE_ERROR

SQLSTATE: 390000

Fehler bei der Ausführung der Funktion <fn>.

Weitere Informationen finden Sie unter UDF_USER_CODE_ERROR

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE: 42802

Die Anzahl der in der AS-Klausel angegebenen Aliase stimmt nicht mit der Anzahl der Spalten überein, die vom UDTF ausgegeben werden.

Es wurden <aliasesSize> Aliase erwartet, aber <aliasesNames> erhalten.

Stellen Sie sicher, dass die Anzahl der bereitgestellten Aliase mit der Anzahl der von der UDTF ausgegebenen Spalten übereinstimmt.

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE: 42802

Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die 'analyze'-Methode einen angeforderten OrderColumn zurückgegeben hat, dessen Spaltennameausdruck einen unnötigen Alias <aliasName>enthält; entfernen Sie diesen Alias, und versuchen Sie es dann erneut.

UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

SQLSTATE: 42802

Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die "analyze"-Methode einen angeforderten "select"-Ausdruck (<expression>) zurückgegeben hat, der keinen entsprechenden Alias enthält; Bitte aktualisieren Sie die UDTF, um dort einen Alias anzugeben, und versuchen Sie dann die Abfrage erneut.

UNABLE_TO_ACQUIRE_MEMORY

SQLSTATE: 53200

Fehler beim Abrufen von <requestedBytes> Bytes aus dem Arbeitsspeicher, empfangen <receivedBytes>.

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

Sql-Typ-<toType> kann nicht in den Protobuf-Typ <protobufType>konvertiert werden.

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE: 58030

Das Abrufen von Tabellen der Hive-Datenbank ist nicht möglich: <dbName>. Fehlerklassenname: <className>.

UNABLE_TO_INFER_SCHEMA

SQLSTATE: 42KD9

Es war nicht möglich, das Schema für <format>zu ermitteln. Sie muss manuell angegeben werden.

UNBEFUGTER_ZUGRIFF

SQLSTATE: 42501

Nicht autorisierter Zugriff:

<report>

UNBOUND_SQL_PARAMETER

SQLSTATE: 42P02

Der ungebundene Parameter wurde gefunden: <name>. Beheben Sie args, und stellen Sie eine Zuordnung des Parameters zu einer SQL-Literal- oder Sammlungskonstruktorfunktionen wie map(), array(), struct()bereit.

UNCLOSED_BRACKETED_COMMENT

SQLSTATE: 42601

Es wurde ein nicht eingeschlossener Kommentar in Klammern gefunden. Fügen Sie */am Ende des Kommentars an.

UNEXPECTED_INPUT_TYPE

SQLSTATE: 42K09

Parameter <paramIndex> funktion <functionName> erfordert den typ <requiredType>, <inputSql> hat jedoch den Typ <inputType>.

UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER

SQLSTATE: 42K09

Der <namedParamKey> Parameter der Funktion <functionName> erfordert den <requiredType> Typ, <inputSql> jedoch den Typ <inputType>hat.<hint>

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE: 42KDD

Unerwarteter Operator <op> in der CREATE VIEW-Anweisung als Streamingquelle.

Eine Streamingansichtsabfrage darf nur aus SELECT, WHEREund UNION ALL Vorgängen bestehen.

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

Routine <routineName> kann nicht aufgerufen werden, weil sie positionelle Argumente enthält, die dem benannten Argument folgen, das <parameterName> zugewiesen ist. Ordnen Sie sie neu an, sodass die positionellen Argumente am Anfang stehen, und wiederholen Sie dann die Abfrage.

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE: 42846

Die Klasse <className> verfügt über einen unerwarteten Expressionsserialisierer. Erwartet wurde „STRUCT“ oder „IF“ (gibt „STRUCT“ zurück), gefunden wurde aber <expr>.

UNKNOWN_FIELD_EXCEPTION

SQLSTATE: KD003

<changeType> während dem Parsen von <unknownFieldBlob>, was durch eine automatische Wiederholung behoben werden kann: <isRetryable>

Weitere Details finden Sie unter UNKNOWN_FIELD_EXCEPTION.

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

Der Aufruf von Routine-<routineName> enthält ein unbekanntes Positionsargument <sqlExpr> an Position <pos>. Dies ist ungültig.

UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT

SQLSTATE: 22023

Unbekannter Grundtyp mit id <id> wurde in einem Variant-Wert gefunden.

UNKNOWN_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

Es wurde versucht, <descriptorName> als Nachricht zu behandeln, es war jedoch <containingType>.

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE: 42K0A

UNPIVOT erfordert, dass alle angegebenen <given> Ausdrücke Spalten sein müssen, wenn keine <empty> Ausdrücke angegeben werden. Dies sind keine Spalten: [<expressions>].

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE: 42K0A

Mindestens eine Wertspalte muss für UNPIVOTangegeben werden, während alle anderen Spalten als IDs angegeben werden.

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

UNPIVOT-Wertspalten müssen mindestens einen allgemeinen Typ teilen, dies ist für einige Typen nicht der Fall: [<types>].

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE: 428C4

Alle UNPIVOT-Wertspalten müssen dieselbe Größe aufweisen wie Wertspaltennamen (<names>).

UNRECOGNIZED_PARAMETER_NAME

SQLSTATE: 4274K

Routine-<routineName> kann nicht aufgerufen werden, da der Routineaufruf einen benannten Argumentverweis für das Argument namens <argumentName>enthält, aber diese Routine enthält keine Signatur, die ein Argument mit diesem Namen enthält. Meinten Sie einen der folgenden Punkte? [<proposal>].

UNRECOGNIZED_SQL_TYPE

SQLSTATE: 42704

Unbekannter SQL-Typ - Name: <typeName>, ID: <jdbcType>.

UNRECOGNIZED_STATISTIC

SQLSTATE: 42704

Die Statistik <stats> wird nicht erkannt. Gültige Statistiken umfassen count, count_distinct, approx_count_distinct, mean, stddev, min, maxund Perzentilwerte. Perzentil muss ein numerischer Wert sein, gefolgt von '%', im Bereich von 0% bis 100%.

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE: 42883

<name> konnte nicht in eine Tabellenwertfunktion aufgelöst werden.

Stellen Sie sicher, dass <name> als Tabellenwertfunktion definiert ist und dass alle erforderlichen Parameter korrekt bereitgestellt werden.

Wenn <name> nicht definiert ist, erstellen Sie die Tabellenwertfunktion, bevor Sie sie verwenden.

Weitere Informationen zum Definieren von Tabellenwertfunktionen finden Sie in der Apache Spark-Dokumentation.

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE: 42803

Die Gruppierung von Spalten für GROUP BY ALL kann nicht basierend auf der Auswahlklausel abgeleitet werden. Geben Sie die Gruppierungsspalten explizit an.

UNRESOLVED_COLUMN

SQLSTATE: 42703

Ein Spalten-, Variablen- oder Funktionsparameter mit dem Namen <objectName> kann nicht aufgelöst werden.

Weitere Informationen finden Sie unter UNRESOLVED_COLUMN

UNRESOLVED_FIELD

SQLSTATE: 42703

Ein Feld mit dem Namen <fieldName> kann nicht mit der Strukturspalte <columnPath>aufgelöst werden.

Weitere Informationen finden Sie unter UNRESOLVED_FIELD

UNRESOLVED_MAP_KEY

SQLSTATE: 42703

Spalte <objectName> kann nicht als Kartenschlüssel aufgelöst werden. Wenn der Schlüssel ein Zeichenfolgenliteral ist, schließen Sie ihn in einzelne Anführungszeichen (“)ein.

Weitere Details finden Sie unter UNRESOLVED_MAP_KEY.

UNRESOLVED_ROUTINE

SQLSTATE: 42883

Routine <routineName> im Suchpfad <searchPath>kann nicht aufgelöst werden.

Überprüfen Sie die Schreibweise von <routineName>, überprüfen Sie, ob die Routine vorhanden ist, und bestätigen Sie, dass Sie über USE Berechtigungen für den Katalog und das Schema verfügen, und EXECUTE für die Routine.

Weitere Informationen finden Sie unter UNRESOLVED_ROUTINE

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE: 42703

USING-Spalte <colName> kann nicht auf der <side>-Seite des Join aufgelöst werden. Die <side>-seitigen Spalten: [<suggestion>].

UNRESOLVED_VARIABLE

SQLSTATE: 42883

Die Variable <variableName> für suchpfad <searchPath>kann nicht aufgelöst werden.

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT

SQLSTATE: 0A000

Unstrukturiertes Dateiformat <format> wird nicht unterstützt. Unterstützte Dateiformate sind <supportedFormats>.

Aktualisieren Sie format in Ihrem <expr>-Ausdruck auf eines der unterstützten Formate, und wiederholen Sie dann die Abfrage erneut.

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL

SQLSTATE: 0A000

Das unstrukturierte Modell <model> wird nicht unterstützt. Unterstützte Modelle sind <supportedModels>.

Wechseln Sie zu einem der unterstützten Modelle, und wiederholen Sie dann die Abfrage erneut.

UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION

SQLSTATE: 420000

Der Funktionsparameter 'ocrText' muss 'NULL' sein oder ausgelassen werden, wenn die Option 'metadataModel' angegeben wird. Eine angegebene 'metadataModel'-Option löst die Metadatenextraktion aus, wobei ein bereitgestellter "ocrText" verboten ist.

UNSUPPORTED_ADD_FILE

SQLSTATE: 0A000

Unterstützen Sie das Hinzufügen von Dateien nicht.

Weitere Details finden Sie unter UNSUPPORTED_ADD_FILE.

UNSUPPORTED_ALTER_COLUMN_PARAMETER

SQLSTATE: 0A000

Das Angeben von <parameter> mit ALTER <commandTableType> wird nicht unterstützt.

UNSUPPORTED_ARROWTYPE

SQLSTATE: 0A000

Nicht unterstützter Pfeiltyp <typeName>.

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE: 420000

Die Funktion <funcName> unterstützt keine Batchabfragen.

UNSUPPORTED_CALL

SQLSTATE: 0A000

Die Methode "<methodName>" der Klasse "<className>" kann nicht aufgerufen werden.

Weitere Details finden Sie unter UNSUPPORTED_CALL.

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE: 0A000

Der Zeichen-/Varchar-Typ kann nicht im Tabellenschema verwendet werden.

Wenn Spark diese als Zeichenfolgentyp wie Spark 3.0 und früher behandeln soll, legen Sie "spark.sql.legacy.charVarcharAsString" auf "true" fest.

UNSUPPORTED_CLAUSE_FOR_OPERATION

SQLSTATE: 0A000

<clause> wird für <operation> nicht unterstützt.

UNSUPPORTED_COLLATION

SQLSTATE: 0A000

Die <collationName>-Sortierung wird nicht unterstützt für:

Weitere Details finden Sie unter UNSUPPORTED_COLLATION.

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE: 42616

Der gemeinsame Vorgänger des Quellpfads und der sourceArchiveDir sollte bei UC registriert werden.

Wenn diese Fehlermeldung angezeigt wird, ist es wahrscheinlich, dass Sie den Quellpfad und den sourceArchiveDir an verschiedenen externen Speicherorten registrieren.

Platzieren Sie sie in einem einzigen externen Speicherort.

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE: 0A000

Einschränkungsklauseln <clauses> werden nicht unterstützt.

UNSUPPORTED_CONSTRAINT_TYPE

SQLSTATE: 420000

Nicht unterstützter Einschränkungstyp. Nur <supportedConstraintTypes> werden unterstützt

NICHT UNTERSTÜTZTE DATENQUELLE FÜR DIREKTABFRAGE

SQLSTATE: 0A000

Nicht unterstützter Datenquellentyp für direkte Abfrage für Dateien: <dataSourceType>

Nicht unterstützter Datentyp

SQLSTATE: 0A000

Nicht unterstützter Datentyp <typeName>.

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE: 0A000

Die Datenquelle "<source>" kann nicht im <createMode> Modus geschrieben werden. Verwenden Sie stattdessen den Modus "Anfügen" oder "Überschreiben".

NICHT_UNTERSTÜTZTER_DATENTYP_FÜR_DATENQUELLE

SQLSTATE: 0A000

Die <format>-Datenquelle unterstützt die Spalte <columnName> des Typs <columnType>nicht.

UNSUPPORTED_DATA_TYPE_FOR_ENCODER

SQLSTATE: 0A000

Encoder für <dataType>kann nicht erstellt werden. Verwenden Sie einen anderen Ausgabedatentyp für Ihre UDF oder DataFrame.

UNSUPPORTED_DEFAULT_VALUE

SQLSTATE: 0A000

DEFAULT-Spaltenwerte werden nicht unterstützt.

Weitere Details finden Sie unter UNSUPPORTED_DEFAULT_VALUE.

UNSUPPORTED_DESERIALIZER

SQLSTATE: 0A000

Der Deserializer wird nicht unterstützt:

Weitere Details finden Sie unter UNSUPPORTED_DESERIALIZER.

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

Die generierte Spalte <fieldName> mit Generierungsausdruck <expressionStr> kann nicht erstellt werden, da <reason>.

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE: 42K0E

Ein Abfrageoperator enthält einen oder mehrere nicht unterstützte Ausdrücke.

Erwägen Sie, sie neu zu schreiben, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE-Klausel zu vermeiden.

Ungültige Ausdrücke: [<invalidExprSqls>]

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE: 42K0E

Ein Abfrageparameter enthält einen nicht unterstützten Ausdruck.

Parameter können Variablen oder Literale sein.

Ungültiger Ausdruck: [<invalidExprSql>]

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE: 42P20

Ausdruck <sqlExpr> wird in einer Fensterfunktion nicht unterstützt.

UNSUPPORTED_FEATURE

SQLSTATE: 0A000

Das Feature wird nicht unterstützt:

Weitere Details finden Sie unter UNSUPPORTED_FEATURE.

UNSUPPORTED_FN_TYPE

SQLSTATE: 0A000

Nicht unterstützter benutzerdefinierter Funktionstyp: <language>

UNSUPPORTED_GENERATOR

SQLSTATE: 42K0E

Der Generator wird nicht unterstützt:

Weitere Details finden Sie unter UNSUPPORTED_GENERATOR.

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE: 42K0E

grouping()/grouping_id() kann nur mit GroupingSets/Cube/Rollup verwendet werden.

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE: 42616

<trigger> mit der initialen Position <initialPosition> wird mit der Kinesis-Quelle nicht unterstützt

UNSUPPORTED_INSERT

SQLSTATE: 42809

Das Einfügen in das Ziel ist nicht möglich.

Weitere Details finden Sie unter UNSUPPORTED_INSERT.

UNSUPPORTED_JOIN_TYPE

SQLSTATE: 0A000

Nicht unterstützter Verknüpfungstyp '<typ>'. Unterstützte Verknüpfungstypen sind: <supported>.

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE: 0AKDD

Das Erstellen einer verwalteten Tabelle <tableName> mithilfe von Datenquellen <dataSource> wird nicht unterstützt. Sie müssen Datenquellen-DELTA verwenden oder eine externe Tabelle mit CREATE EXTERNAL TABLE <tableName> erstellen ... USING <dataSource>

UNSUPPORTED_MERGE_CONDITION

SQLSTATE: 42K0E

Der MERGE-Vorgang enthält eine nicht unterstützte <condName>-Bedingung.

Weitere Details finden Sie unter UNSUPPORTED_MERGE_CONDITION.

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE: 0A000

Tabelle <tableName> weist eine Sicherheitsrichtlinie oder Spaltenmaske auf Zeilenebene auf, die indirekt auf eine andere Tabelle mit einer Sicherheitsrichtlinie oder Spaltenmaske auf Zeilenebene verweist; dies wird nicht unterstützt. Anrufsequenz: <callSequence>

UNSUPPORTED_OVERWRITE

SQLSTATE: 42902

Das Ziel, aus dem ebenfalls gelesen wird, kann nicht überschrieben werden.

Weitere Details finden Sie unter UNSUPPORTED_OVERWRITE.

UNSUPPORTED_PARTITION_TRANSFORM

SQLSTATE: 0A000

Nicht unterstützte Partitionstransformation: <transform>. Die unterstützten Transformationen sind identity, bucketund clusterBy. Stellen Sie sicher, dass ihr Transformationsausdruck eine dieser Ausdrücke verwendet.

UNSUPPORTED_SAVE_MODE

SQLSTATE: 0A000

Der Speichermodus <saveMode> wird für Folgendes nicht unterstützt:

Weitere Details finden Sie unter UNSUPPORTED_SAVE_MODE.

UNSUPPORTED_SHOW_CREATE_TABLE

SQLSTATE: 0A000

Unterstützung für einen SHOW CREATE TABLE-Befehl aufgehoben.

Weitere Details finden Sie unter UNSUPPORTED_SHOW_CREATE_TABLE.

UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE

SQLSTATE: 0A000

Die Single-Pass-Analyse kann diese Abfrage oder diesen Befehl nicht verarbeiten, da sie <feature>noch nicht unterstützt.

UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK

SQLSTATE: 0A000

<outputMode>-Ausgabemodus wird für <statefulOperator> beim Streamen von DataFrames/DataSets ohne Wasserzeichen nicht unterstützt.

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE: 0A000

Streaming einer Ansicht wird nicht unterstützt. Grund:

Weitere Details finden Sie unter UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW.

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE: 0A000

Die Streamingoptionen <options> werden für eine Datenquelle <source> in einem freigegebenen Cluster nicht unterstützt. Vergewissern Sie sich, dass die Optionen richtig angegeben und richtig geschrieben sind, und überprüfen Siehttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode auf Einschränkungen.

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE: 0A000

Die Datenquelle <sink> wird nicht als Streamingsenke in einem freigegebenen Cluster unterstützt.

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE: 0A000

Datenquelle <source> wird nicht als Streamingquelle auf einem freigegebenen Cluster unterstützt.

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE: 420000

Die Funktion <funcName> unterstützt kein Streaming. Entfernen Sie das Schlüsselwort STREAM

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<streamReadLimit> wird mit der Kinesis-Quelle nicht unterstützt.

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

SQLSTATE: 0A000

Nicht unterstützter Unterabfrageausdruck:

Weitere Details finden Sie unter UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY.

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE: 56038

Das Erstellen eines Primärschlüssels mit Zeitserienspalten wird nicht unterstützt.

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE: 0A000

Das Erstellen eines Primärschlüssels mit mehr als einer Zeitserienspalte <colSeq> wird nicht unterstützt.

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<trigger> wird mit der Kinesis-Quelle nicht unterstützt.

UNSUPPORTED_TYPED_LITERAL

SQLSTATE: 0A000

Literale des Typs <unsupportedType> werden nicht unterstützt. Folgende Typen werden unterstützt: <supportedTypes>.

UNSUPPORTED_UDF_FEATURE

SQLSTATE: 0A000

Die Funktion <function> verwendet die folgenden Features, die eine neuere Version der Databricks-Laufzeit erfordern: <features>. Weitere Informationen finden Sie in <docLink>.

UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE

SQLSTATE: 0A000

UDF-Typen können nicht zusammen verwendet werden: <types>

UNTYPED_SCALA_UDF

SQLSTATE: 42K0E

Sie verwenden nicht typisierte Scala UDF, die keine Eingabetypinformationen enthält.

Spark kann ohne Tests NULL an den Scala-Funktionsabschluss über ein Argument mit einem primitiven Typ übergeben, und der Funktionsabschluss erkennt den Standardwert des Java-Typs für das NULL-Argument, z. B. udf((x: Int) => x, IntegerType), das Ergebnis ist für NULL-Eingaben 0. Um diesen Fehler zu entfernen, können Sie folgende Aktionen ausführen:

  1. verwenden Sie typierte Scala UDF-APIs(ohne Rückgabetypparameter), z. B. udf((x: Int) => x).
  2. Verwenden Sie Java-UDF-APIs, wie z. B. udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), wenn alle Eingabetypen nicht primitive sind.
  3. legen Sie "spark.sql.legacy.allowUntypedScalaUDF" auf "true" fest, und verwenden Sie diese API vorsichtig.

UPGRADE_NOT_SUPPORTED

SQLSTATE: 0AKUC

Die Tabelle ist nicht berechtigt, ein Upgrade von Hive Metastore auf den Unity-Katalog durchzuführen. Grund:

Weitere Details finden Sie unter UPGRADE_NOT_SUPPORTED.

BENUTZERDEFINIERTE_FUNKTIONS

SQLSTATE: 42601

Benutzerdefinierte Funktion ist ungültig:

Weitere Details finden Sie unter USER_DEFINED_FUNCTIONS.

USER_RAISED_EXCEPTION

SQLSTATE: P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE: P0001

Die raise_error()-Funktion wurde zum Auslösen der Fehlerklasse verwendet: <errorClass>, die Parameter erwartet: <expectedParms>.

Die bereitgestellten Parameter <providedParms> entsprechen nicht den erwarteten Parametern.

Stellen Sie sicher, dass Sie alle erwarteten Parameter angeben.

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE: P0001

Die raise_error()-Funktion wurde verwendet, um eine unbekannte Fehlerklasse auszuheben: <errorClass>

VARIABLE_ALREADY_EXISTS

SQLSTATE: 42723

Die Variable <variableName> kann nicht erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, oder legen Sie die vorhandene Variable ab, oder ersetzen Sie sie.

VARIABLE_NOT_FOUND

SQLSTATE: 42883

Die Variable <variableName> wurde nicht gefunden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.

Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.

Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP VARIABLE IF EXISTS.

VARIANT_CONSTRUCTOR_SIZE_LIMIT

SQLSTATE: 22023

Es kann kein Variant-Wert erstellt werden, der größer als 16 MiB ist. Die maximal zulässige Größe eines Variant-Werts beträgt 16 MiB.

VARIANT_DUPLICATE_KEY

SQLSTATE: 22023

Fehler beim Erstellen der Variante aufgrund eines doppelten Objektschlüssels <key>.

VARIANT_SIZE_LIMIT

SQLSTATE: 22023

Es kann keine Variante erstellt werden, die größer als <sizeLimit> in <functionName>ist.

Vermeiden Sie große Eingabezeichenfolgen für diesen Ausdruck (z. B. fügen Sie Funktionsaufrufe hinzu, um die Größe des Ausdrucks zu überprüfen und sie zuerst in NULL zu konvertieren, wenn sie zu groß ist).

VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Die Ansicht <relationName> kann nicht erstellt werden, da sie bereits existiert.

Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE: 54K00

Die Tiefe der Ansicht <viewName> überschreitet die maximale Auflösungstiefe (<maxNestedDepth>).

Die Analyse wird abgebrochen, um Fehler zu vermeiden. Wenn Sie dies umgehen möchten, versuchen Sie, den Wert von "spark.sql.view.maxNestedViewDepth" zu erhöhen.

VIEW_NOT_FOUND

SQLSTATE: 42P01

Die Ansicht <relationName> kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.

Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.

Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP VIEW IF EXISTS.

VOLUME_ALREADY_EXISTS

SQLSTATE: 420000

Volume-<relationName> kann nicht erstellt werden, da es bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE: 42K0E

Die Funktion <funcName> kann nur in einem sortierten zeilenbasierten Fensterrahmen mit einem einzigen Offset ausgewertet werden: <windowExpr>.

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE: 42601

Für die Fensterfunktion <funcName> ist eine OVER-Klausel erforderlich.

WITH_CREDENTIAL

SQLSTATE: 42601

WITH CREDENTIAL Syntax wird für <type>nicht unterstützt.

WRITE_STREAM_NOT_ALLOWED

SQLSTATE: 42601

writeStream kann nur für ein Streaming-Dataset/DataFrame aufgerufen werden.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE: 0AKDC

Fehler beim Ausführen des Befehls, da DEFAULT-Werte beim Hinzufügen neuer Elemente nicht unterstützt werden.

Spalten zu bereits vorhandenen Delta-Tabellen nicht unterstützt werden. Fügen Sie die Spalte zunächst ohne Standardwert

und führen Sie dann stattdessen einen zweiten ALTER TABLE ALTER COLUMN SET DEFAULT-Befehl aus, um

an zukünftige eingefügte Zeilen anzufügen.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE: 0AKDE

Fehler beim Ausführen des Befehls <commandType>, da ihm ein DEFAULT-Wert zugewiesen wurde,

die entsprechende Tabellenfunktion wurde jedoch nicht aktiviert. Wiederholen Sie den Befehl erneut.

nach Ausführung von ALTER TABLE tableName SET

TBLPROPERTIES(‘delta.feature.allowColumnDefaults’ = ‘supported’).

WRONG_COMMAND_FOR_OBJECT_TYPE

SQLSTATE: 42809

Für den Vorgang <operation> ist ein <requiredType> erforderlich. Aber <objectName> ist ein <foundType>. Verwenden Sie stattdessen <alternative>.

WRONG_NUM_ARGS

SQLSTATE: 42605

Der <functionName> erfordert <expectedNum> Parameter, aber die tatsächliche Anzahl ist <actualNum>.

Weitere Details finden Sie unter WRONG_NUM_ARGS.

XML_ROW_TAG_MISSING

SQLSTATE: 42KDF

<rowTag> Option ist zum Lesen von Dateien im XML-Format erforderlich.

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE: 0N000

XML unterstützt <innerDataType> nicht als inneren Typ von <dataType>. Umschließen Sie den <innerDataType> innerhalb eines StructType-Felds, wenn Sie ihn in <dataType> verwenden.

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE: 22023

Wiederhergestellte Daten und Platzhalterspalten können nicht gleichzeitig aktiviert werden. Entfernen Sie die wildcardColumnName-Option.

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

Die Spalte "ZOrderBy" <columnName> ist nicht vorhanden.

Delta Lake

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

SQLSTATE: 08003

Aktive SparkSession konnte nicht gefunden werden

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE: 0B000

Neue Transaktion kann nicht als aktiv festgelegt werden, wenn bereits eine aktiv ist

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE: 420000

Fehler beim Hinzufügen von Spalte <colName>, da der Name reserviert ist.

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE: 0A000

Der aktuelle Vorgang hat versucht, einer Tabelle einen Löschvektor hinzuzufügen, der die Erstellung neuer Löschvektoren nicht zulässt. Bitte geben Sie einen Fehlerbericht an.

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE: 420000

Alle Vorgänge, die Löschvektoren hinzufügen, sollten die "tightBounds"-Spalte in Statistiken auf "false" festlegen. Bitte geben Sie einen Fehlerbericht an.

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD3

"Der Index <columnIndex> zum Hinzufügen der Spalte <columnName> ist kleiner als 0"

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE: 42KD3

<columnName> kann nicht hinzugefügt werden, da das übergeordnete Element kein StructType ist. <other> gefunden

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE: 42KD3

Struktur an Position <position> nicht gefunden

DELTA_ADD_CONSTRAINTS

SQLSTATE: 0A000

Verwenden Sie ALTER TABLE ADD CONSTRAINT, um CHECK-Einschränkungen hinzuzufügen.

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE: 42621

Es wurde <sqlExpr> gefunden. Eine generierte Spalte kann keinen Aggregatausdruck verwenden.

DELTA_AGGREGATION_NICHT_UNTERSTÜTZT

SQLSTATE: 42903

Aggregatfunktionen werden in der <operation> <predicate>nicht unterstützt.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER

SQLSTATE: 428FR

Fehler beim Ändern der Sortierung der Spalte <column>, da sie einen Bloom-Filterindex enthält. Bitte behalten Sie entweder die vorhandene Sortierung bei, oder legen Sie den Bloom-Filterindex ab, und wiederholen Sie dann den Befehl erneut, um die Sortierung zu ändern.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY

SQLSTATE: 428FR

Fehler beim Ändern der Sortierung der Spalte <column>, da es sich um eine Clusteringspalte handelt. Bitte behalten Sie entweder die vorhandene Sortierung bei, oder ändern Sie die Spalte in eine Spalte ohne Clustering mit einem ALTER TABLE Befehl, und wiederholen Sie dann den Befehl erneut, um die Sortierung zu ändern.

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE: 42837

ALTER TABLE CHANGE COLUMN wird für das Ändern von Spalten-<currentType> in <newType> nicht unterstützt.

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE: 420000

ALTER TABLE CLUSTER BY wird nur für die Delta-Tabelle mit Liquid Clustering unterstützt.

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE: 420000

ALTER TABLE CLUSTER BY kann nicht auf eine partitionierte Tabelle angewendet werden.

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE: 420000

Vorgang nicht zulässig: ALTER TABLE RENAME TO ist für verwaltete Delta-Tabellen auf S3 nicht zulässig, da die schlussendliche Konsistenz in S3 das Delta-Transaktionsprotokoll beschädigen kann. Wenn Sie darauf bestehen und sicher sind, dass noch nie eine Delta-Tabelle mit dem neuen Namen <newName> vorhanden ist, können Sie dies aktivieren, indem Sie <key> auf "true" festlegen.

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 420000

Das <tableFeature>-Tabellenfeature kann nicht mit ALTER TABLE SET TBLPROPERTIES aktiviert werden. Verwenden Sie CREATE ODER REPLACE TABLE CLUSTER BY, um eine Delta-Tabelle mit Clustering zu erstellen.

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE: 429BQ

Der Datentyp der <column> kann von <from> in <to>nicht geändert werden. Diese Änderung enthält Spaltenentfernungen und Ergänzungen, daher sind sie mehrdeutig. Bitte nehmen Sie diese Änderungen einzeln mit ALTER TABLE [ADD | DROP | RENAME] COLUMNvor.

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE: 42702

Die mehrdeutige Partitionsspalte <column> kann <colMatches> sein.

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE: 42613

CREATE TABLE enthält zwei verschiedene Speicherorte: <identifier> und <location>.

Sie können die LOCATION-Klausel aus der CREATE TABLE-Anweisung entfernen oder Folgendes festlegen

<config> auf TRUE festlegen, um diese Überprüfung zu überspringen.

DELTA_ARCHIVED_FILES_IN_LIMIT

SQLSTATE: 42KDC

Tabelle <table> enthält nicht genügend Datensätze in nicht archivierten Dateien, um das angegebene LIMIT von <limit> Datensätzen zu erfüllen.

DELTA_ARCHIVED_FILES_IN_SCAN

SQLSTATE: 42KDC

Es wurden <numArchivedFiles> potenziell archivierte Dateien in der Tabelle <table> gefunden, die im Rahmen dieser Abfrage gescannt werden müssen.

Auf archivierte Dateien kann nicht zugegriffen werden. Die aktuelle Zeit, bis die Archivierung als <archivalTime>konfiguriert ist.

Passen Sie Die Abfragefilter an, um archivierte Dateien auszuschließen.

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE: 42KD4

Operation „<opName>“ ist nicht zulässig, wenn die Tabelle den Change Data Feed (CDF) aktiviert hat und das Schema mithilfe von DROP COLUMN oder RENAME COLUMNverändert wurde.

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE: 42703

Bloom-Filterindizes für die folgenden nicht vorhandenen Spalten können nicht gelöscht werden: <unknownColumns>

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE: 82100

OutOfMemoryError ist beim Schreiben von Bloom-Filterindizes für die folgenden Spalten aufgetreten: <columnsWithBloomFilterIndices>.

Sie können den Speicherbedarf von Bloom-Filterindizes reduzieren, indem Sie einen kleineren Wert für die Option "numItems", einen größeren Wert für die Option "fpp" auswählen oder weniger Spalten indizieren.

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE: 429BQ

Datentyp kann nicht geändert werden: <dataType>

DELTA_KANN_STANDORT_NICHT_ÄNDERN

SQLSTATE: 42601

Die Position der Delta-Tabelle kann nicht mithilfe von SET TBLPROPERTIESgeändert werden. Verwenden Sie stattdessen ALTER TABLE SET LOCATION.

DELTA_KANN_ANBIETER_NICHT_WECHSELN

SQLSTATE: 42939

"provider" ist eine reservierte Tabelleneigenschaft und kann nicht geändert werden.

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE: 42703

Bloom-Filterindizes für die folgenden nicht vorhandenen Spalten können nicht erstellt werden: <unknownCols>

DELTA_CANNOT_CREATE_LOG_PATH

SQLSTATE: 42KD5

<path> kann nicht erstellt werden

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE: 42809

Der Verlauf einer Sicht kann nicht beschrieben werden.

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE: 42703

Der Bloom-Filterindex kann in einer nicht indizierten Spalte nicht entfernt werden: <columnName>

DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE

SQLSTATE: 0AKDE

Die CHECK-Einschränkungstabellenfunktion kann nicht getrennt werden.

Die folgenden Einschränkungen müssen zuerst gelöscht werden: <constraints>.

DELTA_CANNOT_DROP_COLLATIONS_FEATURE

SQLSTATE: 0AKDE

Die Sortierungstabellenfunktion kann nicht getrennt werden.

Spalten mit nicht standardmäßigen Kollationen müssen zuerst auf die Verwendung von UTF8_BINARY geändert werden: <colNames>.

DELTA_CANNOT_EVALUATE_EXPRESSION

SQLSTATE: 0AKDC

Ausdruck kann nicht ausgewertet werden: <expression>

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE: 22000

Es wird eine Delta-Buckettabelle erwartet, aber die Bucketspezifikation kann in der Tabelle nicht gefunden werden.

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

SQLSTATE: 0AKDC

Code für Ausdruck <expression> kann nicht generiert werden

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE: 42809

Diese Tabelle ist so konfiguriert, dass nur Anfüge zulässig sind. Wenn Sie Aktualisierungen oder Löschungen zulassen möchten, verwenden Sie "ALTER TABLE<table_name>SET TBLPROPERTIES (<config>=false)".

DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> kann die Eigenschaften der In-Commit-Zeitstempeltabelle nicht außer Kraft setzen oder löschen, da koordinierte Commits in dieser Tabelle aktiviert und von diesen abhängig sind. Entfernen Sie sie ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

SQLSTATE: 42939

Die Konfiguration der Delta-Tabelle <prop> kann vom Benutzer nicht angegeben werden.

DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

<Command> kann die Konfigurationen für koordinierte Commits in einer vorhandenen Zieltabelle nicht außer Kraft setzen. Entfernen Sie sie (“delta.coordinatedCommits.commitCoordinator-preview”, “delta.coordinatedCommits.commitCoordinatorConf-preview”, “delta.coordinatedCommits.tableConf-preview”) aus der TBLPROPERTIES -Klausel, und wiederholen Sie dann den Befehl erneut.

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE: 22KD1

Ein URI (<uri>), der nicht in einen relativen Pfad umgewandelt werden kann, wurde im Transaktionsprotokoll gefunden.

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE: 420000

Ein Pfad (<path>), der nicht mit der aktuellen Eingabe relativiert werden kann, wurde gefunden im

Transaktionsprotokoll. Führen Sie dies wie folgt erneut aus:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<userPath>”, true)

Führen Sie dann auch Folgendes aus:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<path>”)

DELTA_CANNOT_RENAME_PATH

SQLSTATE: 22KD1

<currentPath> kann nicht in <newPath> umbenannt werden.

DELTA_CANNOT_REPLACE_MISSING_TABLE

SQLSTATE: 42P01

Tabelle <tableName> kann nicht ersetzt werden, da sie nicht vorhanden ist. Verwenden Sie CREATE ODER-REPLACE TABLE, um die Tabelle zu erstellen.

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE: 42703

Die Spalte <columnName> kann nicht in <schema> aufgelöst werden

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE: 22003

Die Tabelle kann nicht in version <version>wiederhergestellt werden. Verfügbare Versionen: [<startVersion>, <endVersion>].

DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER

SQLSTATE: 22003

Die Tabelle kann nicht auf den Zeitstempel (<requestedTimestamp>) wiederhergestellt werden, da er vor der frühesten verfügbaren Version liegt. Bitte verwenden Sie einen Zeitstempel nach (<earliestTimestamp>)

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE: 22003

Die Tabelle kann nicht auf den Zeitstempel (<requestedTimestamp>) wiederhergestellt werden, da dieser nach der neuesten verfügbaren Version liegt. Bitte verwenden Sie vor (<latestTimestamp>) einen Zeitstempel.

DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> kann keine Eigenschaften der In-Commit-Zeitstempeltabelle zusammen mit koordinierten Commits festlegen, da letztere von ersteren abhängen und erstere intern festlegen. Entfernen Sie sie ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE: 42613

Die Position einer pfadbasierten Tabelle kann nicht geändert werden.

DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY

SQLSTATE: 42616

„Delta.managedDataSkippingStatsColumns“ kann nur für DLT-Tabellen festgelegt werden.

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND

SQLSTATE: 42616

Wenn "unity-catalog" als Commit-Koordinator aktiviert wird, kann die Konfiguration "<configuration>" nicht über den Befehl festgelegt werden. Entfernen Sie ihn aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION

SQLSTATE: 42616

Wenn "unity-catalog" als Commit-Koordinator aktiviert wird, kann die Konfiguration "<configuration>" nicht aus den SparkSession-Konfigurationen festgelegt werden. Löschen Sie sie, indem Sie spark.conf.unset("<configuration>") ausführen, und wiederholen Sie dann den Befehl.

DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

ALTER kann Koordinationseinstellungen für Commits nicht aufheben. Wenn Sie eine Tabelle von koordinierten Commits herabstufen möchten, versuchen Sie es erneut mit ALTER TABLE [table-name] ``DROP FEATURE`` ‘coordinatedCommits-preview’.

DELTA_CANNOT_UPDATE_ARRAY_FIELD

SQLSTATE: 429BQ

Feld %1$s vom Typ %2$s kann nicht aktualisiert werden: Aktualisieren Sie das Element durch Aktualisieren von %2$s.element

DELTA_CANNOT_UPDATE_MAP_FIELD

SQLSTATE: 429BQ

Feld %1$s vom Typ %2$s kann nicht aktualisiert werden: Aktualisieren Sie die Zuordnung durch Aktualisieren von %2$s.key oder %2$s.value

DELTA_KANN_ANDERE_FELDER_NICHT_AKTUALISIEREN

SQLSTATE: 429BQ

Das Feld <tableName> vom Typ <typeName> kann nicht aktualisiert werden.

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE: 429BQ

Das Feld <tableName> vom Typ <fieldName> kann nicht aktualisiert werden: Aktualisieren Sie die Struktur durch Hinzufügen, Löschen oder Aktualisieren ihrer Felder

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

SQLSTATE: 428FT

Nicht alle Spalten können als Partitionsspalten verwendet werden.

DELTA_CANNOT_VACUUM_LITE

SQLSTATE: 550000

VACUUM LITE kann nicht alle berechtigten Dateien löschen, da einige Dateien nicht im Delta-Protokoll referenziert sind. Führen Sie VACUUM FULL aus.

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE: 0A000

<table> ist eine Ansicht. Schreibvorgänge in eine Ansicht werden nicht unterstützt.

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE: 22003

Fehler beim Schreiben eines Werts vom Typ <sourceType> in die Spalte <columnName> vom Typ <targetType> aufgrund eines Überlaufs.

Verwenden Sie try_cast für den Eingabewert, um Überlauf zu tolerieren und stattdessen NULL zurückzugeben.

Legen Sie bei Bedarf <storeAssignmentPolicyFlag> auf "LEGACY" fest, um diesen Fehler zu umgehen, oder legen Sie <updateAndMergeCastingFollowsAnsiEnabledFlag> auf "true" fest, um auf das alte Verhalten zurückzukehren und <ansiEnabledFlag> in UPDATE und MERGEzu folgen.

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

SQLSTATE: 0AKDC

Configuration delta.enableChangeDataFeed kann nicht festgelegt werden. Der Änderungsdatenfeed von Delta ist noch nicht verfügbar.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE: 0AKDC

Fehler beim Abrufen von Tabellenänderungen zwischen Version <start> und <end> aufgrund eines inkompatiblen Datenschemas.

Ihr Leseschema ist bei Version <readVersion><readSchema>, aber wir haben ein inkompatibles Datenschema bei Version <incompatibleVersion>gefunden.

Wenn möglich, rufen Sie die Tabellenänderungen mithilfe des Schemas der Endversion ab, indem Sie <config> auf endVersionfestlegen oder sich an den Support wenden.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Fehler beim Abrufen von Tabellenänderungen zwischen Version <start> und <end> aufgrund einer inkompatiblen Schemaänderung.

Ihr Leseschema ist bei Version <readVersion><readSchema>, aber wir haben eine inkompatible Schemaänderung bei version <incompatibleVersion>gefunden.

Wenn möglich, fragen Sie die Tabellenänderungen separat von Version <start> bis <incompatibleVersion> - 1 und von Version <incompatibleVersion> bis <end>ab.

Delta-Änderungsdatendatei nicht gefunden

SQLSTATE: 42K03

Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies kann auftreten, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE Anweisung zu verwenden. Diese Anforderung scheint auf den Änderungsdaten-Feed ausgerichtet zu sein. Falls dies der Fall ist, kann dieser Fehler auftreten, wenn sich die Änderungsdatendatei außerhalb des Aufbewahrungszeitraums befindet und durch die VACUUM statement gelöscht wurde. Weitere Informationen finden Sie unter <faqPath>

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE: 42807

Es kann nicht in die Tabelle geschrieben werden, wenn delta.enableChangeDataFeed gesetzt ist. Der Änderungsdatenfeed von Delta ist nicht verfügbar.

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE: 42K03

Eine nicht vorhandene Tabelle <path> kann keine Überprüfung haben. Haben Sie Dateien im verzeichnis _delta_log manuell gelöscht?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE: 42613

Es wurden zwei Pfade als CLONE-Ziel bereitgestellt, sodass nicht eindeutig ist, welcher verwendet werden soll. Ein externer

Speicherort für CLONE wurde bei <externalLocation> gleichzeitig mit dem Pfad bereitgestellt

<targetIdentifier>.

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE: 420000

Datei (<fileName>) nicht vollständig kopiert. Erwartete Dateigröße: <expectedSize>, gefunden: <actualSize>. Wenn Sie den Vorgang fortsetzen möchten, indem Sie die Dateigrößenüberprüfung ignorieren, legen Sie <config> auf "false" fest.

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

Nicht unterstützte <mode>-Klonquelle „<name>“, deren Format <format> ist.

Die unterstützten Formate sind "Delta", "Eisberg" und "Parkett".

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE: 0A000

CLONE wird für die Delta-Tabelle mit Liquid Clustering für DBR-Version < 14.0 nicht unterstützt.

DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED

SQLSTATE: 0A000

CLUSTER BY wird nicht unterstützt, da die folgenden Spalten das Überspringen von Daten nicht unterstützen: <columnsWithDataTypes>.

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

Die bereitgestellten Clustering-Spalten stimmen nicht mit denen der vorhandenen Tabelle überein.

  • Bereitgestellt: <providedClusteringColumns>
  • Vorhanden: <existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE: 22000

Für flüssiges Clustering sind Clusterspalten erforderlich, um Statistiken zu erhalten. Die Clusterspalten "<columns>" im Statistikschema konnten nicht gefunden werden:

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE: 22000

Das Erstellen einer externen Tabelle ohne Flüssigclustering aus einem Tabellenverzeichnis mit Flüssigclustering ist nicht zulässig; Pfad: <path>.

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE: 420000

'<operation>' unterstützt keine Clustering.

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE: 0AKDE

<phaseOutType> konnte für die Tabelle mit der <tableFeatureToAdd>-Tabellenfunktion nicht abgeschlossen werden (Grund: <reason>). Versuchen Sie es erneut mit dem Befehl OPTIMIZE.

== Fehler ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE: 420000

REPLACE Eine Delta-Tabelle mit Liquid Clustering in Kombination mit einer partitionierten Tabelle ist nicht zulässig.

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE: 0A000

SHOW CREATE TABLE wird für die Delta-Tabelle mit Liquid Clustering ohne Clusteringspalten nicht unterstützt.

DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS

SQLSTATE: 420000

Der Übergang einer Delta-Tabelle mit liquidem Clustering zu einer partitionierten Tabelle ist für den Vorgang nicht zulässig: <operation>, wenn die vorhandene Tabelle nicht leere Clusterspalten enthält.

Führen Sie ALTER TABLE CLUSTER BY NONE aus, um zuerst die Clusteringspalten zu entfernen.

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 420000

Der Überschreibmodus für dynamische Partitionen ist für die Delta-Tabelle mit Liquid Clustering nicht zulässig.

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE: 0A000

OPTIMIZE Befehl für die Delta-Tabelle mit Liquid Clustering unterstützt keine Partitionsprädikate. Entfernen Sie bitte die Prädikate: <predicates>.

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE: 42613

OPTIMIZE-Befehl für Delta-Tabelle mit Liquid-Clustering kann ZORDER BYnicht angeben. Entfernen Sie ZORDER BY (<zOrderBy>).

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE: 540000

CLUSTER BY für Liquid-Clustering unterstützt bis zu <numColumnsLimit> Clusteringspalten, aber die Tabelle enthält <actualNumColumns> Clusteringspalten. Entfernen Sie die überzähligen Clusteringspalten.

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

Es ist nicht zulässig, CLUSTER BY anzugeben, wenn das Schema nicht definiert ist. Bitte definieren Sie das Schema für tabellen <tableName>.

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE: 42613

Clustering und Bucketing können nicht gleichzeitig angegeben werden. Entfernen Sie CLUSTERED BY INTO BUCKETS/bucketBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE: 42613

Clustering und Partitionierung können nicht beide angegeben werden. Entfernen Sie PARTITIONED BY / partitionBy / partitionedBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.

DELTA_COLLATIONS_NOT_SUPPORTED

SQLSTATE: 0AKDC

Sortierungen werden im Delta Lake nicht unterstützt.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE: 0AKDC

Das Überspringen von Daten wird für die Partitionsspalte <column> nicht unterstützt.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE: 0AKDC

Das Überspringen von Daten wird für die Spalte <column> mit Typ <type> nicht unterstützt.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE: 42703

Die Eigenschaft für die maximale Spalten-ID (<prop>) ist bei einer Tabelle mit aktivierter Spaltenzuordnung nicht festgelegt.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE: 42703

Die Eigenschaft für die maximale Spalten-ID (<prop>) für eine aktivierte Spaltenzuordnung ist <tableMax>, die nicht kleiner als die maximale Spalten-ID für alle Felder (<fieldMax>) sein kann.

DELTA_COLUMN_MISSING_DATA_TYPE

SQLSTATE: 42601

Der Datentyp der Spalte <colName> wurde nicht bereitgestellt.

DELTA_COLUMN_NOT_FOUND

SQLSTATE: 42703

Die Spalte <columnName> konnte mit der Angabe [<columnList>] nicht gefunden werden

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE: 42703

Die Spalte '<targetCol>' der Zieltabelle aus den INSERT Spalten kann nicht gefunden werden: <colNames>. INSERT Klausel muss den Wert für alle Spalten der Zieltabelle angeben.

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42703

Spalte <columnName> konnte nicht gefunden werden in:

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE: 42704

Es wurde erwartet, dass <columnPath> ein geschachtelter Datentyp sein sollte, aber <other>wurde gefunden. Es wurde nach dem

Index von <column> in einem geschachtelten Feld.

Schema:

<schema>

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE: 2200G

Strukturspalte <source> kann nicht in ein <targetType>-Feld <targetField> in <targetTable> eingefügt werden.

DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE

SQLSTATE: 42P01

Der Commit einer Tabelle kann im Umleitungstabellenzustand „<state>“ nicht bearbeitet werden.

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE: 22000

Fehler bei der Überprüfung der Komprimierung des Pfads <compactedPath> zu <newPath>: Bitte geben Sie einen Fehlerbericht ein.

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE: 22005

Geschachtelter NullType in Spalte <columName> vom Typ <dataType> gefunden. Delta unterstützt das Schreiben von NullType in komplexen Typen nicht.

DELTA_CONCURRENT_APPEND

SQLSTATE: 2D521

ConcurrentAppendException: Dateien wurden durch ein gleichzeitiges Update zu <partition> hinzugefügt. <retryMsg> <conflictingCommit>

Weitere Informationen finden Sie unter <docLink>.

DELTA_CONCURRENT_DELETE_DELETE

SQLSTATE: 2D521

ConcurrentDeleteDeleteException: Diese Transaktion hat versucht, eine oder mehrere Dateien zu löschen, die durch ein gleichzeitiges Update gelöscht wurden (z. B. <file>). Versuchen Sie es erneut.<conflictingCommit>

Weitere Informationen finden Sie unter <docLink>.

DELTA_CONCURRENT_DELETE_READ

SQLSTATE: 2D521

ConcurrentDeleteReadException: Diese Transaktion hat versucht, eine oder mehrere Dateien zu lesen, die durch eine gleichzeitige Aktualisierung gelöscht wurden (z. B. <file>). Versuchen Sie es erneut.<conflictingCommit>

Weitere Informationen finden Sie unter <docLink>.

DELTA_CONCURRENT_TRANSACTION

SQLSTATE: 2D521

ConcurrentTransactionException: Dieser Fehler tritt auf, wenn mehrere Streamingabfragen denselben Prüfpunkt verwenden, um in diese Tabelle zu schreiben. Haben Sie mehrere Instanzen derselben Streamingabfrage gleichzeitig ausgeführt?<conflictingCommit>

Weitere Informationen finden Sie unter <docLink>.

DELTA_CONCURRENT_WRITE

SQLSTATE: 2D521

ConcurrentWriteException: Eine gleichzeitige Transaktion hat neue Daten geschrieben, seit die aktuelle Transaktion die Tabelle gelesen hat. Versuchen Sie es erneut.<conflictingCommit>

Weitere Informationen finden Sie unter <docLink>.

DELTA_CONFLICT_SET_COLUMN

SQLSTATE: 42701

Es besteht ein Konflikt zwischen diesen SET-Spalten: <columnList>.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

Während <command>kann die Konfiguration "<configuration>" nicht über den Befehl festgelegt werden. Entfernen Sie ihn aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

Während <command>kann die Konfiguration "<configuration>" nicht aus den SparkSession-Konfigurationen festgelegt werden. Bitte setzen Sie es zurück, indem Sie spark.conf.unset("<configuration>") ausführen, und versuchen Sie dann den Befehl erneut.

DELTA_EINSCHRÄNKUNG_EXISTIERT_BEREITS

SQLSTATE: 42710

Die Einschränkung '<constraintName>' ist bereits vorhanden. Löschen Sie zuerst die alte Einschränkung.

Alte Einschränkung:

<oldConstraint>

DELTA_CONSTRAINT_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Spalte <columnName> weist den Datentyp <columnType> auf und kann nicht auf den Datentyp <dataType> geändert werden, da auf diese Spalte durch die folgenden Prüfeinschränkungen verwiesen wird:

<constraints>

DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

Spalte <columnName> kann nicht geändert werden, da auf diese Spalte durch die folgenden Einschränkungen verwiesen wird:

<constraints>

DELTA_EINSCHRÄNKUNG_EXISTIERT_NICHT

SQLSTATE: 42704

Die nicht vorhandene Einschränkung <constraintName> kann nicht aus der Tabelle <tableName>entfernt werden. Um einen Fehler zu vermeiden, geben Sie den Parameter IF EXISTS an, oder legen Sie die SQL-Sitzungskonfiguration <config> auf <confValue>fest.

DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED

SQLSTATE: 0AKDC

Die Konvertierung der beim Lesen zusammengeführten Tabelle <format> wird nicht unterstützt: <path>, <hint>

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE: 42KD6

Es wurden keine Partitionsinformationen im Katalog für die Tabelle <tableName>gefunden. Haben Sie "MSCK REPAIR TABLE" auf Ihrer Tabelle ausgeführt, um Partitionen zu ermitteln?

DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN

SQLSTATE: 0AKDC

Parquet-Tabelle mit sortierter Partitionsspalte <colName> kann nicht in Delta umgewandelt werden.

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE: 0AKDC

Die Konfiguration '<config>' kann nicht auf <mode> festgelegt werden, wenn sie CONVERT TO DELTAverwenden.

DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Nicht unterstützte Schemaänderungen gefunden: <path>, <hint> für Tabelle <format>

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE: 0AKDC

CONVERT TO DELTA unterstützt nur Parquet-Tabellen. Sie versuchen jedoch, eine <sourceName>-Quelle zu konvertieren: <tableId>

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE: 22000

Zeilenverfolgung kann nicht aktiviert werden, ohne Statistiken zu sammeln.

Wenn Sie die Zeilenverfolgung aktivieren möchten, gehen Sie wie folgt vor:

  1. Aktivieren der Statistiksammlung durch Ausführen des Befehls

SET <statisticsCollectionPropertyKey> = wahr

  1. Führen Sie CONVERT TO DELTA ohne die Option "NO STATISTICS" aus.

Wenn Sie keine Statistiken sammeln möchten, deaktivieren Sie die Zeilenverfolgung:

  1. Deaktivieren Sie das Aktivieren des Tabellenfeatures standardmäßig, indem Sie den Befehl ausführen:

RESET <rowTrackingTableFeatureDefaultKey>

  1. Deaktivieren Sie die Tabelleneigenschaft standardmäßig, indem Sie Folgendes ausführen:

SET <rowTrackingDefaultPropertyKey> = falsch

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE: 0AKDD

COPY INTO Ziel muss eine Delta-Tabelle sein.

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE: 42601

Sie versuchen, eine externe Tabelle <tableName>

mit Delta aus <path> zu erstellen, aber das Schema wird nicht angegeben, wenn der

Der Eingabepfad ist leer.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE: 42K03

Sie versuchen eine externe Tabelle <tableName> zu erstellen

mit Delta aus %2$s zu erstellen, aber es gibt kein Transaktionsprotokoll in

%2$s/_delta_log. Überprüfen Sie den Upstreamauftrag, um sicherzustellen, dass er mithilfe des

format("delta") und dass der Pfad der Stamm der Tabelle ist.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH

SQLSTATE: 0AKDC

Das Erstellen einer pfadbasierten Delta-Tabelle mit einem anderen Speicherort wird nicht unterstützt. Bezeichner: <identifier>, Ort: <location>

DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION

SQLSTATE: 42601

Der Tabellenname oder -speicherort muss angegeben werden.

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE: 42KD7

Das angegebene Schema stimmt nicht mit dem vorhandenen Schema bei <path>überein.

== Angegeben ==

<specifiedSchema>

== Bestehendes ==

<existingSchema>

== Unterschiede ==

<schemaDifferences>

Wenn Sie das vorhandene Schema beibehalten möchten, können Sie es weglassen.

Schema aus dem "CREATE TABLE"-Befehl. Stellen Sie andernfalls sicher, dass

Das Schema passt.

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 420000

Das <tableFeature>-Tabellenfeature kann nicht mit TBLPROPERTIES aktiviert werden. Verwenden Sie CREATE ODER REPLACE TABLE CLUSTER BY, um eine Delta-Tabelle mit Clustering zu erstellen.

DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING

SQLSTATE: 42KD7

Die angegebenen Clusterspalten stimmen nicht mit den vorhandenen Clusterspalten bei <path>überein.

== Angegeben ==

<specifiedColumns>

== Bestehendes ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

SQLSTATE: 42KD7

Die angegebene Partitionierung stimmt nicht mit der vorhandenen Partitionierung bei <path>überein.

== Spezifiziert ==

<specifiedColumns>

== Bestehendes ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE: 42KD7

Die angegebenen Eigenschaften stimmen nicht mit den vorhandenen Eigenschaften bei <path>überein.

== Angegeben ==

<specifiedProperties>

== Bestehendes ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE: 42601

Tabelle kann nicht erstellt werden ('<tableId>'). Der zugeordnete Speicherort ('<tableLocation>') ist nicht leer und auch keine Delta-Tabelle.

DELTA_DATA_CHANGE_FALSE

SQLSTATE: 0AKDE

Tabellenmetadaten können nicht geändert werden, da die Option "dataChange" auf "false" festgelegt ist. Versuchter Vorgang: „<op>“.

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE: 42K03

Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Diese Parquet-Datei kann nach der Datenaufbewahrungsrichtlinie von Delta gelöscht werden.

Standardmäßige Aufbewahrungsdauer für Delta-Daten: <logRetentionPeriod>. Änderungszeit der Parquet-Datei: <modificationTime>. Löschzeit der Parquet-Datei: <deletionTime>. Gelöscht in Delta-Version: <deletionVersion>.

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE: 2D521

Es ist nicht zulässig, Dateien mit Löschvektoren zu übernehmen, denen die NumRecords-Statistik fehlt.

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE: 0A000

Erkannte DomainMetadata-Aktion(en) für Domänen <domainNames>, aber „DomainMetadataTableFeature“ ist nicht aktiviert.

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD8

Index <columnIndex> zum Löschen einer Spalte ist kleiner als 0

DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA

SQLSTATE: 0AKDC

Es kann keine Spalte aus einem Schema mit nur einer Spalte entfernt werden. Schema:

<schema>

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE: 2D521

Dateivorgang '<actionType>' für Pfad <path> wurde mehrmals angegeben.

Dies steht in Konflikt mit <conflictingPath>.

Es ist nicht gültig für mehrere Dateivorgänge mit demselben Pfad, der in einem einzigen Commit vorhanden ist.

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE: 42711

Doppelte Spalten gefunden <coltype>: <duplicateCols>

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE: 42701

In der INSERT-Klausel sind doppelte Spaltennamen vorhanden.

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE: 42701

<message>

Entfernen Sie doppelte Spalten, bevor Sie Die Tabelle aktualisieren.

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE: 42701

Doppelte Spalten für das Überspringen von Daten gefunden: <columns>.

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE: 42601

Interner Fehler: Zwei DomainMetadata-Aktionen innerhalb derselben Transaktion haben dieselbe Domäne <domainName>

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE: 22000

Das Histogramm für die Anzahl gelöschter Datensätze konnte während der Überprüfung der Tabellenintegrität nicht deserialisiert werden.

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE: 0A000

Der Modus für dynamische Partitionsüberschreibvorgänge wird durch Sitzungskonfigurations- oder Schreiboptionen angegeben, ist jedoch durch spark.databricks.delta.dynamicPartitionOverwrite.enabled=falsedeaktiviert.

DELTA_EMPTY_DATA

SQLSTATE: 428GU

Daten, die beim Erstellen der Delta-Tabelle verwendet werden, weisen keine Spalten auf.

DELTA_EMPTY_DIRECTORY

SQLSTATE: 42K03

Keine Datei im Verzeichnis gefunden: <directory>.

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE: 22001

Der Wert "<value>" überschreitet die Einschränkung der Zeichen-/Varchar-Typlänge. Fehlerhafte Prüfung: <expr>.

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE: 22018

Fehler beim Umwandeln des Partitionswerts <value> in <dataType>

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

SQLSTATE: 42703

<newAttributeName> konnte unter den vorhandenen Zielausgabe <targetOutputColumns> nicht gefunden werden

DELTA_FAILED_INFER_SCHEMA

SQLSTATE: 42KD9

Fehler beim Ableiten des Schemas aus der angegebenen Liste von Dateien.

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE: 42KDA

Fehler beim Zusammenführen des Dateischemas <file>:

<schema>

SQLSTATE: KD001

Die Fußzeile der Datei <currentFile> konnte nicht gelesen werden

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE: 42601

Das Prädikat '<predicate>' kann nicht erkannt werden.

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE: KD002

Es wurde ein vollständiger Scan der letzten Version der Delta-Quelle erwartet, aber es wurde eine historischer Scan der Version <historicalVersion> gefunden

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE: 22005

Fehler beim Zusammenführen von Feldern '<currentField>' und '<updateField>'

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE: 0AKDE

Diese Tabelle kann nicht ausgeführt werden, da die folgenden Tabellenfeatures in Metadaten aktiviert sind, aber nicht im Protokoll aufgeführt sind: <features>.

Delta-Funktionen erfordern manuelle Aktivierung

SQLSTATE: 0AKDE

Ihr Tabellenschema erfordert eine manuelle Aktivierung der folgenden Tabellenfeatures: <unsupportedFeatures>.

Führen Sie dazu den folgenden Befehl für jede der oben aufgeführten Features aus:

ALTER TABLE table_name SET TBLPROPERTIES (‘delta.feature.feature_name’ = ‘supported’)

Ersetzen Sie "table_name" und "feature_name" durch reale Werte.

Aktuell unterstützte(s) Feature(s): <supportedFeatures>.

DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION

SQLSTATE: 550000

Die Funktion "Prüfpunktschutz" konnte nicht entfernt werden.

Dieses Feature kann nur durch Abschneiden des Verlaufs getrennt werden.

Versuchen Sie es bitte erneut mit der Option TRUNCATE HISTORY:

ALTER TABLE table_name DROP FEATURE checkpointProtection TRUNCATE HISTORY

DELTA_FEATURE_DROP_CHECKPOINT_FAILED

SQLSTATE: 22KD0

Fehler beim Ablegen <featureName> aufgrund eines Fehlers bei der Erstellung des Prüfpunkts.

Versuchen Sie es später erneut. Wenn das Problem weiterhin besteht, wenden Sie sich an den Databricks-Support.

DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 22KD0

Der Vorgang war nicht erfolgreich, da immer noch Spuren von verworfenen Features vorhanden sind.

im Tabellenverlauf. CheckpointProtection kann erst gelöscht werden, wenn diese historischen

Versionen abgelaufen sind.

Um die CheckpointProtection zu entfernen, warten Sie, bis die historischen Versionen

ablaufen, und wiederholen Sie dann diesen Befehl. Der Aufbewahrungszeitraum für historische Versionen ist

zurzeit für <truncateHistoryLogRetentionPeriod>konfiguriert.

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE: 0AKDE

Die Funktion kann nicht gelöscht werden, weil eine gleichzeitige Transaktion die Tabelle geändert hat.

Versuchen Sie es erneut.

<concurrentCommit>

DELTA_FEATURE_DROP_DEPENDENT_FEATURE

SQLSTATE: 0AKDE

Die Tabellenfunktion <feature> kann nicht entfernt werden, da einige andere Features (<dependentFeatures>) in dieser Tabelle von <feature>abhängen.

Erwägen Sie, sie zuerst zu löschen, bevor Sie dieses Feature ablegen.

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE: 0AKDE

<feature> kann nicht aus dieser Tabelle entfernt werden, da sie derzeit nicht im Protokoll der Tabelle vorhanden ist.

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE: 0AKDE

<feature> kann nicht gelöscht werden, da das Delta-Protokoll historische Versionen enthält, die das Feature verwenden.

Warten Sie, bis der Aufbewahrungszeitraum für den Verlauf (<logRetentionPeriodKey>=<logRetentionPeriod>)

Seitdem das Feature zuletzt aktiv war, ist Zeit vergangen.

Alternativ warten Sie, bis der TRUNCATE HISTORY Aufbewahrungszeitraum abläuft (<truncateHistoryLogRetentionPeriod>)

und führen daraufhin Folgendes aus:

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE: 0AKDE

Für das bestimmte Feature ist keine Verlaufskürzung erforderlich.

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE: 0AKDE

<feature> kann nicht gelöscht werden, da das Ablegen dieses Features nicht unterstützt wird.

Wenden Sie sich bitte an den Databricks-Support.

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE: 0AKDE

<feature> kann nicht entfernt werden, da sie von dieser Databricks-Version nicht unterstützt wird.

Erwägen Sie die Verwendung von Databricks mit einer höheren Version.

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 0AKDE

Das Löschen von <feature> war teilweise erfolgreich.

Das Feature wird jetzt nicht mehr in der aktuellen Version der Tabelle verwendet. Das Feature ist allerdings

in historischen Versionen der Tabelle noch vorhanden. Das Tabellenfeature kann nicht gelöscht werden.

aus dem Tabellenprotokoll gelöscht werden, nachdem diese Verlaufsversionen abgelaufen sind.

Um das Tabellenfeature aus dem Protokoll zu löschen, warten Sie, bis die Verlaufsversionen

ablaufen, und wiederholen Sie dann diesen Befehl. Der Aufbewahrungszeitraum für historische Versionen ist

zurzeit als <logRetentionPeriodKey>=<logRetentionPeriod>konfiguriert.

Alternativ warten Sie, bis der TRUNCATE HISTORY Aufbewahrungszeitraum abläuft (<truncateHistoryLogRetentionPeriod>)

und führen daraufhin Folgendes aus:

ALTER TABLE Tabellenname DROP FEATURE Funktionsname TRUNCATE HISTORY

DELTA_FUNKTION_ERFORDERT_EINE_HÖHERE_LESERVERSION

SQLSTATE: 0AKDE

Das Tabellenfeature <feature> kann nicht aktiviert werden, da es eine höhere Leseprotokollversion (aktuelle <current>) erfordert. Erwägen Sie das Upgrade der Leseprotokollversion der Tabelle auf <required>oder auf eine Version, die Lesetabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>.

DELTA-FUNKTION ERFORDERT HÖHERE SCHREIBER-VERSION

SQLSTATE: 0AKDE

Das Tabellenfeature <feature> kann nicht aktiviert werden, da es eine höhere Writer-Protokollversion (aktuelle <current>) erfordert. Erwägen Sie das Upgrade der Writer-Protokollversion der Tabelle auf <required>oder auf eine Version, die Writer-Tabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>.

DELTA-DATEI_EXISTIERT_BEREITS

SQLSTATE: 42K04

Vorhandener Dateipfad <path>

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE: 42613

Es können nicht sowohl eine Dateiliste als auch eine Musterzeichenfolge angegeben werden.

DELTA_FILE_NOT_FOUND

SQLSTATE: 42K03

Dateipfad <path>

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE: 42K03

Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies geschieht, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE Anweisung zu verwenden. Weitere Informationen finden Sie unter <faqPath>

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE: 42K03

Keine solche Datei oder ein solches Verzeichnis: <path>

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE: 42K03

Die Datei (<path>) zum Umschreiben wurde nicht unter den Kandidatendateien gefunden.

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE: KD003

Es wurde ein MapType gefunden. Um auf den Schlüssel oder Wert eines MapType-Typs zuzugreifen, geben Sie einen an.

eine der folgenden Möglichkeiten an:

<key> oder

<value>

gefolgt vom Namen der Spalte (nur wenn diese Spalte ein Strukturtyp ist).

Beispiel: mymap.key.mykey

Wenn es sich bei der Spalte um einen einfachen Typ handelt, ist mymap.key oder mymap.value ausreichend.

Schema:

<schema>

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Spalte <columnName> weist den Datentyp <columnType> auf und kann nicht auf den Datentyp <dataType> geändert werden, da auf diese Spalte durch die folgenden generierten Spalten verwiesen wird:

<generatedColumns>

DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

Spalten-<columnName> kann nicht geändert werden, da auf diese Spalte durch die folgenden generierten Spalten verwiesen wird:

<generatedColumns>

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE: 42K09

Der Ausdruckstyp der generierten Spalte <columnName> ist <expressionType>, der Spaltentyp ist jedoch <columnType>

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE: 42K09

Spalte <currentName> ist eine generierte Spalte oder eine Spalte, die von einer generierten Spalte verwendet wird. Der Datentyp ist <currentDataType> und kann nicht in Datentyp <updateDataType> umgewandelt werden.

DELTA_GEOSPATIAL_NICHT_UNTERSTÜTZT

SQLSTATE: 0AKDC

Geospatialtypen werden in dieser Version von Delta Lake nicht unterstützt.

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE: KD00E

Die Validierung von IcebergCompatV<version> ist fehlgeschlagen.

Weitere Details finden Sie unter DELTA_ICEBERG_COMPAT_VIOLATION.

DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN wird für IDENTITY-Spalten nicht unterstützt.

DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

ALTER TABLE ALTER COLUMN SYNC IDENTITY wird nur von Delta unterstützt.

DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN SYNC IDENTITY kann nicht für Nicht-IDENTITY-Spalten aufgerufen werden.

DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED

SQLSTATE: 42808

Das Bereitstellen von Werten für GENERATED ALWAYS AS IDENTITY in Spalte <colName> wird nicht unterstützt.

DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

IDENTITY Spaltenschritt darf nicht 0 sein.

DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

IDENTITY Spalten werden nur von Delta unterstützt.

DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED

SQLSTATE: 42601

PARTITIONED BY IDENTITY Spalte <colName> wird nicht unterstützt.

DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE REPLACE COLUMNS wird für eine Tabelle mit IDENTITY-Spalten nicht unterstützt.

DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

DataType-<dataType> wird für IDENTITY Spalten nicht unterstützt.

DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED

SQLSTATE: 42808

UPDATE für IDENTITY-Spalte <colName> wird nicht unterstützt.

DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION

SQLSTATE: 42613

IDENTITY Spalte kann nicht mit einem generierten Spaltenausdruck angegeben werden.

DELTA_ILLEGAL_OPTION

SQLSTATE: 42616

Ungültiger Wert '<input>' für Option '<name>', <explain>

DELTA_ILLEGAL_USAGE

SQLSTATE: 42601

Die Verwendung von <option> ist nicht zulässig, wenn für eine Delta-Tabelle <operation> ausgeführt wird.

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE: 420000

BucketSpec in Delta-Buckettabelle stimmt nicht mit BucketSpec aus den Metadaten überein. Erwartet: <expected>. Aktuell: <actual>.

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE: F0000

(<setKeys>) kann nicht auf unterschiedliche Werte festgelegt werden. Legen Sie nur einen davon fest, oder legen Sie sie auf denselben Wert fest.

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE: KD003

Falscher Zugriff auf einen ArrayType. Verwenden Sie die Position „arrayname.element.elementname“ für das

zu einem Array hinzufügen.

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE: KD003

Ein ArrayType wurde gefunden. Um auf Elemente eines ArrayTyps zuzugreifen, geben Sie Folgendes an.

<rightName> anstelle von <wrongName>.

Schema:

<schema>

DELTA_INCORRECT_GET_CONF

SQLSTATE: 420000

Verwenden Sie getConf() anstelle von "conf.getConf()

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE: 0AKDC

Dieser Fehler tritt in der Regel auf, wenn die LogStore-Standardimplementierung,

HDFSLogStore, verwendet wird, um in eine Delta-Tabelle in einem Nicht-HDFS-Speichersystem zu schreiben.

Um die transaktionsrelevanten ACID-Garantien für Tabellenupdates zu erhalten, müssen Sie die

korrekte Implementierung von LogStore, die für Ihr Speichersystem geeignet ist.

Weitere Informationen finden Sie unter <docLink>.

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE: 42KD8

Der Index <position>zum Ablegen der Spalte ist gleich oder größer als die Strukturlänge: <length>

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE: 42KD8

Index <index> zum Hinzufügen der Spalte <columnName> ist größer als die Strukturlänge: <length>

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 42802

Schreiben in „<tableName>“, <columnName> nicht möglich. Die Zieltabelle hat <numColumns> Spalte(n), aber die eingefügten Daten umfassen <insertColumns> Spalte(n)

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE: 42802

Spalte <columnName> wird in INSERT nicht angegeben.

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE: 22023

Ungültiger automatisch komprimierter Typ: <value>. Zulässige Werte sind: <allowed>.

DELTA_INVALID_BUCKET_COUNT

SQLSTATE: 22023

Ungültige Bucketanzahl: <invalidBucketCount>. Die Bucketanzahl sollte eine positive Zahl, eine Potenz von 2 und mindestens 8 sein. Sie können stattdessen <validBucketCount> verwenden.

DELTA_INVALID_BUCKET_INDEX

SQLSTATE: 22023

Die Bucketspalte in den Partitionsspalten kann nicht gefunden werden.

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE: 2200P

Das Intervall darf nicht null oder leer sein.

DELTA_INVALID_CDC_RANGE

SQLSTATE: 22003

Der CDC-Bereich von Anfang <start> bis Ende <end> war ungültig. Das Ende kann nicht vor dem Start erfolgen.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE: 42K05

Attributname "<columnName>" enthält ungültige Zeichen zwischen " ;;{}()\n\t=". Verwenden Sie zum Umbenennen einen Alias.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE: 42K05

Spaltennamen Ihres Schemas enthalten ungültige Zeichen ( ,;{}()nt=).

Ungültige Spaltennamen: <invalidColumnNames>.

Bitte verwenden Sie andere Zeichen, und versuchen Sie es erneut.

Alternativ können Sie die Spaltenzuordnung aktivieren, um diese Zeichen weiterhin zu verwenden.

DELTA_INVALID_CLONE_PATH

SQLSTATE: 22KD1

Der Zielspeicherort für CLONE muss ein absoluter Pfad oder ein Tabellenname sein. Verwenden Sie einen

absoluten Pfad anstelle von <path>.

DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING

SQLSTATE: 42K05

Spaltennamen Ihres Schemas enthalten ungültige Zeichen ( ,;{}()nt=).

Ungültige Spaltennamen: <invalidColumnNames>.

Die Spaltenzuordnung kann nicht entfernt werden, wenn in den Spaltennamen ungültige Zeichen vorhanden sind.

Benennen Sie die Spalten um, um die ungültigen Zeichen zu entfernen, und führen Sie diesen Befehl erneut aus.

DELTA_INVALID_FORMAT

SQLSTATE: 22000

Inkompatibles Format erkannt.

Ein Transaktionsprotokoll für Delta wurde unter <deltaRootPath>/_delta_log gefunden',

aber Sie versuchen <operation> <path> mithilfe von format(“<format>”). Sie müssen

„format(“delta”)“ beim Lesen und Schreiben in eine Delta-Tabelle verwenden.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE: 42621

Eine generierte Spalte darf keine nicht vorhandene oder andere generierte Spalte verwenden.

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE: 42616

Ungültige Optionen für idempotente Dataframe-Schreibvorgänge: <reason>

DELTA_INVALID_INTERVAL

SQLSTATE: 22006

<interval> ist keine gültige INTERVAL.

DELTA_INVALID_INVENTORY_SCHEMA

SQLSTATE: 420000

Das Schema für die angegebene INVENTORY enthält nicht alle erforderlichen Felder. Erforderliche Felder sind: <expectedSchema>

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE: 25000

ungültige Isolationsstufe '<isolationLevel>'

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE: F0000

(<classConfig>) und (<schemeConfig>) können nicht gleichzeitig festgelegt werden. Bitte legen Sie nur eine Gruppe davon fest.

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE: 420000

Sie versuchen, eine verwaltete Tabelle <tableName>

mit Delta zu erstellen, aber das Schema wurde nicht angegeben.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE: 42996

<columnName> ist keine gültige Partitionsspalte in tabelle <tableName>.

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE: 42996

Partitionsspalten mit ungültigen Zeichen unter „ ,;{}()nt=“ gefunden. Ändern Sie den Namen in Ihre Partitionsspalten. Diese Überprüfung kann deaktiviert werden, indem spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) festgelegt wird, dies wird jedoch nicht empfohlen, da andere Features von Delta möglicherweise nicht ordnungsgemäß funktionieren.

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE: 42996

Die Verwendung von Spalte <name> vom Typ <dataType> als Partitionsspalte wird nicht unterstützt.

DELTA_INVALID_PARTITION_PATH

SQLSTATE: 22KD1

Ein Partitionspfadfragment sollte das Format wie part1=foo/part2=barsein. Der Partitionspfad: <path>

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE: KD004

Die Protokollversion kann nicht von <oldProtocol> auf <newProtocol> herabgestuft werden.

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE: KD004

Nicht unterstützte Delta-Protokollversion: Tabelle "<tableNameOrPath>" erfordert Leseversion <readerRequired> und Writer-Version <writerRequired>, aber diese Version von Databricks unterstützt Leseversionen <supportedReaders> und Writer-Versionen <supportedWriters>. Aktualisieren Sie bitte auf eine neuere Version.

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE: 22000

Die Funktion <function> ist eine nicht unterstützte Tabellenwertfunktion für CDC-Lesevorgänge.

DELTA_INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22007

Der angegebene Zeitstempel <timestamp> stimmt nicht mit der erwarteten Syntax <format>überein.

DELTA_LOG_ALREADY_EXISTS

SQLSTATE: 42K04

Bei <path> ist bereits ein Delta-Protokoll vorhanden.

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE: 42K03

Wenn Sie sie nie gelöscht haben, liegt ihre Abfrage wahrscheinlich hinterher. Löschen Sie den Prüfpunkt, um von Grund auf neu zu starten. Um dies zu vermeiden, können Sie die Speicherrichtlinie Ihrer Delta-Tabelle aktualisieren.

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE: 22000

Materialisierter Spaltenname für <rowTrackingColumn> fehlt für <tableName>.

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE: 420000

Bitte verwenden Sie einen Grenzwert kleiner als Int.MaxValue - 8.

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE: 40000

Dieser Commit ist fehlgeschlagen, da es <numAttempts> Mal versucht wurde, aber nicht erfolgreich war.

Dies kann dadurch verursacht werden, dass für die Delta-Tabelle kontinuierlich viele gleichzeitige

Commits ausgeführt werden.

Commit gestartet bei Version <startVersion>

Commit mit Fehler abgebrochen bei Version <failVersion>

Anzahl der Aktionen, die einen Commit versucht haben: <numActions>

Gesamtzeit für den Versuch dieses Commits: <timeSpent> ms

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE: 420000

Die Dateiliste darf höchstens <maxFileListSize> Einträge haben, hatte aber <numFiles>.

DELTA_MERGE_ADD_VOID_COLUMN

SQLSTATE: 42K09

Es kann keine Spalte <newColumn> mit dem Typ VOID hinzugefügt werden. Bitte geben Sie explizit einen anderen als den void-Typ an.

DELTA_MERGE_NICHT_KOMPATIBLER_DATENTYP

SQLSTATE: 42K09

Fehler beim Zusammenführen von inkompatiblen Datentypen <currentDataType> und <updateDataType>

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE: 42806

Fehler beim Zusammenführen von Dezimaltypen mit inkompatiblen <decimalRanges>

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE: 25000

Die Quelle der MERGE-Anweisung materialisiert beizubehalten ist wiederholt fehlgeschlagen.

DELTA_MERGE_MISSING_WHEN

SQLSTATE: 42601

Es muss mindestens eine WHEN-Klausel in einer MERGE-Anweisung vorhanden sein.

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE: 42601

Aufgelöste Attribute <missingAttributes> fehlen in <input> im <merge>-Operator.

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE: 22005

Unerwarteter Zuordnungsschlüssel: <unexpectedKeyClass> - <unexpectedKeyObject>

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE: 42601

<sqlExpr> kann in <clause> mit <cols> nicht aufgelöst werden.

DELTA_METADATA_CHANGED

SQLSTATE: 2D521

MetadataChangedException: Die Metadaten der Delta-Tabelle wurden durch ein gleichzeitiges Update geändert. Versuchen Sie es erneut.<conflictingCommit>

DELTA_MISSING_CHANGE_DATA

SQLSTATE: KD002

Fehler beim Abrufen von Änderungsdaten für den Bereich [<startVersion> , <endVersion>], da Änderungsdaten nicht verfügbar waren.

für Version [<version>] nicht aufgezeichnet wurden. Wenn Sie den Änderungs-Feed für diese Tabelle aktiviert haben,

verwenden Sie DESCRIBE HISTORY, um zu sehen, wann sie zum ersten Mal aktiviert wurde.

Verwenden Sie andernfalls zum Starten der Aufzeichnung von Änderungsdaten ALTER TABLE' table_name SET TBLPROPERTIES

(<key>=true)`.

DELTA_MISSING_COLUMN

SQLSTATE: 42703

Kann <columnName> nicht in den Tabellenspalten finden: <columnList>

DELTA_MISSING_COMMIT_INFO

SQLSTATE: KD004

Diese Tabelle verfügt über das Feature <featureName> aktiviert, das das Vorhandensein der CommitInfo-Aktion in jedem Commit erfordert. Die CommitInfo-Aktion fehlt jedoch in der Commit-Version <version>.

DELTA_MISSING_COMMIT_TIMESTAMP

SQLSTATE: KD004

Diese Tabelle verfügt über das Feature <featureName> aktiviert, das das Vorhandensein von commitTimestamp in der CommitInfo-Aktion erfordert. Dieses Feld wurde jedoch nicht in commit-Version <version>festgelegt.

DELTA_MISSING_DELTA_TABLE

SQLSTATE: 42P01

<tableName> ist keine Delta-Tabelle.

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE: 42P01

Tabelle ist nicht vorhanden. Erstellen Sie zuerst eine leere Delta-Tabelle mit CREATE TABLE <tableName>.

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE: 56038

Die Iceberg-Klasse wurde nicht gefunden. Bitte stellen Sie sicher, dass die Delta Iceberg-Unterstützung installiert ist.

Weitere Informationen finden Sie unter <docLink>.

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE: 23502

Spalte <columnName>, die eine NOT NULL Einschränkung aufweist, fehlt in den Daten, die in die Tabelle geschrieben werden.

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE: 42KD6

Partitionsspalte <columnName> in Schema-<columnList> nicht gefunden

DELTA_MISSING_PART_FILES

SQLSTATE: 42KD6

Alle Teildateien der Prüfpunktversion konnten nicht gefunden werden: <version>

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE: 0AKDC

CONVERT TO DELTA unterstützt nur Parquet-Tabellen. Schreiben Sie Ihr Ziel als parquet.`<path>` um, wenn es sich um ein Parquet-Verzeichnis handelt.

DELTA_MISSING_SET_COLUMN

SQLSTATE: 42703

SET-Spalte <columnName> wurde in den angegebenen Spalten nicht gefunden: <columnList>.

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE: 420000

Inkompatibles Format erkannt.

Sie versuchen die Ausführung von <operation> <path> mit Delta, aber es ist kein

Transaktionsprotokoll vorhanden. Überprüfen Sie den Upstreamauftrag, um sicherzustellen, dass er

„format("delta")“ verwendet und dass Sie versuchen, %1$s auf den Basispfad der Tabelle anzuwenden.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_MODE_NOT_SUPPORTED

SQLSTATE: 0AKDC

Der angegebene Modus '<mode>' wird nicht unterstützt. Unterstützte Modi sind: <supportedModes>

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE: 42614

Mehrere <startingOrEnding>-Argumente für CDC-Lesevorgang bereitgestellt. Bitte geben Sie entweder einen <startingOrEnding>Zeitstempel oder eine <startingOrEnding>Version an.

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 42614

Es wurden mehrere Bloom-Filterindexkonfigurationen an den Befehl für Spalte <columnName> übergeben:

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE: 21506

Die Zusammenführung konnte nicht durchgeführt werden, da mehrere Quellzeilen übereinstimmen und dieselbe

Zielreihe in der Delta-Tabelle auf möglicherweise widersprüchliche Weise zu ändern versuchten. Gemäß der SQL-Semantik von „MERGE“

Wenn mehrere Quellzeilen in derselben Zielzeile übereinstimmen, kann das Ergebnis mehrdeutig sein.

da unklar ist, welche Quellzeile verwendet werden soll, um den Abgleich zu aktualisieren oder zu löschen

Zielreihe verwendet werden soll. Sie können die Quelltabelle vorverarbeiten, um die Möglichkeit

mehrerer Übereinstimmungen auszuschließen. Informationen zu den nächsten Schritten finden Sie im Abschnitt

<usageReference>

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND

SQLSTATE: 42616

Während <command> werden entweder beide Konfigurationen der koordinierten Commits ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") im Befehl festgelegt oder keine davon. Fehlt: "<configuration>". Geben Sie diese Konfiguration in der TBLPROPERTIES-Klausel an, oder entfernen Sie die andere Konfiguration, und wiederholen Sie dann den Befehl erneut.

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION

SQLSTATE: 42616

Während <command> werden entweder beide Konfigurationen der koordinierten Commits ("coordinatedCommits.commitCoordinator-preview”, “coordinatedCommits.commitCoordinatorConf-preview") in den SparkSession-Konfigurationen oder keine davon. Fehlt: "<configuration>". Legen Sie diese Konfiguration in der SparkSession fest, oder deaktivieren Sie die andere Konfiguration, und wiederholen Sie dann den Befehl erneut.

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE: 420000

Die folgenden Spaltennamen sind nur für die interne Verwendung der delta-zusammengefassten Tabelle reserviert: <names>

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE: 42K05

Das Eingabeschema enthält geschachtelte Felder, die anders großgeschrieben sind als die Zieltabelle.

Sie müssen umbenannt werden, um den Verlust von Daten in diesen Feldern beim Schreiben in Delta zu vermeiden.

Felder:

<fields>.

Ursprüngliches Schema:

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE: 0AKDC

Der <nestType> Typ des Felds <parent> enthält eine NOT NULL Einschränkung. Delta unterstützt keine NOT NULL-Einschränkungen, die in Arrays oder Maps geschachtelt sind. Um diesen Fehler zu unterdrücken und die angegebenen Einschränkungen stillschweigend zu ignorieren, setzen Sie <configKey> = true.

Geparster <nestType>-Typ:

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

Geschachtelte Unterabfragen werden in der <operation>-Bedingung nicht unterstützt.

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE: 23512

<numRows> Zeilen in <tableName> verstoßen gegen die neue CHECK-Einschränkung (<checkConstraint>)

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE: 23512

<numRows> Zeilen in <tableName> verstoßen gegen die neue NOT NULL Einschränkung für <colName>

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE: 42621

CHECK Einschränkung '<name>' (<expr>) sollte ein boolescher Ausdruck sein.

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN

SQLSTATE: 42621

Es wurde <expr> gefunden. Eine generierte Spalte kann keinen nicht deterministischen Ausdruck verwenden.

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE: 0AKDC

Nicht deterministische Funktionen werden in der <operation> <expression> nicht unterstützt.

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Wenn eine MATCHED-Anweisung mehr als eine MERGE-Klausel enthält, darf nur die letzte MATCHED-Klausel die Bedingung auslassen.

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Wenn es in einer MERGE-Anweisung mehr als eine NOT MATCHED BY SOURCE-Klausel gibt, kann nur die letzte NOT MATCHED BY SOURCE-Klausel auf die Bedingung verzichten.

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Wenn in einer MERGE-Anweisung mehr als eine NOT MATCHED-Klausel vorhanden ist, kann nur die letzte NOT MATCHED-Klausel auf die Bedingung verzichten.

DELTA_NON_PARSABLE_TAG

SQLSTATE: 42601

Tag <tag>konnte nicht analysiert werden.

Dateitags sind: <tagList>

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE: KD005

In Delta geschriebene Daten müssen mindestens eine nicht partitionierte Spalte enthalten.<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE: 42P10

Prädikat verweist auf nicht partitionierte Spalte '<columnName>'. Nur auf die Partitionsspalten kann verwiesen werden: [<columnList>]

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE: 42P10

Nicht partitionierende Spalten <columnList> werden angegeben, wobei nur Partitionierungsspalten erwartet werden: <fragment>.

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE: 42K05

Der Delta-Katalog erfordert einen einzelteiligen Namespace, aber <identifier> ist mehrteilig.

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

Das Festlegen des Commit-Koordinators auf „<nonUcCoordinatorName>“ über einen Befehl wird nicht unterstützt, da UC-verwaltete Tabellen nur „unity-catalog“ als Commit-Koordinator haben können. Ändern Sie sie entweder in "unity-catalog", oder entfernen Sie alle Coordinated Commits-Tabelleneigenschaften aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

Das Einstellen des Commit-Koordinators auf "<nonUcCoordinatorName>" aus den SparkSession-Konfigurationen wird nicht unterstützt, da von UC verwaltete Tabellen nur "unity-catalog" als Commit-Koordinator haben können. Ändern Sie sie entweder in "unity-catalog", indem Sie spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")ausführen, oder entfernen Sie alle "Coordinated Commits"-Tabelleneigenschaften aus den SparkSession-Konfigurationen, indem Sie spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>")ausführen und dann den Befehl erneut wiederholen.

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE: 420000

<table> ist keine Delta-Tabelle. Löschen Sie bitte zuerst diese Tabelle, wenn Sie sie mit Databricks Delta erstellen möchten.

DELTA_NOT_A_DELTA_TABLE

SQLSTATE: 0AKDD

<tableName> ist keine Delta-Tabelle. Bitte legen Sie diese Tabelle zuerst ab, wenn Sie sie mit Delta Lake neu erstellen möchten.

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE: 42K09

Eine Spalte, die keine Nullwerte zulässt, wurde in der Struktur gefunden: <struct>

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE: 23502

Verstoß gegeben NOT NULL-Einschränkung für Spalte: <columnName>.

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE: 0A000

Ein nicht-nullfähiges verschachteltes Feld kann nicht zu einem nullfähigen übergeordneten Element hinzugefügt werden. Legen Sie die Nullierbarkeit der übergeordneten Spalte entsprechend fest.

DELTA_NO_COMMITS_FOUND

SQLSTATE: KD006

Keine Commits gefunden bei <logPath>

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE: KD006

Keine wiederherstellbaren Commits gefunden bei <logPath>

DELTA_NO_REDIRECT_RULES_VIOLATED

SQLSTATE: 42P01

Vorgang nicht zulässig: <operation> kann für eine Tabelle mit Umleitungsfunktion nicht ausgeführt werden.

Die Regeln für keine Umleitung werden nicht erfüllt <noRedirectRules>.

DELTA_NO_RELATION_TABLE

SQLSTATE: 42P01

Tabelle <tableIdent> nicht gefunden

DELTA_NO_START_FOR_CDC_READ

SQLSTATE: 42601

Weder „startingVersion“ noch „startTimestamp“ für CDC-Lesezugriff bereitgestellt.

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE: 42P18

Delta akzeptiert nullTypes im Schema für Streaming-Schreibvorgänge nicht.

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE: 42601

Geben Sie entweder "timestampAsOf" oder "versionAsOf" für Zeitreisen an.

DELTA_ONLY_OPERATION

SQLSTATE: 0AKDD

<operation> wird nur für Delta-Tabellen unterstützt.

DELTA_OPERATION_MISSING_PATH

SQLSTATE: 42601

Geben Sie den Pfad oder die Tabellen-ID für <operation>an.

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE: 0AKDC

Vorgang nicht zulässig: <operation> wird für Delta-Tabellen nicht unterstützt.

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE: 0AKDC

Vorgang nicht zulässig: <operation> wird für Delta-Tabellen nicht unterstützt: <tableName>

DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> wird für Spalte <colName> mit nicht standardmäßiger Sortierung <collation> nicht unterstützt.

DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> wird für Ausdrücke <exprText> nicht unterstützt, da sie nicht standardmäßige Sortierung verwendet.

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE: 0A000

Der <operation>-Befehl, der sich auf eine temporäre Ansicht bezieht und auf eine Delta-Tabelle mit generierten Spalten verweist, wird nicht unterstützt. Führen Sie den Befehl <operation> direkt in der Delta-Tabelle aus.

DELTA_OPERATION_ON_VIEW_NOT_ALLOWED

SQLSTATE: 0AKDC

Vorgang nicht zulässig: <operation> kann nicht auf einer Ansicht ausgeführt werden.

DELTA_OPTIMIZE_FULL_NOT_SUPPORTED

SQLSTATE: 42601

OPTIMIZE FULL wird nur für gruppierte Tabellen mit nicht leeren Clusterspalten unterstützt.

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE: 420000

Die Kopieroption „overwriteSchema“ kann nicht angegeben werden, ohne OVERWRITE = ‘true’ festzulegen.

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

'overwriteSchema' kann im Modus der dynamischen Partitionsüberschreibung nicht verwendet werden.

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE: 22525

Fehler beim Umwandeln des Werts <value> in <dataType> für Partitionsspalte <columnName>

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE: 42703

Partitionsspalte <columnName> im Schema nicht gefunden [<schemaMap>]

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE: 42613

Das Partitionsschema kann beim Konvertieren von Iceberg-Tabellen nicht angegeben werden. Sie wird automatisch abgeleitet.

DELTA_PFAD_EXISTIERT_NICHT

SQLSTATE: 42K03

<path> ist nicht vorhanden oder keine Delta-Tabelle.

DELTA_PATH_EXISTS

SQLSTATE: 42K04

Es kann nicht in den bereits vorhandenen Pfad <path> geschrieben werden, ohne OVERWRITE = ‘true’ festzulegen.

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE: 2DKD0

Das Committen in der Delta-Tabellenversion <version> war erfolgreich, beim Ausführen des Hooks <name> <message> nach dem Commit ist jedoch ein Fehler aufgetreten

DELTA_PROTOKOLL_GEÄNDERT

SQLSTATE: 2D521

ProtocolChangedException: Die Protokollversion der Delta-Tabelle wurde durch ein gleichzeitiges Update geändert. <additionalInfo> <conflictingCommit>

Weitere Informationen finden Sie unter <docLink>.

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE: 42K06

Die Protokolleigenschaft <key> muss eine ganze Zahl sein. <value> gefunden

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE: KD004

Es ist nicht möglich, nur die Version des Leseprotokolls zu aktualisieren, um Tabellenfunktionen zu verwenden. Die Writer-Protokollversion muss mindestens <writerVersion> sein, um fortzufahren. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>.

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE: 428GU

Sie versuchen, eine Delta-Tabelle <tableName> zu lesen, die keine Spalten enthält.

Schreiben Sie einige neue Daten mit der Option mergeSchema = true, um die Tabelle lesen zu können.

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE: 2201B

Überprüfen Sie ihre Syntax erneut auf '<regExpOption>'

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE: 42613

Sie können „replaceWhere“ nicht in Verbindung mit einer Überschreibung durch einen Filter verwenden.

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE: 440000

Die geschriebenen Daten entsprechen nicht der Bedingung zum Überschreiben der partiellen Tabelle oder der Einschränkung „<replaceWhere>“.

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

Ein „replaceWhere“-Ausdruck und „partitionOverwriteMode’=’dynamic“ können nicht beide in den DataFrameWriter-Optionen festgelegt werden.

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE: 42613

'replaceWhere' kann nicht mit Datenfiltern verwendet werden, wenn 'dataChange' auf "false" festgelegt ist. Filter: <dataFilters>

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE: 22000

Zeilen-IDs ohne Zeilenzählungsstatistiken können nicht zugewiesen werden.

Collect statistics for the table by running the following code in a Scala notebook and retry:

import com.databricks.sql.transaction.tahoe.DeltaLog

import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection

import org.apache.spark.sql.catalyst.TableIdentifier

val log = DeltaLog.forTable(spark, TableIdentifier(table_name))

StatisticsCollection.recompute(spark, log)

DELTA_SCHEMA_CHANGED

SQLSTATE: KD007

Schemaänderung erkannt:

Streamingquellenschema: <readSchema>

Datendateischema: <dataSchema>

Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne

dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre

Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE: KD007

Schemaänderung in version <version>erkannt:

Streamingquellenschema: <readSchema>

Datendateischema: <dataSchema>

Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne

dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre

Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten. Wenn das Problem weiterhin besteht,

Wenn Sie zu einem neuen Prüfpunktverzeichnis wechseln, müssen Sie möglicherweise das vorhandene Prüfpunktverzeichnis ändern.

Option für „startingVersion“ oder „startingTimestamp“ ändern, um ab einer neueren Version als

<version> mit einem neuen Prüfpunktverzeichnis.

DELTA_SCHEMA_CHANGED_WITH_VERSION

SQLSTATE: KD007

Schemaänderung in version <version>erkannt:

Streamingquellenschema: <readSchema>

Datendateischema: <dataSchema>

Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne

dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre

Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE: KD007

Das Schema Ihrer Delta-Tabelle hat sich auf inkompatible Weise geändert, nachdem Ihr DataFrame erstellt wurde.

oder ein DeltaTable-Objekt wurde erstellt. Bitte definieren Sie Das DataFrame- oder DeltaTable-Objekt neu.

Änderungen:

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

Das Tabellenschema wird nicht bereitgestellt. Geben Sie das Schema (Spaltendefinition) der Tabelle an, wenn Sie REPLACE Tabelle verwenden und eine AS-SELECT Abfrage nicht bereitgestellt wird.

DELTA_SCHEMA_NOT_SET

SQLSTATE: KD008

Das Tabellenschema ist nicht festgelegt. Schreiben Sie Daten in das Schema, oder verwenden Sie CREATE TABLE, um das Schema festzulegen.

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE: 42KD7

Das Schema des neuen Delta-Standorts unterscheidet sich vom aktuellen Tabellenschema.

ursprüngliches Schema:

<original>

Zielschema:

<destination>

Wenn dies eine beabsichtigte Änderung ist, können Sie diese Überprüfung deaktivieren, indem Sie Folgendes ausführen:

%%sql festlegen <config> = wahr

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE: 42K03

Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies kann auftreten, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE Anweisung zu verwenden. Diese Tabelle scheint ein flacher Klon zu sein, wenn dies der Fall ist, kann dieser Fehler auftreten, wenn die ursprüngliche Tabelle, aus der diese Tabelle geklont wurde, eine Datei gelöscht hat, die der Klon noch verwendet. Wenn Klonen unabhängig von der ursprünglichen Tabelle sein sollen, verwenden Sie stattdessen einen DEEP-Klon.

DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY

SQLSTATE: 42939

Vordefinierte Eigenschaften, die mit <prefix> beginnen, können nicht geändert werden.

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE: 42704

Die Daten werden durch die Empfängereigenschaft <property> eingeschränkt, die nicht für den aktuellen Empfänger in der Sitzung gelten.

Weitere Details finden Sie unter DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED.

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE: 42887

<operation> kann nicht in Delta-Sharing-Ansichten verwendet werden, die kontoübergreifend freigegeben sind.

DELTA_SHARING_INVALID_PROVIDER_AUTH

SQLSTATE: 280000

Ungültiger Authentifizierungstyp <authenticationType> für Anbieter <provider>.

DELTA_SHARING_INVALID_RECIPIENT_AUTH

SQLSTATE: 280000

Ungültiger Authentifizierungstyp <authenticationType> für empfänger <recipient>.

DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

Ungültiger Name, um in einer Freigabe auf <type> zu verweisen. Sie können entweder den Namen von <type> innerhalb der Freigabe im Format [Schema].[<type>] verwenden oder den vollständigen Namen der Tabelle im Format [Katalog].[Schema].[>Typ>] verwenden.

Wenn Sie sich nicht sicher sind, welchen Namen Sie verwenden sollen, können Sie „SHOW ALL IN SHARE [Freigabe]“ ausführen und den Namen des zu entfernenden <type> ermitteln: Spalte „name“ ist der Name von <type> innerhalb der Freigabe, und Spalte „shared_object“ ist der ursprüngliche vollständige Name von <type>.

DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED

SQLSTATE: 540000

Es gibt mehr als zwei Token für Empfänger <recipient>.

DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND

SQLSTATE: 42704

Empfängereigenschaft <property> ist nicht vorhanden.

DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND

SQLSTATE: 42704

Empfängertoken fehlen für Empfänger<recipient>.

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE: 42P10

Nicht partitionierende Spalten <badCols> werden für SHOW PARTITIONS angegeben.

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE: 42809

SHOW PARTITIONS ist für eine Nicht partitionierte Tabelle nicht zulässig: <tableName>

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE: 0A000

Es wurden gelöschte Daten (z. B. <removedFile>) in der Streamingquelle der Version <version> erkannt. Dies wird derzeit nicht unterstützt. Wenn Sie Löschlöschungen ignorieren möchten, legen Sie die Option "ignoreDeletes" auf "true" fest. Die Quelltabelle finden Sie unter Pfad <dataPath>.

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE: 0A000

Es wurde ein Datenupdate (z. B. <file>) in der Quelltabelle in version <version>erkannt. Dies wird derzeit nicht unterstützt. Wenn dies regelmäßig vorkommt und Sie damit einverstanden sind, Änderungen zu überspringen, legen Sie die Option "skipChangeCommits" auf "true" fest. Wenn die Datenaktualisierung berücksichtigt werden soll, starten Sie diese Abfrage mit einem neuen Prüfpunktverzeichnis neu oder führen Sie eine vollständige Aktualisierung durch, wenn Sie DLT verwenden. Wenn Sie diese Änderungen bearbeiten müssen, wechseln Sie bitte zu MVs. Die Quelltabelle finden Sie unter Pfad <dataPath>.

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE: 42613

Geben Sie entweder "<version>" oder "<timestamp>" an.

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE: 420000

<statsType>-Statistik für Spalte in Parquet-Metadaten <columnPath> wurde nicht gefunden: .

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE: KD002

Wir haben eine oder mehrere nicht additive Schemaänderungen (<opType>) zwischen Delta-Version <previousSchemaChangeVersion> und <currentSchemaChangeVersion> in der Delta-Streamingquelle erkannt.

Überprüfen Sie, ob Sie diese Schemaänderungen manuell an die Senkentabelle weitergeben möchten, bevor wir mit der Streamverarbeitung mithilfe des endgültigen Schemas unter <currentSchemaChangeVersion> fortfahren.

Nachdem Sie das Schema der Senkentabelle behoben oder entschieden haben, dass keine Korrektur erforderlich ist, können Sie (eine der folgenden SQL-Konfigurationen) festlegen, um die Blockierung der nicht-additiven Schemaänderungen aufzuheben und die Datenstromverarbeitung fortzusetzen.

Um die Blockierung für diesen bestimmten Datenstrom nur für diese Reihe von Schemaänderungen aufzuheben: legen Sie <allowCkptVerKey> = <allowCkptVerValue>fest.

So heben Sie die Blockierung für diesen bestimmten Datenstrom auf: setzen Sie auf <allowCkptKey> = <allowCkptValue>

Um die Blockierung für alle Streams aufzuheben: legen Sie <allowAllKey> = <allowAllValue> fest.

Alternativ können Sie die <allowAllMode> durch <opSpecificMode> in der SQL conf ersetzen, um die Blockierung des Datenstroms nur für diesen Schemaänderungstyp aufzuheben.

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE: KD002

Fehler beim Abrufen einer Delta-Protokollmomentaufnahme für die Startversion, als Schemaänderungen der Spaltenzuordnung überprüft wurden. Wählen Sie eine andere Startversion aus, oder erzwingen Sie die Aktivierung des Streaming-Lesevorgangs auf eigene Gefahr, indem Sie "<config>" auf "true" festlegen.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 42KD4

Streaminglesevorgänge werden für Tabellen mit leseinkompatiblen Schemaänderungen (z. B. Umbenennen, Löschen oder Datentypänderungen) nicht unterstützt.

Weitere Informationen und mögliche nächste Schritte zur Behebung dieses Problems finden Sie in der Dokumentation unter <docLink>

Leseschema: <readSchema>. Inkompatibles Datenschema: <incompatibleSchema>.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE: 42KD4

Lesen im Streaming-Modus wird bei Tabellen mit nicht kompatiblen Schemaänderungen (wie Umbenennung, Löschen oder Änderung des Datentyps) nicht unterstützt.

Stellen Sie eine 'schemaTrackingLocation' bereit, um die nicht-additive Schemaentwicklung für die Delta-Datenstromverarbeitung zu ermöglichen.

Weitere Informationen finden Sie unter <docLink>.

Leseschema: <readSchema>. Inkompatibles Datenschema: <incompatibleSchema>.

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE: 22000

Das Schema, die Tabellenkonfiguration oder das Protokoll Ihrer Delta-Tabelle wurde während des Streamings geändert.

Das Schema- oder Metadatenverfolgungsprotokoll wurde aktualisiert.

Starten Sie den Datenstrom neu, um die Verarbeitung mithilfe der aktualisierten Metadaten fortzusetzen.

Aktualisiertes Schema: <schema>.

Aktualisierte Tabellenkonfigurationen: <config>.

Aktualisiertes Tabellenprotokoll: <protocol>

DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS

SQLSTATE: 22000

Das Streamen aus der Quelltabelle <tableId> mit Schemanachverfolgung unterstützt keine Zeilenfilter oder Spaltenmasken.

Legen Sie die Zeilenfilter oder Spaltenmasken ab, oder deaktivieren Sie die Schemanachverfolgung.

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE: 22000

Es wurde ein Konflikt mit dem Schemaspeicherort „<loc>“ beim Streaming aus der Tabelle oder der Tabelle unter „<table>“ entdeckt.

Ein anderer Datenstrom kann denselben Schemaspeicherort wiederverwenden, der nicht zulässig ist.

Geben Sie einen neuen eindeutigen schemaTrackingLocation Pfad oder streamingSourceTrackingId als Leseoption für einen der Datenströme aus dieser Tabelle an.

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE: 22000

Der Schemaspeicherort „<schemaTrackingLocation>“ muss unter dem Prüfpunktspeicherort „<checkpointLocation>“ platziert werden.

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE: 22000

Unvollständige Protokolldatei im Delta-Streamingquellschemaprotokoll unter '<location>'.

Möglicherweise wurde das Schemaprotokoll beschädigt. Wählen Sie einen neuen Schemaspeicherort aus.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE: 22000

Eine inkompatible Delta-Tabellen-ID wurde erkannt, als versucht wurde, den Delta-Datenstrom zu lesen.

Persistente Tabellen-ID: <persistedId>, Tabellen-ID: <tableId>

Möglicherweise wurde das Schemaprotokoll wiederverwendet. Wählen Sie einen neuen Schemaspeicherort aus.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE: 22000

Es wurde ein inkompatibles Partitionsschema beim Lesen des Delta-Datenstroms erkannt.

Beibehaltenes Schema: <persistedSchema>, Delta-Partitionsschema: <partitionSchema>

Wählen Sie einen neuen Schemaspeicherort aus, um das Schemaprotokoll erneut zu initialisieren, wenn Sie das Partitionsschema der Tabelle kürzlich manuell geändert haben.

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE: 22000

Wir konnten das Delta-Streamingquellschemaprotokoll nicht initialisieren, da

beim Bereitstellen eines Streamingbatches von der Tabellenversion <a> zu <b>eine inkompatible Schema- oder Protokolländerung erkannt wurde.

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE: 22000

Fehler beim Analysieren des Schemas aus dem Delta-Streamingquellschemaprotokoll.

Möglicherweise wurde das Schemaprotokoll beschädigt. Wählen Sie einen neuen Schemaspeicherort aus.

DELTA-TABELLE ENTHÄLT BEREITS CDC-SPALTEN

SQLSTATE: 42711

Die Änderungsdatenerfassung kann in der Tabelle nicht aktiviert werden. Die Tabelle enthält bereits

reservierte Spalten <columnList>, die

intern als Metadaten für den Änderungsdatenfeed der Tabelle verwendet werden. Um

Ändern Sie den Datenfluss in der Tabelle, wenn Sie diese Spalten umbenennen oder löschen.

DELTA-TABELLE_EXISTIERT_BEREITS

SQLSTATE: 42P07

Tabelle <tableName> ist bereits vorhanden.

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE: 0AKDC

Derzeit unterstützt DeltaTable.forPath nur Hadoop-Konfigurationsschlüssel, die mit <allowedPrefixes> beginnen, erhielt jedoch <unsupportedOptions>.

DELTA_TABLE_ID_MISMATCH

SQLSTATE: KD007

Die Delta-Tabelle bei <tableLocation> wurde ersetzt, während dieser Befehl die Tabelle verwendet hat.

Die Tabellen-ID war <oldId>, ist aber jetzt <newId>.

Wiederholen Sie den aktuellen Befehl, um sicherzustellen, dass er eine konsistente Ansicht der Tabelle liest.

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE: 42613

Die Position der vorhandenen Tabelle <tableName> ist <existingTableLocation>. Sie stimmt nicht mit der angegebenen Position <tableLocation>überein.

DELTA-TABELLE NICHT GEFUNDEN

SQLSTATE: 42P01

Die Delta-Tabelle <tableName> ist nicht vorhanden.

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE: 42809

Tabelle wird in <operation> nicht unterstützt. Verwenden Sie stattdessen einen Pfad.

DELTA_TABLE_ONLY_OPERATION

SQLSTATE: 0AKDD

<tableName> ist keine Delta-Tabelle. <operation> wird nur für Delta-Tabellen unterstützt.

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE: 428GU

Das endgültige Schema der Zieltabelle ist leer.

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE: 42816

Der bereitgestellte Zeitstempel (<providedTimestamp>) liegt nach der aktuellen Version, die verfügbar ist für diese

Tabelle (<tableName>). Bitte verwenden Sie einen Zeitstempel bis einschließlich <maximumTimestamp>.

DELTA_TIMESTAMP_INVALID

SQLSTATE: 42816

Der angegebene Zeitstempel (<expr>) kann nicht in einen gültigen Zeitstempel konvertiert werden.

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE: 42604

<timeTravelKey> muss ein gültiger Anfangswert sein.

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE: 42K03

<path>: Der Zustand kann in der Version <version> nicht rekonstruiert werden, da das Transaktionsprotokoll aufgrund der manuellen Löschung oder der Protokollaufbewahrungsrichtlinie (<logRetentionKey>=<logRetention>) und der Prüfpunktaufbewahrungsrichtlinie (<checkpointRetentionKey>=<checkpointRetention>) abgeschnitten wurde.

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE: 0AKDC

Vorgang nicht zulässig: TRUNCATE TABLE in Delta-Tabellen unterstützt keine Partitions-Prädikate; verwenden Sie DELETE, um bestimmte Partitionen oder Zeilen zu löschen.

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE: 42621

Es wurde <udfExpr> gefunden. Eine generierte Spalte kann keine benutzerdefinierte Funktion verwenden.

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE: 42601

Unerwarteter Aktionsausdruck <expression>.

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE: KD009

Es werden die <expectedColsSize>-Partitionsspalten <expectedCols> erwarten, es wurden jedoch <parsedColsSize>-Partitionsspalten <parsedCols> beim Parsen des Dateinamens <path> gefunden

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE: KD00A

Es wurde ein vollständiger Scan der Delta-Quellen erwartet, aber nur ein Teilscan gefunden. Pfad: <path>

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE: KD009

Erwartet wurde die Partitionsspalte <expectedCol>, jedoch wurde die Partitionsspalte <parsedCol> beim Analysieren des Dateinamens gefunden: <path>

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE: KD009

CONVERT TO DELTA wurde mit einem anderen Partitionsschema aufgerufen als dem, das aus dem Katalog abgeleitet wird. Bitte vermeiden Sie es, das Schema bereitzustellen, damit das Partitionsschema aus dem Katalog ausgewählt werden kann.

Katalogpartitionsschema:

<catalogPartitionSchema>

bereitgestelltes Partitionsschema:

<userPartitionSchema>

DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED

SQLSTATE: 0AKDC

delta.universalFormat.compatibility.location kann nicht geändert werden.

DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED

SQLSTATE: 42K0I

delta.universalFormat.compatibility.location ist nicht im Katalog registriert.

DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION

SQLSTATE: 42601

Fehlender oder ungültiger Speicherort für das Uniform-Kompatibilitätsformat. Legen Sie ein leeres Verzeichnis für delta.universalFormat.compatibility.location fest.

Fehlerursache:

Weitere Details finden Sie unter DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION.

DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

SQLSTATE: KD00E

"Eisberg mit Delta Uniform lesen" ist fehlgeschlagen.

Weitere Informationen finden Sie unter DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED

SQLSTATE: 0A000

Das Erstellen oder Aktualisieren einer einheitlichen Eingangstabelle wird nicht unterstützt.

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT

SQLSTATE: 0AKDC

Format<fileFormat> wird nicht unterstützt. Nur Eisberg als ursprüngliches Dateiformat wird unterstützt.

DELTA_UNIFORM_NICHT_UNTERSTÜTZT

SQLSTATE: 0AKDC

Universelles Format wird nur in Unity-Katalogtabellen unterstützt.

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

SQLSTATE: 0AKDC

REFRESH Bezeichner SYNC UNIFORM wird aus einem Grund nicht unterstützt:

Weitere Details finden Sie unter DELTA_UNIFORM_REFRESH_NOT_SUPPORTED.

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH

SQLSTATE: 0AKDC

REFRESH TABLE mit METADATA_PATH wird für verwaltete Iceberg-Tabellen nicht unterstützt.

DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED

SQLSTATE: KD00E

Fehler beim Konvertieren der Tabellenversion <version> in das universelle Format <format>. <message>

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE: KD00E

Fehler bei der Überprüfung des universellen Formats (<format>): <violation>

DELTA_UNBEKANNTE_KONFIGURATION

SQLSTATE: F0000

Unbekannte Konfiguration wurde angegeben: <config>

DELTA_UNBEKANNTES_PRIVILEG

SQLSTATE: 42601

Unbekannte Berechtigung: <privilege>

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE: 42601

Unbekanntes ReadLimit: <limit>

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE: 42601

Nicht erkannte Spaltenänderung <otherClass>. Möglicherweise führen Sie eine veraltete Delta Lake-Version aus.

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE: 56038

Nicht erkannte Invariante. Bitte aktualisieren Sie Ihre Spark-Version.

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE: KD00B

Nicht erkannte Protokolldatei <fileName>

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE: 42616

Es wurde versucht, in der Tabelle <tableName> die nicht vorhandene Eigenschaft „<property>“ zu entfernen.

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE: 0AKDC

<path> unterstützt das Hinzufügen von Dateien mit einem absoluten Pfad nicht.

DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP

SQLSTATE: 0AKDC

ALTER TABLE CHANGE COLUMN wird für das Ändern von Spalten-<fieldPath> von <oldField> in <newField> nicht unterstützt.

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE: 0AKDC

Nicht unterstützter ALTER TABLE REPLACE COLUMNS-Vorgang. Grund: <details>

Fehler beim Ändern des Schemas von:

<oldSchema>

in:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE: 0AKDC

Sie haben versucht, mit dem Vorgang REPLACE eine vorhandene Tabelle (<tableName>) durch CLONE zu ersetzen. Dieser Vorgang wird

Nicht unterstützt. Probieren Sie ein anderes Ziel für CLONE aus, oder löschen Sie die Tabelle am aktuellen Ziel.

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE: 0AKDC

Das Ändern des Spaltenzuordnungsmodus von "<oldMode>" in "<newMode>" wird nicht unterstützt.

DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE: 0AKDC

Fehler beim Ausführen des Spaltenzuordnungsvorgangs <opName> für Spalte(n) <columnNames>

da diese Spalte(n) über Bloom-Filter-Index(e) verfügen.

Wenn Sie den Spaltenzuordnungsvorgang für Spalte(n)

mit Bloom-Filterindex ausführen möchten,

Bitte entfernen Sie zuerst den/die Bloom Filter Index/Indizes:

DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)

Wenn Sie stattdessen alle Bloom-Filterindizes in der Tabelle entfernen möchten, verwenden Sie Folgendes:

DROP BLOOMFILTER INDEX ON TABLE TabellenName

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE: KD004

Die aktuelle Tabellenprotokollversion unterstützt das Ändern von Spaltenzuordnungsmodi nicht.

mittels <config>.

Erforderliche Delta-Protokollversion für die Spaltenzuordnung:

<requiredVersion>

Die aktuelle Delta-Protokollversion Ihrer Tabelle:

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Schemaänderung wird erkannt:

altes Schema:

<oldTableSchema>

neues Schema:

<newTableSchema>

Schemaänderungen sind während der Änderung des Spaltenzuordnungsmodus nicht zulässig.

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE: 0AKDC

Das Schreiben von Daten mit dem Spaltenzuordnungsmodus wird nicht unterstützt.

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

Das Erstellen eines Bloom-Filterindex für eine Spalte mit dem Typ <dataType> wird nicht unterstützt: <columnName>

DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY

SQLSTATE: 0AKDC

Ein Kommentar kann nicht zu <fieldPath>hinzugefügt werden. Das Hinzufügen eines Kommentars zu einem Kartenschlüssel/Wert oder Arrayelement wird nicht unterstützt.

DELTA_UNSUPPORTED_DATA_TYPES

SQLSTATE: 0AKDC

Spalten mit nicht unterstützten Datentypen gefunden: <dataTypeList>. Sie können '<config>' auf 'false' festlegen, um die Typüberprüfung zu deaktivieren. Die Deaktivierung dieser Typüberprüfung kann es Benutzern ermöglichen, nicht unterstützte Delta-Tabellen zu erstellen, und sollte nur erfolgen, wenn versucht wird, Legacytabellen zu lesen oder zu schreiben.

DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN

SQLSTATE: 42621

<dataType> kann nicht das Ergebnis einer generierten Spalte sein.

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE: 0A000

Deep Clone wird für diese Delta-Version nicht unterstützt.

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE: 42809

<view> ist eine Ansicht. DESCRIBE DETAIL wird nur für Tabellen unterstützt.

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE: 0AKDC

Das Ablegen von Clusteringspalten (<columnList>) ist nicht zulässig.

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE: 0AKDC

DROP COLUMN wird für Ihre Delta-Tabelle nicht unterstützt. <advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE: 0AKDC

Geschachtelte Spalten können nur von StructType abgelegt werden. <struct> gefunden

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE: 0AKDC

Das Entfernen von Partitionsspalten (<columnList>) ist nicht zulässig.

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE: 0A000

Nicht unterstützter Ausdruckstyp(<expType>) für <causedBy>. Die unterstützten Typen sind [<supportedTypes>].

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

<expression> kann nicht in einer generierten Spalte verwendet werden.

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE: 56038

Nicht unterstützte Delta-Lesefunktion: Tabelle "<tableNameOrPath>" erfordert Lesetabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>. Weitere Informationen zur Featurekompatibilität von Delta Lake finden Sie unter <link>.

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE: 56038

Nicht unterstützte Delta-Schreibfunktion: Tabelle "<tableNameOrPath>" erfordert Writer-Tabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>. Weitere Informationen zur Featurekompatibilität von Delta Lake finden Sie unter <link>.

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE: 56038

In den folgenden Spark-Konfigurationen oder Delta-Tabelleneigenschaften konfigurierte Tabellenfunktionen werden von dieser Version von Databricks nicht erkannt: <configs>.

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE: 0AKDE

Es wird erwartet, dass der Status für das Tabellenfeature <feature> „unterstützt“ lautet, er lautet aber „<status>“.

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE: 0AKDC

Das Aktualisieren geschachtelter Felder wird nur für StructType unterstützt, aber Sie versuchen, ein Feld von <columnName>zu aktualisieren, dessen Typ: <dataType>ist.

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE: 0A000

Der Befehl "FSCK REPAIR TABLE" wird in Tabellenversionen mit fehlenden Vektordateien für löschungen nicht unterstützt.

Wenden Sie sich an den Support.

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE: 0A000

Der Befehl "GENERATE symlink_format_manifest" wird für Tabellenversionen mit Vektoren zum Löschen nicht unterstützt.

Um eine Version der Tabelle ohne Löschvektoren zu erstellen, führen Sie "REORG TABLE Tabelle APPLY (PURGE)" aus. Führen Sie dann den Befehl 'GENERATE' erneut aus.

Stellen Sie sicher, dass zwischen REORG und GENERATEkeine gleichzeitigen Transaktionen erneut Löschvektoren hinzufügen.

Wenn Sie Manifeste regelmäßig generieren müssen oder nicht gleichzeitige Transaktionen verhindern können, erwägen Sie das Deaktivieren von Löschvektoren in dieser Tabelle mithilfe von 'ALTER TABLE Tabelle SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE: 0AKDC

Invarianten in geschachtelten Feldern außer StructTypes werden nicht unterstützt.

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE: 0AKDC

Die IN-Unterabfrage wird in der <operation>-Bedingung nicht unterstützt.

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE: 0A000

listKeywithPrefix nicht verfügbar

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE: 0AKDC

Die Manifestgenerierung wird für Tabellen, die die Spaltenzuordnung nutzen, nicht unterstützt, da externe Leser diese Delta-Tabellen nicht lesen können. Weitere Details finden Sie in der Delta-Dokumentation.

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE: 0A000

MERGE INTO-Vorgänge mit Schemaentwicklung unterstützen derzeit nicht das Schreiben von CDC-Ausgaben.

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE: 0AKDC

Mehrspaltige IN-Prädikate werden in der <operation>-Bedingung nicht unterstützt.

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

Das Erstellen eines Bloomfilterindexes in einer geschachtelten Spalte wird derzeit nicht unterstützt: <columnName>

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE: 0AKDC

Geschachteltes Feld wird im <operation> (Feld = <fieldName>) nicht unterstützt.

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE: 0AKDC

Die Klonzieltabelle ist nicht leer. TRUNCATE oder DELETE FROM Sie die Tabelle, bevor Sie CLONE ausführen.

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE: 0AKDC

Die Datenquelle <dataSource> unterstützt den <mode>-Ausgabemodus nicht

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

Das Erstellen eines Bloomfilterindexes für eine Partitionierungsspalte wird nicht unterstützt: <columnName>

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE: 0AKDC

Spaltenumbenennung wird für Ihre Delta-Tabelle nicht unterstützt. <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE: 0AKDC

Delta unterstützt die Angabe des Schemas zur Lesezeit nicht.

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE: 0A000

SORTED BY wird für Delta-Bucket-Tabellen nicht unterstützt.

DELTA_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDD

Das <operation>-Ziel unterstützt nur Delta-Quellen.

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE: 0AKDD

Das Angeben statischer Partitionen in der Partitionsspezifikation wird derzeit während der Einfügungen nicht unterstützt.

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE: 22023

Nicht unterstützter Strategiename: <strategy>

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE: 0AKDC

Unterabfragen werden in der <operation> (Bedingung = <cond>) nicht unterstützt.

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE: 0AKDC

Unterabfragen werden in Partitionsprädikaten nicht unterstützt.

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE: 42613

Zeitreisen können nicht in mehreren Formaten spezifiziert werden.

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE: 0AKDC

Zeitreisen für Ansichten, Unterabfragen, Streams oder Änderungsdatenfeedabfragen sind nicht möglich.

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE: 0A000

Abschneiden von Beispieltabellen wird nicht unterstützt

DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA

SQLSTATE: 0AKDC

Diese Tabelle kann nicht ausgeführt werden, da eine nicht unterstützte Typänderung angewendet wurde. Feld-<fieldName> wurde von <fromType> in <toType>geändert.

DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE: 0AKDC

Fehler beim Ändern des Datentyps der spalten(n) <columnNames>

da diese Spalten Bloom-Filterindizes aufweisen.

Wenn Sie den Datentyp von Spalten mit Bloom Filter Index(es) ändern möchten,

entfernen Sie zuerst die Bloom-Filterindizes:

DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)

Wenn Sie stattdessen alle Bloom-Filterindizes in der Tabelle entfernen möchten, verwenden Sie Folgendes:

DROP BLOOMFILTER INDEX ON TABLE tableName

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE: 0AKDC

Geben Sie den Basispfad (<baseDeltaPath>) beim Vakuumieren von Delta-Tabellen an. Das Vakuumieren bestimmter Partitionen wird derzeit nicht unterstützt.

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE: 42807

Die Tabellenimplementierung unterstützt keine Schreibvorgänge: <tableName>

DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR

SQLSTATE: 0AKDC

Sie versuchen, Schreibvorgänge für eine Tabelle durchzuführen, die beim Commit-Koordinator <coordinatorName>registriert wurde. In der aktuellen Umgebung ist jedoch keine Implementierung dieses Koordinators verfügbar und Schreibvorgänge ohne Koordinatoren sind nicht zulässig.

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE: 0A000

Schreiben in Beispieltabellen wird nicht unterstützt

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE: 42846

<fromCatalog> kann nicht in <toCatalog>umgestellt werden. Alle geschachtelten Spalten müssen übereinstimmen.

DELTA_VACUUM_COPY_INTO_STATE_FAILED

SQLSTATE: 22000

VACUUM für Datendateien war erfolgreich, aber COPY INTO Zustands-GC ist fehlgeschlagen.

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE: KD00C

Versionen (<versionList>) sind nicht zusammenhängend.

Weitere Details finden Sie unter DELTA_VERSIONS_NOT_CONTIGUOUS.

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE: 23001

Verstoß gegen CHECK-Einschränkung <constraintName> <expression> durch Zeile mit Werten:

<values>

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE: 0A000

Die Validierung der Eigenschaften der Tabelle <table> wurde verletzt:

Weitere Details finden Sie unter DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED.

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE: 0A000

<viewIdentifier> ist eine Ansicht. Sie dürfen keine Daten in eine Ansicht schreiben.

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

Die Spalte "Z-Sortierung" <columnName> ist im Datenschema nicht vorhanden.

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE: KD00D

Die Z-Sortierung auf <cols> wird

ineffektiv, da wir derzeit keine Statistiken für diese Spalten sammeln. Informationen zu den nächsten Schritten finden Sie im Abschnitt

<link>

weitere Informationen zum Überspringen von Daten und zur Z-Ordnung. Sie können deaktivieren

diese Überprüfung deaktivieren, indem Sie

„%%sql set <zorderColStatKey> = false“ festlegen

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE: 42P10

<colName> ist eine Partitionsspalte. Z-Sortierung kann nur für Datenspalten ausgeführt werden

Delta Sharing

DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Aktivierungsnonce nicht gefunden. Der verwendete Aktivierungslink ist ungültig oder abgelaufen. Generieren Sie den Aktivierungslink neu, und versuchen Sie es erneut.

DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED

SQLSTATE: nicht zugewiesen

Die Freigabe zwischen <regionHint>-Regionen und Regionen außerhalb davon wird nicht unterstützt.

DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT

SQLSTATE: nicht zugewiesen

Die mit der current_recipient-Funktion definierte Ansicht dient nur der gemeinsamen Nutzung und kann nur von der Datenempfängerseite abgefragt werden. Das bereitgestellte Securable mit der ID <securableId> ist keine Delta Sharing View.

DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Die bereitgestellte sicherungsfähige Art <securableKind> unterstützt keine Veränderlichkeit bei Delta-Freigaben.

DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE: nicht zugewiesen

Die bereitgestellte sicherungsfähige Art <securableKind> unterstützt keine Tokenrotationsaktion, die vom Marketplace-Dienst initiiert wird.

DS_AUTH_TYPE_NOT_AVAILABLE

SQLSTATE: nicht zugewiesen

<dsError>: Authentifizierungstyp ist in der Anbieterentität <providerEntity>nicht verfügbar.

DS_CDF_NOT_ENABLED

SQLSTATE: nicht zugewiesen

<dsError>: Der Zugriff auf den Änderungsdaten-Feed für <tableName>ist nicht möglich. CDF ist in der ursprünglichen Delta-Tabelle nicht aktiviert. Wenden Sie sich bitte an Ihren Datenanbieter.

DS_CDF_NOT_SHARED

SQLSTATE: nicht zugewiesen

<dsError>: Zugriff auf Änderungsdatenfeed für <tableName> nicht möglich. CDF ist für die Tabelle nicht freigegeben. Wenden Sie sich bitte an Ihren Datenanbieter.

DS_CDF_RPC_INVALID_PARAMETER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_CLIENT_ERROR_FOR_DB_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_CLOUD_VENDOR_UNAVAILABLE

SQLSTATE: nicht zugewiesen

<dsError>: Der Cloudanbieter ist vorübergehend für <rpcName>nicht verfügbar, versuchen Sie es erneut.<traceId>

DS_DATA_MATERIALIZATION_COMMAND_FAILED

SQLSTATE: nicht zugewiesen

<dsError>: Datenmaterialisierungsaufgabe <runId> von Organisation <orgId> ist bei Befehl <command> fehlgeschlagen.

DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

<dsError>: Datenmaterialisierungsaufgabe <runId> von Organisation <orgId> unterstützt Befehl <command> nicht

DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE

SQLSTATE: nicht zugewiesen

<dsError>: Der gültige Namespace zum Erstellen der Materialisierung für <tableName>konnte nicht gefunden werden. Wenden Sie sich an Ihren Datenanbieter, um dies zu beheben.

DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

<dsError>: Datenmaterialisierungsaufgabe <runId> von Organisation <orgId> ist nicht vorhanden.

DS_DELTA_ILLEGAL_STATE

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_DELTA_MISSING_CHECKPOINT_FILES

SQLSTATE: nicht zugewiesen

<dsError>: Es konnten nicht alle Teildateien der Prüfpunktversion gefunden werden: <version>. <suggestion>

DS_DELTA_NULL_POINTER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_DELTA_RUNTIME_EXCEPTION

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE: nicht zugewiesen

<dsError> Die bereitgestellte sicherungsfähige Art <securableKind> unterstützt keine Tokenablaufaktion, die vom Marketplace-Dienst initiiert wird.

DS_FAILED_REQUEST_TO_OPEN_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS

SQLSTATE: nichts zugewiesen

<dsError>: <feature> ist nur für die Databricks-zu-Databricks-Delta-Freigabe aktiviert.

DS_FILE_LISTING_EXCEPTION

SQLSTATE: nicht zugewiesen

<dsError>: <storage>: <message>

DS_FILE_SIGNING_EXCEPTION

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_FLAKY_NETWORK_CONNECTION

SQLSTATE: nicht zugewiesen

<dsError>: Für <rpcName>ist die Netzwerkverbindung instabil, bitte versuchen Sie es erneut.<traceId>

DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_HADOOP_CONFIG_NOT_SET

SQLSTATE: nicht zugewiesen

<dsError>: <key> wird vom Aufrufer nicht festgelegt.

DS_ILLEGAL_STATE

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_INTERNAL_ERROR_FROM_DB_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_INVALID_AZURE_PATH

SQLSTATE: nicht zugewiesen

<dsError>: Ungültiger Azure-Pfad: <path>.

DS_INVALID_DELTA_ACTION_OPERATION

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_INVALID_FIELD

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_INVALID_ITERATOR_OPERATION

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_INVALID_PARTITION_SPEC

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_INVALID_RESPONSE_FROM_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_MATERIALIZATION_QUERY_FAILED

SQLSTATE: nicht zugewiesen

<dsError>: Abfrage für <schema>fehlgeschlagen.<table> aus Freigabe <share>.

DS_MATERIALIZATION_QUERY_TIMEDOUT

SQLSTATE: nicht zugewiesen

<dsError>: Zeitüberschreitung bei Abfrage für <schema>.<table> von Freigabe <share> nach <timeoutInSec> Sekunden.

DS_MISSING_IDEMPOTENCY_KEY

SQLSTATE: nicht zugewiesen

<dsError>: Idempotenzschlüssel ist für die asynchrone Abfrage von <schema><table> aus Freigabe <share> erforderlich.

DS_MORE_THAN_ONE_RPC_PARAMETER_SET

SQLSTATE: nicht zugewiesen

<dsError>: Geben Sie einen davon an: <parameters>.

DS_NO_METASTORE_ASSIGNED

SQLSTATE: nicht zugewiesen

<dsError>: Kein Metaspeicher für den aktuellen Arbeitsbereich zugewiesen (workspaceId: <workspaceId>).

DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED

SQLSTATE: nicht zugewiesen

<dsError>: Fehler beim Generieren des Workload-Identitätstokens für den O2D-OIDC-Anbieter: <message>.

DS_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE: nicht zugewiesen

<dsError>: Nicht übereinstimmende Paginierungs- oder Abfrageargumente.

DS_PARTITION_COLUMNS_RENAMED

SQLSTATE: nicht zugewiesen

<dsError>: Partitionsspalte [<renamedColumns>] wurde in der freigegebenen Tabelle umbenannt. Wenden Sie sich an Ihren Datenanbieter, um dies zu beheben.

DS_QUERY_BEFORE_START_VERSION

SQLSTATE: nicht zugewiesen

<dsError>: Sie können Tabellendaten nur seit version <startVersion>abfragen.

DS_QUERY_TIMEOUT_ON_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: Beim Verarbeiten von <queryType> in <tableName> nach <numActions>-Aktualisierungen in <numIter>-Iterationen ist ein Timeout aufgetreten.<progressUpdate> <suggestion> <traceId>

DS_RATE_LIMIT_ON_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_RECIPIENT_RPC_INVALID_PARAMETER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_RESOURCE_EXHAUSTED

SQLSTATE: nichts zugewiesen

<dsError>: Der Grenzwert für <resource> wurde überschritten: [<limitSize>]<suggestion>.<traceId>

DS_RESOURCE_NOT_FOUND_ON_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE: nicht zugewiesen

Es können keine Berechtigungen für <securableType> an die vom System generierte Gruppe <principal>gewährt werden.

DS_TIME_TRAVEL_NOT_PERMITTED

SQLSTATE: nicht zugewiesen

<dsError>: Zeitreiseabfrage ist nicht zulässig, es sei denn, der Verlauf wird für <tableName> freigegeben. Wenden Sie sich bitte an Ihren Datenanbieter.

DS_UNAUTHORIZED

SQLSTATE: nicht zugewiesen

<dsError>: Nicht autorisiert.

DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT

SQLSTATE: nicht zugewiesen

<dsError>: Nicht autorisierter D2O-OIDC-Empfänger: <message>.

DS_UNKNOWN_EXCEPTION

SQLSTATE: nicht zugewiesen

<dsError>: <traceId>

DS_UNKNOWN_QUERY_ID

SQLSTATE: nicht zugewiesen

<dsError>: Unbekannte Abfrage-ID <queryID> für <schema>.<table> aus Freigabe <share>.

DS_UNKNOWN_QUERY_STATUS

SQLSTATE: nicht zugewiesen

<dsError>: Unbekannter Abfragestatus für die Abfrage-ID <queryID> für <schema>.<table> aus Freigabe <share>.

DS_UNKNOWN_RPC

SQLSTATE: nicht zugewiesen

<dsError>: Unbekannter RPC <rpcName>.

DS_UNSUPPORTED_DELTA_READER_VERSION (Nicht unterstützte Delta-Leser-Version)

SQLSTATE: nicht zugewiesen

<dsError>: Die Delta-Protokollleserversion <tableReaderVersion> ist höher als <supportedReaderVersion> und kann nicht auf dem Delta-Freigabeserver unterstützt werden.

DS_UNSUPPORTED_DELTA_TABLE_FEATURES

SQLSTATE: nicht zugewiesen

<dsError>: Tabellenfeatures <tableFeatures> befinden sich in Tabelle<versionStr> <historySharingStatusStr> <optionStr>

DS_UNSUPPORTED_OPERATION

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_UNSUPPORTED_STORAGE_SCHEME

SQLSTATE: nicht zugewiesen

<dsError>: Nicht unterstütztes Speicherschema: <scheme>.

DS_UNSUPPORTED_TABLE_TYPE

SQLSTATE: nicht zugewiesen

<dsError>: <schema>konnte nicht abgerufen werden.<table> aus "Share <share>", da die Tabelle mit dem Typ [<tableType>] derzeit im Delta Sharing-Protokoll nicht unterstützt wird.

DS_Benutzerkontextfehler

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED

SQLSTATE: nicht zugewiesen

<dsError>: Die folgenden Funktionen sind in der Ansichtsfreigabeabfrage nicht zulässig: <functions>

DS_WORKSPACE_DOMAIN_NOT_SET

SQLSTATE: nicht zugewiesen

<dsError>: Arbeitsbereich <workspaceId> Domäne ist nicht festgelegt.

DS_WORKSPACE_NOT_FOUND

SQLSTATE: nicht zugewiesen

<dsError>: Arbeitsbereich <workspaceId> wurde nicht gefunden.

Automatischer Lader

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE: 0A000

Der Schemaentwicklungsmodus <addNewColumnsMode> wird beim Angeben des Schemas nicht unterstützt. Um diesen Modus zu verwenden, können Sie stattdessen das Schema über cloudFiles.schemaHints bereitstellen.

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE: 420000

Es wurden Authentifizierungsoptionen für die Benachrichtigungseinrichtung für den (Standard-)Auflistungsmodus des

Eintragsmodus:

<options>

Wenn Sie den Dateibenachrichtigungsmodus verwenden möchten, legen Sie folgendes explizit fest:

.option(“cloudFiles.<useNotificationsKey>”, “true”)

Alternativ können Sie die Überprüfung Ihrer Optionen überspringen und diese ignorieren.

Authentifizierungsoptionen können Sie festlegen:

.option(„cloudFiles.ValidateOptionsKey>“, „false“)

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE: 420000

Inkrementeller Auflistungsmodus (cloudFiles.<useIncrementalListingKey>)

und Dateibenachrichtigung (cloudFiles.<useNotificationsKey>)

wurden gleichzeitig aktiviert.

Stellen Sie sicher, dass Sie nur eine auswählen.

CF_AZURE_AUTHENTICATION_MISSING_OPTIONS

SQLSTATE: 420000

Bitte stellen Sie entweder Databricks-Dienstanmeldeinformationen oder sowohl eine ClientID als auch ein ClientSecret für die Authentifizierung mit Azure bereit.

CF_AZURE_AUTHENTIFIZIERUNG_MEHRERE_OPTIONEN

SQLSTATE: 420000

Wenn eine Databricks-Dienstanmeldeinformation bereitgestellt wird, sollten keine anderen Anmeldeinformationen (z. B. clientId, clientSecret oder connectionString) bereitgestellt werden.

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE: 420000

Erforderlich sind adlsBlobSuffix und adlsDfsSuffix für Azure

CF_BUCKET_MISMATCH

SQLSTATE: 22000

Der <storeType> im Dateiereignis <fileEvent> entspricht nicht der Erwartung der Quelle: <source>.

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE: 22000

Schema kann nicht weiterentwickelt werden, wenn das Schemaprotokoll leer ist. Schemaprotokollspeicherort: <logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE: 22000

Die folgende Warteschlangenmeldung kann nicht analysiert werden: <message>

CF_CANNOT_RESOLVE_CONTAINER_NAME

SQLSTATE: 22000

Der Containername kann nicht vom Pfad <path>aufgelöst werden, aufgelöster URI: <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING

SQLSTATE: 22000

Verzeichnisauflistung kann nicht ausgeführt werden, wenn ein asynchroner Backfill-Thread ausgeführt wird

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE: 420000

CloudFiles.cleanSource und cloudFiles.allowOverwrites können nicht gleichzeitig aktiviert werden.

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE: 42501

Das automatische Laden kann verarbeitete Dateien nicht löschen, da sie keine Schreibberechtigungen für das Quellverzeichnis besitzt.

<reason>

Um das Problem zu beheben, können Sie entweder:

  1. Erteilen von Schreibberechtigungen für das Quellverzeichnis ODER
  2. Set cleanSource to 'OFF'

Sie können den Stream auch entsperren, indem Sie die SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors auf "true" aktivieren.

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE: 22000

Fehler beim Ableiten des Partitionsschemas der Tabelle. Sie haben dieselbe Spalte sowohl in Ihren Daten als auch in Ihren Partitionspfaden dupliziert. Um den Partitionswert zu ignorieren, geben Sie Ihre Partitionsspalten explizit an, indem Sie verwenden: .option("cloudFiles.<partitionColumnsKey>", "{kommagetrennte Liste}")

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE: 420000

Das Schema kann nicht abgeleitet werden, wenn der Eingabepfad <path> leer ist. Versuchen Sie, den Datenstrom zu starten, wenn Dateien im Eingabepfad vorhanden sind, oder geben Sie das Schema an.

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE: 22000

Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Dienstprinzipal

über <permissionType>-Event Grid-Abonnements verfügt. Weitere Details finden Sie unter:

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE: 22000

Fehler beim Erstellen des Event Grid-Abonnements. Stellen Sie sicher, dass Microsoft.EventGrid als

Ressourcenanbieter in Ihrem Abonnement registriert ist. Weitere Details finden Sie unter:

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE: 22000

Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Speicherkonto

(<storageAccount>) sich in Ihrer Ressourcengruppe (<resourceGroup>) befindet und dass

Das Speicherkonto ist ein "StorageV2(general purpose v2)"-Konto. Weitere Details finden Sie unter:

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE: 0A000

Der Modus für Ereignisbenachrichtigungen beim automatischen Laden wird für <cloudStore>nicht unterstützt.

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE: 22000

Fehler beim Überprüfen, ob der Datenstrom neu ist.

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE: 22000

Fehler beim Erstellen des Abonnements: <subscriptionName>. Ein Abonnement mit demselben Namen ist bereits vorhanden und einem anderen Thema zugeordnet: <otherTopicName>. Das gewünschte Thema ist <proposedTopicName>. Löschen Sie entweder das vorhandene Abonnement, oder erstellen Sie ein Abonnement mit einem neuen Ressourcensuffix.

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE: 22000

Fehler beim Erstellen von Thema <topicName>. Ein Thema mit demselben Namen ist bereits vorhanden.<reason> Entfernen sie das vorhandene Thema, oder versuchen Sie es erneut mit einem anderen Ressourcensuffix.

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

SQLSTATE: 22000

Fehler beim Löschen der Benachrichtigung mit der ID <notificationId> im Bucket <bucketName> für Thema <topicName>. Versuchen Sie es erneut, oder entfernen Sie die Benachrichtigung manuell über die GCP-Konsole.

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE: 22000

Fehler beim Deserialisieren des gespeicherten Schemas aus der Zeichenfolge: ‚<jsonSchema>

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE: 22000

Schema kann nicht ohne Schemaprotokoll weiterentwickelt werden.

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE: 420000

Der Anbieter für <fileFormatInput> konnte nicht gefunden werden.

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE: 22000

Fehler beim Ableiten des Schemas für das Format <fileFormatInput> aus vorhandenen Dateien im Eingabepfad <path>.

Weitere Details finden Sie unter CF_FAILED_TO_INFER_SCHEMA.

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE: 22000

Fehler beim Schreiben in das Schemaprotokoll am Speicherort <path>.

CF_FILE_FORMAT_REQUIRED

SQLSTATE: 420000

Die erforderliche Option wurde nicht gefunden: cloudFiles.format.

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE: 22000

Es wurden mehrere (<num>) Abonnements mit dem Präfix "Auto Loader" für das Thema <topicName>gefunden:

<subscriptionList>

Pro Thema sollte nur ein Abonnement vorhanden sein. Stellen Sie bitte manuell sicher, dass Ihr Thema nicht über mehrere Abonnements verfügt.

CF_GCP_AUTHENTICATION

SQLSTATE: 420000

Bitte geben Sie entweder alle folgenden Informationen an: <clientEmail>, <client>,

<privateKey> und <privateKeyId>, oder geben Sie <serviceCredential> an, um Ihre Databricks-Dienstanmeldeinformationen zu verwenden.

Geben Sie alternativ nichts davon an, um die standardmäßige GCP-Anmeldeinformationsanbieterkette für die Authentifizierung bei GCP-Ressourcen zu verwenden.

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE: 22000

Es wurden zu viele Bezeichnungen (<num>) für die GCP-Ressource empfangen. Die maximale Bezeichnungsanzahl pro Ressource ist <maxNum>.

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE: 22000

Sie haben zu viele Ressourcentags (<num>) für die GCP-Ressource empfangen. Die maximale Anzahl von Ressourcentags pro Ressource ist <maxNum>, da Ressourcentags als GCP-Bezeichnungen für Ressourcen gespeichert werden, und Databricks-spezifische Tags verbrauchen einige dieser Bezeichnungskontingente.

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE: 22000

Unvollständige Protokolldatei im Schemaprotokoll im Pfad <path>

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE: 22000

Unvollständige Metadatendatei im Prüfpunkt "Auto Loader"

CF_INCORRECT_BATCH_USAGE

SQLSTATE: 42887

CloudFiles ist eine Streamingquelle. Verwenden Sie spark.readStream anstelle von spark.read. Um diese Überprüfung zu deaktivieren, legen Sie <cloudFilesFormatValidationEnabled> auf "false" fest.

CF_INCORRECT_SQL_PARAMS

SQLSTATE: 420000

Die cloud_files-Methode akzeptiert zwei erforderliche Zeichenfolgenparameter: den Pfad zum Laden von und das Dateiformat. Dateileseoptionen müssen in einer Zeichenfolgen-Schlüsselwertzuordnung bereitgestellt werden. Beispiel: cloud_files(“path”, “json”, map(“option1”, “value1”)). Empfangen: <params>

CF_INCORRECT_STREAM_USAGE

SQLSTATE: 42887

Um "cloudFiles" als Streamingquelle zu verwenden, geben Sie das Dateiformat mit der Option "cloudFiles.format" an, und verwenden Sie .load(), um Ihren DataFrame zu erstellen. Um diese Überprüfung zu deaktivieren, legen Sie <cloudFilesFormatValidationEnabled> auf "false" fest.

CF_INTERNE_FEHLER

SQLSTATE: 420000

Interner Fehler.

Weitere Details finden Sie unter CF_INTERNAL_ERROR.

CF_INVALID_ARN

SQLSTATE: 420000

Ungültiger ARN: <arn>

CF_INVALID_AZURE_CERTIFICATE

SQLSTATE: 420000

Der private Schlüssel, der mit option cloudFiles.certificate bereitgestellt wird, kann nicht analysiert werden. Geben Sie einen gültigen öffentlichen Schlüssel im PEM-Format an.

CF_INVALID_AZURE_CERT_PRIVATE_KEY (Ungültiger privater Schlüssel für Azure-Zertifikat)

SQLSTATE: 420000

Der private Schlüssel, der mit option cloudFiles.certificatePrivateKey bereitgestellt wird, kann nicht analysiert werden. Geben Sie einen gültigen privaten Schlüssel im PEM-Format an.

CF_INVALID_CHECKPOINT

SQLSTATE: 420000

Dieser Prüfpunkt ist keine gültige CloudFiles-Quelle.

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE: 420000

Ungültiger Modus für die Option "Saubere Quelle" <value>.

CF_INVALID_GCP_RESOURCE_TAG_KEY

SQLSTATE: 420000

Ungültiger Ressourcentagschlüssel für GCP-Ressource: <key>. Schlüssel müssen mit einem Kleinbuchstaben beginnen, innerhalb von 1 bis 63 Zeichen lang sein und nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE: 420000

Ungültiger Ressourcentagwert für GCP-Ressource: <value>. Werte müssen innerhalb von 0 bis 63 Zeichen lang sein und dürfen nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE: 420000

Auto Loader unterstützt bei Verwendung mit verwalteten Dateiereignissen die folgenden Optionen nicht:

<optionList>

Es wird empfohlen, diese Optionen zu entfernen und dann den Datenstrom neu zu starten.

CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

SQLSTATE: 22000

Ungültige Antwort vom Dienst für verwaltete Dateiereignisse. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.

Weitere Details finden Sie unter CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE.

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE: 420000

cloudFiles.<schemaEvolutionModeKey> muss eine von { sein

<addNewColumns>

<failOnNewColumns>

<rescue>

<noEvolution>”}

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE: 420000

Schemahinweise können nur einmal eine bestimmte Spalte angeben.

In diesem Fall wird die Spalte neu definiert: <columnName>

mehrmals in „schemaHints“ neu definiert:

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE: 420000

Schemahinweise können nicht verwendet werden, um die geschachtelten Typen von Zuordnungen und Arrays außer Kraft zu setzen.

In Konflikt stehende Spalte: <columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE: 22000

latestOffset sollte mit einem ReadLimit für diese Quelle aufgerufen werden.

CF_LOG_FILE_MALFORMED

SQLSTATE: 22000

Die Protokolldatei war falsch formatiert: Fehler beim Lesen der richtigen Protokollversion aus <fileName>.

CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS

SQLSTATE: 22000

Sie haben den Auto Loader angewiesen, bestehende Dateien an Ihrem externen Speicherort zu ignorieren, indem Sie "includeExistingFiles" auf "false" setzen. Der Dienst für das Management von Dateivorgängen entdeckt jedoch weiterhin vorhandene Dateien an Ihrem externen Speicherort. Versuchen Sie es erneut, nachdem die Dateiverwaltungsereignisse das Ermitteln aller Dateien an Ihrem externen Speicherort abgeschlossen haben.

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE: 420000

Sie verwenden Auto Loader mit verwalteten Dateiereignissen, aber es scheint, dass die externe Position für Ihren Eingabepfad „<path>“ nicht über aktivierte Dateiereignisse verfügt oder der Eingabepfad ungültig ist. Bitten Sie Ihren Databricks-Administrator, die Dateivorgänge am externen Speicherort für Ihren Eingabepfad zu aktivieren.

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE: 420000

Sie verwenden Auto Loader mit verwalteten Dateiereignissen, haben jedoch keinen Zugriff auf den externen Speicherort oder das Volume für den Eingabepfad ‚<path>‘ oder der Eingabepfad ist ungültig. Bitten Sie Ihren Databricks-Administrator, Leseberechtigungen für den externen Speicherort oder das Volume zu erteilen oder einen gültigen Eingabepfad innerhalb eines vorhandenen externen Speicherorts oder Volumes bereitzustellen.

CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS

SQLSTATE: 56038

Auto Loader mit verwalteten Dateiereignissen ist nur in Databricks Serverless verfügbar. Um den Vorgang fortzusetzen, verschieben Sie diesen Workload auf Databricks serverless, oder deaktivieren Sie die Option "cloudFiles.useManagedFileEvents".

CF_MAX_MUST_BE_POSITIVE

SQLSTATE: 420000

max muss positiv sein

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE: 22000

Mehrere Streaming-Abfragen werden gleichzeitig mit <metadataFile> ausgeführt.

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE: 420000

Die Metadatendatei im Verzeichnis des Streamingquellpunkts fehlt. Diese Metadaten

Datei enthält wichtige Standardoptionen für den Datenstrom, sodass der Datenstrom nicht neu gestartet werden kann.

werden kann. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE: 420000

Die Partitionsspalte <columnName> ist im bereitgestellten Schema nicht vorhanden:

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE: 420000

Geben Sie mit .schema() ein Schema an, wenn im Dateibenachrichtigungsmodus kein Pfad für die CloudFiles-Quelle bereitgestellt wird. Alternativ können Sie das automatische Ladeprogramm verwenden, um das Schema abzuleiten, bitte geben Sie einen Basispfad in .load() an.

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE: 22000

Es wurden vorhandene Benachrichtigungen für das Thema <topicName> im Bucket <bucketName>gefunden.

Benachrichtigung,ID

<notificationList>

Um das Verunreinigen des Abonnenten mit unbeabsichtigten Ereignissen zu vermeiden, löschen Sie die oben genannten Benachrichtigungen, und versuchen Sie es erneut.

CF_NEW_PARTITION_ERROR

SQLSTATE: 22000

Neue Partitionsspalten wurden von Ihren Dateien abgeleitet: [<filesList>]. Geben Sie alle Partitionsspalten in Ihrem Schema an, oder geben Sie eine Liste der Partitionsspalten an, für die Sie Werte extrahieren möchten, indem Sie folgendes verwenden: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")

CF_PARTITON_INFERENCE_ERROR

SQLSTATE: 22000

Fehler beim Ableiten des Partitionsschemas des aktuellen Dateibatches. Geben Sie Ihre Partitionsspalten explizit mit .option("cloudFiles.<partitionColumnOption>", "{kommagetrennte Liste}") an.

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES

SQLSTATE: 420000

Dateien können nicht gelesen werden, wenn der Eingabepfad <path> nicht vorhanden ist. Stellen Sie sicher, dass der Eingabepfad vorhanden ist, und versuchen Sie es erneut.

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE: 0A000

Regelmäßiges Zurückfüllen wird nicht unterstützt, wenn asynchrones Ausfüllen deaktiviert ist. Sie können die asynchrone Nachfüll-/Verzeichnisauflistung aktivieren, indem Sie spark.databricks.cloudFiles.asyncDirListing auf "true" festlegen.

CF_PREFIX_MISMATCH

SQLSTATE: 22000

Nicht übereinstimmendes Ereignis gefunden: Der Schlüssel <key> verfügt nicht über das Präfix <prefix>

CF_PROTOCOL_MISMATCH

SQLSTATE: 22000

<message>

Wenn Sie keine weiteren Änderungen an Ihrem Code vornehmen müssen, legen Sie die SQL-Datei fest.

Konfiguration: '<sourceProtocolVersionKey> = <value>'

um Ihren Datenstrom fortzusetzen. Weitere Informationen finden Sie unter:

<docLink>

finden Sie weitere Details.

CF_REGION_NOT_FOUND_ERROR

SQLSTATE: 420000

Aws-Standardregion konnte nicht abgerufen werden. Geben Sie eine Region mit der Option "cloudFiles.region" an.

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE: 420000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht leer sein.

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE: 420000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur alphanumerische Zeichen, Bindestriche (-) und Unterstriche (_) enthalten.

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE: 420000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur Kleinbuchstaben, Zahlen und Gedankenstriche (-) aufweisen.

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE: 420000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur alphanumerische Zeichen, Bindestriche (-), Unterstriche (_), Punkte (.), Tilden (~) Pluszeichen (+) und Prozentzeichen (<percentSign>) enthalten.

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE: 420000

Fehler beim Einrichten von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht mehr als <limit> Zeichen enthalten.

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE: 420000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix muss zwischen den Zeichen <lowerLimit> und <upperLimit> liegen.

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE: 22000

Tagschlüssel (<key>) für eingeschränkte GCP-Ressource gefunden. Die folgenden GCP-Ressourcentagschlüssel sind für das automatische Laden eingeschränkt: [<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE: 420000

cloudFiles.cleanSource.retentionDuration darf nicht größer als cloudFiles.maxFileAge sein.

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE: 22000

Fehler beim Erstellen einer Benachrichtigung für das Thema: <topic> mit präfix: <prefix>. Es gibt bereits ein Thema mit demselben Namen mit einem anderen Präfix: <oldPrefix>. Versuchen Sie, ein anderes Ressourcensuffix zum Einrichten zu verwenden oder das vorhandene Setup zu löschen.

CF_SCHEMA_LOG_DEEP_CLONE_FAILED

SQLSTATE: 420000

Fehler beim Klonen und Migrieren von Schemaprotokolleinträgen aus dem Quellschemaprotokoll.

CF_SFTP_FEHLENDES_PASSWORT_ODER_SCHLÜSSELDATEI

SQLSTATE: 420000

Eine Kennwort- oder Schlüsseldatei muss für SFTP angegeben werden.

Geben Sie das Kennwort im Quell-URI oder über <passwordOption>an, oder geben Sie den Schlüsseldateiinhalt über <keyFileOption>an.

CF_SFTP_NOT_ENABLED

SQLSTATE: 0A000

Der Zugriff auf SFTP-Dateien ist nicht aktiviert.. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.

CF_SFTP_REQUIRE_UC_CLUSTER

SQLSTATE: 0A000

Für den Zugriff auf SFTP-Dateien ist ein UC-fähiger Cluster erforderlich. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.

CF_SFTP_USERNAME_NOT_FOUND

SQLSTATE: 420000

Der Benutzername muss für SFTP angegeben werden.

Geben Sie den Benutzernamen im Quell-URI oder über <option>an.

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE: 420000

Geben Sie den Quellverzeichnispfad mit Option path an.

CF_SOURCE_UNSUPPORTED

SQLSTATE: 0A000

Die Clouddateienquelle unterstützt derzeit nur S3-Pfade, Azure Blob Storage (wasb/wasbs) und Azure Data Lake Gen1 (adl) und Gen2 (abfs/abfss). Pfad: „<path>“, aufgelöster URI: „<uri>

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE: 420000

Die Funktion cloud_files_state akzeptiert einen Zeichenfolgenparameter, der das Prüfpunktverzeichnis eines CloudFiles-Datenstroms oder einen mehrteiligen Tabellennamen darstellt, der eine Streamingtabelle identifiziert. Zudem gibt es einen optionalen zweiten Parameter vom Typ Ganzzahl, der die Prüfpunktversion angibt, für die der Zustand geladen werden soll. Der zweite Parameter kann auch "latest" sein, um den neuesten Prüfpunkt zu lesen. Empfangen: <params>

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE: 420000

Der Eingabeprüfpunktpfad <path> ist ungültig. Entweder ist der Pfad nicht vorhanden oder es wurden keine cloud_files Quellen gefunden.

CF_STATE_INVALID_VERSION

SQLSTATE: 420000

Die angegebene Version <version> ist nicht vorhanden oder wurde während der Analyse entfernt.

CF_THREAD_IS_DEAD

SQLSTATE: 22000

<threadName> Thread ist tot.

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE: 420000

Der Prüfpunktspeicherort des Streams kann nicht aus dem Prüfpunktspeicherort der Quelle <checkPointLocation> abgeleitet werden

CF_UNABLE_TO_DETECT_FILE_FORMAT

SQLSTATE: 420000

Das Quelldateiformat aus <fileSize>-Stichprobendateien konnte nicht erkannt werden, es wurde <formats> gefunden. Geben Sie das Format an.

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE: 420000

Bucketinformationen können nicht extrahiert werden. Pfad: „<path>“, aufgelöster URI: „<uri>“.

CF_UNABLE_TO_EXTRACT_KEY_INFO

SQLSTATE: 420000

Schlüsselinformationen können nicht extrahiert werden. Pfad: „<path>“, aufgelöster URI: „<uri>“.

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE: 420000

Speicherkontoinformationen können nicht extrahiert werden; Pfad: '<path>', aufgelöste URI: '<uri>'

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE: 22000

Es wurde ein Verzeichnisbenennungsereignis für den Pfad <path>empfangen, aber wir können dieses Verzeichnis nicht effizient auflisten. Damit der Datenstrom fortgesetzt werden kann, legen Sie die Option "cloudFiles.ignoreDirRenames" auf "true" fest, und erwägen Sie, reguläre Backfills mit "cloudFiles.backfillInterval" zu aktivieren, damit diese Daten verarbeitet werden.

CF_UNEXPECTED_READ_LIMIT

SQLSTATE: 22000

Unerwartetes Leselimit: <readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE: 420000

Unbekannte Optionstasten gefunden:

<optionList>

Stellen Sie sicher, dass alle bereitgestellten Optionstasten korrekt sind. Wenn Sie die

Überprüfung Ihrer Optionen überspringen und diese unbekannten Optionen ignorieren möchten, können Sie Folgendes festlegen:

.option(“cloudFiles.<validateOptions>”, “false”)

CF_UNKNOWN_READ_LIMIT

SQLSTATE: 22000

Unbekanntes LeseLimit: <readLimit>

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION

SQLSTATE: 0A000

Die SQL-Funktion "cloud_files" zum Erstellen einer Streamingquelle für das automatische Laden wird nur in einer Delta Live Tables-Pipeline unterstützt. Weitere Details finden Sie unter:

<docLink>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE: 0A000

Die Schemaerkennung wird für das Format nicht unterstützt: <format>. Geben Sie das Schema an.

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE: 0A000

Nicht unterstützte Logversion: Die maximal unterstützte Logversion ist v<maxVersion>``, but encountered v``<version>. Die Protokolldatei wurde von einer neueren Version von DBR erstellt und kann von dieser Version nicht gelesen werden. Bitte aktualisieren.

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE: 0A000

Schema-Evolutionsmodus <mode> wird für Format <format>nicht unterstützt. Legen Sie den Schemaentwicklungsmodus auf "none" fest.

CF_USE_DELTA_FORMAT

SQLSTATE: 420000

Das Lesen aus einer Delta-Tabelle wird mit dieser Syntax nicht unterstützt. Wenn Sie Daten aus Delta nutzen möchten, lesen Sie bitte die Dokumente: lesen Sie eine Delta-Tabelle (<deltaDocLink>) oder lesen Sie eine Delta-Tabelle als Datenstromquelle (<streamDeltaDocLink>). Die Streamingquelle von Delta ist bereits für den inkrementellen Verbrauch von Daten optimiert.

Geodaten

EWKB_PARSE_ERROR

SQLSTATE: 22023

Fehler beim Parsen von EWKB „<parseError>“ an Position <pos>

Fehler beim Parsen von GEOJSON

SQLSTATE: 22023

Fehler beim Analysieren von GeoJSON: <parseError> an Position <pos>

Weitere Informationen finden Sie unter GEOJSON_PARSE_ERROR

H3_INVALID_CELL_ID

SQLSTATE: 22023

<h3Cell> ist keine gültige H3-Zell-ID.

Weitere Details finden Sie unter H3_INVALID_CELL_ID.

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE: 22023

H3-Rasterabstand <k> darf nicht negativ sein

Weitere Details finden Sie unter H3_INVALID_GRID_DISTANCE_VALUE.

H3_INVALID_RESOLUTION_VALUE

SQLSTATE: 22023

Die H3-Auflösung <r> muss zwischen <minR> und <maxR> liegen (inklusive)

Weitere Details finden Sie unter H3_INVALID_RESOLUTION_VALUE.

H3_NOT_ENABLED

SQLSTATE: 0A000

<h3Expression> ist deaktiviert oder wird nicht unterstützt. Erwägen Sie, Photon zu aktivieren oder zu einer Stufe zu wechseln, die H3-Ausdrücke unterstützt

Weitere Details finden Sie unter H3_NOT_ENABLED.

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE: 22023

Beim Berechnen des Hexrings von <h3Cell> mit Rasterabstand <k> ist ein Fünfeck aufgetreten.

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE: 22023

H3-Rasterabstand zwischen <h3Cell1> und <h3Cell2> ist nicht definiert

ST_DIFFERENT_SRID_VALUES

SQLSTATE: 22023

Argumente für "<sqlFunction>" müssen denselben SRID-Wert aufweisen. SRID-Werte gefunden: <srid1>, <srid2>

ST_INVALID_ARGUMENT

SQLSTATE: 22023

<sqlFunction>“: <reason>

ST_INVALID_ARGUMENT_TYPE

SQLSTATE: 22023

Das Argument für „<sqlFunction>“ muss vom Typ „<validTypes>“ sein

ST_INVALID_CRS_TRANSFORMATION_ERROR

SQLSTATE: 22023

<sqlFunction>: Ungültige oder nicht unterstützte CRS-Transformation von SRID-<srcSrid> in SRID-<trgSrid>

ST_INVALID_ENDIANNESS_VALUE

SQLSTATE: 22023

Die Byte-Reihenfolge „<e>“ muss „NDR“ (little-endian) oder „XDR“ (big-endian) sein

ST_INVALID_GEOHASH_VALUE

SQLSTATE: 22023

<sqlFunction>: Ungültiger Geohashwert: '<geohash>'. Geohash-Werte müssen gültige Base32-Zeichenfolgen in Kleinbuchstaben sein, wie inhttps://en.wikipedia.org/wiki/Geohash#Textual_representation

ST_INVALID_INDEX_VALUE

SQLSTATE: 22023

<sqlFunction>: Ungültiger Index <index> für den bereitgestellten Geospatialwert.

ST_INVALID_PRECISION_VALUE

SQLSTATE: 22023

Präzisions-<p> muss zwischen <minP> und <maxP>(einschließlich) liegen.

ST_INVALID_SRID_VALUE

SQLSTATE: 22023

Ungültige oder nicht unterstützte SRID <srid>

ST_NOT_ENABLED

SQLSTATE: 0A000

<stExpression> ist deaktiviert oder wird nicht unterstützt. Erwägen Sie, Photon zu aktivieren oder zu einer Stufe zu wechseln, die ST-Ausdrücke unterstützt

ST_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

Die Datentypen GEOGRAPHY und GEOMETRY können in Abfragen nicht zurückgegeben werden. Verwenden Sie einen der folgenden SQL-Ausdrücke, um sie in Standardaustauschformate zu konvertieren: <projectionExprs>.

WKB_PARSE_ERROR

SQLSTATE: 22023

Fehler beim Analysieren von WKB „<parseError>“ an Position <pos>

Weitere Informationen finden Sie unter WKB_PARSE_ERROR

WKT_PARSE_ERROR

SQLSTATE: 22023

Fehler beim Parsen von WKT <parseError> bei Position <pos>

Weitere Details finden Sie unter WKT_PARSE_ERROR.

Unity-Katalog

CONFLICTING_COLUMN_NAMES_ERROR

SQLSTATE: 42711

Spalte <columnName> konfliktet mit einer anderen Spalte mit demselben Namen, aber ohne nachfolgende Leerzeichen (z. B. eine vorhandene Spalte mit dem Namen <columnName> ''). Benennen Sie die Spalte mit einem anderen Namen um.

CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION

SQLSTATE: nicht zugewiesen

Ungültige Anforderung zum Abrufen von Anmeldeinformationen auf Verbindungsebene für die Verbindung vom Typ <connectionType>. Solche Anmeldeinformationen sind nur für verwaltete PostgreSQL-Verbindungen verfügbar.

CONNECTION_TYPE_NOT_ENABLED

SQLSTATE: nicht zugewiesen

Der Verbindungstyp '<connectionType>' ist nicht aktiviert. Aktivieren Sie die Verbindung, um sie zu verwenden.

DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS

SQLSTATE: nicht zugewiesen

Es gibt bereits ein Empfängerobjekt („<existingRecipientName>“) mit demselben Freigabebezeichner „<existingMetastoreId>“.

DELTA_SHARING_READ_ONLY_SECURABLE_KIND

SQLSTATE: nicht zugewiesen

Daten der sicherungsfähigen Delta-Freigabeart <securableKindName> sind schreibgeschützt und können nicht erstellt, geändert oder gelöscht werden.

EXTERNAL_ACCESS_DISABLED_ON_METASTORE

SQLSTATE: nicht zugewiesen

Die Ausgabe von Anmeldeinformationen wird für Nicht-Databricks-Compute-Umgebung abgelehnt, da der Zugriff auf externe Daten für Metastore <metastoreName> deaktiviert wurde. Wenden Sie sich an Ihren Metastore-Administrator, um die Konfiguration "Externer Datenzugriff" im Metastore zu aktivieren.

EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE

SQLSTATE: nicht zugewiesen

Auf die Tabelle mit der ID <tableId> kann aufgrund ihrer Art <securableKind>außerhalb der Databricks Compute Environment nicht zugegriffen werden. Nur "TABLE_EXTERNAL", "TABLE_DELTA_EXTERNAL" und "TABLE_DELTA" Tabellentypen können extern aufgerufen werden.

EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE

SQLSTATE: nicht zugewiesen

Berechtigungen EXTERNAL USE SCHEMA gelten nicht für diese Entität <assignedSecurableType> und können nur einem Schema oder Katalog zugewiesen werden. Entfernen Sie die Berechtigungen aus dem <assignedSecurableType>-Objekt, und weisen Sie sie stattdessen einem Schema oder Katalog zu.

EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE

SQLSTATE: nicht zugewiesen

Tabelle mit ID <tableId> kann wegen ihres Typs <securableKind>nicht von außerhalb der "Databricks Compute Environment" beschrieben werden. Nur 'TABLE_EXTERNAL' und 'TABLE_DELTA_EXTERNAL' Tabellentypen können extern geschrieben werden.

FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES

SQLSTATE: nicht zugewiesen

Der Speicherort für einen Fremdkatalog vom Typ <catalogType> wird zum Entladen von Daten verwendet und darf nicht schreibgeschützt sein.

HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED

SQLSTATE: nicht zugewiesen

Die Anzahl der <resourceType> für Eingabepfad <url> überschreitet den zulässigen Grenzwert (<overlapLimit>) für überlappende HMS-<resourceType>.

INVALID_RESOURCE_NAME_DELTA_SHARING

SQLSTATE: nicht zugewiesen

Delta-Freigabeanforderungen werden nicht mit Ressourcennamen unterstützt.

INVALID_RESOURCE_NAME_ENTITY_TYPE

SQLSTATE: nicht zugewiesen

Der bereitgestellte Ressourcenname verweist auf den Entitätstyp <provided>, aber es wurde <expected> erwartet.

INVALID_RESOURCE_NAME_METASTORE_ID

SQLSTATE: nicht zugewiesen

Der bereitgestellte Ressourcenname verweist auf einen Metaspeicher, der für die aktuelle Anforderung nicht im Gültigkeitsbereich ist.

LOCATION_OVERLAP

SQLSTATE: Nicht zugewiesen

Eingabepfad-URL „<path>“ überlappt mit <overlappingLocation> innerhalb des Aufrufs „<caller>“. <conflictingSummary>.

REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3

SQLSTATE: nicht zugewiesen

Der Speicherstamm für den Fremdkatalog von Redshift muss AWS S3 sein.

SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE: nicht zugewiesen

Sicherungsfähig mit Art <securableKind> unterstützt keinen Lakehouse Verbund.

SECURABLE_KIND_NOT_ENABLED

SQLSTATE: nicht zugewiesen

Sicherungsfähige Art „<securableKind>“ ist nicht aktiviert. Wenn es sich um eine sicherungsfähige Art handelt, die einer Previewfunktion zugeordnet ist, aktivieren Sie sie in den Arbeitsbereichseinstellungen.

SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE: nicht zugewiesen

Sicherungsfähig mit Typ <securableType> unterstützt keinen Lakehouse Verbund.

Quelltabelle-Spaltenanzahl überschreitet das Limit

SQLSTATE: nicht zugewiesen

Die Quelltabelle enthält mehr als <columnCount> Spalten. Bitte reduzieren Sie die Anzahl der Spalten auf <columnLimitation> oder weniger.

UC_AAD_TOKEN_LIFETIME_TOO_SHORT

SQLSTATE: nicht zugewiesen

Die ausgetauschte AAD-Tokenlebensdauer beträgt <lifetime> und ist zu kurz konfiguriert. Überprüfen Sie Ihre Azure AD-Einstellung, um sicherzustellen, dass das temporäre Zugriffstoken mindestens eine Stunde lebensdauer hat.https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes

UC_ABAC_EVALUATION_ERROR

SQLSTATE: nicht zugewiesen

Fehler beim Auswerten von ABAC-Richtlinien für <resource>.

UC_AUTHZ_ACTION_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Die Autorisierung <actionName> wird nicht unterstützt; Überprüfen Sie, ob der aufgerufene RPC für diesen Ressourcentyp implementiert ist.

UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Es kann keine Verbindung für einen integrierten Hive-Metaspeicher erstellt werden, da der Benutzer: <userId> nicht der Administrator des Arbeitsbereichs ist: <workspaceId>

UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD

SQLSTATE: nicht zugewiesen

Versuchen Sie, ein eingeschränktes Feld in der integrierten HMS-Verbindung '<connectionName>' zu ändern. Nur "warehouse_directory" kann aktualisiert werden.

UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN

SQLSTATE: nicht zugewiesen

Fehler beim Umbenennen der Tabellenspalte <originalLogicalColumn>, da sie für die Partitionsfilterung in <sharedTableName>verwendet wird. Um fortzufahren, können Sie die Tabelle aus der Freigabe entfernen, die Spalte umbenennen und mit den gewünschten Partitionsfilterspalten erneut freigeben. Dies kann jedoch die Streamingabfrage für Ihren Empfänger unterbrechen.

UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER

SQLSTATE: nicht zugewiesen

<securableType> '<securable>' kann nicht unter <parentSecurableType> '<parentSecurable>' erstellt werden, da die Anforderung nicht von einem UC-Cluster stammt.

UC_CLOUD_STORAGE_ACCESS_FAILURE

SQLSTATE: nicht zugewiesen

Fehler beim Zugriff auf Cloudspeicher: <errMsg> exceptionTraceId=<exceptionTraceId>

UC_CONFLICTING_CONNECTION_OPTIONS

SQLSTATE: nicht zugewiesen

Eine Verbindung mit den Authentifizierungsoptionen "Benutzername/Kennwort" und "Oauth" kann nicht hergestellt werden. Wählen Sie eine aus.

UC_CONNECTION_EXISTS_FOR_CREDENTIAL

SQLSTATE: nicht zugewiesen

Die Anmeldeinformationen „<credentialName>“ haben mindestens eine abhängige Verbindung. Sie können die Option "Erzwingen" verwenden, um die Anmeldeinformationen weiterhin zu aktualisieren oder zu löschen, aber die Verbindungen, die diese Anmeldeinformationen verwenden, funktionieren möglicherweise nicht mehr.

UC_CONNECTION_EXPIRED_ACCESS_TOKEN

SQLSTATE: nicht zugewiesen

Das der Verbindung zugeordnete Zugriffstoken ist abgelaufen. Aktualisieren Sie die Verbindung, um den OAuth-Fluss neu zu starten, um ein Token abzurufen.

UC_CONNECTION_EXPIRED_REFRESH_TOKEN

SQLSTATE: nicht zugewiesen

Das aktualisierungstoken, das der Verbindung zugeordnet ist, ist abgelaufen. Aktualisieren Sie die Verbindung, um den OAuth-Fluss neu zu starten, um ein neues Token abzurufen.

UC_CONNECTION_IN_FAILED_STATE

SQLSTATE: Kein Wert zugewiesen

Die Verbindung befindet sich im FAILED Zustand. Aktualisieren Sie die Verbindung mit gültigen Anmeldeinformationen, um sie erneut zu aktivieren.

UC_CONNECTION_MISSING_REFRESH_TOKEN

SQLSTATE: nicht zugewiesen

Der Verbindung ist kein Aktualisierungstoken zugeordnet. Aktualisieren Sie die OAuth-Client-Integration in Ihrem Identitätsanbieter, um Aktualisierungs-Token zurückzugeben, und aktualisieren oder erstellen Sie die Verbindung neu, um den OAuth-Fluss erneut zu starten und die erforderlichen Token abzurufen.

UC_CONNECTION_OAUTH_EXCHANGE_FAILED

SQLSTATE: nicht zugewiesen

Fehler beim OAuth-Tokenaustausch mit HTTP-Statuscode <httpStatus>. Die zurückgegebene Serverantwort oder Ausnahmemeldung lautet: <response>

UC_COORDINATED_COMMITS_NOT_ENABLED

SQLSTATE: kein Wert zugewiesen

Die Unterstützung für koordinierte Commits ist nicht aktiviert. Wenden Sie sich bitte an den Databricks-Support.

UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE

SQLSTATE: nicht zugewiesen

<securableType> '<securableName>' kann nicht erstellt werden, da es sich unter einem <parentSecurableType> '<parentSecurableName>' befindet, der nicht aktiv ist. Löschen Sie das übergeordnete sicherungsfähige Element, und erstellen Sie das übergeordnete Element neu.

UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE: nicht zugewiesen

Fehler beim Parsen der bereitgestellten Zugriffsconnector-ID: <accessConnectorId>. Überprüfen Sie die Formatierung, und versuchen Sie es erneut.

UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE: nicht zugewiesen

Fehler beim Erhalten eines AAD-Tokens zur Überprüfung der Cloud-Berechtigungen für einen Zugriffskonnektor. Wiederholen Sie die Aktion.

UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE: keiner wurde zugewiesen

Für die Registrierung von Anmeldeinformationen ist die Teilnehmerrolle über den entsprechenden Zugriffsconnector mit ID <accessConnectorId> erforderlich. Wenden Sie sich an Ihren Kontoadministrator.

UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE

SQLSTATE: nicht zugewiesen

Der Anmeldeinformationstyp „<credentialType>“ wird für den Zweck „<credentialPurpose>“ nicht unterstützt.

UC_CREDENTIAL_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Nur der Kontoadministrator kann eine Anmeldeinformation mit dem Typ <storageCredentialType>erstellen oder aktualisieren.

UC_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE: nicht zugewiesen

Die Vertrauensrichtlinie der IAM-Rolle, um dem Databricks-Konto zu erlauben, die Rolle zu übernehmen, sollte eine externe ID erfordern. Wenden Sie sich an Ihren Kontoadministrator, um die Bedingung für die externe ID hinzuzufügen. Dieses Verhalten dient dazu, das Problem des verwirrten Stellvertreters (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) zu vermeiden.

UC_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Dienstprinzipale können die CREATE_STORAGE_CREDENTIAL Berechtigung nicht zum Registrieren verwalteter Identitäten verwenden. Um eine verwaltete Identität zu registrieren, weisen Sie dem Dienstprinzipal die Kontoadministratorrolle zu.

UC_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE: nicht zugewiesen

Das Erstellen oder Aktualisieren von Anmeldeinformationen als Nicht-Kontoadministrator wird in der API auf Kontoebene nicht unterstützt. Verwenden Sie stattdessen die API auf Arbeitsbereichsebene.

UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION

SQLSTATE: nicht zugewiesen

Die Iceberg-Tabellenversion kann nicht vom Metadatenstandort <metadataLocation>ausgelesen werden.

UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE

SQLSTATE: nicht zugewiesen

Es wurde eine gleichzeitige Aktualisierung derselben Iceberg-Metadatenversion erkannt.

UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION

SQLSTATE: nicht zugewiesen

Der zugesicherte Metadatenspeicherort <metadataLocation> ist ungültig. Es handelt sich nicht um ein Unterverzeichnis des Stammverzeichnisses der Tabelle <tableRoot>.

UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT

SQLSTATE: nicht zugewiesen

In den bereitgestellten Informationen zum Delta-Iceberg-Format fehlen erforderliche Felder.

UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT

SQLSTATE: nicht zugewiesen

Das Festlegen von Delta-Iceberg-Formatinformationen beim Erstellen wird nicht unterstützt.

UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT

SQLSTATE: nicht zugewiesen

Die Informationen zur Delta-Iceberg-Formatkonvertierung sind zu umfangreich.

UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID

SQLSTATE: nicht zugewiesen

Einheitliche Metadaten können nur auf Delta-Tabellen aktualisiert werden, wenn das Uniform-Feature aktiviert ist.

UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED

SQLSTATE: nicht zugewiesen

Tiefe von <resourceType><ref>“ überschreitet den Grenzwert (oder hat einen Zirkelbezug).

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

<resourceType> '<ref>' ist ungültig, da eine der zugrunde liegenden Ressourcen nicht vorhanden ist. <cause>

UC_DEPENDENCY_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

<resourceType> "<ref>" verfügt nicht über ausreichende Berechtigungen zum Ausführen, da der Eigentümer einer der zugrunde liegenden Ressourcen eine Autorisierungsprüfung nicht bestanden hat. <cause>

UC_DUPLICATE_CONNECTION

SQLSTATE: kein Wert zugewiesen

Eine Verbindung namens "<connectionName>" mit derselben URL ist bereits vorhanden. Bitten Sie den Besitzer, diese Verbindung zu verwenden, anstatt ein Duplikat zu erstellen.

UC_DUPLICATE_FABRIC_CATALOG_CREATION

SQLSTATE: nicht zugewiesen

Es wurde versucht, einen Fabric-Katalog mit url '<storageLocation>' zu erstellen, die einem vorhandenen Katalog entspricht, der nicht zulässig ist.

UC_DUPLICATE_TAG_ASSIGNMENT_CREATION

SQLSTATE: nicht zugewiesen

Die Tag-Zuweisung mit dem Tagschlüssel <tagKey> existiert bereits.

UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER

SQLSTATE: nicht zugewiesen

Die Entität <securableType> <entityId> verfügt nicht über einen entsprechenden Onlinecluster.

UC_EXCEEDS_MAX_FILE_LIMIT

SQLSTATE: nicht zugewiesen

Es sind mehr als <maxFileResults> Dateien vorhanden. Geben Sie [max_results] an, um die Anzahl der zurückgegebenen Dateien einzuschränken.

UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED

SQLSTATE: nicht zugewiesen

<opName> <extLoc> <reason> nicht möglich. <suggestion>.

UC_FEATURE_DISABLED

SQLSTATE: nicht zugewiesen

<featureName> ist derzeit in UC deaktiviert.

UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Das Erstellen eines Fremdkatalogs für den Verbindungstyp "<connectionType>" wird nicht unterstützt. Dieser Verbindungstyp kann nur zum Erstellen verwalteter Aufnahmepipelines verwendet werden. Weitere Informationen finden Sie in der Databricks-Dokumentation.

UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS

SQLSTATE: nicht zugewiesen

Nur Leseberechtigungen können für Fremdtabellen abgerufen werden.

UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH

SQLSTATE: nicht zugewiesen

Die unter- und übergeordneten Spalten von Fremdschlüssel <constraintName> sind unterschiedlich groß.

UC_FOREIGN_KEY_COLUMN_MISMATCH

SQLSTATE: nicht zugewiesen

Die übergeordneten Fremdschlüsselspalten stimmen nicht mit den referenzierten untergeordneten Primärschlüsselspalten überein. Übergeordnete Fremdschlüsselspalten sind (<parentColumns>), und untergeordnete Primärschlüsselspalten sind (<primaryKeyChildColumns>).

UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH

SQLSTATE: nicht zugewiesen

Der untergeordnete Spaltentyp des Fremdschlüssels stimmt nicht mit dem übergeordneten Spaltentyp überein. Untergeordnete Fremdschlüsselspalte <childColumnName> hat Typ <childColumnType>, und übergeordnete Spalte <parentColumnName> hat Typ <parentColumnType>.

UC_GCP_INVALID_PRIVATE_KEY (Ungültiger privater Schlüssel in UC_GCP)

SQLSTATE: nicht zugewiesen

Zugriff abgelehnt. Ursache: Privater Schlüssel des Dienstkontos ist ungültig.

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT

SQLSTATE: nicht zugewiesen

Google Server-Konto OAuth Private Key muss ein gültiges JSON-Objekt mit erforderlichen Feldern sein. Stellen Sie bitte sicher, dass Sie die vollständige JSON-Datei bereitstellen, die aus dem Abschnitt "KEYS" der Seite mit den Details des Dienstkontos generiert wird.

UC_GCP_UNGÜLTIGES_PRIVATSCHLÜSSEL_JSON_FORMAT_FEHLENDE_FELDER

SQLSTATE: nicht zugewiesen

Google Server-Konto OAuth Private Key muss ein gültiges JSON-Objekt mit erforderlichen Feldern sein. Stellen Sie bitte sicher, dass Sie die vollständige JSON-Datei bereitstellen, die aus dem Abschnitt "KEYS" der Seite mit den Details des Dienstkontos generiert wird. Fehlende Felder sind <missingFields>

UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: nicht zugewiesen

Es wurde festgestellt, dass die IAM-Rolle für diese Speicheranmeldeinformationen nicht selbstübernehmend ist. Überprüfen Sie die Vertrauens- und IAM-Richtlinien Ihrer Rolle, um sicherzustellen, dass Ihre IAM-Rolle sich gemäß der Dokumentation zu Unity Catalog-Speicheranmeldeinformationen selbst annehmen kann.

UC_ICEBERG_COMMIT_CONFLICT

SQLSTATE: nicht zugewiesen

Commit für <tableName> nicht möglich: Metadatenspeicherort <baseMetadataLocation> wurde von <catalogMetadataLocation> geändert.

UC_ICEBERG_COMMIT_INVALID_TABLE

SQLSTATE: nicht zugewiesen

Verwaltetes Iceberg-Commit kann nicht für eine unverwaltete Iceberg-Tabelle ausgeführt werden: <tableName>.

UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT

SQLSTATE: nicht zugewiesen

In den bereitgestellten Informationen zum verwalteten Iceberg-Commit fehlen erforderliche Felder.

UC_ID_MISMATCH

SQLSTATE: nicht zugewiesen

<type> <name> hat nicht ID <wrongId>. Versuchen Sie den Vorgang erneut.

UC_INVALID_ACCESS_DBFS_ENTITY

SQLSTATE: nicht zugewiesen

Ungültiger Zugriff auf <securableType> <securableName> im Verbundkatalog <catalogName>. <reason>

UC_UNGÜLTIGE_CLOUDFLARE_KONTONUMMER

SQLSTATE: nicht zugewiesen

Ungültige Cloudflare-Konto-ID.

UC_INVALID_CREDENTIAL_CLOUD

SQLSTATE: nicht zugewiesen

Ungültiger Cloudanbieter „<cloud>“ für Anmeldeinformationen. Zulässiger Cloudanbieter '<allowedCloud>'.

UC_INVALID_CREDENTIAL_PURPOSE_VALUE

SQLSTATE: nicht zugewiesen

Ungültiger Wert „<value>“ für den „Zweck“ der Anmeldeinformationen. Zulässige Werte '<allowedValues>'.

UC_INVALID_CREDENTIAL_TRANSITION

SQLSTATE: nicht zugewiesen

Es kann keine Verbindung von <startingCredentialType> auf <endingCredentialType>aktualisiert werden. Der einzige gültige Übergang besteht aus einer benutzernamen-/kennwortbasierten Verbindung zu einer OAuth-tokenbasierten Verbindung.

UC_INVALID_CRON_STRING_FABRIC

SQLSTATE: nicht zugewiesen

Ungültige Cron-Zeichenfolge. Gefunden: „<cronString>“ mit Parsing-Ausnahme: „<message>

UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE

SQLSTATE: nicht zugewiesen

Ungültige verwaltete Tabelle für direkten Zugriff <tableName>. Stellen Sie sicher, dass die Pipelinedefinitionen der Quelltabelle & nicht definiert sind.

UC_INVALID_EMPTY_STORAGE_LOCATION

SQLSTATE: nicht zugewiesen

Unerwarteter leerer Speicherort für <securableType> '<securableName>' im Katalog '<catalogName>'. Um diesen Fehler zu beheben, führen Sie bitte DESCRIBE SCHEMA <catalogName>aus.<securableName>, und aktualisieren Sie diese Seite.

UC_INVALID_OPTIONS_UPDATE

SQLSTATE: nicht zugewiesen

Ungültige Optionen wurden für das Update bereitgestellt. Ungültige Optionen: <invalidOptions>. Zulässige Optionen: <allowedOptions>.

UC_INVALID_OPTION_VALUE

SQLSTATE: nicht zugewiesen

Ungültiger Wert '<value>' für '<option>'. Zulässige Werte '<allowedValues>'.

UC_INVALID_OPTION_VALUE_EMPTY

SQLSTATE: kein Wert zugewiesen

'<option>' darf nicht leer sein. Geben Sie einen nicht leeren Wert ein.

UC_INVALID_R2_ACCESS_KEY_ID

SQLSTATE: nicht zugewiesen

Ungültige R2-Zugriffstasten-ID.

UC_INVALID_R2_SECRET_ACCESS_KEY

SQLSTATE: nicht zugewiesen

Ungültiger geheimer R2-Zugriffsschlüssel.

UC_INVALID_RULE_CONDITION

SQLSTATE: nicht zugewiesen

Ungültige Bedingung in regel '<ruleName>'. Kompilierungsfehler mit meldung '<message>'.

UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE

SQLSTATE: nicht zugewiesen

<securableType><securableName>“ kann nicht aktualisiert werden, da es sich im Besitz einer internen Gruppe befindet. Bitte wenden Sie sich an den Databricks-Support, um weitere Details zu erhalten.

UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL

SQLSTATE: nicht zugewiesen

Die bereitgestellten Speicher-Zugangsdaten <storageCredentialName> sind nicht mit dem DBFS-Stamm verbunden, daher ist die Erstellung eines wasbs-Externstandorts nicht zulässig.

UC_LOCATION_INVALID_SCHEME

SQLSTATE: nicht zugewiesen

Der Speicherort weist ein ungültiges URI-Schema auf: <scheme>.

UC_MALFORMED_OAUTH_SERVER_RESPONSE

SQLSTATE: nicht zugewiesen

Die Antwort vom Token-Server enthielt das Feld <missingField>nicht. Die zurückgegebene Serverantwort lautet: <response>

UC_METASTORE_ASSIGNMENT_STATUS_INVALID

SQLSTATE: nicht zugewiesen

'<metastoreAssignmentStatus>' kann nicht zugewiesen werden. Nur MANUALLY_ASSIGNABLE und AUTO_ASSIGNMENT_ENABLED werden unterstützt.

UC_METASTORE_CERTIFICATION_NOT_ENABLED

SQLSTATE: nicht zugewiesen

Die Metastore-Zertifizierung ist nicht aktiviert.

UC_METASTORE_DB_SHARD_MAPPING_NOT_FOUND

SQLSTATE: nicht zugewiesen

Fehler beim Abrufen eines Metastores zur Datenbank-Shardzuordnung für Metastore-ID <metastoreId> aufgrund eines internen Fehlers. Wenden Sie sich bitte an den Databricks-Support.

UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS

SQLSTATE: nicht zugewiesen

Der Metastore <metastoreId> enthält <numberManagedOnlineCatalogs> verwaltete(n) Onlinekatalog(e). Löschen Sie sie explizit, und wiederholen Sie dann den Metastore-Löschvorgang.

UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID

SQLSTATE: nicht zugewiesen

Metastore-Stammanmeldeinformationen können beim Aktualisieren des Metastore-Stammspeicherorts nicht festgelegt werden. Die Anmeldeinformationen werden vom übergeordneten externen Speicherort des Metastores abgerufen.

UC_METASTORE_STORAGE_ROOT_DELETION_INVALID

SQLSTATE: kein Wert zugewiesen

Das Löschen des Metastore-Speicherwurzelorts ist fehlgeschlagen. <reason>

UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID

SQLSTATE: nicht zugewiesen

Der Stamm <securableType> für einen Metastore darf nicht schreibgeschützt sein.

UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID

SQLSTATE: nicht zugewiesen

Der Metastore-Speicherstamm kann nicht aktualisiert werden, nachdem er festgelegt wurde.

UC_MODEL_INVALID_STATE

SQLSTATE: nicht zugewiesen

Temporäre Anmeldeinformationen „<opName>“ für Modellversion <modelVersion> mit Status <modelVersionStatus> können nicht generiert werden. „<opName>“-Anmeldeinformationen können nur für Modellversionen mit Status <validStatus> generiert werden.

UC_NO_ORG_ID_IN_CONTEXT

SQLSTATE: nicht zugewiesen

Es wurde versucht, auf die Organisations-ID (oder Arbeitsbereichs-ID) zuzugreifen, der Kontext hat jedoch keine.

UC_ONLINE_CATALOG_NOT_MUTABLE

SQLSTATE: nicht zugewiesen

Die <rpcName>-Anforderung aktualisiert <fieldName>. Verwenden Sie die Computeregisterkarte für den Onlinespeicher, um alles andere als Kommentar, Besitzende und isolationMode eines Onlinekatalogs zu ändern.

UC_ONLINE_CATALOG_QUOTA_EXCEEDED

SQLSTATE: nicht zugewiesen

Es können höchstens <quota> Onlinespeicher im Metastore erstellt werden, und es gibt bereits <currentCount>. Möglicherweise haben Sie keinen Zugriff auf vorhandene Online-Stores. Wenden Sie sich an Ihren Metastore-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.

UC_ONLINE_INDEX_CATALOG_INVALID_CRUD

SQLSTATE: nicht zugewiesen

Onlineindexkataloge müssen über die API „/vector-search“ <action> werden.

UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE

SQLSTATE: nicht zugewiesen

Die <rpcName>-Anforderung aktualisiert <fieldName>. Verwenden Sie die API „/vector-search“, um alles andere als Kommentar, Besitzende und isolationMode eines Onlineindexkatalogs zu ändern.

Das Kontingent für den UC Online-Indexkatalog wurde überschritten.

SQLSTATE: nicht zugewiesen

Es können höchstens <quota> Onlineindexkataloge im Metastore erstellt werden, und es gibt bereits <currentCount>. Möglicherweise haben Sie keinen Zugriff auf vorhandene Onlineindexkataloge. Wenden Sie sich an Ihren Metastore-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.

UC_ONLINE_INDEX_INVALID_CRUD

SQLSTATE: kein zugewiesener Wert

Onlineindizes müssen über die API „/vector-search“ <action> werden.

UC_ONLINE_STORE_INVALID_CRUD

SQLSTATE: nicht zugewiesen

Onlinespeicher müssen über die Computeregisterkarte des Onlinespeichers <action> werden.

UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG

SQLSTATE: nicht zugewiesen

Der Name der Quelltabellenspalte <columnName> ist zu lang. Die maximale Länge beträgt <maxLength> Zeichen.

UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE: nicht zugewiesen

Spalte <columnName> kann nicht als Primärschlüsselspalte der Onlinetabelle verwendet werden, da sie nicht Teil der vorhandenen PRIMARY KEY Einschränkung der Quelltabelle ist. Weitere Informationen finden Sie unter <docLink>

UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE: nicht zugewiesen

Spalte <columnName> kann nicht als Zeitserienschlüssel der Onlinetabelle verwendet werden, da es sich nicht um eine Zeitserienspalte der vorhandenen PRIMARY KEY Einschränkung der Quelltabelle handelt. Weitere Informationen finden Sie unter <docLink>

UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE: nicht zugewiesen

Pro Quelltabelle können nicht mehr als <quota> Onlinetabellen erstellt werden.

UC_ONLINE_VIEW_ACCESS_DENIED

SQLSTATE: nicht zugewiesen

Für den Zugriff auf Ressourcen <resourceName> ist die Verwendung eines Serverless SQL Warehouse erforderlich. Stellen Sie sicher, dass das Lager, das verwendet wird, um eine Abfrage auszuführen oder einen Datenbankkatalog in der Benutzeroberfläche anzuzeigen, serverlos ist. Weitere Informationen finden Sie unter <docLink>

UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED

SQLSTATE: nicht zugewiesen

Es können höchstens <quota> fortlaufende Onlineansichten im Onlinespeicher erstellt werden, und es gibt bereits <currentCount>. Möglicherweise haben Sie keinen Zugriff auf vorhandene Onlineansichten. Wenden Sie sich an Ihren Online-Shop-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.

UC_ONLINE_VIEW_UNTERSTÜTZT_NICHT_DMK

SQLSTATE: kein Wert zugewiesen

<tableKind> kann unter einem Speicherort mit von Databricks verwalteten Schlüsseln nicht erstellt werden. Wählen Sie ein anderes Schema/Katalog an einem Speicherort ohne Verschlüsselung für verwaltete Schlüssel von Databricks aus.

UC_ONLINE_VIEW_INVALID_CATALOG

SQLSTATE: nicht zugewiesen

Ungültiger Katalog <catalogName> mit Art <catalogKind>, um <tableKind> darin zu erstellen. <tableKind> kann nur unter Katalogen der folgenden Arten erstellt werden: <validCatalogKinds>.

UC_ONLINE_VIEW_INVALID_SCHEMA

SQLSTATE: nicht zugewiesen

Ungültiges Schema <schemaName> mit Art <schemaKind>, um <tableKind> darin zu erstellen. <tableKind> kann nur unter Schemas der folgenden Arten erstellt werden: <validSchemaKinds>.

UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE

SQLSTATE: nicht zugewiesen

Spalten-<columnName> vom Typ <columnType> können nicht als TTL-Zeitspalte verwendet werden. Zulässige Typen sind <supportedTypes>.

UC_OUT_OF_AUTHORIZED_PATHS_SCOPE

SQLSTATE: nicht zugewiesen

Fehler bei autorisiertem Pfad. Der <securableType>-Speicherort <location> ist nicht innerhalb der autorisierten Pfade für den Katalog definiert: <catalogName>. Bitten Sie den Katalogbesitzer, den Pfad zur Liste der autorisierten Pfade hinzuzufügen, die im Katalog definiert sind.

UC_OVERLAPPED_AUTHORIZED_PATHS

SQLSTATE: nicht zugewiesen

Die Option „authorized_paths“ enthält überlappende Pfade: <overlappingPaths>. Stellen Sie sicher, dass jeder Pfad eindeutig ist und sich nicht mit anderen in der Liste überschneidet.

UC_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE: nicht zugewiesen

Das Abfrageargument '<arg>' ' ist auf '<received>' festgelegt, was sich vom Wert unterscheidet, der im ersten Paginierungsaufruf verwendet wird ('<expected>')

UC_PATH_TOO_LONG

SQLSTATE: nicht zugewiesen

Der Eingabepfad ist zu lang. Zulässige Länge: <maxLength>. Eingabelänge: <inputLength>. Eingabe: <path>

UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED

SQLSTATE: nicht zugewiesen

Zu viele Anforderungen an die Datenbank aus metastore <metastoreId>. Versuchen Sie es später erneut.

UC_PRIMARY_KEY_ON_NULLABLE_COLUMN

SQLSTATE: nicht zugewiesen

Der Primärschlüssel <constraintName> kann nicht erstellt werden, da die untergeordnete Spalte <childColumnNames> Nullwerte zulässt. Ändern Sie die NULL-Zulässigkeit der Spalte, und versuchen Sie es erneut.

UC_REQUEST_TIMEOUT

SQLSTATE: nicht zugewiesen

Dieser Vorgang dauerte zu lange.

UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT

SQLSTATE: nicht zugewiesen

Der S3-Bucketname des Stammspeichers mit Punkten wird vom Unity-Katalog nicht unterstützt: <uri>

UC_SCHEMA_EMPTY_STORAGE_LOCATION

SQLSTATE: nicht zugewiesen

Unerwarteter leerer Speicherort für schema '<schemaName>' im Katalog '<catalogName>'. Stellen Sie sicher, dass das Schema ein Pfadschema von <validPathSchemesListStr>verwendet.

UC_SERVICE_TEMPORARILY_UNAVAILABLE

SQLSTATE: nicht zugewiesen

Beim Verarbeiten Ihrer Anforderung ist ein temporäres Problem aufgetreten. Versuchen Sie es in einigen Momenten erneut. Wenn das Problem weiterhin besteht, wenden Sie sich an den Support.

UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE: nicht zugewiesen

Fehler beim Parsen der bereitgestellten Zugriffskonnektor-ID: <accessConnectorId>. Überprüfen Sie die Formatierung, und versuchen Sie es erneut.

UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Die Speicheranmeldeinformationen für den DBFS-Stamm können nicht erstellt werden, da der Benutzer: <userId> nicht der Administrator des Arbeitsbereichs ist: <workspaceId>

UC_STORAGE_CREDENTIAL_DBFS_ROOT_INVALID_LOCATION

SQLSTATE: nicht zugewiesen

Der Speicherort <location> befindet sich nicht innerhalb der DBFS-Stamm-<dbfsRootLocation>

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED

SQLSTATE: nicht zugewiesen

DBFS-Stammspeicher-Anmeldeinformationen werden für Arbeitsbereiche mit firewallfähigen DBFS noch nicht unterstützt.

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

DBFS-Root-Speicherberechtigungen für den aktuellen Arbeitsbereich werden derzeit nicht unterstützt.

UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED

SQLSTATE: nicht zugewiesen

Der DBFS-Stamm ist für den Arbeitsbereich <workspaceId> nicht aktiviert.

UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE: nicht zugewiesen

Fehler beim Abrufen eines AAD-Tokens zur Validierung von Cloud-Berechtigungen für einen Zugriffs-Connector. Wiederholen Sie die Aktion.

UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE: nicht zugewiesen

Für die Registrierung von Speicheranmeldeinformationen ist die Teilnehmerrolle über den entsprechenden Zugriffsconnector mit ID <accessConnectorId> erforderlich. Wenden Sie sich an Ihren Kontoadministrator.

UC_STORAGE_CREDENTIAL_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Nur der Kontoadministrator kann eine Speicheranmeldeinformation mit dem Typ <storageCredentialType>erstellen oder aktualisieren.

UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN

SQLSTATE: nicht zugewiesen

Fehlendes Überprüfungstoken für den Dienstprinzipal. Bitte geben Sie im Anforderungsheader "X-Databricks-Azure-SP-Management-Token" ein gültiges, auf ARM beschränktes Entra ID-Token ein und versuchen Sie es erneut. Details finden Sie unterhttps://docs.databricks.com/api/workspace/storagecredentials

UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE: nicht zugewiesen

Die Vertrauensrichtlinie der IAM-Rolle, damit das Databricks-Konto die Rolle übernehmen kann, sollte eine externe ID erfordern. Wenden Sie sich an Ihren Kontoadministrator, um die externe ID-Bedingung hinzuzufügen. Dieses Verhalten soll vor dem "Confused Deputy"-Problem https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) schützen.

UC_STORAGE_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Dienstprinzipale können die CREATE_STORAGE_CREDENTIAL Berechtigung nicht zum Registrieren verwalteter Identitäten verwenden. Um eine verwaltete Identität zu registrieren, weisen Sie dem Dienstprinzipal die Kontoadministratorrolle zu.

UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT

SQLSTATE: nicht zugewiesen

Der Speicherort <location> befindet sich nicht im DBFS-Stamm. Daher können wir keine Speicheranmeldeinformationen <storageCredentialName> erstellen.

UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE: nicht zugewiesen

Das Erstellen oder Aktualisieren von Speicheranmeldeinformationen als Nicht-Kontoadministrator wird in der API auf Kontoebene nicht unterstützt. Verwenden Sie stattdessen die API auf Arbeitsbereichsebene.

UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE: nicht zugewiesen

Es können keine Berechtigungen für <securableType> an die vom System generierte Gruppe <principal>gewährt werden.

UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Tag-Zuweisung mit Tag-Schlüssel <tagKey> ist nicht vorhanden.

UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH

SQLSTATE: nicht zugewiesen

Ungültiger Basispfad angegeben, Basispfad sollte etwa "/api/resources/v1" sein. Nicht unterstützter Pfad: <path>

UC_UNSUPPORTED_HTTP_CONNECTION_HOST

SQLSTATE: nicht zugewiesen

Ungültiger Hostname angegeben, der Hostname sollte wiehttps://www.databricks.com ohne Pfadsuffix sein. Nicht unterstützter Host: <host>

UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE: nicht zugewiesen

In Pfaden für externe Speicherorte/Volumes/Tabellen werden nur einfache Latin/Latin-1-ASCII-Zeichen unterstützt. Nicht unterstützter Pfad: <path>

UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE

SQLSTATE: nicht zugewiesen

<securableType> '<securableName>' kann nicht aktualisiert werden, da es gerade provisioniert wird.

UC_WRITE_CONFLICT

SQLSTATE: nicht zugewiesen

<type> <name> wurde von einer anderen Anforderung geändert. Versuchen Sie den Vorgang erneut.

UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED

SQLSTATE: nicht zugewiesen

Die Anforderung, ein Commit oder getCommits für die Tabelle „<tableId>“ außerhalb einer Databricks Unity Catalog-aktivierten Compute-Umgebung auszuführen, wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.

UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED

SQLSTATE: nicht zugewiesen

Die Anfrage, die Staging-Tabelle '<tableFullName>' außerhalb der für Databricks Unity Catalog aktivierten Compute-Umgebung zu erstellen, wird aus Sicherheitsgründen abgelehnt. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE: nicht zugewiesen

Die Anforderung zum Erstellen der nicht externen Tabelle „<tableFullName>“ außerhalb einer Databricks Unity Catalog-fähigen Computeumgebung wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.

UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED

SQLSTATE: nicht zugewiesen

Die Anforderung zum Generieren von Zugriffsanmeldeinformationen für den Pfad '<path>' von außerhalb der Databricks Unity-Katalog aktivierten Compute-Umgebung wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.

UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED

SQLSTATE: nicht zugewiesen

Die Anforderung, Zugriffsanmeldeinformationen für die Tabelle '<tableId>' von außerhalb der Databricks Unity-Katalog-aktivierten Compute-Umgebung zu generieren, wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.

UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED

SQLSTATE: nicht zugewiesen

Die Anforderung, fremde Anmeldeinformationen für sicherungsfähige Objekte von außerhalb der Databricks Unity Catalog-aktivierten Compute-Umgebung abzurufen, wird aus Sicherheitsgründen verweigert.

UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED

SQLSTATE: nicht zugewiesen

Die Anforderung, Metadaten-Schnappschüsse von außerhalb der durch Databricks Unity Catalog aktivierten Compute-Umgebung zu aktualisieren, wird aus Sicherheitsgründen verweigert.

WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE

SQLSTATE: nicht zugewiesen

Ungültige Anforderung zum Abrufen von Schreibberechtigungen für die verwaltete Onlinetabelle in einem Onlinekatalog.

Datei-API

FILES_API_API_IS_NOT_ENABLED

SQLSTATE: nicht zugewiesen

<api_name>-API ist nicht aktiviert.

FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS

SQLSTATE: nicht zugewiesen

Die angeforderte Methode der Datei-API wird für Cloudpfade nicht unterstützt.

FILES_API_AWS_ACCESS_DENIED

SQLSTATE: nicht zugewiesen

Der Zugriff auf den Speicher-Bucket wird von AWS verweigert.

FILES_API_AWS_ALL_ACCESS_DISABLED

SQLSTATE: nicht zugewiesen

Der gesamte Zugriff auf den Speicher-Bucket wurde in AWS deaktiviert.

FILES_API_AWS_BUCKET_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Der Speicher-Bucket ist in AWS nicht vorhanden.

FILES_API_AWS_FORBIDDEN

SQLSTATE: nicht zugewiesen

Der Zugriff auf den Speicher-Bucket ist von AWS verboten.

FILES_API_AWS_INVALID_AUTHORIZATION_HEADER

SQLSTATE: nicht zugewiesen

Der Arbeitsbereich ist falsch konfiguriert: Er muss sich in derselben Region wie der AWS-Arbeitsbereich-Stammspeicher-Bucket befinden.

FILES_API_AWS_INVALID_BUCKET_NAME

SQLSTATE: nicht zugewiesen

Der Speicher-Bucketname ist ungültig.

FILES_API_AWS_KMS_KEY_DISABLED

SQLSTATE: nicht zugewiesen

Die konfigurierten KMS-Schlüssel für den Zugriff auf den Speicher-Bucket sind in AWS deaktiviert.

FILES_API_AWS_UNAUTHORIZED

SQLSTATE: nicht zugewiesen

Der Zugriff auf AWS-Ressource ist nicht autorisiert.

FILES_API_AZURE_ACCOUNT_IS_DISABLED

SQLSTATE: nicht zugewiesen

Das Speicherkonto ist in Azure deaktiviert.

FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Der Azure-Container ist nicht vorhanden.

FILES_API_AZURE_FORBIDDEN

SQLSTATE: kein Wert zugewiesen

Der Zugriff auf den Speichercontainer ist von Azure verboten.

FILES_API_AZURE_HAS_A_LEASE

SQLSTATE: nicht zugewiesen

Azure hat geantwortet, dass es derzeit eine Lease für die Ressource gibt. Versuchen Sie es später erneut.

FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION

SQLSTATE: nicht zugewiesen

Das Konto, auf das zugegriffen wird, verfügt nicht über ausreichende Berechtigungen, um diesen Vorgang auszuführen.

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME

SQLSTATE: nicht zugewiesen

Auf das Speicherkonto in Azure kann nicht zugegriffen werden: Ungültiger Speicherkontoname.

FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED

SQLSTATE: nicht zugewiesen

Der Schlüsseltresor wird in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.

FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND

SQLSTATE: ist nicht zugewiesen

Der Azure Key Vault-Schlüssel wurde in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.

FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND

SQLSTATE: nicht zugewiesen

Der Schlüsseltresor wird in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.

FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND

SQLSTATE: nicht zugewiesen

Anmeldeinformationen für verwaltete Azure-Identität mit Zugriffsconnector nicht gefunden. Dies könnte darauf zurückzuführen sein, dass die IP-Zugriffskontrollen Ihre Anforderung abgelehnt haben.

FILES_API_AZURE_OPERATION_TIMEOUT

SQLSTATE: nicht zugewiesen

Der Vorgang konnte nicht innerhalb der zulässigen Zeit abgeschlossen werden.

FILES_API_AZURE_PATH_INVALID

SQLSTATE: nicht zugewiesen

Der angeforderte Pfad ist für Azure ungültig.

FILES_API_AZURE_PATH_IS_IMMUTABLE

SQLSTATE: nicht zugewiesen

Der angeforderte Pfad ist unveränderlich.

FILES_API_AZURE_UNSUPPORTED_HEADER

SQLSTATE: nicht zugewiesen

Einer der im Vorgang angegebenen Header wird nicht unterstützt.

FILES_API_CATALOG_NOT_FOUND

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_CLOUD_RESOURCE_EXHAUSTED

SQLSTATE: nicht zugewiesen

<message>

FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH

SQLSTATE: nicht zugewiesen

Das Zeichen ':' wird in Pfaden nicht unterstützt.

FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE: nicht zugewiesen

Netzwerkzone der Databricks-Steuerungsebene nicht zulässig.

FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES

SQLSTATE: nicht zugewiesen

Ein Textkörper wurde bereitgestellt, Verzeichnisse können jedoch keinen Dateiinhalt haben.

FILES_API_DIRECTORY_IS_NOT_EMPTY

SQLSTATE: nicht zugewiesen

Das Verzeichnis ist nicht leer. Dieser Vorgang wird für nicht leere Verzeichnisse nicht unterstützt.

FILES_API_DIRECTORY_IS_NOT_FOUND

SQLSTATE: nicht zugewiesen

Das Verzeichnis, auf das zugegriffen werden soll, wurde nicht gefunden.

FILES_API_DUPLICATED_HEADER

SQLSTATE: nicht zugewiesen

Die Anforderung enthielt mehrere Kopien eines Headers, der nur einmal zulässig ist.

FILES_API_DUPLICATE_QUERY_PARAMETER

SQLSTATE: nicht zugewiesen

Der Abfrageparameter '<parameter_name>' muss genau einmal vorhanden sein, wurde aber mehrmals bereitgestellt.

FILES_API_EMPTY_BUCKET_NAME

SQLSTATE: nicht zugewiesen

Der DbFS-Bucketname ist leer.

FILES_API_ENTITY_TOO_LARGE

SQLSTATE: nicht zugewiesen

Ihr Objekt überschreitet die maximal zulässige Objektgröße.

FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT

SQLSTATE: nicht zugewiesen

Ablaufzeit muss vorhanden sein

FILES_API_EXPIRED_TOKEN

SQLSTATE: nicht zugewiesen

Das bereitgestellte Token ist abgelaufen.

FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE

SQLSTATE: nicht zugewiesen

„ExpireTime“ muss in der Zukunft liegen.

FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE

SQLSTATE: nicht zugewiesen

Die angeforderte TTL überschreitet die unterstützte Dauer (1 Stunde).

FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_FILE_ALREADY_EXISTS

SQLSTATE: nicht zugewiesen

Die erstellte Datei ist bereits vorhanden.

FILES_API_FILE_NOT_FOUND

SQLSTATE: nicht zugewiesen

Die zugegriffene Datei wurde nicht gefunden.

FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT

SQLSTATE: nicht zugewiesen

Dateien oder Verzeichnisse, die auf "." enden. Zeichen werden nicht unterstützt.

FILES_API_FILE_SIZE_EXCEEDED

SQLSTATE: kein Wert zugewiesen

Die Dateigröße sollte <max_download_size_in_bytes> Bytes nicht überschreiten, aber <size_in_bytes> Bytes wurden gefunden.

FILES_API_GCP_ACCOUNT_IS_DISABLED

SQLSTATE: nicht zugewiesen

Der Zugriff auf den Speicher-Bucket wurde in GCP deaktiviert.

FILES_API_GCP_BUCKET_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Der Speicher-Bucket ist in GCP nicht vorhanden.

FILES_API_GCP_FORBIDDEN

SQLSTATE: nichts zugewiesen

Der Zugriff auf den Bucket ist von GCP verboten.

FILES_API_GCP_KEY_DISABLED_OR_DESTROYED

SQLSTATE: nicht zugewiesen

Der für diesen Speicherort konfigurierte vom Kunden verwaltete Verschlüsselungsschlüssel ist entweder deaktiviert oder zerstört.

FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY

SQLSTATE: nicht zugewiesen

Die GCP-Anforderungen an den Bucket sind per Richtlinie verboten, prüfen Sie die VPC-Dienststeuerungen.

FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE

SQLSTATE: nicht zugewiesen

Cloudanbieterhost ist vorübergehend nicht verfügbar; versuchen Sie es später erneut.

FILES_API_INVALID_CONTINUATION_TOKEN

SQLSTATE: nicht zugewiesen

Das bereitgestellte Seitentoken ist ungültig.

FILES_API_INVALID_PAGE_TOKEN

SQLSTATE: nicht zugewiesen

Ungültiges Seitentoken

FILES_API_INVALID_PATH

SQLSTATE: nicht zugewiesen

Ungültiger Pfad: <validation_error>

FILES_API_INVALID_RANGE

SQLSTATE: nicht zugewiesen

Der Range-Header ist ungültig.

FILES_API_INVALID_RESOURCE_FULL_NAME

SQLSTATE: nicht zugeordnet

<unity_catalog_error_message>

FILES_API_INVALID_SESSION_TOKEN

SQLSTATE: nicht zugewiesen

Ungültiges Sitzungstoken

FILES_API_INVALID_SESSION_TOKEN_TYPE

SQLSTATE: nicht zugewiesen

Ungültiger Sitzungstokentyp. „<expected>“ erwartet, aber „<actual>“ erhalten.

FILES_API_INVALID_TIMESTAMP

SQLSTATE: nicht zugewiesen

Der Zeitstempel ist ungültig.

FILES_API_INVALID_UPLOAD_TYPE

SQLSTATE: nicht zugewiesen

Ungültiger Uploadtyp. „<expected>“ erwartet, aber „<actual>“ erhalten.

Unzulässiger URL-Parameter (FILES_API_INVALID_URL_PARAMETER)

SQLSTATE: nicht zugewiesen

Die als Parameter übergebene URL ist ungültig.

FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER

SQLSTATE: nicht zugewiesen

„überschreiben“ für Abfrageparameter muss entweder „true“ oder „false“ sein, war jedoch: <got_values>

FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER

SQLSTATE: nicht zugewiesen

Der Abfrageparameter „<parameter_name>“ muss einer der folgenden sein: <expected>, war jedoch: <actual>

FILES_API_MALFORMED_REQUEST_BODY

SQLSTATE: nicht zugewiesen

Falsch formatierter Anforderungstext

FILES_API_MANAGED_CATALOG_FEATURE_DISABLED

SQLSTATE: nicht zugewiesen

<Unity-Katalog-Fehlermeldung>

FILES_API_METASTORE_NOT_FOUND

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE

SQLSTATE: nicht zugewiesen

Die angeforderte Methode der Dateien-API wird für Artefaktspeicher für Hintergrundberechnungen von Aufträgen nicht unterstützt.

FILES_API_MISSING_CONTENT_LENGTH

SQLSTATE: nicht zugewiesen

Der Header „content-length“ ist in der Anforderung erforderlich.

FILES_API_MISSING_QUERY_PARAMETER

SQLSTATE: kein Wert zugewiesen

Der Abfrageparameter '<parameter_name>' ist erforderlich, fehlt jedoch in der Anforderung.

FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST

SQLSTATE: nicht zugewiesen

Bei der Anforderung fehlt ein erforderlicher Parameter.

FILES_API_MODEL_VERSION_IS_NOT_READY

SQLSTATE: nicht zugewiesen

Modellversion ist noch nicht bereit

FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Vorsignierte URLs zum Abbrechen von mehrteiligen Uploads werden für Dateien, die auf <cloud_storage_provider>gespeichert sind, nicht unterstützt.

FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST

SQLSTATE: nicht zugewiesen

Die Liste der Teile muss mindestens ein Element aufweisen, war aber leer.

FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER

SQLSTATE: nicht zugewiesen

Teilenummern müssen sich innerhalb der Grenzen befinden, die in der Antwort angegeben werden, die beim Initiieren des Uploads empfangen wurde.

FILES_API_MULTIPART_UPLOAD_MISSING_ETAG

SQLSTATE: nicht zugewiesen

ETags müssen für Dateien bereitgestellt werden, die auf <cloud_storage_provider>gespeichert sind. Mindestens ein ETag wurde nicht bereitgestellt oder leer.

FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE

SQLSTATE: nicht zugewiesen

Der interne Status der Speicherentität wurde seit dem Initiieren des Uploads geändert, z. B. weil der Dateipfad nicht auf denselben zugrunde liegenden Cloudspeicherort verweist. Fahren Sie fort, indem Sie eine neue Uploadsitzung initiieren.

FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES

SQLSTATE: nicht zugewiesen

Die als Teil einer mehrteiligen Uploadsitzung hochgeladenen Teile müssen für Dateien, die auf <cloud_storage_provider>gespeichert sind, dieselbe Größe aufweisen, mit Ausnahme des letzten Teils, der kleiner sein kann.

FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE

SQLSTATE: nicht zugewiesen

Die Größe der teile, die als Teil einer mehrteiligen Uploadsitzung hochgeladen wurden, muss sich innerhalb der Grenzen befinden, die in der Antwort angegeben sind, die beim Initiieren des Uploads empfangen wurde.

FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND

SQLSTATE: nicht zugewiesen

Die Uploadsitzung wurde nicht gefunden. Möglicherweise wurde sie abgebrochen oder abgeschlossen.

FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST

SQLSTATE: nicht zugewiesen

Die Liste von Teilen muss nach der Teilenummer sortiert werden, war aber ungeordnet.

FILES_API_NOT_ENABLED_FOR_PLACE

SQLSTATE: nicht zugewiesen

Die Datei-API für <place> ist für diesen Arbeitsbereich/dieses Konto nicht aktiviert.

FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE

SQLSTATE: nicht zugewiesen

Die angeforderte Methode der Datei-API wird für den internen Arbeitsbereichspeicher nicht unterstützt.

FILES_API_OPERATION_MUST_BE_PRESENT

SQLSTATE: nicht zugewiesen

Vorgang muss vorhanden sein.

FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO

SQLSTATE: nicht zugewiesen

page_size muss größer oder gleich 0 sein.

FILES_API_PATH_END_WITH_A_SLASH

SQLSTATE: nicht zugewiesen

Pfade, die auf dem Zeichen "/" enden, stellen Verzeichnisse dar. Diese API unterstützt keine Vorgänge in Verzeichnissen.

FILES_API_PATH_IS_A_DIRECTORY

SQLSTATE: nicht zugewiesen

Der angegebene Pfad verweist auf ein vorhandenes Verzeichnis. Diese API unterstützt keine Vorgänge in Verzeichnissen.

FILES_API_PATH_IS_A_FILE

SQLSTATE: nicht zugewiesen

Der angegebene Pfad verweist auf eine vorhandene Datei. Diese API unterstützt keine Vorgänge für Dateien.

FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL

SQLSTATE: nicht zugewiesen

Der angegebene Pfad war keine gültige UTF-8-codierte URL.

FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY

SQLSTATE: nicht zugewiesen

Der angegebene Pfad ist für den Datenebenenproxy nicht aktiviert.

FILES_API_PATH_MUST_BE_PRESENT

SQLSTATE: nicht zugewiesen

Pfad muss vorhanden sein.

FILES_API_PATH_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

<Ablehnungsnachricht>

FILES_API_PATH_TOO_LONG

SQLSTATE: nicht zugewiesen

Der bereitgestellte Dateipfad ist zu lang.

FILES_API_PRECONDITION_FAILED

SQLSTATE: nicht zugewiesen

Die Anforderung konnte aufgrund einer Vorbedingung nicht ausgeführt werden.

FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Die Datei-API für vorsignierte URLs für Modelle wird derzeit nicht unterstützt.

FILES_API_R2_CREDENTIALS_DISABLED

SQLSTATE: nichts zugewiesen

R2 wird derzeit nicht unterstützt.

FILES_API_RANGE_NOT_SATISFIABLE

SQLSTATE: nicht zugewiesen

Der angeforderte Bereich ist nicht zufriedenstellend.

FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Rekursives Auflisten von Dateien wird nicht unterstützt.

FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY

SQLSTATE: nicht zugewiesen

Anforderung wurde falsch weitergeleitet

FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION

SQLSTATE: nicht zugewiesen

Anforderung muss Kontoinformationen enthalten

FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION

SQLSTATE: nicht zugewiesen

Anforderung muss Benutzerinformationen enthalten

FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION

SQLSTATE: nicht zugewiesen

Anforderung muss Arbeitsbereichsinformationen enthalten

FILES_API_RESOURCE_IS_READONLY

SQLSTATE: nicht zugewiesen

Ressource ist schreibgeschützt.

FILES_API_RESOURCE_NOT_FOUND

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_SCHEMA_NOT_FOUND

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_SECURE_URL_CANT_BE_ACCESSED

SQLSTATE: nicht zugewiesen

Auf die URL kann nicht zugegriffen werden.

FILES_API_SIGNATURE_VERIFICATION_FAILED

SQLSTATE: nicht zugewiesen

Fehler bei der Signaturüberprüfung.

FILES_API_STORAGE_CONTEXT_IS_NOT_SET

SQLSTATE: nicht zugewiesen

Auf die Speicherkonfiguration für diesen Arbeitsbereich kann nicht zugegriffen werden.

FILES_API_STORAGE_CREDENTIAL_NOT_FOUND

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_TABLE_TYPE_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Die Datei-API wird für <table_type> nicht unterstützt.

FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_UC_MODEL_INVALID_STATE

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_UC_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_UC_RESOURCE_EXHAUSTED

SQLSTATE: nicht zugewiesen

<message>

FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_UC_VOLUME_NAME_CHANGED

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI

SQLSTATE: nicht zugewiesen

Unerwarteter Fehler beim Analysieren des URI

FILES_API_UNEXPECTED_QUERY_PARAMETERS

SQLSTATE: nicht zugewiesen

Unerwartete Abfrageparameter: <unexpected_query_parameters>

FILES_API_UNKNOWN_METHOD

SQLSTATE: nicht zugewiesen

Unbekannte Methode <method>

FILES_API_UNKNOWN_SERVER_ERROR

SQLSTATE: nicht zugewiesen

Unbekannter Serverfehler.

FILES_API_UNKNOWN_URL_HOST

SQLSTATE: nicht zugewiesen

Der URL-Host ist unbekannt.

FILES_API_UNSUPPORTED_PATH

SQLSTATE: nicht zugewiesen

Der bereitgestellte Pfad wird von der Datei-API nicht unterstützt. Stellen Sie sicher, dass der angegebene Pfad keine Vorkommen der Sequenzen '../' oder './' enthält. Stellen Sie sicher, dass der angegebene Pfad nicht mehrere aufeinander folgende Schrägstriche verwendet (z. B. '///').

FILES_API_URL_GENERATION_DISABLED

SQLSTATE: nicht zugewiesen

Die Vorsignierte URL-Generierung ist für <cloud>nicht aktiviert.

FILES_API_VOLUME_TYPE_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Die Datei-API wird für <volume_type>nicht unterstützt.

FILES_API_WORKSPACE_IS_CANCELED

SQLSTATE: nicht zugewiesen

Der Arbeitsbereich wurde abgebrochen.

FILES_API_WORKSPACE_IS_NOT_FOUND

SQLSTATE: nicht zugewiesen

Auf die Speicherkonfiguration für diesen Arbeitsbereich kann nicht zugegriffen werden.

Delta Live Tables

ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42704

<type> einer Tabelle kann nicht geändert werden, ohne dass ein vorhandener Zeitplan oder Trigger vorhanden ist. Fügen Sie der Tabelle einen Zeitplan oder Trigger hinzu, bevor Sie versuchen, ihn zu ändern.

API_QUOTA_EXCEEDED

SQLSTATE: KD000

Sie haben das API-Kontingent für die Datenquelle <sourceName>überschritten.

Weitere Details finden Sie unter API_QUOTA_EXCEEDED.

APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED

SQLSTATE: nicht zugewiesen

Das Feature COLUMNS TO UPDATE befindet sich in der Vorschau und ist für Ihren Arbeitsbereich nicht aktiviert. Wenden Sie sich an Ihren Databricks-Vertreter, um mehr über dieses Feature zu erfahren und auf die private Vorschau zuzugreifen.

ARCHITECTURE_MIGRATION_FAILURE

SQLSTATE: nicht zugewiesen

Weitere Details finden Sie unter ARCHITECTURE_MIGRATION_FAILURE.

CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS

SQLSTATE: nicht zugewiesen

Neue Spalten (<columnNames>) werden zum Feld include_columns in der Pipeline-Definition für die Tabelle <qualifiedTableName>hinzugefügt. Aktualisieren Sie die Tabelle vollständig, um potenzielle Datenverluste zu vermeiden oder diese Spalten aus include_columns zu entfernen.

CANNOT_EXCLUDE_NON_EXISTENT_COLUMN

SQLSTATE: nicht zugewiesen

Die Pipelinedefinition schließt Spalten (<columnNames>) aus, die in der Tabelle <qualifiedTableName> der Quell-<sourceType>nicht vorhanden sind. Entfernen Sie diese Spalten aus dem Feld exclude_columns.

CANNOT_FILTER_OUT_REQUIRED_COLUMN

SQLSTATE: nicht zugewiesen

Die Pipelinedefinition enthält nicht die erforderlichen Spalten (<columnNames>) in der Tabelle <qualifiedTableName> der Quelle <sourceType> zur Erfassung. Bitte fügen Sie sie zu den `include_columns` hinzu oder entfernen Sie sie aus den `exclude_columns`.

CANNOT_INCLUDE_NON_EXISTENT_COLUMN

SQLSTATE: nicht zugewiesen

Die Pipelinedefinition enthält Spalten (<columnNames>), die in der Tabelle <qualifiedTableName> der Quell-<sourceType>nicht vorhanden sind. Entfernen Sie diese Spalten aus dem Feld include_columns.

CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY

SQLSTATE: nicht zugewiesen

Die Tabelle <qualifiedTableName> in der <sourceType> Quelle hat keinen Primärschlüssel.

Geben Sie einen Primärschlüssel in der Connectorkonfiguration an, um die Tabelle einzulesen, wenn vorhanden.

CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS

SQLSTATE: nicht zugewiesen

Spalten (<columnNames>) werden aus dem exclude_columns-Feld in der Pipeline-Definition für die Tabelle <qualifiedTableName>entfernt. Aktualisieren Sie die Tabelle vollständig, um potenzielle Datenverluste zu vermeiden oder diese Spalten wieder zu exclude_columns hinzuzufügen.

CANNOT_SET_CATALOG_FOR_HMS_PIPELINE

SQLSTATE: nicht zugewiesen

Ein Katalog kann einer vorhandenen Pipeline mit definiertem Speicherort nicht hinzugefügt werden. Wenn Sie UC verwenden möchten, erstellen Sie eine neue Pipeline und legen Sie den Katalog fest.

Vorhandener Speicherort: '<storageLocation>'

Angeforderter Katalog: '<catalog>'

CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS

SQLSTATE: nicht zugewiesen

Die Pipelinedefinition gibt sowohl include_columns als auch exclude_columns für <identifier>an. Entfernen Sie eine davon.

KLASSIFIZIERUNSSPALTEN_KÖNNEN_NICHT_AKTUALISIERT_WERDEN

SQLSTATE: nicht zugewiesen

Clusteringspalten für Tabelle <tableName> können nicht aktualisiert werden, da Partitionsspalten verwendet werden. Eine Tabelle kann entweder Partitionsspalten oder Clusterspalten verwenden, aber nicht beide.

Um zwischen flüssiger Clusterung und Partitionierung zu wechseln, lösen Sie eine vollständige Aktualisierung dieser Tabelle aus.

CANNOT_UPDATE_PARTITION_COLUMNS

SQLSTATE: nicht zugewiesen

Partitionsspalten für streamingtabelle <tableName>können nicht aktualisiert werden.

Aktuell: <existingPartitionColumns>,

Angefordert: <requestedPartitionColumns>

Um diese Partitionsänderung anzuwenden, lösen Sie eine vollständige Aktualisierung dieser Tabelle und aller anderen Streamingtabellen mit aktualisierten Partitionsspalten aus.

Alternativ können Sie diese Änderung wiederherstellen, um weiterhin die vorhandenen Partitionsspalten zu verwenden.

CANNOT_UPDATE_TABLE_SCHEMA

SQLSTATE: nicht zugewiesen

Fehler beim Zusammenführen der aktuellen und neuen Schemas für die Tabelle <tableName>.

Um mit dieser Schemaänderung fortzufahren, können Sie eine vollständige Aktualisierung dieser Tabelle auslösen.

Je nach Anwendungsfall und Schemaänderungen können Sie die Schemaänderung möglicherweise vermeiden, indem Sie Ihre Abfragen so aktualisieren, dass das Ausgabeschema mit dem vorhandenen Schema kompatibel ist (z. B. durch explizites Umwandeln von Spalten in den richtigen Datentyp).

CANNOT_WRITE_TO_INACTIVE_COLUMNS

SQLSTATE: nicht zugewiesen

Die folgenden Tabellen im Ziel haben inaktive Spalten, die mit den aktuellen Quelltabellen in Konflikt stehen:

<details>

Diese Spalten bleiben in den Zieltabellen inaktiv, da sie zuvor aus den Quelltabellen gelöscht wurden.

Um mit der Aktualisierung fortzufahren, führen Sie bitte eine FULL REFRESH für die Tabellen aus, oder legen Sie diese inaktiven Spalten aus den Zieltabellen über ALTER TABLE DROP COLUMN Befehl ab, und wiederholen Sie die Aktualisierung.

CANNOT_WRITE_TO_INACTIVE_TABLES

SQLSTATE: nicht zugewiesen

Die folgenden Tabellen im Ziel sind inaktiv und stehen in Konflikt mit den aktuellen Quelltabellen: <tables>.

Diese Tabellen bleiben inaktiv, da sie zuvor aus der Quelle gelöscht oder aus dem Connector nicht ausgewählt wurden.

Um mit dem Update fortzufahren, führen Sie bitte eine FULL REFRESH für die Tabellen aus oder entfernen Sie diese inaktiven Tabellen entweder aus dem Ziel im Katalog-Explorer oder über den Befehl DROP TABLE, und versuchen Sie das Update erneut.

CANNOT_WRITE_TO_TABLES_PENDING_RESET

SQLSTATE: nicht zugewiesen

Die folgenden Tabellen im Ziel wurden in der vorherigen vollständigen Aktualisierung nicht ordnungsgemäß zurückgesetzt: <tables>.

Lösen Sie eine vollständige Aktualisierung aus, um sie wiederherzustellen.

CATALOG_SPEC_UNSUPPORTED

SQLSTATE: nicht zugewiesen

CatalogSpecs werden von den Datenbank-Connectors derzeit nicht unterstützt. Entfernen Sie die Katalogspezifikation.

CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH

SQLSTATE: nicht zugewiesen

Die vollständige Aktualisierung einer Zieltabelle und die normale Aktualisierung einer anderen Zieltabelle aus derselben Quelle wird nicht unterstützt.

Bitte aktualisieren Sie beide Tabellen vollständig, um nach Möglichkeit fortzufahren.

Tabellen vollständig aktualisieren: <fullRefreshTables>

Zieltabellen für Quelle <sourceTable>: <destinationTables>

CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING

SQLSTATE: nicht zugewiesen

Die Schemaversion <dataSchemaVersion> unterscheidet sich von der Leseschemaversion <readSchemaVersion>.

DLT wird das Update wiederholen.

CDC_INCOMPATIBLE_SCHEMA_CHANGES

SQLSTATE: nicht zugewiesen

Wir sind auf eine inkompatible Schemaänderung (<cause>) von der Schemaversion <previousSchemaVersion> zu <currentSchemaVersion>gestoßen.

Daher können wir nicht mit der Anwendung von Änderungen für <tableName>fortfahren. Bitte fordern Sie eine vollständige Aktualisierung der Tabelle an.

Vorheriges Schema: <previousSchema>

Aktuelles Schema: <currentSchema>

CDC_MÖGLICHE_DATENLÜCKEN

SQLSTATE: nicht zugewiesen

Die folgenden Tabellen [<needFullRefreshTableList>] wurden seit <retention> Tagen nicht erfolgreich aktualisiert.

Bitte aktualisieren Sie diese Tabellen oder die gesamte Pipeline vollständig.

CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES

SQLSTATE: nicht zugewiesen

Den gleichen Tabellennamen <table> bei mehreren Quellen gefunden: <sources>.

Teilen Sie sie bitte in verschiedene Pipelines auf, um Konflikte zu vermeiden.

CDC_TABLE_NOT_FOUND_IN_ALL_TABLES

SQLSTATE: nicht zugewiesen

Tabelle <table> wird in der Momentaufnahme aller Tabellen der Quelldatenbank nicht gefunden.

Tabellenspezifikationsdetails:

<tableSpec>

CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED

SQLSTATE: nicht zugewiesen

Das Ändern einer HMS-Pipeline in eine UC-Pipeline ist nicht zulässig.

CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED

SQLSTATE: kein Wert zugewiesen

Das Ändern einer UC-Pipeline in eine HMS-Pipeline ist nicht zulässig.

KATALOGÄNDERUNG_NICHT_ERLAUBT

SQLSTATE: nicht zugewiesen

Der Katalog einer vorhandenen Pipeline kann nicht geändert werden. Vorhandener Katalog: '<existingCatalog>'. Angeforderter Katalog: '<requestedCatalog>'.

ÄNDERUNG_DES_ZIELSCHEMAS_NICHT_ERLAUBT

SQLSTATE: nicht zugewiesen

Das Ändern des Zielschemas ist nicht zulässig. Grund: <reason>.

CLUSTER_CREATION_CREDITS_EXHAUSTED

SQLSTATE: 570000

Fehler beim Erstellen eines Clusters, da Sie Ihr verfügbares Guthaben ausgeschöpft haben. Fügen Sie eine Zahlungsmethode hinzu, um Ihr Konto zu aktualisieren.

Berechtigung zur Cluster-Erstellung verweigert

SQLSTATE: 42501

Sie sind nicht berechtigt, Cluster zu erstellen. Wenden Sie sich an Ihren Administrator.

CLUSTER_CREATION_TRIAL_EXPIRED

SQLSTATE: 56038

Fehler beim Erstellen oder Starten eines Clusters, da der Testzeitraum für Ihren Arbeitsbereich abgelaufen ist. Wenden Sie sich an Ihren Administrator.

CLUSTER_LAUNCH_CLIENT_ERROR

SQLSTATE: KDL01

Fehler beim Starten des Pipelineclusters <clusterId>: <clusterStateMessage>

Dieser Fehler ist wahrscheinlich auf eine Fehlkonfiguration in der Pipeline zurückzuführen.

Überprüfen Sie die Pipelineclusterkonfiguration und die zugeordnete Clusterrichtlinie.

CLUSTER_LAUNCH_CLOUD_FAILURE

SQLSTATE: 580000

Fehler beim Starten des Pipelineclusters <clusterId>: <clusterStateMessage>

Dieser Fehler kann vorübergehend sein: Starten Sie Die Pipeline neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

CLUSTER_POLICY_PERMISSION_DENIED

SQLSTATE: 42501

Sie sind nicht berechtigt, auf die für diese Pipeline konfigurierte Clusterrichtlinie zuzugreifen. Wenden Sie sich an Ihren Administrator.

CLUSTER_SETUP_CLIENT_ERROR

SQLSTATE: KDL01

Weitere Details finden Sie unter CLUSTER_SETUP_CLIENT_ERROR.

CLUSTER_UNREACHABLE

SQLSTATE: nicht zugewiesen

Kommunikation mit Fahrer verloren. Cluster <clusterId> war für <timeoutSeconds> Sekunden nicht erreichbar.

COLUMN_TO_UPDATE_NOT_FOUND

SQLSTATE: nicht zugewiesen

Spalte <column>, die in COLUMNS bis UPDATE angegeben ist, wurde im Quelldatenframe nicht gefunden.

CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE

SQLSTATE: nicht zugewiesen

Update „<upgradedUpdateId>“ wurde für ein Upgrade gestartet, jedoch ist es fehlgeschlagen, das vorherige Update „<oldUpdateId>“ zu stoppen.

Dieser Fehler ist wahrscheinlich vorübergehend. Die Pipeline wird automatisch erneut wiederholt, und das Problem sollte sich von alleine lösen.

Melden Sie diesen Fehler an Databricks, wenn weiterhin dasselbe Problem angezeigt wird.

DATASET_DECORATOR_APPLIED_TWICE

SQLSTATE: nicht zugewiesen

Dataset <datasetName> ist bereits vorhanden. Stellen Sie sicher, dass die Abfragefunktion nur einmal als Ansicht oder Tabelle markiert wurde.

DATASET_NOT_DEFINED

SQLSTATE: nicht zugewiesen

Fehler beim Lesen des Datasets '<datasetName>'. Dieses Dataset ist in der Pipeline nicht definiert.

Wenn diese Tabelle von einer anderen Pipeline verwaltet wird, sollten Sie nicht dlt.read / dlt.readStream verwenden, um die Tabelle zu lesen oder den Namen mit dem LIVE-Schlüsselwort voranzustellen.

DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 420000

SCHEDULE kann nicht in einer Tabelle ohne vorhandenen Zeitplan oder Trigger abgelegt werden.

DUPLICATED_INGESTION_CONFIG_TABLE_SPECS

SQLSTATE: nicht zugewiesen

Die Konfiguration der Aufnahmepipeline enthält doppelte Tabellen. Stellen Sie sicher, dass jede Tabelle eindeutig ist.

EMPTY_INGESTION_CONFIG_OBJECTS

SQLSTATE: nicht zugewiesen

Konfigurationsobjekte für Erfassung sind leer.

EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Das Veröffentlichen des Ereignisprotokolls im Unity-Katalog wird für diese Pipeline nicht unterstützt. Wenn dies unerwartet ist, wenden Sie sich bitte an den Databricks-Support.

FAILED_TO_CREATE_EVENT_LOG

SQLSTATE: nicht zugewiesen

Ereignisprotokoll für Pipeline (ID=<pipelineId>) mit Bezeichner <eventLogIdentifier> konnte nicht erstellt werden. Weitere Informationen finden Sie in der nachstehenden Ausnahme.

FAILED_TO_UPDATE_EVENT_LOG

SQLSTATE: nicht zugewiesen

Ereignisprotokollbezeichner für Pipeline (ID=<pipelineId>) mit Sichtbarkeit <newVisibility> konnte nicht auf <newEventLogIdentifier> aktualisiert werden. Weitere Informationen finden Sie in der nachstehenden Ausnahme.

FLOW_SCHEMA_CHANGED

SQLSTATE: nicht zugewiesen

Der Ablauf <flowName> wurde beendet, da während der Ausführung eine Schemaänderung aufgetreten ist.

Die Schemaänderung ist mit dem vorhandenen Zielschema kompatibel, und die nächste Ausführung des Flusses kann mit dem neuen Schema fortgesetzt werden.

FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL

SQLSTATE: nicht zugewiesen

DLT ForeachBatch Sink wird derzeit nicht unterstützt.

Die private Vorschau für DLT-ForeachBatch-Senke erfordert den PREVIEW-Kanal.

DLT-Senken: <sinkNames>

GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED

SQLSTATE: nicht zugewiesen

Die Gatewaypipeline lässt keine Cluster-Init-Skripts zu. Entfernen Sie es aus <from>.

GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED

SQLSTATE: nicht zugewiesen

Die Gateway-Pipeline erlaubt die Spark-Konfiguration [<configs>] nicht. Entfernen Sie sie aus <from>.

ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE

SQLSTATE: nicht zugewiesen

Der Datentyp der in COLUMNS TO UPDATE angegebenen Spalte muss ein Zeichenfolgenarray sein, es wurde aber <illegalDataType> gefunden.

ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC

SQLSTATE: kein Wert zugewiesen

Das angegebene Feld "schema" in den Pipelineeinstellungen ist unzulässig. Grund: <reason>.

INGESTION_CONFIG_DUPLICATED_SCHEMA

SQLSTATE: nicht zugewiesen

Die Konfiguration der Aufnahmepipeline enthält doppelte Schemas. Stellen Sie sicher, dass jedes Schema eindeutig ist.

INGESTION_GATEWAY_AUTHENTICATION_FAILURE

SQLSTATE: nicht zugewiesen

Authentifizierungsfehler

Weitere Details finden Sie unter INGESTION_GATEWAY_AUTHENTICATION_FAILURE.

INGESTION_GATEWAY_CDC_NOT_ENABLED

SQLSTATE: nicht zugewiesen

CDC ist für <entityType> '<entityName>' nicht aktiviert. Fehlermeldung: '<errorMessage>'.

INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE

SQLSTATE: nicht zugewiesen

Bei der Konfiguration des Erfassungsgateways fehlt eine Verbindung.

Fügen Sie einen Verweis auf die Unity-Katalogverbindung hinzu, die Ihre Anmeldeinformationen enthält.

Details der Pipelinedefinition des Erfassungsgateways:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG

SQLSTATE: nicht zugewiesen

Die Konfiguration des Erfassungsgateways fehlt im internen Speicherortkatalog.

Fügen Sie den internen Speicherortkatalog hinzu.

Details der Pipelinedefinition des Erfassungsgateways:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME

SQLSTATE: nicht zugewiesen

Die Konfiguration des Aufnahmegateways enthält den Namen des internen Speicherorts nicht.

Fügen Sie den Namen des internen Speicherorts hinzu.

Details der Pipelinedefinition des Erfassungsgateways:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA

SQLSTATE: nicht zugewiesen

Die Konfiguration des Aufnahmegateways enthält das Schema des internen Speicherorts nicht.

Fügen Sie das interne Speicherortschema hinzu.

Details der Pipelinedefinition des Erfassungsgateways:

<definition>

INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE

SQLSTATE: nicht zugewiesen

Verbindungsfehler aufgrund eines falschen Hostnamens <host> und/oder Port <port>.

Weitere Details finden Sie unter INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE.

INSTANCE_POOL_CAPACITY_EXCEEDED

SQLSTATE: 540000

Fehler beim Erstellen oder Starten eines Clusters, da dieser Vorgang die Kapazität des Instanzpools überschreitet: <errorMessage>

INVALID_APPLY_CHANGES_COMMAND

SQLSTATE: nicht zugewiesen

APPLY CHANGES Befehl ist ungültig. <reason>.

UNGÜLTIGER_ARGUMENTTYP

SQLSTATE: kein Wert zugewiesen

Wert des ungültigen Typs, der an den Parameter '<paramName>' übergeben wurde. <expectedType> erwartet. <additionalMsg>.

INVALID_EVENT_LOG_PICKER_CONFIGURATION

SQLSTATE: nicht zugewiesen

Ungültige Konfiguration der Ereignisprotokollauswahl in Pipelinespezifikation: <message>

INVALID_NAME_IN_USE_COMMAND

SQLSTATE: nicht zugewiesen

Ungültiger Name '<name>' in <command> Befehl. Grund: <reason>

INVALID_REFRESH_SELECTION

SQLSTATE: nicht zugewiesen

Die für dieses Update angegebenen Aktualisierungsauswahlparameter sind ungültig, da

Weitere Details finden Sie unter INVALID_REFRESH_SELECTION.

INVALID_SCHEMA_NAME

SQLSTATE: nicht zugewiesen

Ungültiges Schema „<schemaName>“ in der Pipelineeinstellung angegeben. Grund: <reason>.

INVALID_TRIGGER_INTERVAL_FORMAT

SQLSTATE: nicht zugewiesen

Die in der <configurationType> angegebene Triggerintervallkonfiguration ist ungültig.

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC

SQLSTATE: nicht zugewiesen

Das Verweisen auf Datasets mithilfe des virtuellen Schemas LIVE außerhalb der Dataset-Abfragedefinition (d. h. @dlt.table-Anmerkung) wird nicht unterstützt.

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM

SQLSTATE: nicht zugewiesen

Das Verweisen auf Datasets mithilfe des virtuellen Schemas LIVE<identifier> außerhalb der Definition der Dataset-Abfrage (d. h. @dlt.table Anmerkung) wird nicht unterstützt.

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL

SQLSTATE: nicht zugewiesen

Das Verweisen auf Datasets mithilfe des virtuellen Schemas LIVE in der API „spark.sql(…)“ darf nicht außerhalb der Dataset-Abfragedefinition (d. h. @dlt.table-Anmerkung) aufgerufen werden. Sie kann nur innerhalb der Datasetabfragedefinition aufgerufen werden.

MATERIALIZED_VIEW_METADATA_READ_FAILURE

SQLSTATE: nicht zugewiesen

Fehler beim Aktualisieren der Tabelle <tableName> aufgrund eines Fehlers beim Lesen von Metadaten. Wenden Sie sich bitte an den Databricks-Support.

MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE

SQLSTATE: nicht zugewiesen

Die maximale Wiederholungsanzahl wurde erreicht. Wiederholungsanzahl:<flowRetryCount>. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>

METASTORE_OPERATION_TIMED_OUT

SQLSTATE: nicht zugewiesen

Vorgänge, die an der Aktualisierung der Metaspeicherinformationen für <tableName> beteiligt waren, dauerten länger als <timeout>.

Dieses Problem kann vorübergehend sein oder auf Fehler im konfigurierten Metastore-Client hinweisen. Versuchen Sie, Die Pipeline neu zu starten, und melden Sie dieses Problem, wenn sie weiterhin besteht.

MISSING_CREATE_SCHEMA_PRIVILEGE

SQLSTATE: nicht zugewiesen

Der Benutzer "<userName>" verfügt nicht über die Berechtigung zum Erstellen eines Schemas im Katalog <catalogName>

MISSING_CREATE_TABLE_PRIVILEGE

SQLSTATE: nicht zugewiesen

Der Benutzer "<userName>" verfügt nicht über die Berechtigung zum Erstellen einer Tabelle im Schema <schemaName>

MISSING_RUN_AS_USER

SQLSTATE: nicht zugewiesen

Für das Update wurde keine Benutzerausführung angegeben.

MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_NOT_FOUND

SQLSTATE: 420000

Die Zielpipeline <pipelineId> kann nicht gefunden werden. Stellen Sie sicher, dass Sie sich im gleichen Arbeitsbereich wie die Pipeline befinden, die Pipeline besitzen, und dass die Pipeline mindestens einmal ausgeführt wird.

MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_NOT_IN_NEW_ARCHITECTURE

SQLSTATE: 550000

Die Zielpipeline <pipelineId> verwendet nicht den Direct Publishing-Modus. Das Verschieben von Tabellen zwischen Pipelines erfordert, dass sich sowohl Quell- als auch Zielpipeline im Direct Publishing-Modus befinden.

MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_PERMISSION_DENIED

SQLSTATE: 420000

Sie dürfen diesen Vorgang nicht ausführen, Sie sind nicht der Besitzer der Zielpipeline <pipelineId>. Nur Besitzende können die Tabelle zwischen Pipelines verschieben.

MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE

SQLSTATE: 550000

Die Zielpipeline <pipelineId> ist keine Standardpipeline. Wir unterstützen nur das Verschieben von Tabellen zwischen Standardpipelines.

MOVE_TABLE_BETWEEN_PIPELINES_FEATURE_DISABLED

SQLSTATE: 0A000

Das Verschieben von <tableType> zwischen Pipelines wird noch nicht unterstützt.

MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_NOT_FOUND

SQLSTATE: 420000

Die Quellpipeline <pipelineId>, die die Tabelle <tableName>verwaltet, wurde nicht gefunden. Stellen Sie sicher, dass Sie sich im gleichen Arbeitsbereich wie die Pipeline befinden, die Pipeline besitzen, und dass die Pipeline mindestens einmal ausgeführt wird.

MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_NOT_IN_NEW_ARCHITECTURE

SQLSTATE: 550000

Die Quellpipeline <pipelineId>, die die Tabelle <tableName>verwaltet, verwendet nicht den Direct Publishing-Modus. Das Verschieben von Tabellen zwischen Pipelines erfordert, dass sich sowohl Quell- als auch Zielpipeline im Direct Publishing-Modus befinden.

MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_PERMISSION_DENIED

SQLSTATE: 420000

Sie dürfen diesen Vorgang nicht ausführen, da Sie nicht der Eigentümer der Quellpipeline <pipelineId>sind und die Tabelle <tableName>verwalten. Nur Besitzende können die Tabelle zwischen Pipelines verschieben.

MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_TYPE_NOT_WORKSPACE

SQLSTATE: 550000

Die Quellpipeline <pipelineId>, die die Tabelle <tableName>verwaltet, ist keine Standardpipeline. Wir unterstützen nur das Verschieben von Tabellen zwischen Standardpipelines.

MOVE_TABLE_BETWEEN_PIPELINES_TABLE_CHANGED

SQLSTATE: 40000

Die Tabelle <tableName> wurde während des Vorgangs geändert. Versuchen Sie es erneut.

MOVE_TABLE_BETWEEN_PIPELINES_UPDATE_IS_RUNNING

SQLSTATE: 550000

Die Pipeline <pipelineId> für die Tabelle <tableName> wird ausgeführt. Beenden Sie die Pipeline, bevor Sie den Vorgang ausführen.

Gegenseitig ausschließende Optionen

SQLSTATE: nicht zugewiesen

Sich gegenseitig ausschließende Optionen <options>. Entfernen Sie eine dieser Optionen.

NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE

SQLSTATE: nicht zugewiesen

Tabelle '<tableName>' wird bereits von Pipeline-<otherPipelineId>verwaltet.

Wenn Sie möchten, dass die Tabelle '<tableName>' von dieser Pipeline verwaltet wird -

  1. Entfernen Sie die Tabelle aus der Pipeline „<otherPipelineId>“.
  2. Starten Sie ein vollständiges Aktualisierungsupdate für diese Pipeline.

Wenn Sie die Tabelle weiterhin aus mehreren Pipelines verwalten möchten, deaktivieren Sie diese Überprüfung, indem Sie die Konfiguration pipelines.tableManagedByMultiplePipelinesCheck.enabled in den Pipelineeinstellungen auf false festlegen.

Dies wird nicht empfohlen, da gleichzeitige Vorgänge in der Tabelle möglicherweise miteinander in Konflikt stehen und zu unerwarteten Ergebnissen führen.

NOTEBOOK_NOT_FOUND

SQLSTATE: 420000

Notizbuch '<notebookPath>' konnte nicht geladen werden.

NO_TABLES_IN_PIPELINE

SQLSTATE: nicht zugewiesen

Es wird erwartet, dass Pipelines mindestens eine Tabelle definiert haben, aber in Ihrer Pipeline wurden keine Tabellen gefunden.

Stellen Sie sicher, dass Sie die erwarteten Quelldateien eingeschlossen haben und dass Ihr Quellcode Tabellendefinitionen enthält (z. B. CREATE <mv> in SQL-Code, @dlt.table in Python-Code).

Beachten Sie, dass nur Tabellen zu dieser Prüfung gezählt werden. Dieser Fehler kann auch auftreten, wenn Sie nur Ansichten oder Flows in Ihre Pipeline einbinden.

NO_WORKER_ENVIRONMENTS

SQLSTATE: 56038

Fehler beim Erstellen oder Starten eines Clusters, da Ihre Organisation keine Workerumgebungen hat. Wenden Sie sich bitte an den Databricks-Support.

PIPELINE_NON_RETRYABLE_ANALYSIS

SQLSTATE: nicht zugewiesen

Die Pipeline konnte die Quelltabellen (<tables>) aufgrund nicht wiederholbarer Fehler nach einer teilweisen Ausführung nicht analysieren.

Ein neues Pipeline-Update wird nicht erstellt. Überprüfen Sie das Ereignisprotokoll, und beheben Sie die Probleme entsprechend.

PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE

SQLSTATE: nicht zugewiesen

Die Tabelle ist noch nicht für die Aktualisierung bereit.

Weitere Details finden Sie unter PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE.

PIPELINE_TYPE_QUOTA_EXCEEDED

SQLSTATE: 540000

Das Update "<updateId>" kann nicht gestartet werden, da der Grenzwert für aktive Pipelines vom Typ "<pipelineType>" erreicht wurde.

PIP_INSTALL_ERROR

SQLSTATE: nicht zugewiesen

Ein Fehler ist beim Aufrufen der %pip-Installation aufgetreten.

PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK

SQLSTATE: nicht zugewiesen

Es wurden Zellen gefunden, die „%pip install“ enthalten, die sich nicht am Anfang des Notebooks für „<notebookPath>“ befinden.

Verschieben Sie alle Zellen mit „%pip install“ an den Anfang des Notebooks.

PY4J_BLOCKED_API

SQLSTATE: nicht zugewiesen

Sie verwenden eine Python-API, die in der aktuellen Umgebung nicht unterstützt wird.

Bitte überprüfen Sie die Databricks-Dokumentation auf Alternativen.

<additionalInfo>

REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION

SQLSTATE: nicht zugewiesen

Das Verweisen auf das DLT-Dataset <identifier> außerhalb der Definitionsabfrage für das Dataset (d. h., Anmerkung @dlt.table) wird nicht unterstützt. Lesen Sie sie stattdessen innerhalb der Datasetabfragedefinition.

REFRESH_MODE_ALREADY_EXISTS

SQLSTATE: 42710

Einer Tabelle, die bereits <existingType>hat, kann <type> nicht hinzugefügt werden. Bitte legen Sie den vorhandenen Zeitplan ab oder verwenden Sie ALTER TABLE ... ALTER <type> … , um sie zu ändern.

RESERVIERTES_SCHLÜSSELWORT_IM_VERWENDUNGSKATALOG

SQLSTATE: nicht zugewiesen

USE CATALOG '<reservedKeyword>' ist illegal, da '<reservedKeyword>' ein reserviertes Schlüsselwort in DLT ist.

RESERVED_KEYWORD_IN_USE_SCHEMA

SQLSTATE: nicht zugewiesen

USE SCHEMA '<reservedKeyword>' ist illegal, da '<reservedKeyword>' ein reserviertes Schlüsselwort in DLT ist.

RUN_AS_USER_NOT_FOUND

SQLSTATE: nicht zugewiesen

Die angegebene Ausführung als benutzende Person „<runAsUserId>“ für das Update ist im Arbeitsbereich nicht vorhanden.

SAAS_CONNECTION_ERROR

SQLSTATE: KD000

Fehler beim Herstellen einer Verbindung mit der <sourceName> Quelle. Fehlercode: <saasConnectionErrorCode>.

Weitere Informationen finden Sie unter SAAS_CONNECTION_ERROR

SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR

SQLSTATE: nicht zugewiesen

In der Tabelle <tableName> der <sourceName> Quelle ist eine Schemaänderung aufgetreten.

Weitere Details finden Sie unter SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR.

SAAS_CONNECTOR_SOURCE_API_ERROR

SQLSTATE: KD000

Fehler im <sourceName>-API-Aufruf. Quell-API-Typ: <saasSourceApiType>. Fehlercode: <saasSourceApiErrorCode>.

Versuchen Sie, die Zieltabelle zu aktualisieren. Wenn das Problem weiterhin besteht, reichen Sie bitte ein Ticket ein.

SAAS_CONNECTOR_UNSUPPORTED_ERROR

SQLSTATE: 0A000

In der Datenquelle <sourceName>ist ein nicht unterstützter Fehler aufgetreten.

Weitere Informationen finden Sie unter SAAS_CONNECTOR_UNSUPPORTED_ERROR.

SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT

SQLSTATE: nicht zugewiesen

Beim Initialisieren der Pipeline wurden inkompatible Schemaänderungen erkannt:

<details>

Bitte führen Sie eine vollständige Aktualisierung der betroffenen Tabellen durch.

SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS

SQLSTATE: nicht zugewiesen

Das analysierte Schema der Quelltabelle (<table>) hat sich vom erwarteten Schema abgegrenzt.

Versuchen Sie das Pipelineupdate erneut, und überprüfen Sie, ob das Problem behoben ist.

Wenn dieses Problem weiterhin besteht, führen Sie eine vollständige Aktualisierung der oben genannten Tabellen durch.

Erwartetes Schema:

<expectedSchema>

Tatsächliches Schema:

<actualSchema>

SAAS_UC_CONNECTION_INACCESSIBLE

SQLSTATE: nicht zugewiesen

Auf die bereitgestellte Verbindungs-<connectionName> kann nicht zugegriffen werden. Überprüfen Sie die Verbindung, und versuchen Sie es erneut.

Weitere Informationen finden Sie unter SAAS_UC_CONNECTION_INACCESSIBLE.

SCHEMA_SPEC_EMPTY_CATALOG

SQLSTATE: nicht zugewiesen

SchemaSpec weist eine leere Zeichenfolge im Katalogfeld auf.

Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Katalognamen hinzu. (Wenn dieses Schema nicht zu einem Katalog in der Quelle gehört, legen Sie das Feld nicht fest.)

Schemaspezifikationsdetails:

<schemaSpec>

SCHEMA_SPEC_EMPTY_SCHEMA

SQLSTATE: nicht zugewiesen

SchemaSpec verfügt über eine leere Zeichenfolge im Schemafeld.

Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Schemanamen hinzu. (Wenn diese Tabelle nicht zu einem Schema in der Quelle gehört, legen Sie das Feld nicht fest.)

Schemaspezifikationsdetails:

<schemaSpec>

SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA

SQLSTATE: nicht zugewiesen

Mindestens ein Quellkatalog- und Quellschema muss vorhanden sein. Aber beide sind leer.

Schemaspezifikationsdetails:

<schemaSpec>

SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR

SQLSTATE: KD000

In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Fehler beim Herstellen einer Verbindung mit der ServiceNow-Instanz. Die Instanz scheint im Ruhezustand oder inaktiv zu sein.

Melden Sie sich bei Ihrem ServiceNow-Verwaltungsportal an, und warten Sie einige Zeit, bis die Instanz vollständig aktiviert ist.

Um es erneut zu versuchen, führen Sie entweder die gesamte Pipeline erneut aus, oder aktualisieren Sie diese bestimmte Zieltabelle. Wenn der Fehler weiterhin besteht, melden Sie bitte ein Ticket an.

SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR

SQLSTATE: KD000

In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Fehler beim Abfragen des Schemas der Tabelle '<tableName>'. Die Tabelle ist im ServiceNow-Konto für diesen Benutzer nicht vorhanden.

Überprüfen Sie den Tabellennamen für alle Tippfehler, und stellen Sie sicher, dass der Benutzer über die erforderlichen Berechtigungen für den Zugriff auf die Tabelle verfügt.

Um es erneut zu versuchen, führen Sie entweder die gesamte Pipeline erneut aus, oder aktualisieren Sie diese bestimmte Zieltabelle. Wenn der Fehler weiterhin besteht, melden Sie bitte ein Ticket an.

SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR

SQLSTATE: KD000

In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Ungültige ServiceNow-API-Endpunkt-URL erkannt. Die URL-Struktur stimmt nicht mit dem erwarteten ServiceNow-Format überein.

Überprüfen Sie die ServiceNow-Instanzkonfiguration in den UC-Verbindungsanmeldeinformationen.

Weitere Details finden Sie unter SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR.

SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SQLSTATE: KD000

In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Weitere Details finden Sie unter SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR.

SET_TBLPROPERTIES_NOT_ALLOWED_FOR_DLT_DATASET

SQLSTATE: 0A000

ALTER <commandTableType>SET TBLPROPERTIES wird nicht unterstützt. Wenn Sie Tabelleneigenschaften ändern möchten, ändern Sie die ursprüngliche Definition, und führen Sie ein Update aus.

SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

Die Aufnahme für Objekt-<objName> ist unvollständig, da der Salesforce-API-Abfrageauftrag zu lang dauerte, fehlgeschlagen oder manuell abgebrochen wurde.

Weitere Details finden Sie unter SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE.

SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED

SQLSTATE: KD000

Die Erfassung von Objekt-<objName> ist unvollständig, da die Erstellung des Salesforce-Massen-API-Abfrageauftrags fehlgeschlagen ist. Fehlercode: <saasSourceApiErrorCode>.

<actionText>.

SINKS_NOT_SUPPORTED_IN_SEG

SQLSTATE: nicht zugewiesen

DLT-Senken werden in Arbeitsbereichen ohne Internetverbindung nicht unterstützt. Die folgenden Senken wurden gefunden: <sinkNames>

START_PYTHON_REPL_TIMED_OUT

SQLSTATE: nicht zugewiesen

Timeout beim Warten auf den Start von Python REPL. Dauerte länger als <timeoutSeconds> Sekunden.

STREAMING_TARGET_NOT_DEFINED

SQLSTATE: nicht zugewiesen

Die Zieltabelle <target> für den Befehl <command> wurde nicht gefunden. Zieltabelle <target> ist in der Pipeline nicht definiert.

TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED

SQLSTATE: nicht zugewiesen

Bei „TableSpec“ fehlt der Quellkatalog und/oder das Quellschema.

Tabellenspezifikationsdetails:

<tableSpec>

TABLE_SPEC_EMPTY_CATALOG

SQLSTATE: nicht zugewiesen

TableSpec verfügt über eine leere Zeichenfolge im Katalogfeld.

Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Katalognamen hinzu. (Wenn diese Tabelle nicht zu einem Katalog in der Quelle gehört, legen Sie das Feld nicht fest.)

Tabellenspezifikationsdetails:

<tableSpec>

TABLE_SPEC_EMPTY_SCHEMA

SQLSTATE: nicht zugewiesen

TableSpec verfügt über eine leere Zeichenfolge im Schemafeld.

Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Schemanamen hinzu. (Wenn diese Tabelle nicht zu einem Schema in der Quelle gehört, legen Sie das Feld nicht fest.)

Tabellenspezifikationsdetails:

<tableSpec>

TABLE_SPEC_EMPTY_TABLE

SQLSTATE: nicht zugewiesen

Der Tabellenname ist leer. Geben Sie einen Tabellennamen an.

Tabellenspezifikationsdetails:

<tableSpec>

TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE

SQLSTATE: nicht zugewiesen

Die Schemaentwicklung kann aufgrund fehlender Metadaten nicht aktiviert werden. Lösen Sie eine vollständige Aktualisierung aus.

Grund: Snapshot-Tabellentoken muss definiert werden, wenn die Schemaentwicklung aktiviert ist.

TRIGGER_INTERVAL_VALUE_INVALID

SQLSTATE: 22003

Das Triggerintervall muss eine positive Dauer sein, der maximal zulässige Wert beträgt 2.147.483.647 Sekunden. Empfangen: <actual> Sekunden.

Auslöserquellentyp nicht unterstützt (TRIGGER_SOURCE_TYPE_NOT_SUPPORTED)

SQLSTATE: 0A000

Die Quelle <source> mit Typ <type> wird derzeit nicht vom Auslöser unterstützt.

UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE: nicht zugewiesen

Das Löschen des Zielschemafelds ist für UC-Pipelines nicht zulässig. Grund: <reason>.

UC_TARGET_SCHEMA_REQUIRED

SQLSTATE: nicht zugewiesen

Das Zielschemafeld ist für UC-Pipelines erforderlich. Grund: <reason>.

UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR

SQLSTATE: nicht zugewiesen

Unerwarteter Fehler beim Überprüfen von Schemaberechtigungen für Pipeline-<pipelineId>. Wenden Sie sich bitte an den Databricks-Support.

UNRESOLVED_SINK_PATH

SQLSTATE: nicht zugewiesen

Speicherpfad für Senke <identifier> kann nicht aufgelöst werden. Wenden Sie sich bitte an den Databricks-Support.

UNRESOLVED_TABLE_PATH

SQLSTATE: nicht zugewiesen

Der Speicherpfad für tabellen <identifier> kann nicht aufgelöst werden. Wenden Sie sich bitte an den Databricks-Support.

UNSUPPORTED_CHANNEL_FOR_DPM

SQLSTATE: nicht zugewiesen

Nicht unterstützter Kanal für den Direct Publishing-Modus. Erwartet wurde entweder den Kanal „CURRENT“ oder „PREVIEW“, aber „PREVIOUS“ wurde erhalten.

UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE

SQLSTATE: nicht zugewiesen

<command> wird nur im aktivierten Direktveröffentlichungsmodus der DLT-Pipeline unterstützt

UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION

SQLSTATE: nicht zugewiesen

'<command>' wird in der Abfragedefinition nicht unterstützt. Verschieben Sie den Befehl außerhalb der Abfragedefinition. Wenn es sich um eine DLT-Pipeline in Python handelt, verschieben Sie „<command>“ außerhalb des Decorator-Elements @dlt.table(/@dlt.view(). Wenn es sich um eine DLT-Pipeline in Scala handelt, verschieben Sie die '<command>' außerhalb der 'Abfrage'-Methode.

UNSUPPORTED_FEATURE_FOR_WORKSPACE

SQLSTATE: 0A000

<featureName> wird in Ihrem Arbeitsbereich nicht unterstützt. Wenden Sie sich an den Databricks-Support, um dieses Feature für Ihren Arbeitsbereich zu aktivieren.

UNSUPPORTED_LANGUAGE

SQLSTATE: 0A000

Fehler beim Laden des <language>-Notebooks „<notebookPath>“. Derzeit werden nur <supportedLanguages> Notizbücher unterstützt.

Nicht unterstützter verwalteter Ingestionsquellentyp

SQLSTATE: nicht zugewiesen

Ungültige Definition einer verwalteten Aufnahmepipeline, nicht unterstützter Quelltyp: <sourceType>.

UNSUPPORTED_SAAS_INGESTION_TYPE

SQLSTATE: nicht zugewiesen

Der bereitgestellte Erfassungstyp <ingestionType> wird nicht unterstützt.

Wenden Sie sich an den Databricks-Support, wenn dieses Problem weiterhin besteht.

UNSUPPORTED_SPARK_SQL_COMMAND

SQLSTATE: nicht zugewiesen

'<command>' wird in spark.sql("...") API in DLT Python nicht unterstützt. Unterstützter Befehl: <supportedCommands>.

USE_CATALOG_IN_HMS

SQLSTATE: kein Wert zugewiesen

USE CATALOG wird nur in UC-fähigen DLT-Pipelines unterstützt.

VIEW_TEXT_NOT_SAVED_IN_UC

SQLSTATE: nicht zugewiesen

Tabelle <tableName> kann nicht aktualisiert werden, da sie keine Abfrage im Unity-Katalog gespeichert hat. Wenden Sie sich bitte an den Databricks-Support.

WORKDAY_REPORT_URL_EMPTY

SQLSTATE: nicht zugewiesen

Die Url des Workday-Berichts ist leer. Mindestens ein Bericht muss bereitgestellt werden.

WORKSPACE_QUOTA_EXCEEDED

SQLSTATE: 540000

Update „<updateId>“ kann nicht gestartet werden, da bereits „<maxActiveUpdates>“ aktive Pipelines in diesem Arbeitsbereich ausgeführt werden.

Verschiedenes

ABAC_ROW_COLUMN_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS

SQLSTATE: nicht zugewiesen

Abfrage für Tabelle <tableFullName> mit Zeilenfilter oder Spaltenmaske, die durch Richtlinienregeln zugewiesen wurden, wird für zugewiesene Clustern nicht unterstützt.

AZURE_ENTRA_CREDENTIALS_MISSING

SQLSTATE: nicht zugewiesen

Anmeldeinformationen für Azure Entra (auch als Azure Active Directory bekannt) fehlen.

Stellen Sie sicher, dass Sie entweder mit Ihrem Entra-Konto angemeldet sind.

oder Sie ein persönliches Azure DevOps-Zugriffstoken (PAT) in den „Benutzereinstellungen > Git-Integration“ eingerichtet haben.

Wenn Sie kein PAT verwenden und Azure DevOps mit der Repos-API verwenden,

Sie müssen ein Azure Entra-Zugriffstoken verwenden.

Schritte zum Abrufen eines Azure Entra-Zugriffstokens finden Sie unterhttps://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token.

AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE

SQLSTATE: nicht zugewiesen

Es wurde ein Fehler mit Ihren Azure Entra (Azure Active Directory)-Anmeldeinformationen festgestellt. Bitte versuchen Sie, sich abzumelden von

Entra https://portal.azure.com) und wieder anzumelden.

Alternativ können Sie auch „Benutzereinstellungen > Git-Integration“ aufrufen, um ein

ein persönliches Azure DevOps-Zugriffstoken einrichten.

AZURE_ENTRA_LOGIN_ERROR

SQLSTATE: nicht zugewiesen

Ein Fehler ist bei Ihren Azure Active Directory-Anmeldeinformationen aufgetreten. Bitte versuchen Sie, sich abzumelden von

Azure Active Directory https://portal.azure.com) und wieder anzumelden.

CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED

SQLSTATE: nicht zugewiesen

Die Generierung von Anmeldeinformationen für sicherungsfähige Reinraum-Delta-Freigabe kann nicht angefordert werden.

CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Sicherungsfähiger <securableName> mit Typ <securableType> und Art <securableKind> wird vom Reinraumsystem verwaltet, Benutzende haben keinen Zugriff.

BESCHRÄNKUNG_EXISTIERT_BEREITS

SQLSTATE: nicht zugewiesen

Es gibt bereits eine Einschränkung mit dem Namen <constraintName>, wählen Sie bitte einen anderen Namen.

CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Einschränkung <constraintName> ist nicht vorhanden.

COULD_NOT_READ_REMOTE_REPOSITORY

SQLSTATE: nicht zugewiesen

Konnte Remote-Repository (<repoUrl>) nicht lesen.

Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:

  1. Ihre Git-Repository-REMOTE-URL ist gültig.
  2. Ihr persönliches Zugriffstoken oder App-Kennwort verfügt über den richtigen Repositoryzugriff.

COULD_NOT_RESOLVE_REPOSITORY_HOST

SQLSTATE: nicht zugewiesen

Host für <repoUrl> konnte nicht aufgelöst werden.

CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Der Parameter beginning_of_time kann nicht wahr sein.

CSMS_CONTINUATION_TOKEN_EXPIRED

SQLSTATE: nicht zugewiesen

Angeforderte Objekte konnten für das Fortsetzungstoken nicht gefunden werden.

CSMS_INVALID_CONTINUATION_TOKEN

SQLSTATE: nicht zugewiesen

Fortsetzungstoken ungültig. Ursache: <msg>

CSMS_INVALID_MAX_OBJECTS

SQLSTATE: nicht zugewiesen

Ungültiger Wert <value> für Parameter-max_objects, erwarteter Wert in [<minValue>, <maxValue>]

CSMS_INVALID_URI_FORMAT

SQLSTATE: nicht zugewiesen

Ungültiges URI-Format. Ein Volume (z. B. /Volumes/catalog/schema/volume”) oder Cloudspeicherpfad (z. B. „s3://some-uri“) wurde erwartet

CSMS_KAFKA_TOPIC_MISSING

SQLSTATE: nicht zugewiesen

Muss ein Kafka-Thema bereitstellen

CSMS_LOCATION_ERROR

SQLSTATE: nicht zugewiesen

Fehler beim Auflisten von Objekten. Es gibt Probleme am Standort, die behoben werden müssen. Details: <msg>

CSMS_LOCATION_NOT_KNOWN

SQLSTATE: nicht zugewiesen

Kein Speicherort für URI <path> gefunden.

CSMS_METASTORE_RESOLUTION_FAILED

SQLSTATE: nicht zugewiesen

Ein Metaspeicher für die Anforderung kann nicht ermittelt werden.

CSMS-Dienst deaktiviert

SQLSTATE: nicht zugewiesen

Der Dienst ist deaktiviert.

CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND

SQLSTATE: nicht zugewiesen

Unity Catalog-Entität nicht gefunden. Stellen Sie sicher, dass der Katalog, das Schema, das Volume und/oder der externe Speicherort vorhanden sind.

CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST

SQLSTATE: kein Wert zugewiesen

Der externe Speicherort des Unity-Katalogs ist nicht vorhanden.

CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP

SQLSTATE: nicht zugewiesen

URI überlappt mit anderen Volumes

CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Ein Metaspeicher für die Anforderung kann nicht ermittelt werden. Metastore ist nicht vorhanden

CSMS_UNITY_CATALOG_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Berechtigung verweigert

CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Die Unity-Katalogtabelle ist nicht vorhanden.

CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Das Unity-Katalogvolumen existiert nicht.

CSMS_URI_MISSING

SQLSTATE: nicht zugewiesen

URI muss bereitgestellt werden

CSMS_URI_TOO_LONG

SQLSTATE: nicht zugewiesen

Der angegebene URI ist zu lang. Die maximal zulässige Länge ist <maxLength>.

DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE

SQLSTATE: nicht zugewiesen

Auf den Databricks-Standardspeicher kann nicht mithilfe des klassischen Compute zugegriffen werden. Verwenden Sie Serverless Compute, um auf Daten im Standardspeicher zuzugreifen.

GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS

SQLSTATE: nicht zugewiesen

Fehler beim Vorgang, da verknüpfte GitHub-App-Anmeldeinformationen nicht aktualisiert werden konnten.

Versuchen Sie es erneut, oder wechseln Sie zu "Benutzereinstellungen" > Git-Integration, und versuchen Sie erneut, Ihr Git-Anbieterkonto zu verknüpfen.

Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.

GITHUB_APP_CREDENTIALS_NO_ACCESS

SQLSTATE: nicht zugewiesen

Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:

  1. Ein Administrator des Repositorys muss zuhttps://github.com/apps/databricks/installations/new wechseln und die GitHub-App "Databricks" im Repository installieren.

Alternativ kann ein GitHub-Kontobesitzer die App auf dem Konto installieren, um Zugriff auf die Repositorys des Kontos zu gewähren.

  1. Wenn die App bereits installiert ist, muss die Administration sicherstellen, dass bei Verwendung des bereichsbezogenen Zugriffs mit der Option „Nur ausgewählte Repositorys“ Zugriff auf dieses Repository besteht, indem es ausgewählt wird.

Weitere Informationen finden Sie unterhttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.

Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.

GITHUB_APP_EXPIRED_CREDENTIALS

SQLSTATE: nicht zugewiesen

Verknüpfte GitHub-App-Anmeldeinformationen sind nach 6 Monaten Inaktivität abgelaufen.

Wechseln Sie zu "Benutzereinstellungen" > Git-Integration, und versuchen Sie, Ihre Anmeldeinformationen erneut zu verknüpfen.

Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.

GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT

SQLSTATE: nicht zugewiesen

Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:

  1. GitHub-Benutzer <gitCredentialUsername> sollte zuhttps://github.com/apps/databricks/installations/new wechseln und die App auf dem Konto <gitCredentialUsername> installieren, um den Zugriff zu ermöglichen.
  2. Wenn der Benutzer die App bereits installiert <gitCredentialUsername> und den bereichsbezogenen Zugriff mit der Option "Nur ausgewählte Repositorys" verwendet, sollte er sicherstellen, dass er Zugriff auf dieses Repository hat, indem er es auswählt.

Weitere Informationen finden Sie unterhttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.

Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.

GITHUB_APP_INSTALL_ON_ORGANIZATION

SQLSTATE: nicht zugewiesen

Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:

  1. Ein Besitzer der GitHub-Organisation <organizationName> sollte zuhttps://github.com/apps/databricks/installations/new wechseln und die App in der Organisation installieren <organizationName>, um den Zugriff zu ermöglichen.
  2. Wenn die App bereits in der GitHub-Organisation <organizationName>installiert ist, sollte ein Besitzer dieser Organisation sicherstellen, dass bei Verwendung des bereichsbezogenen Zugriffs mit der Option „Nur ausgewählte Repositorys“ dieses Repository durch Auswahl in den Zugriff einbezogen wird.

Weitere Informationen finden Sie unterhttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.

Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.

GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT

SQLSTATE: nicht zugewiesen

Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:

  1. Wechseln Sie zuhttps://github.com/apps/databricks/installations/new, und installieren Sie die App auf Ihrem Konto <gitCredentialUsername>, um den Zugriff zu ermöglichen.
  2. Wenn die App bereits installiert ist und Sie den bereichsbezogenen Zugriff mit der Option "Nur Repositorys auswählen" verwenden, stellen Sie sicher, dass Sie Zugriff auf dieses Repository haben, indem Sie sie auswählen.

Weitere Informationen finden Sie unterhttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.

Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.

GIT_CREDENTIAL_GENERIC_INVALID

SQLSTATE: nicht zugewiesen

Ungültige Git-Anbieteranmeldeinformationen für Repository-URL <repoUrl>.

Ihr aktueller Git-Anmeldeinformationsanbieter ist <gitCredentialProvider> und benutzername ist <gitCredentialUsername>.

Rufen Sie „Benutzereinstellungen > Git-Integration“ auf, um Ihre Anmeldeinformationen anzuzeigen.

Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:

  1. Sie haben die richtige Git-Benutzer-E-Mail oder ihren Benutzernamen mit Ihren Git-Anbieteranmeldeinformationen eingegeben.
  2. Ihr Token- oder App-Kennwort verfügt über den richtigen Repositoryzugriff.
  3. Ihr Token ist nicht abgelaufen.
  4. Wenn Sie SSO mit Ihrem Git-Anbieter aktiviert haben, müssen Sie Ihr Token autorisieren.

GIT_CREDENTIAL_INVALID_PAT

SQLSTATE: nicht zugewiesen

Ungültige Personal Access Token-Anmeldeinformationen des Git-Anbieters für die Repository-URL <repoUrl>.

Ihr aktueller Git-Anmeldeinformationsanbieter ist <gitCredentialProvider> und benutzername ist <gitCredentialUsername>.

Wechseln Sie zu "Benutzereinstellungen" > "Git-Integration", um Ihre Zugangsdaten anzuzeigen.

Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:

  1. Sie haben die richtige Git-Benutzer-E-Mail oder ihren Benutzernamen mit Ihren Git-Anbieteranmeldeinformationen eingegeben.
  2. Ihr Token- oder App-Kennwort verfügt über den richtigen Repositoryzugriff.
  3. Ihr Token ist nicht abgelaufen.
  4. Wenn Sie SSO mit Ihrem Git-Anbieter aktiviert haben, müssen Sie Ihr Token autorisieren.

GIT_CREDENTIAL_MISSING

SQLSTATE: nicht zugewiesen

Keine Git-Anmeldeinformationen konfiguriert, aber Anmeldeinformationen sind für dieses Repository erforderlich (<repoUrl>).

Wechseln Sie zu "Benutzereinstellungen" > Git-Integration, um Ihre Git-Anmeldeinformationen einzurichten.

GIT_CREDENTIAL_NO_WRITE_PERMISSION

SQLSTATE: nicht zugewiesen

Schreibzugriff auf <gitCredentialProvider>-Repository (<repoUrl>) nicht gewährt.

Stellen Sie sicher, dass Sie (<gitCredentialUsername>) Schreibzugriff auf dieses Remote-Repository haben.

GIT_CREDENTIAL_PROVIDER_MISMATCHED

SQLSTATE: nicht zugewiesen

Falscher Git-Anmeldeinformationsanbieter für Repository.

Der Anbieter Ihrer aktuellen Git-Anmeldeinformationen (<gitCredentialProvider>) stimmt nicht mit dem des Git-Anbieters des Repositorys <repoUrl>überein.

Probieren Sie ein anderes Repository aus, oder wechseln Sie zu "Benutzereinstellungen" > Git-Integration, um Ihre Git-Anmeldeinformationen zu aktualisieren.

GIT_PROXY_CLUSTER_NOT_READY

SQLSTATE: nicht zugewiesen

Git-Proxycluster ist nicht bereit.

GIT_SECRET_IN_CODE

SQLSTATE: nicht zugewiesen

Geheimnisse im Commit gefunden. Detail: <secretDetail>. So beheben Sie diesen Fehler:

Entfernen Sie das Geheimnis, und committen Sie erneut.

Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.

HIERARCHICAL_NAMESPACE_NOT_ENABLED

SQLSTATE: nicht zugewiesen

Das Azure-Speicherkonto hat keinen hierarchischen Namespace aktiviert.

INVALID_FIELD_LENGTH

SQLSTATE: nicht zugewiesen

<rpcName> <fieldName> zu lang. Die maximale Länge beträgt <maxLength> Zeichen.

UNGÜLTIGER_PARAMETERWERT

SQLSTATE: nicht zugewiesen

<msg>

Weitere Details finden Sie unter INVALID_PARAMETER_VALUE.

JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND

SQLSTATE: nicht zugewiesen

Aufgabenframework: Ausgabe der Aufgabenausführung für Aufgabe mit runId <runId> und orgId <orgId> konnte nicht gefunden werden.

JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND

SQLSTATE: nicht zugewiesen

Aufgabenframework: Status der Aufgabenausführung für Aufgabe mit runId <runId> und orgId <orgId> konnte nicht gefunden werden.

JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

RPC-ClientConfig für Aufgabe mit ID <taskId> existiert nicht.

JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Die Aufgabe mit der ID <taskId> ist nicht vorhanden.

JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK

SQLSTATE: nicht zugewiesen

Aufgabenregistrierung: Nicht unterstützte oder unbekannte JobTask mit Klasse <taskClassName>.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE

SQLSTATE: nicht zugewiesen

Pfadbasierter Zugriff auf externe flache Klontabelle <tableFullName> wird nicht unterstützt. Verwenden Sie stattdessen Tabellennamen, um auf den flachen Klon zuzugreifen.

Pfadbasierter Zugriff wird für Fabric nicht unterstützt

SQLSTATE: nicht zugewiesen

Die Fabric-Tabelle an der URL „<url>“ wurde nicht gefunden. Verwenden Sie den Befehl REFRESH FOREIGN CATALOG, um Fabric-Tabellen aufzufüllen.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES

SQLSTATE: nicht zugewiesen

Pfadbasierter Zugriff auf Tabelle <tableFullName> mit Zeilenfilter oder Spaltenmaske nicht unterstützt.

PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Benutzende Person verfügt nicht über <msg> für <resourceType><resourceName>“.

REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE: nichts zugewiesen

Die Löschanforderung für das Objekt kann nicht verarbeitet werden: <invalidInputMsg>

REDASH_DELETE_OBJECT_NOT_IN_TRASH

SQLSTATE: nicht zugewiesen

Objekt <resourceName> kann nicht gelöscht werden, da es sich nicht im Papierkorb befindet.

REDASH_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Der Zugriff auf Ressource <resourceId> konnte nicht gefunden werden oder es fehlen die notwendigen Berechtigungen.

REDASH_QUERY_NOT_FOUND

SQLSTATE: nicht zugewiesen

Die Ressource konnte nicht aus der Abfrage-ID <queryId> gefunden werden.

REDASH_QUERY_SNIPPET_CREATION_FAILED

SQLSTATE: nicht zugewiesen

Der neue Abfrageausschnitt kann nicht erstellt werden.

REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED

SQLSTATE: nicht zugewiesen

Das Kontingent für die Anzahl der Abfrageausschnitte wurde erreicht. Das aktuelle Kontingent beträgt <quota>.

REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE

SQLSTATE: nicht zugewiesen

Der angegebene Trigger <trigger> wird bereits von einem anderen Abfrageausschnitt in diesem Arbeitsbereich verwendet.

REDASH_RESOURCE_NOT_FOUND

SQLSTATE: kein Wert zugewiesen

Die angeforderte Ressource <resourceName> ist nicht vorhanden.

REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE: nicht zugewiesen

Die Löschanforderung konnte nicht verarbeitet/parsiert werden: <invalidInputMsg>

REDASH_RESTORE_OBJECT_NOT_IN_TRASH

SQLSTATE: nicht zugewiesen

Objekt <resourceName>, das sich nicht im Papierkorb befindet, kann nicht wiederhergestellt werden.

REDASH_TRASH_OBJECT_ALREADY_IN_TRASH

SQLSTATE: nicht zugewiesen

Objekt <resourceName> befindet sich bereits im Papierkorb und kann nicht erneut in den Papierkorb verschoben werden.

REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME

SQLSTATE: nicht zugewiesen

Der Ressourcenname konnte nicht aus id <id> generiert werden.

REDASH_VISUALIZATION_CREATION_FAILED

SQLSTATE: nicht zugewiesen

Neue Visualisierung kann nicht erstellt werden.

REDASH_VISUALIZATION_NOT_FOUND

SQLSTATE: nicht zugewiesen

Visualisierung <visualizationId> konnte nicht gefunden werden.

REDASH_VISUALIZATION_QUOTA_EXCEEDED

SQLSTATE: nicht zugewiesen

Das Kontingent für die Anzahl der Visualisierungen der Abfrage <query_id> wurde erreicht. Das aktuelle Kontingent beträgt <quota>.

REPOSITORY_URL_NOT_FOUND

SQLSTATE: nicht zugewiesen

Remote-Repository (<repoUrl>) nicht gefunden.

Ihr aktueller Git-Anmeldeinformationsanbieter ist <gitCredentialProvider> und benutzername ist <gitCredentialUsername>.

Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:

  1. Ihre Git-Repository-REMOTE-URL ist gültig.
  2. Ihr persönliches Zugriffstoken oder App-Kennwort verfügt über den richtigen Repositoryzugriff.

RESSOURCE_EXISTIERT_BEREITS

SQLSTATE: nicht zugewiesen

<resourceType> '<resourceIdentifier>' ist bereits vorhanden

DIE_RESOURCE_EXISTIERT_NICHT

SQLSTATE: nicht zugewiesen

<resourceType> '<resourceIdentifier>' ist nicht vorhanden.

ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS

SQLSTATE: nicht zugewiesen

Abfrage auf die Tabelle <tableFullName> mit Zeilenfilter oder Spaltenmaske wird auf zugewiesenen Clustern nicht unterstützt.

ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING

SQLSTATE: nicht zugewiesen

Tabelle <tableFullName> wird mit Delta Sharing geteilt und kann keine Zeilen-/Spaltensicherheit verwenden.

SERVICE_TEMPORARILY_UNAVAILABLE

SQLSTATE: nicht zugewiesen

Der <serviceName>-Dienst wird vorübergehend gewartet. Versuchen Sie es später erneut.

TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE

SQLSTATE: nicht zugewiesen

Tabelle <tableFullName> kann nicht sowohl die Zeilen-/Spaltensicherheit als auch online materialisierte Ansichten haben.

TOO_MANY_ROWS_TO_UPDATE

SQLSTATE: nicht zugewiesen

Zu viele Zeilen zum Aktualisieren, Aktualisierung wird abgebrochen.