Fehlerklassen in Azure Databricks
Gilt für: Databricks SQL
Databricks Runtime 12.2 und höher
Fehlerklassen sind beschreibende, lesbare Zeichenfolgen, die für die Fehlerbedingung eindeutig sind.
Sie können Fehlerklassen verwenden, um Fehler in Ihrer Anwendung programmgesteuert zu behandeln, ohne die Fehlermeldung analysieren zu müssen.
Dies ist eine Liste allgemeiner, benannter Fehlerbedingungen, die von Azure Databricks zurückgegeben werden.
Databricks Runtime und Databricks SQL
ADD_DEFAULT_UNSUPPORTED
Fehler beim Ausführen des <statementType>
-Befehls, da DEFAULT
-Werte beim Hinzufügen neuer Spalten zur zuvor vorhandenen Zieldatenquelle mit dem Tabellenanbieter: "<dataSource>
" nicht unterstützt werden.
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
Nicht deterministischer Ausdruck <sqlExpr>
sollte nicht in den Argumenten einer Aggregatfunktion angezeigt werden.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Fehler beim Parsen der Modellausgabe beim Umwandeln in den angegebenen Rückgabetyp: „<dataType>
“, die JSON-Antwort lautete: „<responseString>
“. Aktualisieren Sie den returnType so, dass er dem Inhalt des Typs entspricht, der durch den Antwort-JSON dargestellt wird, und wiederholen Sie dann die Abfrage erneut.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
Die tatsächliche Modellausgabe weist mehr als eine Spalte "<responseString>
" auf. Der angegebene Rückgabetyp["<dataType>
"] hat jedoch nur eine Spalte. Aktualisieren Sie den returnType so, dass er dieselbe Anzahl von Spalten wie die Modellausgabe enthält, und wiederholen Sie dann die Abfrage erneut.
AI_FUNCTION_HTTP_REQUEST_ERROR
Fehler beim Ausführen einer HTTP-Anforderung für die Funktion <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Ungültige HTTP-Antwort für Funktion <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Die maximale Anzahl von Wörtern muss eine nicht negative ganze Zahl sein, es wurde aber <maxWords>
erhalten.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Die bereitgestellten Modellparameter (<modelParameters>
) sind in der AI_QUERY
-Funktion für die Bereitstellung des Endpunkts "<endpointName>
" ungültig.
Weitere Details finden Sie unter AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
AI-Funktion: "<functionName>
" erfordert eine gültige <format>
-Zeichenfolge für den responseFormat
-Parameter, aber es wurde folgendes Antwortformat gefunden: "<invalidResponseFormat>
". Ausnahme: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
Fehler beim Parsen der JSON-Antwort für Funktion <funcName>
: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Fehler beim Analysieren des Schemas für den bereitgestellten Endpunkt "<endpointName>
": <errorMessage>
, Antwort-JSON lautete: "<responseJson>
".
Legen Sie den returnType
Parameter manuell in der AI_QUERY
-Funktion fest, um die Schemaauflösung außer Kraft zu setzen.
AI_FUNCTION_UNSUPPORTED_ERROR
Die Funktion <funcName>
wird in der aktuellen Umgebung nicht unterstützt. Sie ist nur in Databricks SQL Pro und Serverless verfügbar.
AI_FUNCTION_UNSUPPORTED_REQUEST
Fehler beim Auswerten der SQL-Funktion "<functionName>
", da das angegebene Argument von <invalidValue>
"<invalidDataType>
" aufweist, aber nur die folgenden Typen werden unterstützt: <supportedDataTypes>
. Aktualisieren Sie den Funktionsaufruf, um ein Argument vom Zeichenfolgentyp bereitzustellen, und wiederholen Sie die Abfrage erneut.
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
Ein nicht unterstütztes Antwortformat wurde gefunden.
Weitere Details finden Sie unter AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
KI-Funktion: "<functionName>
" unterstützt nicht den folgenden Typ als Rückgabetyp: "<typeName>
". Der Rückgabetyp muss ein gültiger SQL-Typ sein, der von Catalyst verstanden und von der KI-Funktion unterstützt wird. Aktuelle unterstützte Typen umfassen: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
Der bereitgestellte Wert "<argValue>
" wird von Argument "<argName>
" nicht unterstützt. Unterstützte Werte sind: <supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
Erwartet wurde, dass der Aufgabentyp des Endpunkts „Chat“ für die Unterstützung strukturierter Ausgaben ist, aber es wurde „<taskType>
“ für den Endpunkt „<endpointName>
“ gefunden.
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Der bereitgestellte Ausdruck „<sqlExpr>
“ wird vom Argument „returnType“ nicht unterstützt.
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
Konfliktierende Parameter für vector_search
SQL-Funktion erkannt: <conflictParamNames>
.<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
vector_search
SQL-Funktion mit eingebettetem Spaltentyp <embeddingColumnType>
wird nicht unterstützt.
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search
Der SQL-Funktion fehlt der Abfrageeingabeparameter, bitte geben Sie mindestens einen von: <parameterNames>
an.
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
Der Parameter query
für die vector_search
SQL-Funktion wird nicht für die hybrid
Vektorsuche unterstützt. Verwenden Sie stattdessen query_text
.
AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR
Der Abfragetext wurde in der sql-Funktion vector_search
für hybrid
Vektorsuche nicht gefunden. Geben Sie query_text
an.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
vector_search
SQL-Funktion mit Indextyp <indexType>
wird nicht unterstützt.
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR
query_vector
muss für index <indexName>
angegeben werden, da sie keinem Einbettungsmodellendpunkt zugeordnet ist.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Fehler beim Materialisieren der SQL-Funktionsabfrage vector_search
vom Spark-Typ <dataType>
für native Scala-Objekte während der Anforderungscodierung: <errorMessage>
.
AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR
vector_search
SQL-Funktion mit Abfragetyp <unexpectedQueryType>
wird nicht unterstützt. Geben Sie einen Typ aus <supportedQueryTypes>
an.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
vector_search
SQL-Funktion mit num_results größer als <maxLimit>
wird nicht unterstützt. Der angegebene Grenzwert ist <requestedLimit>
. Versuchen Sie es bitte erneut mit num_results <= <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
Für die Verwendung von parametrisierten Namensabfragen müssen alle Parameter benannt werden. Parameter ohne Namen: <exprs>
.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Nicht alle Spalten können als Partitionsspalten verwendet werden.
ALTER_PLAN_EXISTIERT_NICHT
<scheduleType>
einer Tabelle kann nicht geändert werden, ohne dass ein vorhandener Zeitplan oder Trigger vorhanden ist. Fügen Sie der Tabelle einen Zeitplan oder Trigger hinzu, bevor Sie versuchen, ihn zu ändern.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type>
Spalte <columnName>
gibt deskriptor "<optionName>
" mehrmals an, was ungültig ist.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Der Name <name>
ist im geschachtelten CTE mehrdeutig.
Legen Sie <config>
auf "CORRECTED
" fest, damit der in inneren CTE definierte Name Vorrang hat. Wenn sie auf "LEGACY
" festgelegt ist, haben äußere CTE-Definitionen Vorrang.
Siehe https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine".
AMBIGUOUS_COLUMN_OR_FIELD
Spalte oder Feld <name>
ist mehrdeutig und weist <n>
Übereinstimmungen auf.
AMBIGUOUS_COLUMN_REFERENCE
Spalten-<name>
ist mehrdeutig. Dies liegt daran, dass Sie mehrere DataFrames miteinander verknüpft haben, und einige dieser DataFrames sind identisch.
Diese Spalte verweist auf einen der DataFrames, aber Spark kann nicht herausfinden, welches element.
Bitte weisen Sie den DataFrames über DataFrame.alias
unterschiedliche Namen zu, bevor Sie sie zusammenführen.
und geben Sie die Spalte mithilfe des qualifizierten Namens an, z. B. df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
UNEINDEUTIGE_EINSCHRÄNKUNG
Mehrdeutige Referenz auf Einschränkung <constraint>
.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
Der Alias der Lateral-Spalte <name>
ist mehrdeutig und weist <n>
Übereinstimmungen auf.
AMBIGUOUS_REFERENCE
Der Verweis <name>
ist mehrdeutig, könnte <referenceNames>
sein.
AMBIGUOUS_REFERENCE_TO_FIELDS
Mehrdeutiger Verweis auf das Feld <field>
. Es erscheint <count>
Mal im Schema.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS
wird nicht unterstützt.
ANSI_CONFIG_CANNOT_BE_DISABLED
Die ANSI SQL-Konfiguration <config>
kann in diesem Produkt nicht deaktiviert werden.
AQE_THREAD_INTERRUPTED
Der AQE-Thread wird unterbrochen, wahrscheinlich aufgrund des Abbruchs von Abfragen durch den Benutzer.
ARGUMENT_NOT_CONSTANT
Die Funktion <functionName>
enthält einen Parameter <parameterName>
an position <pos>
, der ein konstantes Argument erfordert. Berechnen Sie das Argument <sqlExpr>
separat, und übergeben Sie das Ergebnis als Konstante.
ARITHMETIC_OVERFLOW
<message>
.<alternative>
Legen Sie bei Bedarf <config>
auf "false" fest, um diesen Fehler zu umgehen.
Weitere Details finden Sie unter ARITHMETIC_OVERFLOW.
ASSIGNMENT_ARITY_MISMATCH
Die Anzahl der Spalten oder Variablen, die zugewiesen oder aliasiert werden: <numTarget>
stimmt nicht mit der Anzahl der Quellausdrücke überein: <numExpr>
.
AS_OF_JOIN
Ungültiger As-of-Join.
Weitere Details finden Sie unter AS_OF_JOIN.
AVRO_DEFAULT_VALUES_UNSUPPORTED
Die Verwendung von Standardwerten wird nicht unterstützt, wennrescuedDataColumn
aktiviert ist. Sie können diese Überprüfung möglicherweise entfernen, indem Sie spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
auf "false" festlegen, die Standardwerte werden jedoch nicht angewendet, und NULL-Werte werden weiterhin verwendet.
AVRO_INCOMPATIBLE_READ_TYPE
Avro <avroPath>
kann nicht in SQL-<sqlPath>
konvertiert werden, da der ursprüngliche codierte Datentyp <avroType>
ist. Sie versuchen jedoch, das Feld als <sqlType>
zu lesen, was zu einer falschen Antwort führen würde.
Um das Lesen dieses Felds zuzulassen, aktivieren Sie die SQL-Konfiguration: „spark.sql.legacy.avro.allowIncompatibleSchema”.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Die Verwendung des Positionsfeldabgleichs wird nicht unterstützt, wenn entweder rescuedDataColumn
oder failOnUnknownFields
aktiviert ist. Entfernen Sie diese Optionen, um fortzufahren.
BATCH_METADATA_NOT_FOUND
Batch-<batchMetadataFile>
konnte nicht gefunden werden.
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
BigQuery-Verbindungsanmeldeinformationen müssen entweder mit dem Parameter "GoogleServiceAccountKeyJson" oder mit allen folgenden Parametern angegeben werden: 'projectId', 'OAuthServiceAcctEmail', 'OAuthPvtKey'.
Binärer Arithmetiküberlauf
<value1> <symbol> <value2>
verursachte Überlauf. Verwenden Sie <functionName>
, um das Überlaufproblem zu ignorieren und NULL
zurückzugeben.
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
Boolesche Anweisung <invalidStatement>
ist ungültig. Es wurde eine einzelne Zeile mit einem Wert des typs BOOLEAN
erwartet, aber eine leere Zeile erhalten.
BUILT_IN_CATALOG
<operation>
unterstützt keine integrierten Kataloge.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
Die Methode <methodName>
kann nicht für Streaming-Dataset/DataFrame aufgerufen werden.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN
kann die Sortierung von Typ/Untertypen von Bucket-Spalten nicht ändern, hat aber die Bucketspalte <columnName>
in der Tabelle <tableName>
gefunden.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN
wird für Partitionsspalten nicht unterstützt, aber es wurde die Partitionsspalte <columnName>
in der Tabelle <tableName>
gefunden.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
Um die Spalte für die Ereigniszeit neu zuzuweisen, muss ein Wasserzeichen definiert werden. Die Wasserzeichendefinition in der Streamingabfrage konnte nicht gefunden werden.
CANNOT_CAST_DATATYPE
<sourceType>
kann nicht in <targetType>
umgestellt werden.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Protobuf-<protobufColumn>
kann nicht in SQL-<sqlColumn>
konvertiert werden, da das Schema nicht kompatibel ist (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
<protobufType>
von Protobuf kann nicht in SQL-Typ <toType>
konvertiert werden.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
SQL-<sqlColumn>
kann nicht in Protobuf-<protobufColumn>
konvertiert werden, da das Schema nicht kompatibel ist (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE - Kann SQL-Wert nicht in Protobuf-Enum-Typ konvertieren
SQL-<sqlColumn>
kann nicht in Protobuf-<protobufColumn>
konvertiert werden, da <data>
nicht unter den definierten Werten für Enum: <enumString>
ist.
CANNOT_COPY_STATE
Der Katalogstatus kann nicht wie aktuelle Datenbank und temporäre Ansichten aus dem Unity-Katalog in einen Legacykatalog kopiert werden.
CANNOT_CREATE_DATA_SOURCE_TABLE
Fehler beim Erstellen der Datenquellentabelle <tableName>
:
Weitere Details finden Sie unter CANNOT_CREATE_DATA_SOURCE_TABLE.
KANN_URL_NICHT_ENTCODIEREN
Die angegebene URL kann nicht decodiert werden: <url>
. Stellen Sie sicher, dass die URL ordnungsgemäß formatiert ist, und versuchen Sie es erneut.
CANNOT_DELETE_SYSTEM_OWNED
Der systemeigene <resourceType>
kann nicht gelöscht werden.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Die Einschränkung mit dem Namen <constraintName>
, der gemeinsam mit einer CHECK
-Einschränkung
und einer PRIMARY KEY
-oder FOREIGN KEY
-Einschränkung verwendet wird, kann nicht getrennt werden. Sie können die PRIMARY KEY
- oder
FOREIGN KEY
-Beschränkung durch folgende Abfragen trennen:
ALTER TABLE
.. DROP PRIMARY KEY
oder
ALTER TABLE
.. DROP FOREIGN KEY
..
KANN_KEINE_VERBINDUNG_HERSTELLEN
Eine Verbindung zur Remotedatenbank <jdbcDialectName>
kann nicht hergestellt werden. Überprüfen Sie Verbindungsinformationen und Anmeldeinformationen, z. B. Host, Port, Benutzer, Kennwort und Datenbankoptionen. ** Wenn Sie der Meinung sind, dass die Informationen korrekt sind, überprüfen Sie bitte die Netzwerkeinrichtung Ihres Arbeitsbereichs, und stellen Sie sicher, dass sie keine ausgehenden Einschränkungen für den Host hat. Überprüfen Sie auch, ob der Host eingehende Verbindungen nicht vom Netzwerk blockiert, in dem die Spark-Cluster des Arbeitsbereichs bereitgestellt werden. ** Detaillierte Fehlermeldung: <causeErrorMessage>
.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Die Verbindung mit der Remotedatenbank <jdbcDialectName>
kann nicht hergestellt werden. Überprüfen Sie Verbindungsinformationen und Anmeldeinformationen, z. B. Host, Port, Benutzer, Kennwort und Datenbankoptionen. ** Wenn Sie der Meinung sind, dass die Informationen korrekt sind, lassen Sie den eingehenden Datenverkehr vom Internet an Ihren Host zu, während Sie Serverless Compute verwenden. Wenn Ihre Netzwerkrichtlinien eingehenden Internetdatenverkehr nicht zulassen, verwenden Sie bitte nicht Serverless Compute, oder Wenden Sie sich an Ihren Databricks-Vertreter, um mehr über Serverless Private Networking zu erfahren. ** Detaillierte Fehlermeldung: <causeErrorMessage>
.
CANNOT_INVOKE_IN_TRANSFORMATIONS
Datasettransformationen und -aktionen können nur vom Treiber aufgerufen werden, nicht innerhalb anderer Datasettransformationen; Beispielsweise ist "dataset1.map(x => dataset2.values.count() * x) " ungültig, da die Wertetransformation und -zählungsaktion nicht innerhalb der Dataset1.map-Transformation ausgeführt werden kann. Weitere Informationen finden Sie unter SPARK
-28702.
CANNOT_LOAD_FUNCTION_CLASS
Klasse <className>
beim Registrieren der Funktion <functionName>
kann nicht geladen werden. Stellen Sie sicher, dass sie sich auf dem Klassenpfad befindet.
CANNOT_LOAD_PROTOBUF_CLASS
Die Protobuf-Klasse mit dem Namen <protobufClassName>
konnte nicht geladen werden. <explanation>
.
CANNOT_LOAD_STATE_STORE
Beim Laden des Zustands ist ein Fehler aufgetreten.
Weitere Details finden Sie unter CANNOT_LOAD_STATE_STORE.
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Fehler beim Zusammenführen inkompatibler Datentypen <left>
und <right>
. Überprüfen Sie die Datentypen der zusammengeführten Spalten, und stellen Sie sicher, dass sie kompatibel sind. Ziehen Sie bei Bedarf die Umwandlung der Spalten in kompatible Datentypen in Betracht, bevor Sie die Zusammenführung versuchen.
CANNOT_MERGE_SCHEMAS
Fehler beim Zusammenführen von Schemas:
Anfängliches Schema:
<left>
Schema, das nicht mit dem ursprünglichen Schema zusammengeführt werden kann:
<right>
.
CANNOT_MODIFY_CONFIG
Der Wert der Spark-Konfiguration kann nicht geändert werden: <key>
.
Siehe auch https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements.
CANNOT_PARSE_DECIMAL
Dezimalwerte können nicht geparst werden. Bitte stellen Sie sicher, dass die Eingabe eine gültige Zahl mit optionalem Dezimalpunkt oder Dezimalkomma ist.
CANNOT_PARSE_INTERVAL
<intervalString>
kann nicht geparst werden. Stellen Sie sicher, dass der angegebene Wert in einem gültigen Format zum Definieren eines Intervalls enthalten ist. Sie können auf die Dokumentation für das richtige Format verweisen. Wenn das Problem weiterhin besteht, überprüfen Sie bitte, ob der Eingabewert nicht null oder leer ist, und versuchen Sie es erneut.
CANNOT_PARSE_JSON_FIELD
Der Feldname <fieldName>
und der Wert <fieldValue>
des JSON-Tokentyps <jsonType>
können nicht auf den Spark-Zieldatentyp <dataType>
geparst werden.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Fehler beim Analysieren von Deskriptorbytes in Protobuf FileDescriptorSet.
CANNOT_PARSE_TIMESTAMP
<message>
. Verwenden Sie <func>
, um eine ungültige Eingabezeichenfolge zu tolerieren und stattdessen NULL
zurückzugeben.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
MV/ST kann während der Initialisierung nicht abgerufen werden.
Weitere Informationen finden Sie unter CANNOT_QUERY_TABLE_DURING_INITIALIZATION.
KANN_ARCHIVIERTE_DATEI_NICHT_LESEN
Die Datei kann nicht im Pfad <path>
gelesen werden, da sie archiviert wurde. Passen Sie Die Abfragefilter an, um archivierte Dateien auszuschließen.
KANN_DATEI_NICHT_LESEN
Die <format>
-Datei kann nicht gelesen werden unter Pfad: <path>
.
Weitere Informationen finden Sie unter CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Vertraulicher Schlüssel "<key>
" kann nicht vom sicheren Anbieter gelesen werden.
CANNOT_RECOGNIZE_HIVE_TYPE
Die Strukturtypzeichenfolge kann nicht erkannt werden: <fieldType>
, Spalte: <fieldName>
. Der angegebene Datentyp für das Feld kann von Spark SQL nicht erkannt werden. Überprüfen Sie den Datentyp des angegebenen Felds, und stellen Sie sicher, dass es sich um einen gültigen Spark SQL-Datentyp handelt. Eine Liste der gültigen Datentypen und deren Format finden Sie in der Spark SQL-Dokumentation. Wenn der Datentyp korrekt ist, stellen Sie sicher, dass Sie eine unterstützte Version von Spark SQL verwenden.
CANNOT_REFERENCE_UC_IN_HMS
Auf einen Unity-Katalog <objType>
in Hive-Metastore-Objekten kann nicht verwiesen werden.
CANNOT_REMOVE_RESERVED_PROPERTY
Reservierte Eigenschaft kann nicht entfernt werden: <property>
.
CANNOT_RENAME_ACROSS_CATALOG
Das Umbenennen einer <type>
über Kataloge hinweg ist nicht zulässig.
CANNOT_RENAME_ACROSS_SCHEMA
Das Umbenennen einer <type>
über Schemas hinweg ist nicht zulässig.
CANNOT_RESOLVE_DATAFRAME_COLUMN
DataFrame-Spalte <name>
kann nicht identifiziert werden. Es liegt wahrscheinlich an illegalen Verweisen wie df1.select(df2.col("a"))
.
CANNOT_RESOLVE_STAR_EXPAND
<targetString>
.* kann anhand der Eingabespalten <columns>
nicht aufgelöst werden. Überprüfen Sie, ob die angegebene Tabelle oder Struktur vorhanden ist und auf die Eingabespalten zugegriffen werden kann.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Fehler beim Festlegen von Berechtigungen für den erstellten Pfad <path>
zurück zu <permission>
.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Tabellen können zwischen Unity Catalog und Hive Metastore nicht flach geklont werden.
CANNOT_SHALLOW_CLONE_NESTED
Eine Tabelle <table>
, die bereits ein flacher Klon ist, kann nicht flach geklont werden.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Shallow Clone ist nur für den MANAGED
Tabellentyp zulässig. Die Tabelle <table>
ist nicht MANAGED
Tabelle.
KANN_FELD_NICHT_AKTUALISIEREN
Das <table>
-Feld vom <fieldName>
-Typ kann nicht aktualisiert werden:
Weitere Informationen finden Sie unter FELD_NICHT_AKTUALISIERBAR
CANNOT_UP_CAST_DATATYPE
<expression>
kann nicht von <sourceType>
in <targetType>
umgewandelt werden.
<details>
CANNOT_USE_KRYO
Der Kryo-Serialisierungscodec kann nicht geladen werden. Die Kryo-Serialisierung kann nicht im Spark Connect-Client verwendet werden. Verwenden Sie die Java-Serialisierung, stellen Sie stattdessen einen benutzerdefinierten Codec bereit, oder verwenden Sie stattdessen Spark Classic.
CANNOT_VALIDATE_CONNECTION
Die Überprüfung der <jdbcDialectName>
-Verbindung wird nicht unterstützt. Wenden Sie sich an die Databricks-Unterstützung für alternative Lösungen, oder legen Sie "spark.databricks.testConnectionBeforeCreation" auf "false" fest, um verbindungstests zu überspringen, bevor Sie ein Verbindungsobjekt erstellen.
CANNOT_WRITE_STATE_STORE
Fehler beim Schreiben von Zustandsspeicherdateien für Anbieter <providerClass>
.
Weitere Informationen finden Sie unter CANNOT_WRITE_STATE_STORE.
CAST_INVALID_INPUT
Der Wert <expression>
des Typs <sourceType>
kann nicht in <targetType>
umgewandelt werden, da er fehlerhaft ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie den Zieltyp. Verwenden Sie try_cast
, um falsch formatierte Eingaben zu tolerieren und stattdessen NULL
zurückzugeben.
Weitere Details finden Sie unter CAST_INVALID_INPUT.
CAST_OVERFLOW
Der Wert <value>
des Typs <sourceType>
kann aufgrund eines Überlaufs nicht in <targetType>
umgewandelt werden. Verwenden Sie try_cast
, um Überlauf zu tolerieren und stattdessen NULL
zurückzugeben.
CAST_OVERFLOW_IN_TABLE_INSERT
Aufgrund eines Überlaufs konnte kein Wert vom Typ <sourceType>
der <targetType>
-Typspalte oder Variablen <columnName>
zugewiesen werden. Verwenden Sie try_cast
für den Eingabewert, um Überlauf zu tolerieren und stattdessen NULL
zurückzugeben.
KATALOG_NICHT_GEFUNDEN
Der Katalog <catalogName>
nicht gefunden. Erwägen Sie, die SQL-Konfiguration <config>
auf ein Katalog-Plug-In festzulegen.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Prüfpunktblock <rddBlockId>
nicht gefunden!
Entweder der Executor, der die Prüfpunkte für diese Partition ursprünglich festgelegt hat, ist nicht mehr aktiv, oder die ursprüngliche RDD wird nicht beständig gespeichert.
Wenn dieses Problem weiterhin besteht, können Sie stattdessen rdd.checkpoint()
verwenden, was langsamer ist als lokale Prüfpunkte, aber fehlertoleranter.
CIRCULAR_CLASS_REFERENCE
In einer Klasse dürfen keine Zirkelbezüge vorhanden sein, aber in Klasse <t>
wurde ein Zirkelbezug gefunden.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
muss entweder <method1>
oder <method2>
überschreiben.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
unterstützt die Klasse <cls>
nicht als resultierende Sammlung.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Clean Room-Befehle werden nicht unterstützt.
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Ungültiger Name, um in einem Reinraum auf einen <type>
Verweis zu verweisen. Verwenden Sie einen <type>
-Namen innerhalb des Reinraums im Format [Katalog].[Schema].[<type>
].
Wenn Sie nicht sicher sind, welchen Namen Sie verwenden sollen, können Sie "SHOW ALL IN CLEANROOM
[clean_room]" ausführen und den Wert in der Spalte "Name" verwenden.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Für die Datei <filePath>
wurde eine Dateibenachrichtigung empfangen, aber sie ist nicht mehr vorhanden. Stellen Sie sicher, dass Dateien nicht gelöscht werden, bevor sie verarbeitet werden. Um den Datenstrom fortzusetzen, können Sie die Spark SQL-Konfiguration <config>
auf "true" festlegen.
CLOUD_PROVIDER_ERROR
Cloudanbieterfehler: <message>
CLUSTERING_COLUMNS_MISMATCH
Das angegebene Clustering stimmt nicht mit der der vorhandenen Tabelle <tableName>
überein.
Angegebene Clusteringspalten: [<specifiedClusteringString>
].
Vorhandene Clusteringspalten: [<existingClusteringString>
].
CLUSTERING_NOT_SUPPORTED
'<operation>
' unterstützt keine Clustering.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Wenden Sie sich bitte an Ihren Databricks-Vertreter, um die Cluster-by-Auto-Funktion zu aktivieren.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Bitte aktivieren Sie clusteringTable.enableClusteringTableFeature, um CLUSTER BY
AUTO zu verwenden.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY
AUTO erfordert, dass die Predictive Optimization aktiviert ist.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY
AUTO wird nur in verwalteten UC-Tabellen unterstützt.
CODEC_NOT_AVAILABLE
Der Codec <codecName>
ist nicht verfügbar.
Weitere Details finden Sie unter CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Es wurde kein Kurzname für den Codec <codecName>
gefunden.
COLLATION_INVALID_NAME
Der Wert <collationName>
stellt keinen korrekten Sortiernamen dar. Vorgeschlagene gültige Sortierungsnamen: [<proposals>
].
COLLATION_INVALID_PROVIDER
Der Wert <provider>
stellt keinen korrekten Sortieranbieter dar. Unterstützte Anbieter sind: [<supportedProviders>
].
COLLATION_MISMATCH
Es konnte nicht ermittelt werden, welche Sortierung für Zeichenfolgenfunktionen und Operatoren verwendet werden soll.
Weitere Details finden Sie unter COLLATION_MISMATCH.
SAMMLUNGSGRÖSSENLIMIT ÜBERSCHRITTEN
Kann kein Array mit <numberOfElements>
Elementen erstellen, da dies die Größenbeschränkung <maxRoundedArrayLength>
des Arrays überschreitet.
Weitere Details finden Sie unter COLLECTION_SIZE_LIMIT_EXCEEDED.
COLUMN_ALIASES_NOT_ALLOWED
Spaltenaliasen sind in <op>
nicht zulässig.
COLUMN_ALREADY_EXISTS
Die Spalte <columnName>
ist bereits vorhanden. Wählen Sie einen anderen Namen aus, oder benennen Sie die vorhandene Spalte um.
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
Einige Werte im Feld <pos>
sind mit dem Spaltenarraytyp nicht kompatibel. Erwarteter Typ <type>
.
COLUMN_MASKS_ABAC_MISMATCH
Spaltenformate konnten für <tableName>
nicht aufgelöst werden, da zwischen Spaltenformaten, die von Richtlinien geerbt wurden, und explizit definierten Spaltenformaten ein Konflikt aufgetreten ist. Um fortzufahren, deaktivieren Sie bitte die Attributbasierte Zugriffssteuerung (Attribute Based Access Control, ABAC), und wenden Sie sich an den Databricks-Support.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
Das Erstellen einer CHECK
-Einschränkung für Tabelle <tableName>
mit Spaltenmaskenrichtlinien wird nicht unterstützt.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
Eine <statementType>
-Anweisung hat versucht, einer Spalte eine Spaltenmaskenrichtlinie zuzuweisen, die mindestens zwei andere referenzierte Spalten aus der Liste USING COLUMNS
mit demselben Namen <columnName>
enthielt. Dies ist ungültig.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
Spaltenmaskierungsrichtlinien für <tableName>
werden nicht unterstützt:
Weitere Details finden Sie unter COLUMN_MASKS_FEATURE_NOT_SUPPORTED.
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
<statementType> <columnName>
in Tabelle <tableName>
nicht möglich, da in einer Spaltenmaskenrichtlinie für Spalte <maskedColumn>
darauf verwiesen wird. Die Person im Besitz der Tabelle muss vor dem Fortfahren diese Richtlinie entfernen oder ändern.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
MERGE INTO
-Vorgänge unterstützen keine Spaltenmaskenrichtlinien in der Quelltabelle <tableName>
.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO
-Vorgänge unterstützen das Schreiben in die Tabelle <tableName>
mit Spaltenmaskenrichtlinien nicht.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Diese Anweisung versuchte, einer Spalte <columnName>
mit mehreren Namensbestandteilen eine Spaltenmaskenrichtlinie zuzuweisen, was ungültig ist.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Diese Anweisung versucht, einer Spalte eine Spaltenmaskenrichtlinie zuzuweisen, und in der USING COLUMNS
-Liste ist der Name <columnName>
mit mehreren Namensbestandteilen enthalten, was ungültig ist.
COLUMN_MASKS_NOT_ENABLED
Die Unterstützung für das Definieren von Spaltenmasken ist nicht aktiviert.
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Spaltenmaskenrichtlinien werden nur im Unity Catalog unterstützt.
COLUMN_MASKS_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS
Befehl wird für<format>
Tabellen mit Spaltenmasken nicht unterstützt.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
Ein <mode>
-Klon aus der Tabelle <tableName>
mit Spaltenmaskenrichtlinien wird nicht unterstützt.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
Ein <mode>
-Klon in die Tabelle <tableName>
mit Spaltenmaskenrichtlinien wird nicht unterstützt.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
Die Verwendung einer Konstante als Parameter in einer Spaltenmaskenrichtlinie wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Spaltenformatdefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.
COLUMN_MASKS_UNSUPPORTED_PROVIDER
Fehler beim Ausführen des Befehls <statementType>
, da das Zuweisen von Spaltenmaskenrichtlinien für die Zieldatenquelle mit dem Tabellenanbieter "<provider>
" nicht unterstützt wird.
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
<operation>
kann für Tabelle <tableName>
nicht ausgeführt werden, da sie eine oder mehrere Spaltenmaskenrichtlinien mit Unterabfrageausdrücken enthält, die noch nicht unterstützt werden. Wenden Sie sich an den Besitzer der Tabelle, um die Spaltenmaskierungsrichtlinien zu aktualisieren, um fortzufahren.
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
Die Spalte <columnName>
denselben Namen wie die Zielspalte hatte, was ungültig ist; entfernen Sie die Spalte aus der liste USING COLUMNS
, und wiederholen Sie den Befehl.
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
Spalte <colName>
ist in Tabelle <tableName>
nicht definiert, definierte Tabellenspalten sind: <tableCols>
.
COLUMN_NOT_FOUND
Die Spalte <colName>
wurde nicht gefunden. Überprüfen Sie die Schreib- und Korrektheit des Spaltennamens gemäß der SQL-Konfiguration <caseSensitiveConfig>
.
COLUMN_ORDINAL_OUT_OF_BOUNDS
Spaltenordnungszahl liegt außerhalb der Grenzen. Die Anzahl der Spalten in der Tabelle ist <attributesLength>
, die Spaltenordnungszahl ist jedoch <ordinal>
.
Attribute sind die folgenden: <attributes>
.
COMMA_PRECEDING_CONSTRAINT_ERROR
Unerwartetes „,“ vor Einschränkungsdefinition. Stellen Sie sicher, dass die Einschränkungsklausel nicht mit einem Komma beginnt, wenn Spalten (und Erwartungen) nicht definiert sind.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
Der Befehl COMMENT ON CONNECTION
ist noch nicht implementiert.
COMPARATOR_RETURNS_NULL
Der Vergleichsoperator hat NULL
für einen Vergleich zwischen <firstValue>
und <secondValue>
zurückgegeben.
Es sollte eine positive ganze Zahl für "größer als", 0 für "gleich" und eine negative ganze Zahl für "kleiner als" zurückgeben.
Wenn Sie auf veraltetes Verhalten zurücksetzen möchten, bei dem NULL
als 0 (gleich) behandelt wird, müssen Sie "spark.sql.legacy.allowNullComparisonResultInArraySort" auf "true" festlegen.
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Eingabedatentypen für den Ausdruck können nicht verarbeitet werden: <expression>
.
Weitere Details finden Sie unter COMPLEX_EXPRESSION_UNSUPPORTED_INPUT.
CONCURRENT_QUERY
Eine weitere Instanz dieser Abfrage [ID: <queryId>
] wurde gerade mit einer gleichzeitigen Sitzung gestartet [vorhandene runId: <existingQueryRunId>
neue runId: <newQueryRunId>
].
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
Die Mindestanzahl der im Cluster erforderlichen kostenlosen Slots ist <numTasks>
, der Cluster verfügt jedoch nur über <numSlots>
Slots kostenlos. Die Abfrage zögert oder schlägt fehl. Erhöhen Sie die Clustergröße, um fortzufahren.
CONCURRENT_STREAM_LOG_UPDATE
Gleichzeitiges Aktualisieren des Protokolls. Für <batchId>
wurden mehrere Streamingaufträge erkannt.
Stellen Sie sicher, dass jeweils nur ein Streamingauftrag an einem bestimmten Prüfpunktstandort ausgeführt wird.
CONFIG_NOT_AVAILABLE
Die Konfiguration <config>
ist nicht verfügbar.
Konfliktierende Verzeichnisstrukturen
Konfliktierende Verzeichnisstrukturen erkannt.
Verdächtige Pfade:
<discoveredBasePaths>
Wenn bereitgestellte Pfade Partitionsverzeichnisse sind, legen Sie "basePath" in den Optionen der Datenquelle fest, um das Stammverzeichnis der Tabelle anzugeben.
Wenn mehrere Stammverzeichnisse vorhanden sind, laden Sie sie bitte separat, und trennen Sie sie dann.
CONFLICTING_PARTITION_COLUMN_NAMES
In Konflikt stehende Partitionsspaltennamen wurden erkannt:
<distinctPartColLists>
Bei partitionierten Tabellenverzeichnissen sollten Datendateien nur in Blattverzeichnissen vorhanden sein.
Und Ordner auf derselben Ebene sollten denselben Partitionsspaltennamen haben.
Überprüfen Sie die folgenden Verzeichnisse auf unerwartete Dateien oder inkonsistente Partitionsspaltennamen:
<suspiciousPaths>
CONFLICTING_PROVIDER
Der angegebene Anbieter <provider>
ist mit dem vorhandenen Kataloganbieter <expectedProvider>
inkonsistent. Verwenden Sie "USING <expectedProvider>
", und wiederholen Sie den Befehl.
CONNECT
Generischer Spark Connect-Fehler.
Weitere Details finden Sie unter CONNECT
VERBINDUNG_BESTEHT_BEREITS
Es kann keine Verbindung <connectionName>
erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen, legen Sie die vorhandene Verbindung ab, oder ersetzen Sie die vorhandene Verbindung, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Verbindungen zu tolerieren.
CONNECTION_NAME_CANNOT_BE_EMPTY
Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname nicht leer sein muss.
CONNECTION_NOT_FOUND
Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname <connectionName>
nicht gefunden wurde.
CONNECTION_OPTION_NOT_SUPPORTED
Verbindungen vom Typ '<connectionType>
' unterstützen nicht die folgenden Optionen: <optionsNotSupported>
. Unterstützte Optionen: <allowedOptions>
.
CONNECTION_TYPE_NOT_SUPPORTED
Verbindung vom Typ '<connectionType>
kann nicht erstellt werden. Unterstützte Verbindungstypen: <allowedTypes>
.
CONNECT_SESSION_MIGRATION
Generischer Sitzungsmigrationsfehler (userId: <userId>
, sessionId: <sessionId>
, serverSessionId: <serverSessionId>
).
Weitere Details finden Sie unter CONNECT_SESSION_MIGRATION.
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Tabelleneinschränkungen werden nur im Unity-Katalog unterstützt.
CONVERSION_INVALID_INPUT
Der Wert <str> (<fmt>
) kann nicht in <targetType>
konvertiert werden, da er fehlerhaft ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie das Format. Verwenden Sie <suggestion>
, um falsch formatierte Eingaben zu tolerieren und stattdessen NULL
zurückzugeben.
COPY_INTO_COLUMN_ARITY_MISMATCH
In <tableName>
kann nicht geschrieben werden. Ursache:
Weitere Details finden Sie unter COPY_INTO_COLUMN_ARITY_MISMATCH.
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Ungültiges Schema <scheme>
. COPY INTO
-Quellanmeldeinformationen unterstützen derzeit nur s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO
-Quellanmeldeinformationen müssen <keyList>
angeben.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Duplizierte Dateien wurden in einem gleichzeitigen COPY INTO
-Vorgang committet. Versuchen Sie es später erneut.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Ungültiges Schema <scheme>
. COPY INTO
Quellverschlüsselung unterstützt derzeit nur s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO
Verschlüsselung unterstützt nur ADLS Gen2 oder abfss:// Dateischema
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO
Quellverschlüsselung muss "<key>
" angeben.
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Ungültige Verschlüsselungsoption <requiredKey>
. COPY INTO
Quellverschlüsselung muss "<requiredKey>
" = "<keyValue>
" angeben.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
Das COPY INTO
Feature '<feature>
' ist nicht kompatibel mit '<incompatibleSetting>
'.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO
Mit Ausnahme des Anfügens von Daten ist ein gleichzeitiges Ausführen mit anderen Transaktionen nicht erlaubt. Versuchen Sie es später erneut.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO
konnte den Zustand nicht laden, die maximal zulässigen Wiederholungsversuche wurden überschritten.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Beim Kopieren in die Delta-Tabelle (Tabelle: <table>
) wurde ein Schemakonflikt erkannt.
Dies kann auf ein Problem mit den eingehenden Daten hinweisen, oder das Delta-Tabellenschema kann automatisch entsprechend den eingehenden Daten weiterentwickelt werden, indem Sie Folgendes festlegen:
COPY_OPTIONS
(‘mergeSchema’ = ‘true’)
Schemaunterschied:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
Das Format der Quelldateien muss eine von CSV, JSON, AVRO, ORC, PARQUET
, TEXT oder BINARYFILE
sein. Die Verwendung von COPY INTO
in Delta-Tabellen als Quelle wird nicht unterstützt, da nach OPTIMIZE
-Vorgängen doppelte Daten erfasst werden können. Diese Überprüfung kann durch Ausführen des SQL-Befehls set spark.databricks.delta.copyInto.formatCheck.enabled = false
deaktiviert werden.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
Das Quellverzeichnis enthielt keine parsierbaren Dateien vom Typ <format>
. Bitte überprüfen Sie den Inhalt von '<source>
'.
Der Fehler kann stummgehalten werden, indem "<config>
" auf "false" festgelegt wird.
COPY_INTO_STATE_INTERNAL_ERROR
Ein interner Fehler ist bei der Verarbeitung des Zustands COPY INTO
aufgetreten.
Weitere Details finden Sie unter COPY_INTO_STATE_INTERNAL_ERROR.
COPY_INTO_SYNTAX_ERROR
Fehler beim Analysieren des befehls "COPY INTO
".
Weitere Details finden Sie unter COPY_INTO_SYNTAX_ERROR.
COPY_INTO_UNSUPPORTED_FEATURE
Das COPY INTO
-Feature „<feature>
“ wird nicht unterstützt:
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Daten können nicht im Format "<formatType>
" entladen werden. Unterstützte Formate für <connectionType>
sind: <allowedFormats>
.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
Der Befehl CREATE FOREIGN SCHEMA
ist noch nicht implementiert.
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
Der Befehl CREATE FOREIGN TABLE
ist noch nicht implementiert.
CREATE_OR_REFRESH_MV_ST_ASYNC
CREATE
ODER REFRESH
von materialisierten Ansichten oder Streamingtabellen bei Angabe von ASYNC
nicht möglich. Entfernen Sie ASYNC
aus der CREATE
OR REFRESH
-Anweisung, oder verwenden Sie REFRESH ASYNC
, um vorhandene materialisierte Ansichten oder Streamingtabellen asynchron zu aktualisieren.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Es ist nicht zulässig, die permanente Ansicht <name>
zu erstellen, ohne dem Ausdruck <attr>
explizit einen Alias zuzuweisen.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE
Spalte <columnName>
gibt deskriptor "<optionName>
" mehrmals an, was ungültig ist.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Ansicht <viewName>
kann nicht erstellt werden, der Grund ist
Weitere Details finden Sie unter CREATE_VIEW_COLUMN_ARITY_MISMATCH.
CREDENTIAL_MISSING
Geben Sie beim Erstellen oder Aktualisieren externer Speicherorte Anmeldeinformationen an.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
Die CSV-Option enforceSchema
kann nicht festgelegt werden, wenn rescuedDataColumn
oder failOnUnknownFields
verwendet wird, da Spalten anstelle von Ordnungszahlen nach Namen gelesen werden.
CYCLIC_FUNCTION_REFERENCE
Zyklische Funktionsreferenz wurde erkannt: <path>
.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta ist in Ihrem Konto nicht aktiviert.<hints>
DATATYPE_MISMATCH
<sqlExpr>
kann aufgrund eines Datentypkonflikts nicht aufgelöst werden:
Weitere Details finden Sie unter DATATYPE_MISMATCH.
DATATYPE_MISSING_SIZE
DataType <type>
erfordert einen Längenparameter, z. B. <type>
(10). Geben Sie die Länge an.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Schreibzeile nicht erfolgreich: Fehlende entsprechende Beziehung zu Richtlinien für CLM/RLS.
DATENQUELLE_EXISTIERT_BEREITS
Die Datenquelle "<provider>
" ist bereits vorhanden. Wählen Sie einen anderen Namen für die neue Datenquelle aus.
DATA_SOURCE_EXTERNAL_ERROR
Fehler beim Speichern in externer Datenquelle.
DATA_SOURCE_NOT_EXIST
Datenquelle '<provider>
' nicht gefunden. Stellen Sie sicher, dass die Datenquelle registriert ist.
DATENQUELLE_NICHT_GEFUNDEN
Fehler beim Auffinden der Datenquelle: <provider>
. Stellen Sie sicher, dass der Anbietername korrekt ist und das Paket ordnungsgemäß registriert und mit Ihrer Spark-Version kompatibel ist.
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
Option <option>
darf nicht leer sein und darf keine ungültigen Zeichen, Abfragezeichenfolgen oder Parameter enthalten.
DATA_SOURCE_OPTION_IS_REQUIRED
Option <option>
ist erforderlich.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Das Schema der Datenquellentabelle stimmt nicht mit dem erwarteten Schema überein. Wenn Sie die DataFrameReader.schema-API verwenden oder eine Tabelle erstellen, vermeiden Sie die Angabe des Schemas.
Datenquellenschema: <dsSchema>
Erwartetes Schema: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
Die JDBC-URL ist in den Datenquellenoptionen nicht zulässig, stattdessen sind die Optionen 'Host', 'Port' und 'Datenbank' anzugeben.
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>
. Legen Sie bei Bedarf <ansiConfig>
auf "false" fest, um diesen Fehler zu umgehen.
DATETIME_OVERFLOW
Überlauf beim datetime-Vorgang: <operation>
.
DC_API_QUOTA_EXCEEDED
Sie haben das API-Kontingent für die Datenquelle <sourceName>
überschritten.
Weitere Details finden Sie unter DC_API_QUOTA_EXCEEDED.
DC_CONNECTION_ERROR
Fehler beim Herstellen einer Verbindung mit der <sourceName>
Quelle. Fehlercode: <errorCode>
.
Weitere Informationen finden Sie unter DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Fehler in Dynamics-API-Aufrufen, errorCode: <errorCode>
.
Weitere Informationen finden Sie unter DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Fehler bei Netsuite JDBC-Anrufen, Fehlercode: <errorCode>
.
Weitere Informationen finden Sie unter DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: nicht zugewiesen
In der Tabelle <tableName>
der <sourceName>
Quelle ist eine Schemaänderung aufgetreten.
Weitere Details finden Sie unter DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Fehler in ServiceNow-API-Aufrufen, errorCode: <errorCode>
.
Weitere Informationen finden Sie unter DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Die Aufnahme für Objekt-<objName>
ist unvollständig, da der Salesforce-API-Abfrageauftrag zu lang dauerte, fehlgeschlagen oder manuell abgebrochen wurde.
Um es erneut zu versuchen, können Sie entweder die gesamte Pipeline erneut ausführen oder diese bestimmte Zieltabelle aktualisieren. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein. Auftrags-ID: <jobId>
. Auftragsstatus: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Fehler in SharePoint-API-Aufrufen, errorCode: <errorCode>
.
Weitere Informationen finden Sie unter DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Fehler im <sourceName>
-API-Aufruf. Quell-API-Typ: <apiType>
. Fehlercode: <errorCode>
.
Dies kann manchmal passieren, wenn Sie einen <sourceName>
API-Grenzwert erreicht haben. Wenn Sie Ihren API-Grenzwert nicht überschritten haben, versuchen Sie, den Connector erneut auszuführen. Wenn das Problem weiterhin besteht, erstellen Sie ein Ticket.
DC_UNSUPPORTED_ERROR
In der Datenquelle <sourceName>
ist ein nicht unterstützter Fehler aufgetreten.
Weitere Details finden Sie unter DC_UNSUPPORTED_ERROR.
DC_WORKDAY_RAAS_API_ERROR
Fehler in Workday RAAS-API-Aufrufen, errorCode: <errorCode>
.
Weitere Details finden Sie unter DC_WORKDAY_RAAS_API_ERROR.
DEZIMALPRÄZISION ÜBERSCHREITET MAXIMALE PRÄZISION
Die Dezimalgenauigkeit <precision>
die maximale Genauigkeit <maxPrecision>
überschreitet.
DEFAULT_DATABASE_NOT_EXISTS
Die Standarddatenbank <defaultDatabase>
ist nicht vorhanden, erstellen Sie sie zuerst, oder ändern Sie die Standarddatenbank in <defaultDatabase>
.
Standarddatei nicht gefunden
Es ist möglich, dass die zugrunde liegenden Dateien aktualisiert wurden. Sie können den Cache in Spark explizit ungültig machen, indem Sie den Befehl 'REFRESH TABLE
tableName' in SQL ausführen oder das dataset/DataFrame neu erstellen. Wenn der Festplattencache veraltet ist oder die zugrunde liegenden Dateien entfernt wurden, können Sie den Festplattencache manuell ungültig machen, indem Sie den Cluster neu starten.
DEFAULT_PLACEMENT_INVALID
Ein DEFAULT
Schlüsselwort in einem MERGE
, INSERT
, UPDATE
oder SET VARIABLE
Befehl konnte einer Zielspalte nicht direkt zugewiesen werden, da es Teil eines Ausdrucks war.
Beispiel: UPDATE
SET c1 = DEFAULT
ist zulässig, UPDATE T
SET c1 = ``DEFAULT`` + 1
ist jedoch nicht zulässig.
DEFAULT_UNSUPPORTED
Fehler beim Ausführen des <statementType>
-Befehls, da die DEFAULT
Werte für die Zieldatenquelle mit dem Tabellenanbieter nicht unterstützt werden: "<dataSource>
".
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE
… AS JSON wird nur unterstützt, wenn [EXTENDED|FORMATTED
] angegeben wird.
Beispiel: DESCRIBE EXTENDED <tableName>
AS JSON wird unterstützt, aber DESCRIBE <tableName>
AS JSON nicht.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
Die Streamingabfrage wurde aus einer unerwarteten Delta-Tabelle gelesen (ID = '<newTableId>
').
Gemäß Prüfpunkt las sie ursprünglich aus einer anderen Delta-Tabelle (id = <oldTableId>
).
Dies kann passieren, wenn Sie den Code so geändert haben, dass er aus einer neuen Tabelle gelesen oder gelöscht wurde und
Eine Tabelle neu erstellt. Bitte setzen Sie Ihre Änderung zurück oder löschen Sie Ihren Streamingabfrageprüfpunkt.
um noch einmal von vorn zu beginnen.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Verschiedene Fensterfunktionen werden nicht unterstützt: <windowExpr>
.
DIVIDE_BY_ZERO
Division durch Null. Verwenden Sie try_divide
, um divisor 0 zu tolerieren und stattdessen NULL
zurückzugeben. Legen Sie bei Bedarf <config>
auf "false" fest, um diesen Fehler zu umgehen.
Weitere Details finden Sie unter DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Erwartungen werden nur innerhalb einer Delta Live Tables-Pipeline unterstützt.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED
-Ansichten mit einer CLUSTER BY
-Klausel werden nur in einer Delta Live Tables-Pipeline unterstützt.
DLT_VIEW_LOCATION_NOT_SUPPORTED
<mv>
-Speicherorte werden nur in einer Delta Live Tables-Pipeline unterstützt.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
<mv>
Schemas mit einem angegebenen Typ werden nur in einer Delta Live Tables-Pipeline unterstützt.
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
CONSTRAINT
-Klauseln in einer Ansicht werden nur in einer Delta Live Tables-Pipeline unterstützt.
DROP_SCHEDULE_DOES_NOT_EXIST
SCHEDULE
kann nicht in einer Tabelle ohne vorhandenen Zeitplan oder Trigger abgelegt werden.
DUPLICATED_CTE_NAMES
Die CTE-Definition darf keine doppelten Namen haben: <duplicateNames>
.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Doppelte Feldnamen in Arrow Struct sind nicht zulässig, <fieldNames>
abgerufen.
DUPLICATED_MAP_KEY
Duplizierter Zuordnungsschlüssel <key>
wurde gefunden, bitte überprüfen Sie die Eingabedaten.
Wenn Sie die duplizierten Schlüssel entfernen möchten, können Sie <mapKeyDedupPolicy>
auf "LAST_WIN
" festlegen, damit der eingefügte Schlüssel zuletzt Vorrang hat.
DUPLICATED_METRICS_NAME
Der Metrikname ist nicht eindeutig: <metricName>
. Derselbe Name kann nicht für Metriken mit unterschiedlichen Ergebnissen verwendet werden.
Mehrere Instanzen von Metriken mit demselben Ergebnis und Namen sind jedoch zulässig (z. B. Self-Joins).
DUPLICATE_ASSIGNMENTS
Die Spalten oder Variablen <nameList>
werden mehr als einmal als Zuweisungsziele verwendet.
DUPLICATE_CLAUSES
Doppelte Klauseln gefunden: <clauseName>
. Entfernen Sie eine davon.
DUPLIZIERTER_SCHLÜSSEL
Doppelte Schlüssel <keyColumn>
gefunden.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
Der Aufruf an routine <routineName>
ist ungültig, da er mehrere Argumentzuweisungen zum gleichen Parameternamen <parameterName>
enthält.
Weitere Details finden Sie unter DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT.
DUPLICATE_ROUTINE_PARAMETER_NAMES
Doppelte Namen in der Parameterliste der benutzerdefinierten Routine gefunden <routineName>
: <names>
.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Doppelte Spalten in der RETURNS
Klauselspaltenliste der benutzerdefinierten Routine <routineName>
gefunden: <columns>
.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Vorheriger Knoten hat eine Zeile mit eventTime=<emittedRowEventTime>
ausgegeben, die älter als current_watermark_value=<currentWatermark>
ist.
Dies kann zu Problemen bei der Korrektheit in den zustandsbehafteten Operatoren führen, die in der Ausführungspipeline nachgelagert sind.
Korrigieren Sie die Operatorlogik, um Zeilen nach dem aktuellen globalen Wasserzeichenwert auszugeben.
EMPTY_JSON_FIELD_VALUE
Fehler beim Analysieren einer leeren Zeichenfolge für den Datentyp <dataType>
.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Leere lokale Datei in Staging-<operation>
-Abfrage
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
Die <format>
-Datenquelle unterstützt das Schreiben leerer oder geschachtelter leerer Schemas nicht. Stellen Sie sicher, dass das Datenschema mindestens eine Spalte(n) aufweist.
ENCODER_NOT_FOUND
Es wurde kein Encoder des Typs <typeName>
für die interne Darstellung von Spark SQL gefunden.
Erwägen Sie, den Eingabetyp in einen der unterstützten Werte unter "<docroot>
/sql-ref-datatypes.html" zu ändern.
END_LABEL_WITHOUT_BEGIN_LABEL
Die Endmarke <endLabel>
kann nicht ohne eine Anfangsmarke existieren.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Einige Partitionen in Kafka-Topic(s) berichten über einen verfügbaren Offset, der kleiner ist als der End-Offset, während eine Abfrage mit Trigger.AvailableNow ausgeführt wird. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Neuester Offset: <latestOffset>
, Endoffset: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Für die Kafka-Datenquelle mit „Trigger.AvailableNow“ sollte der Endoffset pro Themenpartition über einen geringeren oder gleichen Offset verfügen als der vorab abgerufene Offset. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Vorab abgerufener Offset: <prefetchedOffset>
, Endoffset: <endOffset>
.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Fehler beim Lesen von Avro-Daten – unbekannter Fingerabdruck: <fingerprint>
, nicht sicher, welches Schema verwendet werden soll.
Dies kann passieren, wenn Sie nach dem Starten des Spark-Kontexts zusätzliche Schemas registriert haben.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Ereignisprotokolle können nicht aus einem Cluster vom Typ „Zugewiesen“ oder „Keine Isolation freigegeben“ abgefragt werden, bitte verwenden Sie stattdessen einen Cluster vom Typ „Freigegeben“ oder ein Databricks SQL-Warehouse.
EVENT_LOG_UNAVAILABLE
Für <tableOrPipeline>
sind keine Ereignisprotokolle verfügbar. Versuchen Sie es später erneut, nachdem die Ereignisse generiert worden sind.
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
Der Tabellentyp von <tableIdentifier>
ist <tableType>
.
Das Abfragen von Ereignisprotokollen unterstützt nur materialisierte Ansichten, Streamingtabellen oder Delta Live Tables-Pipelines.
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
Die Ereigniszeit <eventName>
hat den ungültigen Typ <eventType>
, TIMESTAMP
erwartet.
EXCEED_LIMIT_LENGTH
Überschreitet die Einschränkung der Zeichen-/Varchar-Typlänge: <limit>
.
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT
Spalte <columnName>
wurde gelöst und es wurde erwartet, dass es sich um StructType handelt, es wurde jedoch Typ <dataType>
gefunden.
EXCEPT_OVERLAPPING_COLUMNS
Spalten in einer EXCEPT
-Liste müssen eindeutig und nicht überlappend sein, empfangen wurde aber (<columns>
).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT
-Spalten [<exceptColumns>
] wurden aufgelöst, entsprechen jedoch keiner der Spalten [<expandedColumns>
] aus der Sternerweiterung.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
Der Spalten-/Feldname <objectName>
in der EXCEPT
-Klausel kann nicht aufgelöst werden. Meinten Sie eine der folgenden: [<objectList>
]?
Hinweis: Geschachtelte Spalten in der EXCEPT
-Klausel dürfen während einer struct-Erweiterung keine Qualifizierer (Tabellenname, Name der übergeordneten struct-Spalte usw.) enthalten. Versuchen Sie, Qualifizierer zu entfernen, wenn sie mit geschachtelten Spalten verwendet werden.
EXECUTOR_BROADCAST_JOIN_OOM
Es ist nicht genügend Arbeitsspeicher vorhanden, um die Übertragungsbeziehung <relationClassName>
zu erstellen. Beziehungsgröße = <relationSize>
. Gesamtspeicher, der von dieser Aufgabe verwendet wird = <taskMemoryUsage>
. Arbeitsspeichermanager-Metriken für Executor: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
] Deaktivieren Sie Übertragungen für diese Abfrage mithilfe von „set spark.sql.autoBroadcastJoinThreshold=-1“, oder verwenden Sie Join-Hinweise, um unsortierte Joins zu erzwingen.
EXECUTOR_BROADCAST_JOIN_STORE_OOM
Es ist nicht genügend Arbeitsspeicher vorhanden, um die Übertragungsbeziehung <relationClassName>
zu speichern. Beziehungsgröße = <relationSize>
. StorageLevel = <storageLevel>
. [sparkPlanId: <sparkPlanId>
] Deaktivieren Sie Übertragungen für diese Abfrage mithilfe von „set spark.sql.autoBroadcastJoinThreshold=-1“, oder verwenden Sie Join-Hinweise, um unsortierte Joins zu erzwingen.
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
Die USING
Klausel dieses EXECUTE IMMEDIATE
Befehls enthielt mehrere Argumente mit demselben Alias (<aliases>
), was ungültig ist; Aktualisieren Sie den Befehl, um eindeutige Aliase anzugeben, und versuchen Sie es dann erneut.
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>
' erwartet eine permanente Ansicht, aber <viewName>
ist eine temporäre Ansicht.
EXPECT_TABLE_NOT_VIEW
„<operation>
“ erwartet eine Tabelle, aber <viewName>
ist eine Ansicht.
Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
Die Tabelle <tableName>
unterstützt <operation>
nicht.
Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_TABLE
EXPRESSION_DECODING_FAILED
Fehler beim Decodieren einer Zeile in einen Wert der Ausdrücke: <expressions>
.
EXPRESSION_ENCODING_FAILED
Fehler beim Codieren eines Werts der Ausdrücke: <expressions>
in eine Zeile.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Der Spaltenausdruck <expr>
kann nicht sortiert werden, da der Typ <exprType>
nicht sortiert werden kann.
EXTERNAL_TABLE_INVALID_SCHEME
Externe Tabellen unterstützen das <scheme>
Schema nicht.
FABRIC_REFRESH_INVALID_SCOPE
Fehler beim Ausführen von 'REFRESH FOREIGN <scope> <name>
'. Ein Fabric-<scope>
kann nicht direkt aktualisiert werden. Verwenden Sie stattdessen "REFRESH FOREIGN CATALOG <catalogName>
", um den Fabric-Katalog zu aktualisieren.
FAILED_EXECUTE_UDF
Benutzerdefinierte Funktion (<functionName>
: (<signature>
) =><result>
) ist fehlgeschlagen wegen: <reason>
.
FAILED_FUNCTION_CALL
Fehler beim Vorbereiten der Funktion <funcName>
für den Aufruf. Bitte überprüfen Sie die Argumente der Funktion.
FAILED_JDBC
Fehler beim JDBC-Operator <url>
im Vorgang:
Weitere Informationen finden Sie unter FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Fehler beim Analysieren der Struktur: <raw>
.
FEHLER_BEIM_LESEN_DER_DATEI
Fehler beim Lesen der Datei <path>
.
Weitere Details finden Sie unter FAILED_READ_FILE.
FAILED_REGISTER_CLASS_WITH_KRYO
Fehler beim Registrieren von Klassen bei Kryo.
FAILED_RENAME_PATH
Fehler beim Umbenennen von <sourcePath>
in <targetPath>
, da das Ziel bereits vorhanden ist.
FAILED_RENAME_TEMP_FILE
Fehler beim Umbenennen der temporären Datei <srcPath>
in <dstPath>
, da FileSystem.rename den Wert "false" zurückgegeben hat.
FAILED_ROW_TO_JSON
Fehler beim Konvertieren des Zeilenwerts <value>
der Klasse <class>
in den SQL-Zieltyp <sqlType>
im JSON-Format.
FAILED_TO_LOAD_ROUTINE
Fehler beim Laden der Routine-<routineName>
.
FAILED_TO_PARSE_TOO_COMPLEX
Die Anweisung, einschließlich potenzieller SQL-Funktionen und referenzierter Ansichten, war zu komplex, um zu analysieren.
Um diesen Fehler zu vermeiden, teilen Sie die Anweisung in mehrere, weniger komplexe Blöcke auf.
FEATURE_NOT_ENABLED
Das Feature <featureName>
ist nicht aktiviert. Erwägen Sie, die Konfiguration <configKey>
auf <configValue>
festzulegen, um diese Funktion zu aktivieren.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
wird für klassische SQL-Lagerhäuser nicht unterstützt. Um dieses Feature zu verwenden, verwenden Sie ein Pro- oder Serverless SQL Warehouse.
FEATURE_REQUIRES_UC
<feature>
wird ohne Unity-Katalog nicht unterstützt. Um dieses Feature zu verwenden, aktivieren Sie Unity-Katalog.
FEATURE_UNAVAILABLE
<feature>
wird in Ihrer Umgebung nicht unterstützt. Wenden Sie sich an den Databricks-Support, um dieses Feature zu verwenden.
FIELD_ALREADY_EXISTS
<op>
für Spalte nicht möglich, da <fieldNames>
bereits in <struct>
vorhanden ist.
Feld nicht gefunden
Kein solches Strukturfeld <fieldName>
in <fields>
.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Die Datei im Stagingpfad <path>
ist bereits vorhanden, aber OVERWRITE
ist nicht festgelegt
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Fehler in der vom Benutzer bereitgestellten Funktion in flatMapGroupsWithState. Grund: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
Das Abfragen der Datenquelle <source>
in serverloser Berechnung ist nicht zulässig. Nur <allowlist>
Datenquellen werden in serverloser Berechnung unterstützt.
VERBOTENE_OPERATION
Der Vorgang <statement>
ist für den <objectType>
nicht zulässig: <objectName>
.
FOREACH_BATCH_USER_FUNCTION_ERROR
Fehler in der vom Benutzer bereitgestellten Funktion in der Batchsenke. Grund: <reason>
FOREACH_USER_FUNCTION_ERROR
Fehler in der benutzerseitig bereitgestellten Funktion in foreach-Senke. Grund: <reason>
FOREIGN_KEY_MISMATCH
Übergeordnete Fremdschlüsselspalten <parentColumns>
stimmen nicht mit untergeordneten Primärschlüsselspalten <childColumns>
überein.
Fremdobjektname_kann_nicht_leer_sein
Dieser Befehl kann nicht ausgeführt werden, da der Fremdname <objectType>
nicht leer sein darf.
FOUND_MULTIPLE_DATA_SOURCES
Es wurden mehrere Datenquellen mit dem Namen "<provider>
" erkannt. Überprüfen Sie, ob die Datenquelle nicht gleichzeitig registriert ist und sich im Klassenpfad befindet.
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
Bei einem from_json-Rückschluss wurden an folgender Stelle widersprüchliche Schemaaktualisierungen festgestellt: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json gefunden columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) in einem
JSON-Objekt gefunden. Fortsetzung nicht möglich. Bitte konfigurieren Sie einen anderen Wert für
die Option „columnNameOfCorruptRecord“.
FROM_JSON_CORRUPT_SCHEMA
from_json Inference konnte das unter <location>
gespeicherte Schema nicht lesen.
FROM_JSON_INFERENCE_FAILED
from_json konnte das Schema nicht ableiten. Bitte geben Sie stattdessen eine an.
FROM_JSON_INFERENCE_NOT_SUPPORTED
Ein from_json Rückschluss wird nur beim Definieren von Streamingtabellen unterstützt.
FROM_JSON_INVALID_CONFIGURATION
from_json Konfiguration ist ungültig:
Weitere Details finden Sie unter FROM_JSON_INVALID_CONFIGURATION.
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json konnte sich nicht von <old>
zu <new>
entwickeln.
FUNCTION_PARAMETERS_MUST_BE_NAMED
Für die Funktion <function>
sind benannte Parameter erforderlich. Parameter ohne Namen: <exprs>
. Bitte aktualisieren Sie den Funktionsaufruf, um Namen für alle Parameter hinzuzufügen, z. B. <function>
(param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Eine Spalte kann nicht sowohl einen Standardwert als auch einen Generierungsausdruck aufweisen, aber <colName>
hat Standardwert: (<defaultValue>
) und Generierungsausdruck: (<genExpr>
).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 und niedrigere Versionen unterstützen getTablesByType nicht. Verwenden Sie hive 2.3 oder höher.
GET_WARMUP_TRACING_FAILED
Fehler beim Abrufen der Warmup-Ablaufverfolgung. Ursache: <cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Funktion „get_warmup_tracing()“ nicht zulässig.
GRAPHITE_SINK_INVALID_PROTOCOL
Ungültiges Graphite-Protokoll: <protocol>
.
GRAPHITE_SINK_PROPERTY_MISSING
Graphite-Senke erfordert die „<property>
“-Eigenschaft.
GROUPING_COLUMN_MISMATCH
Die Spalte der Gruppierung (<grouping>
) kann in den Gruppierungsspalten <groupingColumns>
nicht gefunden werden.
GROUPING_ID_COLUMN_MISMATCH
Spalten von grouping_id (<groupingIdColumn>
) stimmen nicht mit den Gruppierungsspalten (<groupByColumns>
) überein.
GROUPING_SIZE_LIMIT_EXCEEDED
Die Größe der Gruppierungssätze darf nicht größer sein als <maxSize>
.
GROUP_BY_AGGREGATE
Aggregatfunktionen sind in GROUP BY
nicht zulässig, doch wurden sie in <sqlExpr>
gefunden.
Weitere Details finden Sie unter GROUP_BY_AGGREGATE.
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
bezieht sich auf einen Ausdruck <aggExpr>
, der eine Aggregatfunktion enthält. Aggregatfunktionen sind in GROUP BY
nicht zulässig.
GROUP_BY_POS_OUT_OF_RANGE
Position GROUP BY
<index>
ist nicht in der Auswahlliste enthalten (gültiger Bereich ist [1, <size>
]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
Der Ausdruck <sqlExpr>
kann nicht als Gruppierungsausdruck verwendet werden, da der Datentyp <dataType>
kein geordneter Datentyp ist.
HDFS_HTTP_ERROR
Beim Versuch, aus HDFS zu lesen, ist die HTTP-Anforderung fehlgeschlagen.
Weitere Informationen finden Sie unter HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
Ungültiger Aufruf von <function>
; nur gültige HLL-Skizzenpuffer werden als Eingaben (z. B. von der hll_sketch_agg
-Funktion erzeugte) unterstützt.
HLL_INVALID_LG_K
Ungültiger Aufruf von <function>
; der Wert lgConfigK
muss zwischen <min>
und <max>
liegen (einschließlich): <value>
.
HLL_UNION_DIFFERENT_LG_K
Skizzen weisen unterschiedliche lgConfigK
Werte auf: <left>
und <right>
. Legen Sie den parameter allowDifferentLgConfigK
auf "true" fest, um <function>
mit unterschiedlichen lgConfigK
Werten aufzurufen.
HYBRID_ANALYZER_EXCEPTION
Es trat ein Fehler auf, als versucht wurde, eine Abfrage oder einen Befehl sowohl mit dem veralteten Fixed-Point-Analyzer als auch mit dem Single-Pass-Resolver zu verarbeiten.
Weitere Details finden Sie in HYBRID_ANALYZER_EXCEPTION.
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
ist kein gültiger Bezeichner, da er mehr als 2 Namensteile enthält.
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
Duplizierte Option für Sequenzgenerator für IDENTITY
-Spalte: <sequenceGeneratorOption>
.
IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY
Spaltenschritt darf nicht 0 sein.
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType-<dataType>
wird für IDENTITY
Spalten nicht unterstützt.
ILLEGAL_DAY_OF_WEEK
Unzulässige Eingabe für Wochentag: <string>
.
ILLEGAL_STATE_STORE_VALUE
Ungültiger Wert, der für den Zustandsspeicher bereitgestellt wird
Weitere Details finden Sie unter ILLEGAL_STATE_STORE_VALUE.
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
Die Verbindung kann aufgrund eines unangemessenen Schemas von URI-<uri>
für die Verbindungsoption '<option>
' nicht erstellt werden.
Zulässige(s) Schema(s): <allowedSchemes>
.
Fügen Sie ein Schema hinzu, wenn es nicht im URI vorhanden ist, oder geben Sie ein Schema aus den zulässigen Werten an.
INCOMPARABLE_PIVOT_COLUMN
Ungültige Pivotspalte <columnName>
. Pivotspalten müssen vergleichbar sein.
INCOMPATIBLE_COLUMN_TYPE
<operator>
kann nur für Tabellen mit kompatiblen Spaltentypen ausgeführt werden. Die <columnOrdinalNumber>
-Spalte der <tableOrdinalNumber>
-Tabelle hat den Typ <dataType1>
, welcher nicht mit <dataType2>
in der gleichen Spalte der ersten Tabelle kompatibel ist.<hint>
.
INCOMPATIBLE_DATASOURCE_REGISTER
Es wurde ein inkompatibles DataSourceRegister erkannt. Entfernen Sie die inkompatible Bibliothek aus dem Klassenpfad, oder aktualisieren Sie sie. Fehler: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Inkompatible Daten für die Tabelle <tableName>
können nicht geschrieben werden:
Weitere Details finden Sie unter INCOMPATIBLE_DATA_FOR_TABLE.
INCOMPATIBLE_JOIN_TYPES
Die Verknüpfungstypen <joinType1>
und <joinType2>
sind inkompatibel.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
Die SQL-Abfrage der Ansicht <viewName>
weist eine inkompatible Schemaänderung auf und die Spalte <colName>
kann nicht aufgelöst werden. Es wurden <expectedNum>
Spalten mit dem Namen <colName>
erwarten, aber erhalten wurden <actualCols>
.
Versuchen Sie, die Ansicht erneut zu erstellen, indem Sie folgendes ausführen: <suggestion>
.
INCOMPLETE_TYPE_DEFINITION
Unvollständiger komplexer Typ:
Weitere Details finden Sie unter INCOMPLETE_TYPE_DEFINITION.
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Möglicherweise erhalten Sie aufgrund des Upgrades ein anderes Ergebnis
Weitere Details finden Sie unter INCONSISTENT_BEHAVIOR_CROSS_VERSION.
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
, <functionName>
erfordert mindestens <minArgs>
Argumente und maximal <maxArgs>
Argumente.
INCORRECT_RAMP_UP_RATE
Der Maximalwert für den Offset bei <rowsPerSecond>
rowsPerSecond ist <maxSeconds>
, während 'rampUpTimeSeconds' <rampUpTimeSeconds>
beträgt.
INDETERMINATE_COLLATION
Es konnte nicht ermittelt werden, welche Sortierung für den Zeichenfolgevorgang verwendet werden soll. Verwenden Sie die COLLATE
-Klausel, um die Sortierung explizit festzulegen.
INDETERMINATE_COLLATION_IN_EXPRESSION
Der Datentyp von <expr>
hat eine unbestimmte Sortierung. Verwenden Sie die COLLATE
-Klausel, um die Sortierung explizit festzulegen.
INDETERMINATE_COLLATION_IN_SCHEMA
Das Schema enthält unbestimmte Sortierung bei: [<columnPaths>
]. Verwenden Sie die COLLATE
-Klausel, um die Sortierung explizit festzulegen.
INDEX_EXISTIERT_BEREITS
Der Index <indexName>
kann für die Tabelle <tableName>
nicht erstellt werden, da er bereits existiert.
INDEX_NOT_FOUND
Der Index <indexName>
in tabelle <tableName>
wurde nicht gefunden.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Der Triggertyp <trigger>
wird für diesen Clustertyp nicht unterstützt.
Verwenden Sie einen anderen Triggertyp, z. B. AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
In <tableName>
kann nicht geschrieben werden. Ursache:
Weitere Informationen finden Sie unter INSERT_COLUMN_ARITY_MISMATCH.
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
In <tableName>
kann nicht geschrieben werden. <reason>
:
Tabellenspalten: <tableColumns>
.
Partitionsspalten mit statischen Werten: <staticPartCols>
.
Datenspalten: <dataColumns>
.
INSUFFICIENT_PERMISSIONS
Unzureichende Berechtigungen:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
Der Benutzer <user>
verfügt über unzureichende Berechtigungen für externe Speicherorte <location>
.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Für <securableName>
gibt es keinen Besitzer. Bitten Sie Ihren Administrator, einen Besitzer festzulegen.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
Die benutzende Person besitzt <securableName>
nicht.
INSUFFICIENT_PERMISSIONS_SECURABLE
Der Benutzer verfügt nicht über die Berechtigung <action>
für <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
Der Besitzer von <securableName>
unterscheidet sich vom Besitzer von <parentSecurableName>
.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Die Speicheranmeldeinformation <credentialName>
verfügt nicht über ausreichend Berechtigungen.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
Die benutzende Person kann <action>
auf <securableName>
aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
Die benutzende Person kann <action>
auf <securableName>
aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
Ganzzahlüberlauf beim Betrieb mit Intervallen.
Weitere Details finden Sie unter INTERVAL_ARITHMETIC_OVERFLOW.
INTERVAL_DIVIDED_BY_ZERO
Division durch Null. Verwenden Sie try_divide
, um divisor 0 zu tolerieren und stattdessen NULL
zurückzugeben.
UNGÜLTIGER_AGGREGATFILTER
Der FILTER
Ausdruck <filterExpr>
in einer Aggregatfunktion ist ungültig.
Weitere Details finden Sie unter INVALID_AGGREGATE_FILTER.
INVALID_ARRAY_INDEX
Der Index <indexValue>
liegt außerhalb der Begrenzung. Das Array verfügt über <arraySize>
Elemente. Verwenden Sie die SQL-Funktion get()
, um den Zugriff auf Elemente bei ungültigen Indexen zu tolerieren und stattdessen NULL
zurückzugeben.
Weitere Details finden Sie unter INVALID_ARRAY_INDEX.
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
Der Index <indexValue>
liegt außerhalb der Begrenzung. Das Array verfügt über <arraySize>
Elemente. Verwenden Sie try_element_at
, um den Zugriff auf Elemente bei ungültigen Index zu tolerieren und stattdessen NULL
zurückzugeben.
Weitere Details finden Sie unter INVALID_ARRAY_INDEX_IN_ELEMENT_AT.
INVALID_ATTRIBUTE_NAME_SYNTAX
Syntaxfehler im Attributnamen: <name>
. Überprüfen Sie, ob Backticks paarweise vorkommen, eine in Anführungszeichen gesetzte Zeichenfolge ein vollständiger Namensteil ist, und verwenden Sie einen Backtick nur innerhalb von Namensteilen in Anführungszeichen.
UNGÜLTIGE_AWS_AUTHENTIFIZIERUNG
Wählen Sie genau eine der folgenden Authentifizierungsmethoden aus:
- Geben Sie den Namen Ihrer Databricks-Dienstanmeldeinformationen (
<serviceCredential>
) (als Sparkstreamoption oder als Clusterumgebungsvariable) an. - Stellen Sie sowohl aws AccessKey (
<awsAccessKey>
) als auch SecretAccessKey (<awsSecretKey>
) bereit, um AWS-Schlüssel zu verwenden. - Stellen Sie weder die AWS-Schlüssel noch die Databricks-Dienstanmeldeinformationen bereit, um die standardmäßige AWS-Anmeldeinformationsanbieterkette für die Kinesis-Authentifizierung zu verwenden.
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
Geben Sie entweder den Namen Ihrer Databricks-Dienstanmeldeinformationen an (<serviceCredential>
)
ODER sowohl <awsAccessKey>
als auch <awsSecretKey>
INVALID_BITMAP_POSITION
Die mit 0 indizierte Bitmapposition <bitPosition>
liegt außerhalb der zulässigen Grenzen. Die Bitmap verfügt über <bitmapNumBits>
Bits (<bitmapNumBytes>
Bytes).
INVALID_BOOLEAN_STATEMENT
Boolesche Anweisung wird in der Bedingung erwartet, aber <invalidStatement>
wurde gefunden.
UNGÜLTIGE_GRENZE
Die Grenze <boundary>
ist ungültig: <invalidValue>
.
Weitere Informationen finden Sie unter UNGÜLTIGE_GRENZE
INVALID_BUCKET_COLUMN_DATA_TYPE
Für Bucketspalte kann nicht <type>
verwendet werden. Sortierte Datentypen werden für die Bucketerstellung nicht unterstützt.
INVALID_BUCKET_FILE
Ungültige Bucketdatei: <path>
.
INVALID_BYTE_STRING
Das erwartete Format ist ByteString, war aber <unsupported> (<class>
).
INVALID_COLUMN_NAME_AS_PATH
Die Datenquelle <datasource>
die Spalte <columnName>
nicht speichern kann, da ihr Name einige Zeichen enthält, die in Dateipfaden nicht zulässig sind. Verwenden Sie einen Alias, um ihn umzubenennen.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Spalten- oder Feld-<name>
ist vom Typ <type>
, es muss jedoch vom Typ <expectedType>
sein.
INVALID_CONF_VALUE
Der Wert '<confValue>
' in der Konfiguration "<confName>
" ist ungültig.
Weitere Details finden Sie unter INVALID_CONF_VALUE.
INVALID_CORRUPT_RECORD_TYPE
Die Spalte <columnName>
für beschädigte Datensätze muss den Nullwerte zulassenden STRING
Typ besitzen, aber hat <actualType>
erhalten.
INVALID_CURRENT_RECIPIENT_USAGE
Die current_recipient
-Funktion kann nur in der CREATE VIEW
-Anweisung oder der ALTER VIEW
-Anweisung verwendet werden, um in Unity Catalog eine Ansicht nur für die Freigabe zu definieren.
INVALID_CURSOR
Der Cursor ist ungültig.
Weitere Details finden Sie unter INVALID_CURSOR.
INVALID_DATETIME_PATTERN
Unbekanntes Datetime-Muster: <pattern>
.
Weitere Details finden Sie unter INVALID_DATETIME_PATTERN.
INVALID_DEFAULT_VALUE
Fehler beim Ausführen des Befehls <statement>
, da die Zielspalte oder Variable <colName>
einen DEFAULT
-Wert <defaultValue>
hat.
Weitere Details finden Sie unter INVALID_DEFAULT_VALUE.
INVALID_DELIMITER_VALUE
Ungültiger Wert für Trennzeichen.
Weitere Details finden Sie unter INVALID_DELIMITER_VALUE.
INVALID_DEST_CATALOG
Der Zielkatalog des Befehls SYNC
muss sich im Unity-Katalog befinden. Es wurde <catalog>
gefunden.
INVALID_DRIVER_MEMORY
Systemspeicher <systemMemory>
muss mindestens <minSystemMemory>
sein.
Erhöhen Sie die Heapgröße mithilfe der Option „–driver-memory“ oder <config>
in der Spark-Konfiguration.
INVALID_DYNAMIC_OPTIONS
Optionen, die an <option_list> übergeben werden, sind für die Fremdtabelle <table_name>verboten.
INVALID_EMPTY_LOCATION
Der Speicherortname darf keine leere Zeichenfolge sein, aber <location>
wurde angegeben.
INVALID_ESC
Es wurde eine ungültige Escapezeichenfolge gefunden: <invalidEscape>
. Die Escapezeichenfolge darf nur ein Zeichen enthalten.
INVALID_ESCAPE_CHAR
EscapeChar
muss ein Zeichenfolgenliteral der Länge 1 sein, enthielt jedoch <sqlExpr>
.
INVALID_EXECUTOR_MEMORY
Der Speicher des Executors <executorMemory>
muss mindestens <minSystemMemory>
sein.
Erhöhen Sie den Ausführungsspeicher mithilfe der Option "–executor-memory" oder "<config>
" in der Spark-Konfiguration.
INVALID_EXPRESSION_ENCODER
Es wurde ein ungültiger Ausdrucksencoder gefunden. Erwartet eine Instanz von „ExpressionEncoder“, erhielt aber <encoderType>
. Weitere Informationen finden Sie unter '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_EXTERNAL_TYPE
Der externe Typ <externalType>
ist für den Typ <type>
im Ausdruck <expr>
ungültig.
INVALID_EXTRACT_BASE_FIELD_TYPE
Ein Wert kann nicht aus <base>
extrahiert werden. Komplexer Typ [STRUCT
, ARRAY
, MAP
] erforderlich, aber <other>
erhalten.
INVALID_EXTRACT_FIELD
<field>
kann nicht aus <expr>
extrahiert werden.
INVALID_EXTRACT_FIELD_TYPE
Der Feldname muss ein Zeichenfolgenliteral ungleich NULL sein, aber er ist <extraction>
.
INVALID_FIELD_NAME
Der Feldname <fieldName>
ist ungültig: <path>
ist keine Struktur.
INVALID_FORMAT
Das Format ist ungültig: <format>
.
Weitere Details finden Sie unter INVALID_FORMAT.
INVALID_FRACTION_OF_SECOND
Gültiger Bereich für Sekunden ist [0, 60] (einschließlich), der angegebene Wert ist jedoch <secAndMicros>
. Um diesen Fehler zu vermeiden, verwenden Sie try_make_timestamp
, die NULL
beim Fehler zurückgibt.
Wenn Sie nicht die Standardeinstellung der Sitzung für die Zeitstempelversion dieser Funktion verwenden möchten, nutzen Sie try_make_timestamp_ntz
oder try_make_timestamp_ltz
.
INVALID_HANDLE
Das Handle <handle>
ist ungültig.
Weitere Details finden Sie unter INVALID_HANDLE.
UNGÜLTIGE_HTTP_ANFORDERUNGSMETHODE
Der Eingabeparameter: Methode, Wert: <paramValue>
ist kein gültiger Parameter für http_request, da es sich nicht um eine gültige HTTP-Methode handelt.
INVALID_HTTP_REQUEST_PATH
Der Eingabeparameter: Pfad, Wert: <paramValue>
ist kein gültiger Parameter für http_request, da der Pfad-Traversal nicht zulässig ist.
INVALID_IDENTIFIER
Der nicht zitierte Bezeichner <ident>
ist ungültig und muss wie folgt in Anführungszeichen gesetzt werden: <ident>
.
Nicht notierte Bezeichner können nur ASCII
Buchstaben ('a' - 'z', 'A' - 'Z'), Ziffern ('0' - '9') und Unterstriche ('_') enthalten.
Nicht zitierte Bezeichner dürfen auch nicht mit einer Ziffer beginnen.
Unterschiedliche Datenquellen und Metaspeicher können zusätzliche Einschränkungen für gültige Bezeichner erzwingen.
INVALID_INDEX_OF_ZERO
Der Index 0 ist ungültig. Ein Index muss entweder < 0 oder > 0 sein (das erste Element hat Index 1).
INVALID_INLINE_TABLE
Ungültige Inlinetabelle.
Weitere Details finden Sie unter INVALID_INLINE_TABLE.
UNGÜLTIGES_INTERVALLFORMAT
Fehler beim Analysieren von „<input>
“ in Intervall. Stellen Sie sicher, dass der angegebene Wert in einem gültigen Format zum Definieren eines Intervalls enthalten ist. Sie können auf die Dokumentation für das richtige Format verweisen.
Weitere Details finden Sie unter INVALID_INTERVAL_FORMAT.
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
Ein Intervall zu einem Datum kann nicht hinzugefügt werden, da sein Mikrosekundenteil nicht 0 ist. Legen Sie bei Bedarf <ansiConfig>
auf "false" fest, um diesen Fehler zu umgehen.
Ungültige inverse Verteilungsfunktion
Ungültige Umgekehrte Verteilungsfunktion <funcName>
.
Weitere Details finden Sie unter INVALID_INVERSE_DISTRIBUTION_FUNCTION.
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName>
ist kein gültiger Bezeichner von Java und kann nicht als Feldname verwendet werden.
<walkedTypePath>
.
INVALID_JOIN_TYPE_FOR_JOINWITH
Ungültiger Verknüpfungstyp in joinWith: <joinType>
.
INVALID_JSON_DATA_TYPE
Fehler beim Konvertieren der JSON-Zeichenfolge '<invalidType>
' in einen Datentyp. Geben Sie einen gültigen Datentyp ein.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Sortierungen können nur auf Zeichenfolgentypen angewendet werden, der JSON-Datentyp ist jedoch <jsonType>
.
INVALID_JSON_RECORD_TYPE
Ein ungültiger Typ eines JSON-Eintrags wurde erkannt, während ein allgemeines Schema im Modus <failFastMode>
abgeleitet wird. Ein STRUCT
-Typ wurde erwartet, jedoch wurde ein <invalidType>
gefunden.
UNGÜLTIGES_JSON_ROOT_FELD
Das JSON-Stammfeld kann nicht in den Spark-Zieltyp konvertiert werden.
INVALID_JSON_SCHEMA_MAP_TYPE
Eingabeschema-<jsonSchema>
kann nur STRING
als Schlüsseltyp für eine MAP
enthalten.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
Der Wert der Konfiguration „<bufferSizeConfKey>
“ muss kleiner als 2.048 MiB sein, enthält jedoch <bufferSizeConfValue>
MiB.
UNGÜLTIGE_ETIKETTENVERWENDUNG
Die Verwendung der Bezeichnung <labelName>
ist ungültig.
Weitere Details finden Sie unter INVALID_LABEL_USAGE.
INVALID_LAMBDA_FUNCTION_CALL
Ungültiger Lambda-Funktionsaufruf.
Weitere Details finden Sie unter INVALID_LAMBDA_FUNCTION_CALL.
INVALID_LATERAL_JOIN_TYPE
Der <joinType>
JOIN mit LATERAL
-Korrelation ist nicht zulässig, da eine OUTER
-Unterabfrage nicht mit ihrem Joinpartner korrelieren kann. Entfernen Sie die LATERAL
-Korrelation, oder verwenden Sie stattdessen einen INNER
JOIN oder LEFT OUTER
JOIN.
INVALID_LIMIT_LIKE_EXPRESSION
Der Limit-Like- Ausdruck <expr>
ist ungültig.
Weitere Details finden Sie unter INVALID_LIMIT_LIKE_EXPRESSION.
INVALID_NON_ABSOLUTE_PATH
Der bereitgestellte, nicht absolute Pfad <path>
kann nicht qualifiziert werden. Aktualisieren Sie den Pfad zu einem gültigen DBFS-Bereitstellungsspeicherort.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
Der Operator erwartet einen deterministischen Ausdruck, aber der tatsächliche Ausdruck ist <sqlExprs>
.
INVALID_NUMERIC_LITERAL_RANGE
Numerisches Literal <rawStrippedQualifier>
liegt außerhalb des gültigen Bereichs für <typeName>
, mit einem Minimalwert von <minValue>
und einem Maximalwert von <maxValue>
. Bitte passen Sie den Wert entsprechend an.
INVALID_OBSERVED_METRICS
Ungültige beobachtete Metriken.
Weitere Details finden Sie unter INVALID_OBSERVED_METRICS.
INVALID_OPTIONS
Ungültige Optionen:
Weitere Einzelheiten siehe UNGÜLTIGE_OPTIONEN
INVALID_PANDAS_UDF_PLACEMENT
Die pandas-UDF <functionList>
für die Gruppenaggregierung kann nicht zusammen mit anderen Nicht-pandas-Aggregatfunktionen aufgerufen werden.
INVALID_PARAMETER_MARKER_VALUE
Es wurde eine ungültige Parameterzuordnung bereitgestellt:
Weitere Details finden Sie unter INVALID_PARAMETER_MARKER_VALUE.
INVALID_PARAMETER_VALUE
Der Wert der parameter(n) <parameter>
in <functionName>
ist ungültig:
Weitere Details finden Sie unter INVALID_PARAMETER_VALUE.
INVALID_PARTITION_COLUMN_DATA_TYPE
<type>
kann nicht für die Partitionsspalte verwendet werden.
INVALID_PARTITION_OPERATION
Der Partitionsbefehl ist ungültig.
Weitere Details finden Sie unter INVALID_PARTITION_OPERATION.
INVALID_PARTITION_VALUE
Fehler beim Umwandeln des Werts <value>
in den Datentyp <dataType>
für Partitionsspalte <columnName>
. Stellen Sie sicher, dass der Wert dem erwarteten Datentyp für diese Partitionsspalte entspricht.
INVALID_PIPELINE_ID
Die Pipeline-ID <pipelineId>
ist ungültig.
Eine Pipeline-ID sollte eine UUID im Format "xx-xxxx-xxxx-xxxx-xxxx-xxxx" sein.
INVALID_PRIVILEGE
Berechtigung <privilege>
ist für <securable>
ungültig.
UNGÜLTIGER_EIGENSCHAFTSSCHLÜSSEL
<key>
ein ungültiger Eigenschaftsschlüssel ist, verwenden Sie bitte Anführungszeichen, z. B. SET <key>=<value>
.
INVALID_PROPERTY_VALUE
Der Wert <value>
ist ein ungültiger Eigenschaftswert, bitte verwenden Sie Anführungszeichen, z. B. SET <key>=<value>
.
INVALID_QUALIFIED_COLUMN_NAME
Der Spaltenname <columnName>
ist ungültig, da er nicht mit einem Tabellennamen qualifiziert ist oder aus mehr als 4 Namenteilen besteht.
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Parametrisierte Abfragen müssen entweder Positionsparameter oder benannte Parameter verwenden, aber nicht beide.
INVALID_REGEXP_REPLACE
Das Ausführen von regexp_replace für Quelle = "<source>
", Muster = "<pattern>
", Ersetzung = "<replacement>
" und Position = <position>
konnte nicht durchgeführt werden.
INVALID_RESET_COMMAND_FORMAT
Das erwartete Format ist "RESET
" oder "RESET
Schlüssel". Wenn Sie Sonderzeichen in die Taste aufnehmen möchten, verwenden Sie bitte Anführungszeichen, z. B. RESET key
.
INVALID_S3_COPY_CREDENTIALS
COPY INTO
-Anmeldeinformationen müssen AWS_ACCESS_KEY
, AWS_SECRET_KEY
und AWS_SESSION_TOKEN
enthalten.
INVALID_SAVE_MODE
Der angegebene Speichermodus <mode>
ist ungültig. Gültige Speichermodi sind: „append“, „overwrite“, „ignore“, „error“, „errorifexists“ und „default“.
INVALID_SCHEMA
Das Eingabeschema <inputSchema>
ist keine gültige Schemazeichenfolge.
Weitere Details finden Sie unter INVALID_SCHEMA.
INVALID_SCHEMA_OR_RELATION_NAME
<name>
ist kein gültiger Name für Tabellen/Schemas. Gültige Namen enthalten nur Alphabetzeichen, Zahlen und _.
INVALID_SCHEME
Der Unity-Katalog unterstützt <name>
nicht als Standarddateischema.
INVALID_SECRET_LOOKUP
Geheimnislookup ungültig:
Weitere Details finden Sie unter INVALID_SECRET_LOOKUP.
INVALID_SET_SYNTAX
Das erwartete Format lautet "SET
", "SET
Schlüssel" oder "SET
Schlüssel=Wert". Wenn Sie Sonderzeichen in den Schlüssel oder Semikolon in den Wert einschließen möchten, verwenden Sie rückwärts gerichtete Anführungszeichen, z. B. SET key
=value
.
INVALID_SHARED_ALIAS_NAME
Der Name des <sharedObjectType>
Alias muss das Format "schema.name" aufweisen.
INVALID_SINGLE_VARIANT_COLUMN
Die option singleVariantColumn
kann nicht verwendet werden, wenn auch ein vom Benutzer angegebenes Schema vorhanden ist.
INVALID_SOURCE_CATALOG
Der Quellkatalog darf nicht im Unity-Katalog für den Befehl SYNC
sein. Es wurde <catalog>
gefunden.
Ungültiges SQL-Argument (INVALID_SQL_ARG)
Das Argument <name>
von sql()
ist ungültig. Erwägen Sie, sie entweder durch ein SQL-Literal oder durch Sammlungskonstruktorfunktionen wie map()
, array()
, struct()
zu ersetzen.
INVALID_SQL_SYNTAX
Ungültige SQL-Syntax:
Weitere Details finden Sie unter INVALID_SQL_SYNTAX.
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Ungültiger Stagingpfad in der Staging-<operation>
-Abfrage: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
Die INTO
-Klausel von EXECUTE IMMEDIATE
ist nur für Abfragen gültig, aber die angegebene Anweisung ist keine Abfrage: <sqlString>
.
INVALID_STATEMENT_OR_CLAUSE
Die Anweisung oder Klausel: <operation>
ist ungültig.
INVALID_SUBQUERY_EXPRESSION
Ungültige Unterabfrage:
Weitere Details finden Sie unter INVALID_SUBQUERY_EXPRESSION.
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType>
… <command>
unterstützt <tableName>
nicht. Bitte verwenden Sie ALTER <targetTableType>
... Stattdessen <command>
.
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
… SET TBLPROPERTIES
unterstützt <tableName>
nicht. Bitte verwenden Sie ALTER <targetTableType>
... stattdessen SET TBLPROPERTIES
.
INVALID_TEMP_OBJ_REFERENCE
Das persistente Objekt <objName>
des Typs <obj>
kann nicht erstellt werden, da es auf das temporäre Objekt <tempObjName>
des Typs <tempObj>
verweist. Stellen Sie das temporäre Objekt <tempObjName>
beständig, oder stellen Sie das persistente Objekt <objName>
temporär.
INVALID_TIMESTAMP_FORMAT
Der angegebene Zeitstempel <timestamp>
stimmt nicht mit der erwarteten Syntax <format>
überein.
UNGÜLTIGE_ZEITZONE
Die Zeitzone: <timeZone>
ist ungültig. Die Zeitzone muss entweder eine regionsbasierte Zonen-ID oder ein Zonenoffset sein. Regions-IDs müssen das Formular "Fläche/Stadt" aufweisen, z. B. "Amerika/Los_Angeles". Zonenoffsets müssen im Format '(+|-)HH', '(+|-)HH:mm' oder '(+|-)HH:mm:ss' vorliegen, z. B. '-08', '+01:00' oder '-13:33:33', und muss sich im Bereich von -18:00 bis +18:00 befinden. "Z" und "UTC" werden als Synonyme für "+00:00" akzeptiert.
INVALID_TIME_TRAVEL_SPEC
Bei einer Zeitreise der Tabelle können nicht sowohl die Version als auch der Zeitstempel angegeben werden.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
Der Zeitreisezeitstempelausdruck <expr>
ist ungültig.
Weitere Details finden Sie unter INVALID_TIME_TRAVEL_TIMESTAMP_EXPR.
INVALID_TYPED_LITERAL
Der Wert des typierten Literals <valueType>
ist ungültig: <value>
.
INVALID_UDF_IMPLEMENTATION
Funktion <funcName>
implementiert keine ScalarFunction oder AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot>
Die Quelltabelle befindet sich im Hive-Metastore und die Zieltabelle in Unity Catalog.
INVALID_URL
Die URL ist ungültig: <url>
. Verwenden Sie try_parse_url
, um ungültige URL zu tolerieren und stattdessen NULL
zurückzugeben.
INVALID_USAGE_OF_STAR_OR_REGEX
Ungültige Verwendung von <elem>
in <prettyName>
.
INVALID_UTF8_STRING
Ungültige UTF8-Bytesequenz in Zeichenfolge: <str>
.
INVALID_UUID
Eingabe-<uuidInput>
ist keine gültige UUID.
Die UUID sollte im Format "xx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxx" vorliegen.
Bitte überprüfen Sie das Format der UUID.
INVALID_VARIABLE_DECLARATION
Ungültige Variablendeklaration.
Weitere Details finden Sie unter INVALID_VARIABLE_DECLARATION.
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Der Variablentyp muss eine Zeichenfolge (string) sein, empfangen wurde aber <varType>
.
INVALID_VARIANT_CAST
Der Variant-Wert <value>
kann nicht in <dataType>
umgewandelt werden. Verwenden Sie stattdessen try_variant_get
.
INVALID_VARIANT_FROM_PARQUET
Ungültige Variante.
Weitere Details finden Sie unter INVALID_VARIANT_FROM_PARQUET.
INVALID_VARIANT_GET_PATH
Der Pfad <path>
ist kein gültiger Variant-Extraktionspfad in <functionName>
.
Ein gültiger Pfad sollte mit $
beginnen und gefolgt von null oder mehr Segmenten wie [123]
, .name
, ['name']
oder ["name"]
.
INVALID_VARIANT_SHREDDING_SCHEMA
Das Schema <schema>
ist kein gültiges Variant-Shredding-Schema.
INVALID_WHERE_CONDITION
Die WHERE
Bedingung <condition>
enthält ungültige Ausdrücke: <expressionList>
.
Schreiben Sie die Abfrage neu, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE
-Klausel zu vermeiden.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Es kann weder ORDER BY
noch ein Fensterrahmen für <aggFunc>
angegeben werden.
INVALID_WRITER_COMMIT_MESSAGE
Der Datenquellen-Schreiber hat eine ungültige Anzahl von Commit-Nachrichten generiert. Es wurde genau eine Commitnachricht für jede Aufgabe vom Writer erwartet, aber <detail>
empfangen.
INVALID_WRITE_DISTRIBUTION
Die angeforderte Schreibverteilung ist ungültig.
Weitere Details finden Sie unter INVALID_WRITE_DISTRIBUTION.
ISOLATED_COMMAND_FAILURE
Fehler beim Ausführen von <command>
. Befehlsausgabe:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
Fehler beim Ausführen des Befehls <command>
.
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
Die Verknüpfungsbedingung <joinCondition>
weist den ungültigen Typ <conditionType>
auf, „BOOLEAN
“ wurde erwartet.
KAFKA_DATA_LOSS
Einige Daten sind möglicherweise verloren gegangen, weil sie in Kafka nicht mehr verfügbar sind;
entweder die Daten wurden von Kafka ausgelöscht, oder das Thema wurde möglicherweise gelöscht, bevor alle Daten im
Thema verarbeitet wurden.
Wenn Ihre Streamingabfrage in solchen Fällen nicht fehlschlagen soll, setzen Sie die Quelloption failOnDataLoss auf "false".
Grund:
Weitere Informationen finden Sie unter KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Konnte nicht bis zur gewünschten Sequenznummer <endSeqNum>
für Shard <shardId>
im
kinesis-Stream <stream>
mit Consumermodus <consumerMode>
. Die Abfrage führt aufgrund eines
potenzieller Datenverlust. Der letzte Lesedatensatz befand sich bei Sequenznummer <lastSeqNum>
.
Dies kann passieren, wenn die Daten mit endSeqNum bereits veraltet sind oder der Kinesis-Datenstrom abgelaufen war.
gelöscht und mit demselben Namen rekonstruiert wurde. Das Fehlerverhalten kann außer Kraft gesetzt werden.
durch Festlegen von spark.databricks.kinesis.failOnDataLoss auf "false" in der Spark-Konfiguration.
KINESIS_EFO_CONSUMER_NOT_FOUND
Für den Kinesis-Stream <streamId>
wurde der zuvor registrierte EFO-Nutzer <consumerId>
des Datenstroms gelöscht.
Starten Sie die Abfrage neu, damit ein neuer Consumer registriert wird.
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
Für Shard <shard>
erfolgte der vorherige Aufruf der subscribeToShard-API innerhalb von 5 Sekunden vor dem nächsten Aufruf.
Starten Sie die Abfrage nach 5 Sekunden oder mehr neu.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Die abgerufene Mindest-ShardId von Kinesis (<fetchedShardId>
)
ist kleiner als die nachverfolgte Mindest-shardId (<trackedShardId>
).
Dies ist unerwartet und tritt auf, wenn ein Kinesis-Datenstrom gelöscht und mit demselben Namen neu erstellt wird.
und eine Streamingabfrage mit diesem Kinesis-Stream mithilfe eines vorhandenen Prüfpunktorts neu gestartet wird.
Starten Sie die Streamingabfrage mit einem neuen Prüfpunktort neu, oder erstellen Sie einen Stream mit einem neuen Namen.
KINESIS_POLLING_MODE_UNSUPPORTED
Der Kinesis-Abrufmodus wird nicht unterstützt.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Bei Shard <shard>
hatte der letzte Datensatz, der in vorherigen Abrufen von Kinesis gelesen wurde, die Sequenznummer <lastSeqNum>
.
der größer als der Datensatz ist, der im aktuellen Abruf mit Sequenznummer <recordSeqNum>
gelesen wird.
Dies ist unerwartet und kann auftreten, wenn die Startposition des Wiederholungs- oder nächsten Abrufszyklus falsch initialisiert ist und dies kann zu doppelten Datensätzen im weiteren Verlauf führen.
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
Um aus Kinesis-Streams mit Consumerkonfigurationen zu lesen (consumerName
, consumerNamePrefix
oder registeredConsumerId
), muss consumerMode
efo
sein.
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
Um aus Kinesis-Streams mit registrierten Consumern zu lesen, müssen Sie sowohl die Option registeredConsumerId
als auch registeredConsumerIdType
angeben.
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
Zum Lesen aus Kinesis Streams müssen Sie entweder die streamName
- oder streamARN
-Option als durch Kommas getrennte Liste von Datenstromnamen/ARNs konfigurieren, aber nicht beide gleichzeitig.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
Um aus Kinesis-Streams mit registrierten Consumern zu lesen, konfigurieren Sie nicht die Option consumerName
oder consumerNamePrefix
, da diese nicht wirksam werden.
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
Die Anzahl der registrierten Consumer-IDs muss der Anzahl der Kinesis-Streams entsprechen, es wurden jedoch <numConsumerIds>
Consumer-IDs und <numStreams>
Streams erkannt.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
Der von <consumerId>
angegebene registrierte Consumer kann für streamARN <streamARN>
nicht gefunden werden. Stellen Sie sicher, dass Sie den Verbraucher registriert haben, oder stellen Sie die option registeredConsumerId
nicht bereit.
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
Der registrierte Consumertyp <consumerType>
ist ungültig. Es muss entweder name
oder ARN
sein.
KRYO_BUFFER_OVERFLOW
Fehler bei der Kryo-Serialisierung: <exceptionMsg>
. Um dies zu vermeiden, erhöhen Sie den Wert "<bufferSizeConfKey>
".
LABELS_MISMATCH
Begin label <beginLabel>
stimmt nicht mit der Endbezeichnung <endLabel>
überein.
LABEL_ALREADY_EXISTS
Die Bezeichnung <label>
ist bereits vorhanden. Wählen Sie einen anderen Namen aus, oder benennen Sie die vorhandene Bezeichnung um.
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA Eingabepfad existiert nicht: <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL
muss zusammen mit dem Schema von file
verwendet werden, enthielt jedoch Folgendes: <actualSchema>
.
LOCATION_ALREADY_EXISTS
Die verwaltete Tabelle kann nicht als <identifier>
benannt werden, da der zugeordnete Speicherort <location>
bereits vorhanden ist. Wählen Sie einen anderen Tabellennamen aus, oder entfernen Sie zuerst den vorhandenen Speicherort.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Einige Partitionen in Kafka-Themen sind während der Ausführung der Abfrage mit Trigger.AvailableNow verloren gegangen. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Themenpartitionen für den neuesten Offset: <tpsForLatestOffset>
, Themenpartitionen für den Endoffset: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Falsch formatierte Avro-Nachrichten werden in der Deserialisierung von Nachrichten erkannt. Parsemodus: <mode>
. Um falsch formatierte Avro-Nachricht als NULL-Ergebnis zu verarbeiten, versuchen Sie, die Option "Modus" als "PERMISSIVE
" festzulegen.
MALFORMED_CHARACTER_CODING
Ungültiger Wert beim Ausführen von <function>
mit <charset>
gefunden
MALFORMIERTER_CSV_EINTRAG
Falsch formatierter CSV-Eintrag: <badRecord>
MALFORMED_RECORD_IN_PARSING
Beim Parsen von Datensätzen werden nicht wohlgeformte Datensätze erkannt: <badRecord>
.
Parsemodus: <failFastMode>
. Um falsch formatierte Datensätze als NULL-Ergebnis zu verarbeiten, versuchen Sie, die Option "Modus" als "PERMISSIVE
" festzulegen.
Weitere Details finden Sie unter MALFORMED_RECORD_IN_PARSING.
MALFORMED_VARIANT
Die Variant-Binärdatei ist falsch formatiert. Überprüfen Sie, ob die Datenquelle gültig ist.
MANAGED_TABLE_WITH_CRED
Das Erstellen einer verwalteten Tabelle mit Speicheranmeldeinformationen wird nicht unterstützt.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Die materialisierte Sicht kann nicht <refreshType>
werden, da sie vor „pipelineId“ vorhanden war. Um <refreshType>
zu aktivieren, löschen Sie bitte die materialisierte Sicht und erstellen sie neu.
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
Der materialisierte Ansichtsvorgang <operation>
ist nicht zulässig:
Weitere Details finden Sie unter MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED.
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
Der Ausgabeausdruck <expression>
in einer materialisierten Sicht muss explizit mit einem Alias erstellt werden.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
materialisierte Ansicht <name>
konnte nicht mit Streaming-Abfrage erstellt werden. Verwenden Sie CREATE
[OR REFRESH
] <st>
oder entfernen Sie das schlüsselwort STREAM
in Ihre FROM
Klausel, um diese Beziehung stattdessen in eine Batchabfrage umzuwandeln.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Vorgang <operation>
wird für materialisierte Ansichten derzeit nicht unterstützt.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Die neue Variable <variableName>
kann nicht erstellt werden, da die Anzahl der Variablen in der Sitzung die maximal zulässige Anzahl (<maxNumVariables>
) überschreitet.
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch muss eine positive ganze Zahl kleiner oder gleich <kinesisRecordLimit>
sein.
MERGE_CARDINALITY_VIOLATION
Die ON
-Suchbedingung der MERGE
-Anweisung stimmt überein mit einer einzelnen Zeile der Zieltabelle, die sich mit mehreren Zeilen der Quelltabelle deckt.
Dies kann dazu führen, dass die Zielzeile mehrmals mit einem Aktualisierungs- oder Löschvorgang bearbeitet wird, was nicht zulässig ist.
MERGE_WITHOUT_WHEN
Es muss mindestens eine WHEN
-Klausel in einer MERGE
-Anweisung vorhanden sein.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT
ist nicht aktiviert.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
Der bereitgestellte Wert "<argValue>
" wird von Argument "<argName>
" für die METRIC_STORE
Tabellenfunktion nicht unterstützt.
Weitere Details finden Sie unter METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR.
METRIC_STORE_UNSUPPORTED_ERROR
Die metrische Store-Routine <routineName>
ist derzeit in dieser Umgebung deaktiviert.
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
Die Metrikansicht darf keine Cachetabellen verwenden.
METRIC_VIEW_FEATURE_DISABLED
Das Feature "Metrikansicht" ist deaktiviert. Stellen Sie sicher, dass "spark.databricks.sql.metricView.enabled" auf "true" festgelegt ist.
METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT
Die funktion MEASURE
() akzeptiert nur ein Attribut als Eingabe, hat aber <expr>
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
Die Metrikansicht ist in CTE-Definitionen nicht zulässig. Plan: <plan>
METRIC_VIEW_JOIN_NOT_SUPPORTED
Die Metrikansicht darf Verknüpfungen nicht verwenden. Plan: <plan>
METRIC_VIEW_MISSING_MEASURE_FUNCTION
Die Verwendung der Messspalte <column>
einer Metrikansicht erfordert eine MEASURE
() Funktion, um Ergebnisse zu erhalten.
METRIC_VIEW_UNSUPPORTED_USAGE
Die Verwendung der Metrikansicht wird nicht unterstützt. Plan: <plan>
METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED
Die Metrikansicht darf die Fensterfunktion <expr>
nicht verwenden.
MIGRATION_NICHT_UNTERSTÜTZT
<table>
wird für die Migration zu verwalteter Tabelle nicht unterstützt, da es sich nicht um eine <tableKind>
Tabelle handelt.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Die Kafka-Datenquelle in „Trigger.AvailableNow“ muss die gleichen Themenpartitionen im vorab abgerufenen Offset bis zum End-Offset für jeden Mikrobatch bereitstellen. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Themenpartitionen für den vorab abgerufenen Offset: <tpsForPrefetched>
, Themenpartitionen für den Endoffset: <tpsForEndOffset>
.
MISSING_AGGREGATION
Der nicht aggregierende Ausdruck <expression>
basiert auf Spalten, die nicht an der GROUP BY
-Klausel teilnehmen.
Fügen Sie dem GROUP BY
die Spalten oder den Ausdruck hinzu, aggregieren Sie den Ausdruck, oder verwenden Sie <expressionAnyValue>
, wenn es Ihnen egal ist, welcher Wert innerhalb einer Gruppe zurückgegeben wird.
Weitere Details finden Sie unter MISSING_AGGREGATION.
MISSING_CLAUSES_FOR_OPERATION
Fehlende Klausel <clauses>
für den Vorgang <operation>
. Fügen Sie die erforderlichen Klauseln hinzu.
MISSING_CONNECTION_OPTION
Verbindungen vom Typ '<connectionType>
' müssen die folgenden Optionen enthalten: <requiredOptions>
.
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
Der Datenbankname wird im v1-Sitzungskatalog nicht angegeben. Stellen Sie sicher, dass Sie beim Interagieren mit dem v1-Katalog einen gültigen Datenbanknamen angeben.
MISSING_GROUP_BY
Die Abfrage enthält keine GROUP BY
Klausel. Fügen Sie GROUP BY
hinzu, oder bauen Sie es mithilfe von OVER-Klauseln in Fensterfunktionen um.
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK
Constraint muss einen Namen haben.
MISSING_PARAMETER_FOR_KAFKA
Parameter <parameterName>
ist für Kafka erforderlich, wird jedoch in <functionName>
nicht angegeben.
MISSING_PARAMETER_FOR_ROUTINE
Parameter <parameterName>
ist erforderlich, wird jedoch in <functionName>
nicht angegeben.
MISSING_SCHEDULE_DEFINITION
Eine Zeitplandefinition muss nach SCHEDULE
bereitgestellt werden.
MISSING_TIMEOUT_CONFIGURATION
Der Vorgang hat ein Timeout, es ist jedoch keine Timeoutdauer konfiguriert. Verwenden Sie zum Festlegen eines zeitbasierten Verarbeitungstimeouts "GroupState.setTimeoutDuration()" in Ihrem 'mapGroupsWithState'- oder 'flatMapGroupsWithState'-Vorgang. Verwenden Sie für ereigniszeitbasiertes Timeout "GroupState.setTimeoutTimestamp()" und definieren Sie ein Wasserzeichen mithilfe von "Dataset.withWatermark()".
MISSING_WINDOW_SPECIFICATION
Die Fensterspezifikation ist in der WINDOW
-Klausel für <windowName>
nicht definiert. Weitere Informationen zu WINDOW
Klauseln finden Sie unter "<docroot>
/sql-ref-syntax-qry-select-window.html".
MODIFY_BUILTIN_CATALOG
Das Ändern des integrierten Katalogs <catalogName>
wird nicht unterstützt.
MULTIPLE_LOAD_PATH
Databricks Delta unterstützt nicht mehrere Eingabepfade in der load()-API.
Pfade: <pathList>
. So erstellen Sie einen einzelnen DataFrame durch Laden
mehrere Pfade aus derselben Delta-Tabelle laden, sollten Sie den Stammpfad der
die Delta-Tabelle mit den entsprechenden Partitionsfiltern. Wenn mehrere Pfade
aus verschiedenen Delta-Tabellen stammen, verwenden Sie die APIs union() oder unionByName() des Datasets,
um die DataFrames zu kombinieren, die durch separate load()-API-Aufrufe generiert werden.
MULTIPLE_MATCHING_CONSTRAINTS
Es wurden mindestens zwei übereinstimmende Einschränkungen mit der angegebenen Bedingung gefunden.
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1>
und <clause2>
können nicht im selben SQL-Pipe-Operator mit '|>' koexistieren. Trennen Sie die mehreren Ergebnisklauseln in separate Pipeoperatoren, und wiederholen Sie dann die Abfrage erneut.
MULTIPLE_TIME_TRAVEL_SPEC
Die Zeitreise kann nicht sowohl in der Zeitreiseklausel als auch in den Optionen angegeben werden.
MEHRERE_XML_DATENQUELLE
Es wurden mehrere Datenquellen mit dem Namen <provider> (<sourceNames>
) erkannt. Geben Sie den vollqualifizierten Klassennamen an, oder entfernen Sie <externalSource>
aus dem Klassenpfad.
MULTI_ALIAS_WITHOUT_GENERATOR
Mehrteiliges Aliasing (<names>
) wird mit <expr>
nicht unterstützt, da es sich nicht um eine Generatorfunktion handelt.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
Der Ausdruck <expr>
unterstützt nicht mehr als eine Quelle.
MULTI_UDF_INTERFACE_ERROR
Nicht zulässig, mehrere UDF-Schnittstellen zu implementieren, UDF-Klasse <className>
.
MUTUALLY_EXCLUSIVE_CLAUSES
Sich gegenseitig ausschließende Klauseln oder Optionen <clauses>
. Entfernen Sie eine dieser Klauseln.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
Die Eingabeabfrage erwartet eine <expectedType>
, die zugrunde liegende Tabelle ist jedoch eine <givenType>
.
BENANNTE_PARAMETER_NICHT_UNTERSTÜTZT
Benannte Parameter werden für die Funktion <functionName>
nicht unterstützt; bitte versuchen Sie es erneut, indem Sie Positionsargumente für den Funktionsaufruf verwenden.
BENANNTE_PARAMETER_WERDEN_FÜR_SQL_UDFS_NICHT_UNTERSTÜTZT
Funktion <functionName>
kann nicht aufgerufen werden, weil benannte Argumentverweise nicht unterstützt werden. In diesem Fall wurde der benannte Argumentverweis <argument>
verwendet.
NAMED_PARAMETER_SUPPORT_DISABLED
Die Funktion <functionName>
kann nicht aufgerufen werden, da hier keine benannten Argumentverweise aktiviert sind.
In diesem Fall lautete der benannte Argumentverweis <argument>
.
Legen Sie "spark.sql.allowNamedFunctionArguments" auf "true" fest, um das Feature zu aktivieren.
NAMESPACE_ALREADY_EXISTS
Namespace-<nameSpaceName>
kann nicht erstellt werden, da er bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie den vorhandenen Namespace ab, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Namespaces zu tolerieren.
NAMESPACE_NOT_EMPTY
Ein Namespace-<nameSpaceNameName>
kann nicht gelöscht werden, da er Objekte enthält.
Verwenden Sie DROP NAMESPACE
... CASCADE
, um den Namespace und alle zugehörigen Objekte abzulegen.
NAMESPACE_NOT_FOUND
Der Namespace <nameSpaceName>
kann nicht gefunden werden. Überprüfen Sie die Schreib- und Korrektheit des Namespaces.
Wenn Sie den Namen nicht mit einem qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen.
Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP NAMESPACE IF EXISTS
.
NATIVE_IO_ERROR
Native Anforderung fehlgeschlagen. RequestId: <requestId>
, Cloud: <cloud>
, Vorgang: <operation>
Anforderung: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
fehler: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Native XML-Datenquelle ist in diesem Cluster nicht aktiviert.
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
Es wurde ein negativer Wert in <frequencyExpression>
gefunden: <negativeValue>
, aber ein positiver Integralwert wurde erwartet.
NESTED_AGGREGATE_FUNCTION
Es ist nicht zulässig, eine Aggregatfunktion im Argument einer anderen Aggregatfunktion zu verwenden. Verwenden Sie die innere Aggregatfunktion in einer Unterabfrage.
NESTED_EXECUTE_IMMEDIATE
Geschachtelte EXECUTE IMMEDIATE
Befehle sind nicht zulässig. Stellen Sie sicher, dass die bereitgestellte SQL-Abfrage (<sqlString>
) keinen anderen EXECUTE IMMEDIATE
Befehl enthält.
NONEXISTENT_FIELD_NAME_IN_LIST
Feld(er) <nonExistFields>
nicht vorhanden. Verfügbare Felder: <fieldNames>
NON_FOLDABLE_ARGUMENT
Für die Funktion <funcName>
muss der Parameter <paramName>
ein faltbarer Ausdruck des Typs <paramType>
sein, das tatsächliche Argument ist jedoch nicht faltbar.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Wenn es in einer MERGE
-Anweisung mehr als eine MATCHED
-Klausel gibt, kann nur die letzte MATCHED
-Klausel die Bedingung weglassen.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Wenn eine NOT MATCHED BY SOURCE
-Anweisung mehr als eine MERGE
-Klausel enthält, darf nur die letzte NOT MATCHED BY SOURCE
-Klausel die Bedingung auslassen.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Wenn eine NOT MATCHED [BY TARGET
-Anweisung mehr als eine MERGE
-Klausel enthält, darf nur die letzte NOT MATCHED [BY TARGET
-Klausel die Bedingung auslassen.
NON_LITERAL_PIVOT_VALUES
Literalausdrücke sind für Pivotwerte erforderlich, es wurde <expression>
gefunden.
NON_PARTITION_COLUMN
PARTITION
-Klausel darf keine Nicht-Partitionsspalten enthalten: <columnName>
.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
Die WINDOW-Funktion wird in <windowFunc>
(als Spalte <columnName>
) für Streaming-DataFrames/Datasets nicht unterstützt.
Strukturiertes Streaming unterstützt nur die Zeitfensteraggregation mithilfe der WINDOW
-Funktion. (Fensterspezifikation: <windowSpec>
)
NOT_ALLOWED_IN_FROM
In der FROM
-Klausel nicht zulässig:
Weitere Details finden Sie unter NOT_ALLOWED_IN_FROM.
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
In der Pipe-WHERE
-Klausel nicht zulässig:
Weitere Details finden Sie unter NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE.
NOT_A_CONSTANT_STRING
Der Ausdruck <expr>
, der für die Routine- oder Klausel <name>
verwendet wird, muss eine Konstante STRING
sein, die NOT NULL
ist.
Weitere Details finden Sie unter NOT_A_CONSTANT_STRING.
NOT_A_PARTITIONED_TABLE
Der Vorgang <operation>
ist für <tableIdentWithDB>
nicht zulässig, da es sich nicht um eine partitionierte Tabelle handelt.
NOT_A_SCALAR_FUNCTION
<functionName>
wird hier als skalarer Ausdruck angezeigt, aber die Funktion wurde als Tabellenfunktion definiert. Aktualisieren Sie die Abfrage, um den Funktionsaufruf in die FROM
-Klausel zu verschieben, oder definieren Sie stattdessen <functionName>
als skalare Funktion neu.
NOT_A_TABLE_FUNCTION
<functionName>
wird hier als Tabellenfunktion angezeigt, aber die Funktion wurde als skalare Funktion definiert. Aktualisieren Sie die Abfrage, um den Funktionsaufruf außerhalb der FROM
-Klausel zu verschieben, oder definieren Sie stattdessen <functionName>
als Tabellenfunktion neu.
NOT_NULL_ASSERT_VIOLATION
NULL
-Wert in Non-Nullable-Feld: <walkedTypePath>
Wenn das Schema aus einem Scala-Tupel/einer Scala-Fallklasse oder einem Java-Bean abgeleitet wird, versuchen Sie, „scala.Option[_]“ oder andere Nullwerte zulassende Typen (z. B. „java.lang.Integer“ anstelle von „int/scala.Int“) zu verwenden.
NOT_NULL_CONSTRAINT_VIOLATION
Das Zuweisen eines NULL
-Werts ist hier nicht zulässig.
Weitere Details finden Sie unter NOT_NULL_CONSTRAINT_VIOLATION.
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/ CHANGE COLUMN
wird nicht unterstützt, um die Spalte <originName>
von <table>
mit dem Typ <originType>
in <newName>
mit dem Typ <newType>
zu ändern.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
wird für v2-Tabellen nicht unterstützt.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
wird nicht unterstützt, wenn Sie ihn aktivieren möchten, legen Sie "spark.sql.catalogImplementation" auf "hive" fest.
NOT_SUPPORTED_IN_JDBC_CATALOG
Nicht unterstützter Befehl im JDBC-Katalog:
Weitere Informationen finden Sie unter NOT_SUPPORTED_IN_JDBC_CATALOG
Nicht unterstützt mit DB_SQL
<operation>
wird in einer SQL <endpoint>
nicht unterstützt.
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
wird auf serverloser Berechnung nicht unterstützt.
NOT_UNRESOLVED_ENCODER
Nicht aufgelöster Encoder erwartet, aber <attr>
wurde gefunden.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Der Standardwert für <colName>
kann nicht bestimmt werden, da er nicht nullfähig ist und keinen Standardwert aufweist.
NO_HANDLER_FOR_UDAF
Kein Handler für UDAF „<functionName>
“. Verwenden Sie stattdessen sparkSession.udf.register(...)
NO_MERGE_ACTION_SPECIFIED
Nach „df.mergeInto“ muss mindestens eine der folgenden Optionen folgen:whenMatched, whenNotMatched, whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: nicht zugewiesen
Für Pfad '<path>
' wurde kein übergeordneter externer Speicherort gefunden. Erstellen Sie einen externen Speicherort auf einem der übergeordneten Pfade, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
<catalystFieldPath>
im Protobuf-Schema wurde nicht gefunden.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: nicht zugewiesen
Beim Generieren von Tabellenanmeldeinformationen wurde kein Speicherort für die Tabelle '<tableId>
' gefunden. Überprüfen Sie den Tabellentyp und die Tabellenspeicherort-URL, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_CATALOG_EXCEPTION
Katalog '<catalog>
' wurde nicht gefunden. Überprüfen Sie den Katalognamen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: nicht zugewiesen
Der Reinraum „<cleanroom>
“ existiert nicht. Überprüfen Sie, ob der Name des Reinraums richtig geschrieben ist und dem Namen eines gültigen vorhandenen Reinraums entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: nicht zugewiesen
Der externe Speicherort '<externalLocation>
' ist nicht vorhanden. Vergewissern Sie sich, dass der Name des externen Speicherorts korrekt ist, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: nicht zugewiesen
Der Metaspeicher wurde nicht gefunden. Bitten Sie Ihren Kontoadministrator, dem aktuellen Arbeitsbereich einen Metastore zuzuweisen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: nicht zugewiesen
Der Freigabeanbieter „<providerName>
“ ist nicht vorhanden. Überprüfen Sie, ob der Name des Freigabeanbieters richtig geschrieben ist und dem Namen eines gültigen vorhandenen Anbieternamens entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: nicht zugewiesen
Der Empfänger '<recipient>
' ist nicht vorhanden. Vergewissern Sie sich, dass der Empfängername richtig geschrieben ist und dem Namen eines gültigen vorhandenen Empfängers entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: nicht zugewiesen
Die Aktie "<share>
" existiert nicht. Überprüfen Sie, ob der Freigabename richtig geschrieben ist und dem Namen einer gültigen vorhandenen Freigabe entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: nicht zugewiesen
Die Speicheranmeldeinformationen „<storageCredential>
“ sind nicht vorhanden. Überprüfen Sie, ob der Name der Speicheranmeldeinformationen richtig geschrieben ist und dem Namen einer gültigen vorhandenen Speicheranmeldeinformation entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_USER_EXCEPTION
SQLSTATE: nicht zugewiesen
Der Benutzer "<userName>
" ist nicht vorhanden. Vergewissern Sie sich, dass der Benutzer, dem Sie die Berechtigung erteilen oder den Besitz ändern, richtig geschrieben ist und dem Namen eines gültigen vorhandenen Benutzers entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_UDF_INTERFACE
Die UDF-Klasse <className>
implementiert keine UDF-Schnittstelle.
NULLABLE_COLUMN_OR_FIELD
Spalte oder Feld <name>
lässt Nullwerte zu, obwohl sie/es keine Nullwerte zulassend darf.
NULLABLE_ROW_ID_ATTRIBUTES
Zeilen-ID-Attribute dürfen keine Nullwerte zulassen: <nullableRowIdAttrs>
.
NULL_DATA_SOURCE_OPTION
Die Option "Lese-/Schreibzugriff der Datenquelle" <option>
darf keinen Nullwert aufweisen.
NULL_MAP_KEY
Null kann nicht als Zuordnungsschlüssel verwendet werden.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
"Direkt ausführen" erfordert eine Nicht-NULL-Variable als Abfragezeichenfolge, die bereitgestellte Variable <varName>
ist jedoch NULL.
NUMERIC_OUT_OF_SUPPORTED_RANGE
Der Wert <value>
kann nicht als numerischer Wert interpretiert werden, da er mehr als 38 Ziffern aufweist.
NUMERIC_VALUE_OUT_OF_RANGE
Weitere Details finden Sie unter NUMERIC_VALUE_OUT_OF_RANGE.
NUM_COLUMNS_MISMATCH
<operator>
kann nur bei Eingaben mit der gleichen Anzahl von Spalten ausgeführt werden, aber die erste Eingabe hat <firstNumColumns>
Spalten und die <invalidOrdinalNum>
Eingabe hat <invalidNumColumns>
Spalten.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Die Anzahl der angegebenen Aliase stimmt nicht mit der Anzahl der Ausgabespalten überein.
Funktionsname: <funcName>
; Anzahl der Aliase: <aliasesNum>
; Anzahl der Ausgabespalten: <outColsNum>
.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Es wurde kein benutzerdefinierter Identitätsanspruch bereitgestellt.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
Das Aufrufen der Funktion <functionName>
wird in diesem <location>
nicht unterstützt. <supportedFunctions>
wird hier unterstützt.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
SQL-Vorgang <operation>
wird nur für Databricks SQL-Connectors mit Unity-Katalogunterstützung unterstützt.
OPERATION_CANCELED
Der Vorgang wurde abgebrochen.
OPERATION_REQUIRES_UNITY_CATALOG
Für den Vorgang <operation>
muss der Unity-Katalog aktiviert sein.
OP_NOT_SUPPORTED_READ_ONLY
<plan>
wird im schreibgeschützten Sitzungsmodus nicht unterstützt.
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY
-Position <index>
befindet sich nicht in der Auswahlliste (gültiger Bereich ist [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Für den Datentyp <dataType>
, dessen Parketttyp <parquetType>
ist, kann kein Parkettkonverter erstellt werden.
Weitere Details finden Sie unter PARQUET_CONVERSION_FAILURE.
PARQUET_TYPE_ILLEGAL
Unzulässiger Parquet-Typ: <parquetType>
.
PARQUET_TYPE_NOT_RECOGNIZED
Unbekannter Parketttyp: <field>
.
PARQUET_TYPE_NOT_SUPPORTED
Der Parketttyp <parquetType>
wird noch nicht unterstützt.
PARSE_EMPTY_STATEMENT
Syntaxfehler, unerwartete leere Anweisung.
PARSE_MODE_UNSUPPORTED
Die Funktion <funcName>
unterstützt den <mode>
Modus nicht. Akzeptable Modi sind PERMISSIVE
und FAILFAST
.
PARSE_SYNTAX_ERROR
Syntaxfehler bei oder in der Nähe von <error> <hint>
.
PARTITIONS_ALREADY_EXIST
Partitionen können nicht mit ADD oder RENAME
TO <partitionList>
zu Tabelle <tableName>
hinzugefügt werden, da sie bereits vorhanden sind.
Wählen Sie einen anderen Namen aus, legen Sie die vorhandene Partition ab, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um eine bereits vorhandene Partition zu tolerieren.
PARTITIONS_NOT_FOUND
Die Partition(en) <partitionList>
können in Tabelle <tableName>
nicht gefunden werden.
Überprüfen Sie die Partitionsspezifikation und den Tabellennamen.
Um den Fehler beim „Drop“ zu tolerieren, verwenden Sie ALTER TABLE
... DROP IF EXISTS PARTITION
.
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
Partitionsspalte <column>
in Schema-<schema>
nicht gefunden. Geben Sie die vorhandene Spalte für die Partitionierung an.
PARTITION_LOCATION_ALREADY_EXISTS
Partitionsspeicherort <locationPath>
ist bereits in Tabelle <tableName>
vorhanden.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Fehler beim Ausführen der ALTER TABLE SET PARTITION LOCATION
-Anweisung, da der
Der Partitionsspeicherort <location>
befindet sich nicht unter dem Tabellenverzeichnis <table>
.
Um dies zu beheben, legen Sie den Speicherort der Partition auf ein Unterverzeichnis von <table>
fest.
PARTITION_METADATA
<action>
ist für Tabellen-<tableName>
nicht zulässig, da das Speichern von Partitionsmetadaten im Unity-Katalog nicht unterstützt wird.
PARTITION_NUMBER_MISMATCH
Die Anzahl der Werte (<partitionNumber>
) stimmt nicht mit der Schemagröße überein (<partitionSchemaSize>
): Werte sind <partitionValues>
, Schema ist <partitionSchema>
, Dateipfad ist <urlEncodedPath>
.
Materialisieren Sie die Tabelle neu, oder wenden Sie sich an die Person, die sie besitzt.
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
Der Ausdruck <expression>
muss sich innerhalb von "partitionedBy" befinden.
PATH_ALREADY_EXISTS
Der Pfad <outputPath>
ist bereits vorhanden. Legen Sie den Modus als "überschreiben" fest, um den vorhandenen Pfad zu überschreiben.
PATH_NOT_FOUND
Pfad ist nicht vorhanden: <path>
.
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Die Deserialisierung des Photon-protobuf-Plans erfordert mindestens <size>
Bytes, was den
Grenzwert von <limit>
Bytes überschreitet. Dies könnte auf einen sehr großen Plan oder das Vorhandensein eines solchen zurückzuführen sein.
breites Schema. Versuchen Sie, die Abfrage zu vereinfachen, unnötige Spalten zu entfernen oder Photon zu deaktivieren.
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Der serialisierte Photon-protobuf-Plan hat eine Größe von <size>
Bytes, die den Grenzwert von
<limit>
Bytes überschreitet. Die serialisierte Größe von Datentypen im Plan ist <dataTypeSize>
Bytes.
Dies kann auf einen sehr großen Plan oder das Vorhandensein eines sehr breiten Schemas zurückzuführen sein.
Erwägen Sie das Umschreiben der Abfrage, um unerwünschte Vorgänge und Spalten zu entfernen oder Photon zu deaktivieren.
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
Nicht gruppierender Ausdruck <expr>
wird als Argument an den |>AGGREGATE
Pipe-Operator übergeben, enthält jedoch keine Aggregatfunktion. Bitte aktualisieren Sie ihn, um eine Aggregatfunktion einzuschließen, und führen Sie die Abfrage dann erneut aus.
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
Aggregatfunktion <expr>
ist bei Verwendung der Pipeoperatorklausel | ><clause>
nicht zulässig; verwenden Sie stattdessen die Pipeoperatorklausel |>AGGREGATE
.
PIVOT_VALUE_DATA_TYPE_MISMATCH
Ungültiger Pivotwert '<value>
': Wert-Datentyp <valueType>
stimmt nicht mit dem Datentyp der Pivotspalte überein <pivotType>
.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
Die Prozedur <procedureName>
erwartet <expected>
Argumente, <actual>
wurden jedoch bereitgestellt.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE
mit einer leeren Routinedefinition ist nicht zulässig.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
Der Parameter <parameterName>
wird mit dem Parametermodus <parameterMode>
definiert. OUT- und INOUT
-Parameter können beim Aufrufen einer Routine nicht weggelassen werden und unterstützen daher keinen DEFAULT
Ausdruck. Um fortzufahren, entfernen Sie die DEFAULT
-Klausel, oder ändern Sie den Parametermodus in IN
.
PROCEDURE_NOT_SUPPORTED
Die gespeicherte Prozedur wird nicht unterstützt
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Gespeicherte Prozeduren werden vom Hive-Metastore nicht unterstützt. Verwenden Sie stattdessen Unity-Katalog.
PROTOBUF_DEPENDENCY_NOT_FOUND
Die Abhängigkeit <dependencyName>
wurde nicht gefunden.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Fehler beim Lesen der Protobuf-Deskriptordatei unter Pfad: <filePath>
.
PROTOBUF_FIELD_MISSING
Die Suche nach <field>
im Protobuf-Schema bei <protobufSchema>
hat <matchSize>
Übereinstimmungen ergeben. Kandidaten: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Es wurde <field>
im Protobuf-Schema gefunden, aber es gibt keine Übereinstimmung im SQL-Schema.
PROTOBUF_FIELD_TYPE_MISMATCH
Für Feld <field>
wurde ein Typenkonflikt gefunden.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Java-Klassen werden für <protobufFunction>
nicht unterstützt. Wenden Sie sich an den Databricks-Support über alternative Optionen.
PROTOBUF_MESSAGE_NOT_FOUND
Die Nachricht <messageName>
konnte im Deskriptor nicht gefunden werden.
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Die <functionName>
SQL-Funktion kann nicht aufgerufen werden, da die Protobuf-Datenquelle nicht geladen wird.
Starten Sie den Auftrag oder die Sitzung neu, indem Sie das geladene Paket "spark-protobuf" verwenden, z. B. mithilfe des Arguments "-packages" in der Befehlszeile, und versuchen Sie dann die Abfrage oder den Befehl erneut.
PROTOBUF_TYPE_NOT_SUPPORT
Der Protobuf-Typ <protobufType>
wird noch nicht unterstützt.
PS_FETCH_RETRY_EXCEPTION
Die Aufgabe in der PubSub-Abrufstage kann nicht wiederholt werden. Partition <partitionInfo>
in Stage <stageInfo>
, TID <taskId>
.
PS_INVALID_EMPTY_OPTION
<key>
kann keine leere Zeichenfolge sein.
PS_UNGÜLTIGER_SCHLÜSSEL_TYP
Ungültiger Schlüsseltyp für PubSub Dedup: <key>
.
PS_INVALID_OPTION
Die Option <key>
wird von PubSub nicht unterstützt. Sie kann nur in Tests verwendet werden.
PS_INVALID_OPTION_TYPE
Ungültiger Typ für <key>
. Erwarteter Typ von <key>
soll Typ <type>
sein.
PS_INVALID_READ_LIMIT
Ungültiger Lesegrenzwert für PubSub-Datenstrom: <limit>
.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Ungültige UnsafeRow zum Decodieren in PubSubMessageMetadata. Gewünschtes Protokollschema: <protoSchema>
. Die Eingabe "UnsafeRow" ist möglicherweise beschädigt: <unsafeRow>
.
PS_MISSING_AUTH_INFO
Fehler beim Auffinden vollständiger PubSub-Authentifizierungsinformationen.
PS_MISSING_REQUIRED_OPTION
Erforderliche Option konnte nicht gefunden werden: <key>
.
PS_MOVING_CHECKPOINT_FAILURE
Fehler beim Verschieben von Rohdaten-Prüfpunktdateien aus <src>
in das Zielverzeichnis: <dest>
.
PS_MULTIPLE_AUTH_OPTIONS
Geben Sie entweder Ihre Databricks-Dienstanmeldeinformationen oder Ihre GCP-Dienstkontoanmeldeinformationen an.
PS_MULTIPLE_FAILED_EPOCHS
Der PubSub-Stream kann nicht gestartet werden, da mehr als ein fehler beim Abrufen vorhanden ist: <failedEpochs>
.
PS_OPTION_NOT_IN_BOUNDS
<key>
muss innerhalb der folgenden Grenzwerte liegen (ausschließlich): <min>
, <max>
.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Freigegebene Cluster unterstützen keine Authentifizierung mit Instanzprofilen. Geben Sie Anmeldeinformationen mithilfe von „.option()“ direkt für den Stream an.
PS_SPARK_SPECULATION_NOT_SUPPORTED
Der PubSub-Quell-Connector ist nur in einem Cluster verfügbar, in dem spark.speculation
deaktiviert ist.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Fehler beim Versuch, ein Abonnement <subId>
zu Thema <topicId>
zu erstellen. Überprüfen Sie, ob ausreichende Berechtigungen zum Erstellen eines Abonnements vorhanden sind, und versuchen Sie es erneut.
PS_UNABLE_TO_PARSE_PROTO
Serialisierte Bytes können nicht geparst werden, um das Protokoll zu generieren.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset wird nicht unterstützt, ohne einen Grenzwert zu liefern.
PYTHON_DATA_SOURCE_ERROR
Fehler bei der <action>
-Python-Datenquelle <type>
: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Fehler beim Ausführen der Python-Streamingdatenquelle <action>
: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Auf die referenzierte Tabelle kann nicht zugegriffen werden, da eine zuvor zugewiesene Spaltenmaske derzeit mit dem Tabellenschema nicht kompatibel ist; um den Vorgang fortzusetzen, wenden Sie sich bitte an den Eigentümer der Tabelle, um die Richtlinie zu aktualisieren.
Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY.
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Auf referenzierte Tabelle kann nicht zugegriffen werden, da derzeit eine zuvor zugewiesene Sicherheitsrichtlinie auf Zeilenebene mit dem Tabellenschema nicht kompatibel ist. um den Vorgang fortzusetzen, wenden Sie sich bitte an den Besitzer der Tabelle, um die Richtlinie zu aktualisieren:
Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY.
QUERY_EXECUTION_TIMEOUT_EXCEEDED
Die Abfrageausführung wurde aufgrund einer Überschreitung des Timeouts (<timeoutSec>
s) abgebrochen. Sie können den Grenzwert in Sekunden erhöhen, indem Sie <config>
festlegen.
READ_CURRENT_FILE_NOT_FOUND
<message>
Es ist möglich, dass die zugrunde liegenden Dateien aktualisiert wurden. Sie können den Cache in Spark explizit ungültig machen, indem Sie den Befehl 'REFRESH TABLE
tableName' in SQL ausführen oder das dataset/DataFrame neu erstellen.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
Der Aufruf der Funktion <functionName>
hat <parameterName>
und <alternativeName>
festgelegt, die gegenseitige Aliase sind. Bitte legen Sie nur einen davon fest.
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
Der erforderliche Parameter <parameterName>
für die Funktion <functionName>
muss an der Position <expectedPos>
ohne den Namen zugewiesen werden.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Nur TIMESTAMP
/TIMESTAMP_LTZ
/TIMESTAMP_NTZ
-Typen werden für den Ablaufzeitstempel des Empfängers unterstützt.
RECURSIVE_PROTOBUF_SCHEMA
Rekursive Referenz im Protobuf-Schema gefunden, das von Spark standardmäßig nicht verarbeitet werden kann: <fieldDescriptor>
. versuchen Sie, die Option recursive.fields.max.depth
1 bis 10 festzulegen. Es ist nicht zulässig, über 10 Rekursionsebenen hinauszugehen.
RECURSIVE_VIEW
Rekursive Ansicht <viewIdent>
erkannt (Zyklus: <newPath>
).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Verweise auf DEFAULT
Spaltenwerte sind in der PARTITION
-Klausel nicht zulässig.
RELATION_LARGER_THAN_8G
Eine <relationName>
, die größer als 8G ist, kann nicht erstellt werden.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Fehler bei der Remote-HTTP-Anforderung mit code <errorCode>
und Fehlermeldung <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Fehler beim Auswerten der <functionName>
SQL-Funktion aufgrund der Unfähigkeit, das JSON-Ergebnis aus der Remote-HTTP-Antwort zu analysieren; die Fehlermeldung <errorMessage>
ist. Überprüfen Sie die API-Dokumentation: <docUrl>
. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Fehler beim Auswerten der <functionName>
SQL-Funktion, weil die unerwartete Remote-HTTP-Antwort nicht verarbeitet werden konnte. Die Fehlermeldung ist <errorMessage>
. Überprüfen Sie die API-Dokumentation: <docUrl>
. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
Fehler bei der Remoteanforderung nach <N>
Wiederholungsversuchen. Der letzte HTTP-Fehlercode war <errorCode>
, und die Meldung lautete <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Fehler beim Auswerten der SQL-Funktion <functionName>
, aufgrund von <errorMessage>
. Überprüfen Sie die Anforderungen in <docUrl>
. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.
RENAME_SRC_PATH_NOT_FOUND
Fehler beim Umbenennen, da <sourcePath>
nicht gefunden wurde.
REPEATED_CLAUSE
Die <clause>
-Klausel kann höchstens einmal pro <operation>
Vorgang verwendet werden.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
Der erforderliche Parameter <parameterName>
der Routine <routineName>
wurde an Position <positionalIndex>
ohne den Namen zugewiesen.
Aktualisieren Sie den Funktionsaufruf, um entweder das benannte Argument mit <parameterName>
für diesen Parameter zu entfernen oder das positionsbezogene Argument zu entfernen.
Positionsargument bei <positionalIndex>
und versuchen Sie es dann nochmal.
ERFORDERLICHER_PARAMETER_NICHT_GEFUNDEN
Routine-<routineName>
kann nicht aufgerufen werden, da der Parameter mit dem Namen <parameterName>
erforderlich ist, aber der Routineaufruf hat keinen Wert angegeben. Aktualisieren Sie den Routineaufruf, um einen Argumentwert anzugeben (entweder positional bei Index <index>
oder nach Name), und wiederholen Sie die Abfrage erneut.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
erfordert einen einzelteiligen Namespace, hat aber <namespace>
.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
Die DataFrame-API-Leseoption „rescuedDataColumn“ und die DataFrame-API-Option „singleVariantColumn“ schließen sich gegenseitig aus.
Entfernen Sie einen dieser Elemente, und wiederholen Sie dann den DataFrame-Vorgang erneut.
RESERVED_CDC_COLUMNS_ON_WRITE
Der Schreibvorgang umfasst reservierte Spalten <columnList>
, die genutzt werden.
intern als Metadaten für den Änderungsdatenfeed verwendet werden. Zum Schreiben in die Tabelle müssen Sie diese Spalten entweder umbenennen/entfernen
oder den Änderungsdatenfeed in der Tabelle deaktivieren, indem
<config>
auf FALSCH festgelegt wird.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
Die Option <option>
hat eingeschränkte Werte für freigegebene Cluster für die Quelle <source>
.
Weitere Details finden Sie unter RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.
ROUTINE_ALREADY_EXISTS
Die <newRoutineType> <routineName>
kann nicht erstellt werden, da bereits ein <existingRoutineType>
mit diesem Namen vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie den vorhandenen <existingRoutineType>
ab, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um eine bereits vorhandene <newRoutineType>
zu tolerieren.
ROUTINE_NOT_FOUND
Die Routine <routineName>
kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Tolerieren Sie den Fehler beim Ablegen mit DROP
… IF EXISTS
.
ROUTINE_PARAMETER_NOT_FOUND
Die Routine <routineName>
unterstützt den an Position <pos>
angegebenen Parameter <parameterName>
nicht.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
Die Funktion <routineName>
kann nicht erstellt werden, da der angegebene Klassenname '<className>
' für die Systemverwendung reserviert ist. Benennen Sie den Kurs um, und versuchen Sie es erneut.
ROW_LEVEL_SECURITY_ABAC_MISMATCH
Für <tableName>
konnten die Zeilenfilter nicht aufgelöst werden, weil es einen Unterschied zwischen den von Richtlinien geerbten Zeilenfiltern und den explizit definierten Zeilenfiltern gab. Um fortzufahren, deaktivieren Sie bitte die Attributbasierte Zugriffssteuerung (Attribute Based Access Control, ABAC), und wenden Sie sich an den Databricks-Support.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Das Erstellen einer CHECK
-Einschränkung an der Tabelle <tableName>
mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Eine <statementType>
-Anweisung hat versucht, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber zwei oder mehr spalten, auf die verwiesen wird, weisen denselben Namen <columnName>
auf, was ungültig ist.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Sicherheitsrichtlinien auf Zeilenebene für <tableName>
werden nicht unterstützt:
Weitere Details finden Sie unter ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED.
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
<statementType> <columnName>
in Tabelle <tableName>
ist nicht möglich, da in einer Sicherheitsrichtlinie auf Zeilenebene darauf verwiesen wird. Die Person im Besitz der Tabelle muss vor dem Fortfahren diese Richtlinie entfernen oder ändern.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO
-Vorgänge unterstützen keine Sicherheitsrichtlinien auf Zeilenebene in Quelltabelle <tableName>
.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO
-Vorgänge unterstützen das Schreiben in die Tabelle <tableName>
mit Sicherheitsrichtlinien auf Zeilenebene nicht.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Diese Anweisung versuchte, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber der Verweis auf Spalte <columnName>
hatte mehrere Namensbestandteile, was ungültig ist.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Sicherheitsrichtlinien auf Zeilenebene werden nur im Unity-Katalog unterstützt.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS
Befehl wird für<format>
Tabellen mit Sicherheitsrichtlinie auf Zeilenebene nicht unterstützt.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
Ein <mode>
-Klon aus der Tabelle <tableName>
mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
Ein <mode>
-Klon in die Tabelle <tableName>
mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Die Verwendung einer Konstante als Parameter in einer Sicherheitsrichtlinie auf Zeilenebene wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Zeilenfilterdefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Fehler beim Ausführen des <statementType>
-Befehls, da das Zuweisen einer Sicherheitsrichtlinie auf Zeilenebene für die Zieldatenquelle mit dem Tabellenanbieter nicht unterstützt wird: "<provider>
".
ROW_SUBQUERY_TOO_MANY_ROWS
Mehr als eine Zeile, die von einer Teilabfrage zurückgegeben wurden, werden als Zeile verwendet.
ROW_VALUE_IS_NULL
NULL
wurde in einer Reihe beim Index <index>
gefunden, erwartet wurde ein Wert, der nicht NULL
ist.
RULE_ID_NOT_FOUND
Es wurde keine ID für den Regelnamen "<ruleName>
" gefunden. Ändern Sie "RuleIdCollection.scala", wenn Sie eine neue Regel hinzufügen.
SAMPLE_TABLE_PERMISSIONS
Berechtigungen werden in Beispieldatenbanken/-tabellen nicht unterstützt.
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc>
überschreibt die Methode „produceResult(InternalRow)“ nicht mit einer benutzerdefinierten Implementierung.
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc>
implementiert oder überschreibt die Methode „produceResult(InternalRow)“ nicht.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
Die korrelierte skalare Unterabfrage "<sqlExpr>
" ist weder in GROUP BY
noch in einer Aggregatfunktion vorhanden.
Fügen Sie sie GROUP BY
anhand der Ordnungsposition hinzu, oder umschließen Sie sie in first()
(oder first_value
), wenn der Ergebniswert nicht relevant ist.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Mehr als eine Zeile, die von einer Teilabfrage zurückgegeben wurden, wird als Ausdruck verwendet.
ZEITPLAN_EXISTIERT_BEREITS
Einer Tabelle, die bereits <existingScheduleType>
hat, kann <scheduleType>
nicht hinzugefügt werden. Bitte legen Sie den vorhandenen Zeitplan ab oder verwenden Sie ALTER TABLE
... ALTER <scheduleType>
… , um sie zu ändern.
SCHEDULE_PERIOD_INVALID
Der Zeitplanzeitraum für <timeUnit>
muss ein ganzzahliger Wert zwischen 1 und <upperBound>
(einschließlich) sein. Empfangen: <actual>
.
SCHEMA_EXISTIERT_BEREITS
Schema-<schemaName>
kann nicht erstellt werden, da es bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Schema ab, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Schemas zu tolerieren.
SCHEMA_NOT_EMPTY
Ein Schema <schemaName>
kann nicht gelöscht werden, da es Objekte enthält.
Verwenden Sie DROP SCHEMA
... CASCADE
, um das Schema und alle zugehörigen Objekte abzulegen.
SCHEMA_NOT_FOUND
Das Schema <schemaName>
wurde nicht gefunden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Katalog.
Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP SCHEMA IF EXISTS
.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Das Schema aus der Schemaregistrierung konnte nicht initialisiert werden. <reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Das zweite Argument der funktion <functionName>
muss eine ganze Zahl sein.
SECRET_FUNCTION_INVALID_LOCATION
<commandType>
Befehl mit mindestens einem nicht verschlüsselten Verweis auf die SECRET
-Funktion kann nicht ausgeführt werden. verschlüsseln Sie das Ergebnis jedes solchen Funktionsaufrufs mit AES_ENCRYPT
, und versuchen Sie es erneut.
SEED_EXPRESSION_IS_UNFOLDABLE
Der Ausgangsausdruck <seedExpr>
des Ausdrucks <exprWithSeed>
muss faltbar sein.
Server ist ausgelastet
Der Server ist ausgelastet und konnte die Anforderung nicht verarbeiten. Bitte warten Sie einen Moment, und versuchen Sie es erneut.
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
SHOW COLUMNS
mit widersprüchlichen Namespaces: <namespaceA>
!= <namespaceB>
.
SORT_BY_WITHOUT_BUCKETING
"sortBy" muss zusammen mit bucketBy verwendet werden.
SPARK_JOB_CANCELLED
Auftrag <jobId>
abgebrochen <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
CREATE TABLE
ohne explizite Spaltenliste kann keine Bucketing-Informationen angeben.
Verwenden Sie die Form mit expliziter Spaltenliste, und geben Sie Bucketing-Informationen an.
Alternativ können Sie zulassen, dass die Bucketing-Informationen durch das Weglassen der Klausel abgeleitet werden.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Sowohl CLUSTER BY
als auch CLUSTERED BY INTO BUCKETS
können nicht angegeben werden.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Sowohl CLUSTER BY
als auch PARTITIONED BY
können nicht angegeben werden.
SPECIFY_PARTITION_IS_NOT_ALLOWED
Eine CREATE TABLE
ohne explizite Spaltenliste kann PARTITIONED BY
nicht angeben.
Verwenden Sie das Formular mit expliziter Spaltenliste, und geben Sie PARTITIONED BY
an.
Alternativ können Sie zulassen, dass die Partitionierung durch das Weglassen der PARTITION BY
-Klausel abgeleitet wird.
SQL_CONF_NOT_FOUND
Die SQL-Konfigurationskonfiguration <sqlConf>
konnte nicht gefunden werden. Überprüfen Sie, ob die Konfiguration vorhanden ist.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Vorübergehender Fehler beim Zugriff auf den Ziel-Stagingpfad <path>
. Versuchen Sie es in einigen Minuten.
STAR_GROUP_BY_POS
Die Sternvariable (*) ist in einer Auswahlliste nicht zulässig, wenn für GROUP BY
eine Ordinalposition verwendet wird.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Fehler beim Ausführen eines zustandsbehafteten Prozessorvorgangs=<operationType>
mit ungültigem Handle-Zustand=<handleState>
.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Fehler beim Ausführen des zustandsbehafteten Prozessorvorgangs=<operationType>
mit ungültigem timeMode=<timeMode>
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
Statusvariable mit dem Namen <stateVarName>
wurde bereits im StatefulProcessor definiert.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
TTL kann nicht für state=<stateName>
in timeMode=<timeMode>
verwendet werden, verwenden Sie stattdessen TimeMode.ProcessingTime().
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
Die TTL-Dauer muss größer als Null für den Zustandsspeichervorgang=<operationType>
für "state=<stateName>
" sein.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Unbekannter Zeitmodus <timeMode>
. Akzeptierte TimeMode-Modi sind 'none', 'processingTime', 'eventTime'
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Fehler beim Erstellen einer Spaltenfamilie mit nicht unterstütztem Anfangszeichen und Name=<colFamilyName>
.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Fehler beim Ausführen des Spaltenfamilienvorgangs=<operationName>
mit ungültiger Name=<colFamilyName>
. Spaltenfamilienname darf nicht leer sein oder führende/nachfolgende Leerzeichen enthalten oder das reservierte Schlüsselwort=Standard verwenden
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Inkompatible Schematransformation mit Spaltenfamilie=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
StateStore-<inputClass>
unterstützt keinen wiederverwendbaren Iterator.
STATE_STORE_HANDLE_NOT_INITIALIZED
Das Handle wurde für diesen StatefulProcessor nicht initialisiert.
Verwenden Sie den StatefulProcessor nur im Operator transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Falsche Anzahl von Ordnungszahlen=<numOrderingCols>
für Bereichsscan-Encoder. Die Anzahl der Ordnungszahlen darf nicht null oder größer als die Anzahl der Schemaspalten sein.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Falsche Anzahl von Präfixspalten=<numPrefixCols>
für Präfixscan-Encoder. Präfixspalten dürfen nicht null oder größer oder gleich der Anzahl der Schemaspalten sein.
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
<configName>
kann zwischen Neustarts nicht von <oldConfig>
in <newConfig>
geändert werden. Legen Sie <configName>
auf <oldConfig>
fest, oder starten Sie es mit einem neuen Prüfpunktverzeichnis neu.
STATE_STORE_INVALID_PROVIDER
Der angegebene State Store-Anbieter <inputClass>
erweitert nicht org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
<stateVarName>
kann zwischen Neustarts der Abfrage nicht in <newType>
geändert werden. Legen Sie <stateVarName>
auf <oldType>
fest, oder starten Sie es mit einem neuen Prüfpunktverzeichnis neu.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
Nulltyp-Sortierspalte mit name=<fieldName>
bei index=<index>
wird für Bereichsscan-Encoder nicht unterstützt.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
Der angegebene Zustandsspeicheranbieter <inputClass>
erweitert „org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay“ nicht.
Daher werden die Optionen "snapshotStartBatchId" oder "readChangeFeed" in der Status-Datenquelle nicht unterstützt.
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
Die Anzahl der Zustandsschemadateien <numStateSchemaFiles>
überschreitet die maximale Anzahl von Zustandsschemadateien für diese Abfrage: <maxStateSchemaFiles>
.
Hinzugefügt: <addedColumnFamilies>
, Entfernt: <removedColumnFamilies>
Legen Sie "spark.sql.streaming.stateStore.stateSchemaFilesThreshold" auf eine höhere Zahl fest, oder setzen Sie Zustandsschemaänderungen zurück.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Zustandsspeichervorgang=<operationType>
wird für fehlende Spaltenfamilie=<colFamilyName>
nicht unterstützt.
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
Die Anzahl der Zustandsschemaentwicklungen <numSchemaEvolutions>
überschreitet die maximale Anzahl von Zustandsschemaentwicklungen, <maxSchemaEvolutions>
, die für diese Spaltenfamilie zulässig sind.
Fehlerhafte Spaltenfamilie: <colFamilyName>
Legen Sie "spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold" auf eine höhere Zahl fest, oder setzen Sie Zustandsschemaänderungen zurück.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Die Sortierspalte variabler Größe mit name=<fieldName>
bei index=<index>
wird für Bereichsscan-Encoder nicht unterstützt.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
Statische Partitionsspalte <staticName>
wird auch in der Spaltenliste angegeben.
STDS_COMMITTED_BATCH_UNAVAILABLE
Es wurde kein committeter Batch gefunden, Prüfpunktspeicherort: <checkpointLocation>
. Stellen Sie sicher, dass die Abfrage ausgeführt wurde und alle Microbatches vor dem Beenden festgeschrieben wurden.
STDS_CONFLICT_OPTIONS
Die Optionen <options>
können nicht zusammen angegeben werden. Bitte geben Sie den einen an.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Fehler beim Lesen der Operatormetadaten für checkpointLocation=<checkpointLocation>
und batchId=<batchId>
.
Entweder ist die Datei nicht vorhanden, oder die Datei ist beschädigt.
Führen Sie die Streamingabfrage erneut aus, um die Operatormetadaten zu erstellen. Sollten weiterhin Fehler auftreten, berichten Sie dies den entsprechenden Gemeinschaften oder Anbietern.
STDS_FAILED_TO_READ_STATE_SCHEMA
Fehler beim Lesen des Statusschemas. Entweder ist die Datei nicht vorhanden, oder die Datei ist beschädigt. Optionen: <sourceOptions>
.
Führen Sie die Streamingabfrage erneut aus, um das Statusschema zu erstellen, und melden Sie den entsprechenden Communities oder Anbietern, wenn der Fehler weiterhin besteht.
STDS_INVALID_OPTION_VALUE
Ungültiger Wert für die Quelloption '<optionName>
':
Weitere Details finden Sie unter STDS_INVALID_OPTION_VALUE.
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
Der Staat hat keine Partition. Überprüfen Sie bitte, ob die Abfrage auf den gültigen Zustand verweist. optionen: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
Das Offsetprotokoll für <batchId>
ist nicht vorhanden, Prüfpunktspeicherort: <checkpointLocation>
.
Geben Sie die Batch-ID an, die für die Abfrage verfügbar ist . Sie können die verfügbaren Batch-IDs mithilfe der Zustandsmetadatenquelle abfragen.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Für das Offsetprotokoll für <batchId>
sind keine Metadaten vorhanden, Prüfpunktspeicherort: <checkpointLocation>
.
Der Prüfpunkt scheint nur mit älteren Spark-Versionen ausgeführt zu werden. Führen Sie die Streamingabfrage mit der aktuellen Spark-Version aus, sodass Spark die Statusmetadaten erstellt.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>
' muss angegeben werden.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Die Ausführung adaptiver Abfragen wird für zustandsbehaftete Operatoren im strukturierten Streaming nicht unterstützt.
STREAMING_FROM_MATERIALIZED_VIEW
Aus der materialisierten Ansicht <viewName>
kann nicht gestreamt werden. Das Streaming von materialisierten Sichten wird nicht unterstützt.
STREAMING_OUTPUT_MODE
Ungültiger Streamingausgabemodus: <outputMode>
.
Weitere Details finden Sie unter STREAMING_OUTPUT_MODE.
STREAMING_REAL_TIME_MODE
Der Streaming-Echtzeitmodus hat die folgende Einschränkung:
Weitere Details finden Sie unter STREAMING_REAL_TIME_MODE.
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
Der Name des Streamingstatusoperators stimmt nicht mit dem Operator in Zustandsmetadaten überein. Dies geschieht wahrscheinlich, wenn der Benutzer den zustandsbehafteten Operator einer vorhandenen Streamingabfrage hinzufügt/entfernt/ändert.
Zustandsbehaftete Operatoren in den Metadaten: [<OpsInMetadataSeq>
]; Zustandsbehaftete Operatoren im aktuellen Batch: [<OpsInCurBatchSeq>
].
STREAMING_TABLE_NEEDS_REFRESH
Die Streamingtabelle <tableName>
muss aktualisiert werden, um <operation>
auszuführen.
Wenn die Tabelle aus DBSQL
erstellt wird, führen Sie bitte REFRESH <st>
aus.
Wenn die Tabelle von einer Pipeline in Delta Live Tables erstellt wird, führen Sie bitte ein Pipelineupdate aus.
STREAMING_TABLE_NOT_SUPPORTED
Streamingtabellen können nur in Delta Live Tables und Databricks SQL Warehouses erstellt und aktualisiert werden.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
Der Vorgang <operation>
ist nicht zulässig:
Weitere Details finden Sie unter STREAMING_TABLE_OPERATION_NOT_ALLOWED.
STREAMING_TABLE_QUERY_INVALID
Streamingtabelle <tableName>
kann nur aus einer Streamingabfrage erstellt werden. Fügen Sie Ihrer FROM
-Klausel das Schlüsselwort STREAM
hinzu, um diese Beziehung in eine Streamingabfrage umzuwandeln.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Kinesis-Stream <streamName>
in <region>
nicht gefunden.
Beginnen Sie eine neue Abfrage, die auf den richtigen Streamnamen zeigt.
STRUCT_ARRAY_LENGTH_MISMATCH
Die Eingabezeile hat nicht die erwartete Anzahl von Werten, die für das Schema erforderlich sind. <expected>
Felder sind erforderlich, während <actual>
Werte bereitgestellt werden.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
Die Summe der LIMIT
-Klausel und der OFFSET
-Klausel darf nicht größer als der maximal zulässige ganzzahlige 32-Bit-Wert (2.147.483.647) sein, aber der gefundene Grenzwert = <limit>
. Offset = <offset>
.
SYNC_METADATA_DELTA_ONLY
Der Befehl "Tabellensynchronisierungsmetadaten reparieren" wird nur für die Delta-Tabelle unterstützt.
SYNC_SRC_TARGET_TBL_NOT_SAME
Der Name der Quelltabelle <srcTable>
muss mit dem Namen der Zieltabelle <destTable>
übereinstimmen.
SYNTAX_DISCONTINUED
Die Unterstützung der Klausel oder des Schlüsselworts <clause>
wurde in diesem Kontext eingestellt.
Weitere Details finden Sie unter SYNTAX_DISCONTINUED.
TABLE_OR_VIEW_ALREADY_EXISTS
Tabelle oder Ansicht <relationName>
kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Objekte zu tolerieren, die OR-REPLACE
-Klausel hinzuzufügen, um die vorhandene materialisierte Ansicht zu ersetzen, oder fügen Sie die OR-REFRESH
-Klausel hinzu, um die vorhandene Streamingtabelle zu aktualisieren.
TABLE_OR_VIEW_NOT_FOUND
Die Tabelle oder Ansicht <relationName>
kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Um den Fehler beim Löschen zu tolerieren, verwenden Sie DROP VIEW IF EXISTS
oder DROP TABLE IF EXISTS
.
Weitere Details finden Sie unter TABLE_OR_VIEW_NOT_FOUND.
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Die Aktion <action>
ist für die benutzerdefinierte SQL-Funktion <functionName>
mit TABLE
-Argumenten nicht möglich, weil diese Funktionalität noch nicht implementiert ist.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Fehler beim Analysieren der benutzerdefinierten Tabellenfunktion python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Fehler beim Auswerten der Tabellenfunktion <functionName>
, da die Tabellenmetadaten <requestedMetadata>
sind, aber der Funktionsaufruf <invalidFunctionCallProperty>
.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Fehler beim Auswerten der Tabellenfunktion <functionName>
, da die Tabellenmetadaten ungültig waren; <reason>
.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Es gibt zu viele Tabellenargumente für die Tabellenwertfunktion.
Ein Tabellenargument ist zulässig, sie enthielt jedoch Folgendes: <num>
.
Wenn Sie dies zulassen möchten, legen Sie "spark.sql.allowMultipleTableArguments.enabled" auf "true" fest.
TABLE_WITH_ID_NOT_FOUND
Tabelle mit ID <tableId>
kann nicht gefunden werden. Überprüfen Sie die Richtigkeit der UUID.
TASK_WRITE_FAILED
Aufgabenfehler beim Schreiben von Zeilen in <path>
.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Die temporäre Ansicht <relationName>
kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen, legen Sie die vorhandene Ansicht ab, oder ersetzen Sie die vorhandene Ansicht, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Ansichten zu tolerieren.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW
oder die entsprechenden Dataset-APIs akzeptieren nur einteilige Ansichtsnamen, erhielten aber: <actualName>
.
TRAILING_COMMA_IN_SELECT
Nachstehendes Komma in SELECT
-Klausel erkannt. Entfernen Sie das nachfolgende Komma vor der FROM
-Klausel.
TRIGGER_INTERVAL_INVALID
Das Triggerintervall muss eine positive Dauer sein, die in ganze Sekunden konvertiert werden kann. Empfangen: <actual>
Sekunden.
UC_BUCKETED_TABLES
Zusammengefasste Tabellen werden im Unity-Katalog nicht unterstützt.
UC_CATALOG_NAME_NOT_PROVIDED
Geben Sie für Unity-Katalog den Katalognamen explizit an. z. B. SHOW GRANT your.address@email.com ON CATALOG
Haupt.
UC_COMMAND_NOT_SUPPORTED
Die Befehle: <commandName>
werden im Unity-Katalog nicht unterstützt.
Weitere Details finden Sie unter UC_COMMAND_NOT_SUPPORTED.
UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS
Die Befehle: <commandName>
werden für Unity-Katalogcluster ohne Server nicht unterstützt. Verwenden Sie stattdessen Einzelbenutzercluster oder gemeinsam verwendete Cluster.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Die Befehle: <commandName>
werden für Unity-Katalogcluster im Modus für gemeinsam genutzten Zugriff nicht unterstützt. Verwenden Sie stattdessen den Einzelbenutzerzugriffsmodus.
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Die angegebene Anmeldeinformationsart wird nicht unterstützt.
UC_DATASOURCE_NOT_SUPPORTED
Das Datenquellenformat <dataSourceFormatName>
wird im Unity-Katalog nicht unterstützt.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Datenquellenoptionen werden im Unity-Katalog nicht unterstützt.
UC_EXTERNAL_VOLUME_MISSING_LOCATION
LOCATION
-Klausel muss für externes Volume vorhanden sein. Bitte überprüfen Sie die Syntax 'CREATE EXTERNAL VOLUME
... LOCATION
…’ zum Erstellen eines externen Volumes.
UC_FAILED_PROVISIONING_STATE
Fehler bei der Abfrage, da versucht wurde, auf tabelle <tableName>
zu verweisen, dies aber nicht möglich war: <failureReason>
. Aktualisieren Sie die Tabelle <tableName>
, um sicherzustellen, dass sie sich in einem aktiven Bereitstellungsstatus befindet, und wiederholen Sie dann die Abfrage erneut.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Das Erstellen einer Tabelle im Unity-Katalog mit dateischema <schemeName>
wird nicht unterstützt.
Erstellen Sie stattdessen eine Verbunddatenquellenverbindung mit dem Befehl CREATE CONNECTION
für denselben Tabellenanbieter, und erstellen Sie dann einen Katalog basierend auf der Verbindung mit einem CREATE FOREIGN CATALOG
-Befehl, um auf die darin enthaltenen Tabellen zu verweisen.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Die Hive Metastore Federationsansicht unterstützt keine Abhängigkeiten über mehrere Kataloge hinweg. Ansicht <view>
im Hive-Metastore-Verbundkatalog muss Abhängigkeiten aus dem hive_metastore- oder dem spark_catalog-Katalog verwenden, aber die Abhängigkeit <dependency>
befindet sich in einem anderen Katalog <referencedCatalog>
. Aktualisieren Sie die Abhängigkeiten, um diese Einschränkung zu erfüllen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Der Hive-Metastore-Partnerverbund ist für diesen Cluster nicht aktiviert.
Der Zugriff auf den Katalog <catalogName>
wird in diesem Cluster nicht unterstützt.
UC_INVALID_DEPENDENCIES
Abhängigkeiten von <viewName>
werden als <storedDeps>
aufgezeichnet, während sie als <parsedDeps>
geparst werden. Dies ist wahrscheinlich durch falsche Verwendung einer NICHT-SQL-API aufgetreten. Sie können Abhängigkeiten in Databricks Runtime reparieren, indem Sie ALTER VIEW <viewName>
AS <viewText>
ausführen.
UC_INVALID_NAMESPACE
Geschachtelte oder leere Namespaces werden im Unity-Katalog nicht unterstützt.
UC_INVALID_REFERENCE
Auf nichtUnity-Catalog Objekt <name>
kann in Unity Catalog-Objekten nicht verwiesen werden.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Die Unity Catalog Lakehouse Federation-Schreibunterstützung ist für den Anbieter <provider>
in diesem Cluster nicht aktiviert.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Das verwaltete Volume akzeptiert keine LOCATION
-Klausel. Bitte überprüfen Sie die Syntax 'CREATE VOLUME
...' zum Erstellen eines verwalteten Volumes.
UC_NOT_ENABLED
Unity-Katalog ist für diesen Cluster nicht aktiviert.
UC_QUERY_FEDERATION_NOT_ENABLED
Unity Catalog Query Federation ist für diesen Cluster nicht aktiviert.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
Dienstanmeldedaten sind für diesen Cluster nicht aktiviert.
UC_VOLUMES_NOT_ENABLED
Die Unterstützung für Unity-Katalogvolumes ist für diese Instanz nicht aktiviert.
UC_VOLUMES_SHARING_NOT_ENABLED
Die Unterstützung für Volume-Sharing ist für diese Instanz nicht aktiviert.
UC_VOLUME_NOT_FOUND
Volume <name>
existiert nicht. Verwenden Sie "SHOW VOLUMES
", um verfügbare Volumes auflisten zu können.
UDF_ENVIRONMENT_ERROR
Fehler beim Installieren von UDF-Abhängigkeiten für <udfName>
.
Weitere Details finden Sie unter UDF_ENVIRONMENT_ERROR.
UDF_ERROR
SQLSTATE: nicht zugewiesen
Fehler bei der Ausführung der Funktion <fn>
Weitere Details finden Sie unter UDF_ERROR
UDF_LIMITS
Mindestens ein UDF-Grenzwert wurde verletzt.
Weitere Informationen finden Sie unter UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Der abfrageweite UDF-Grenzwert von <maxNumUdfs>
UDFs wurde überschritten (während der öffentlichen Vorschau beschränkt). Es wurde <numUdfs>
gefunden. Die UDFs waren: <udfNames>
.
UDF_PYSPARK_ERROR
Python-Worker unerwartet beendet
Weitere Informationen finden Sie unter UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>
) wird auf Clustern im Shared Access-Modus nicht unterstützt.
UDF_PYSPARK_USER_CODE_ERROR
Fehler bei der Ausführung.
Weitere Details finden Sie unter UDF_PYSPARK_USER_CODE_ERROR.
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Der Parameterstandardwert wird für benutzerdefinierte <functionType>
-Funktion nicht unterstützt.
UDF_USER_CODE_ERROR
Fehler bei der Ausführung der Funktion <fn>
.
Weitere Informationen finden Sie unter UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
Die Anzahl der in der AS-Klausel angegebenen Aliase stimmt nicht mit der Anzahl der Spalten überein, die vom UDTF ausgegeben werden.
Es wurden <aliasesSize>
Aliase erwartet, aber <aliasesNames>
erhalten.
Stellen Sie sicher, dass die Anzahl der bereitgestellten Aliase mit der Anzahl der von der UDTF ausgegebenen Spalten übereinstimmt.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die 'analyze'-Methode einen angeforderten OrderColumn zurückgegeben hat, dessen Spaltennameausdruck einen unnötigen Alias <aliasName>
enthält; entfernen Sie diesen Alias, und versuchen Sie es dann erneut.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die "analyze"-Methode einen angeforderten "select"-Ausdruck (<expression>
) zurückgegeben hat, der keinen entsprechenden Alias enthält; Bitte aktualisieren Sie die UDTF, um dort einen Alias anzugeben, und versuchen Sie dann die Abfrage erneut.
UNABLE_TO_ACQUIRE_MEMORY
Fehler beim Abrufen von <requestedBytes>
Bytes aus dem Arbeitsspeicher, empfangen <receivedBytes>
.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Sql-Typ-<toType>
kann nicht in den Protobuf-Typ <protobufType>
konvertiert werden.
UNABLE_TO_FETCH_HIVE_TABLES
Das Abrufen von Tabellen der Hive-Datenbank ist nicht möglich: <dbName>
. Fehlerklassenname: <className>
.
UNABLE_TO_INFER_SCHEMA
Es war nicht möglich, das Schema für <format>
zu ermitteln. Sie muss manuell angegeben werden.
UNBEFUGTER_ZUGRIFF
Nicht autorisierter Zugriff:
<report>
UNBOUND_SQL_PARAMETER
Der ungebundene Parameter wurde gefunden: <name>
. Beheben Sie args
, und stellen Sie eine Zuordnung des Parameters zu einer SQL-Literal- oder Sammlungskonstruktorfunktionen wie map()
, array()
, struct()
bereit.
UNCLOSED_BRACKETED_COMMENT
Es wurde ein nicht eingeschlossener Kommentar in Klammern gefunden. Fügen Sie */am Ende des Kommentars an.
UNEXPECTED_INPUT_TYPE
Parameter <paramIndex>
funktion <functionName>
erfordert den typ <requiredType>
, <inputSql>
hat jedoch den Typ <inputType>
.
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
Der <namedParamKey>
Parameter der Funktion <functionName>
erfordert den <requiredType>
Typ, <inputSql>
jedoch den Typ <inputType>
hat.<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Unerwarteter Operator <op>
in der CREATE VIEW
-Anweisung als Streamingquelle.
Eine Streamingansichtsabfrage darf nur aus SELECT
, WHERE
und UNION ALL
Vorgängen bestehen.
UNEXPECTED_POSITIONAL_ARGUMENT
Routine <routineName>
kann nicht aufgerufen werden, weil sie positionelle Argumente enthält, die dem benannten Argument folgen, das <parameterName>
zugewiesen ist. Ordnen Sie sie neu an, sodass die positionellen Argumente am Anfang stehen, und wiederholen Sie dann die Abfrage.
UNEXPECTED_SERIALIZER_FOR_CLASS
Die Klasse <className>
verfügt über einen unerwarteten Expressionsserialisierer. Erwartet wurde „STRUCT
“ oder „IF
“ (gibt „STRUCT
“ zurück), gefunden wurde aber <expr>
.
UNKNOWN_FIELD_EXCEPTION
<changeType>
während dem Parsen von <unknownFieldBlob>
, was durch eine automatische Wiederholung behoben werden kann: <isRetryable>
Weitere Details finden Sie unter UNKNOWN_FIELD_EXCEPTION.
UNKNOWN_POSITIONAL_ARGUMENT
Der Aufruf von Routine-<routineName>
enthält ein unbekanntes Positionsargument <sqlExpr>
an Position <pos>
. Dies ist ungültig.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Unbekannter Grundtyp mit id <id>
wurde in einem Variant-Wert gefunden.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Es wurde versucht, <descriptorName>
als Nachricht zu behandeln, es war jedoch <containingType>
.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT
erfordert, dass alle angegebenen <given>
Ausdrücke Spalten sein müssen, wenn keine <empty>
Ausdrücke angegeben werden. Dies sind keine Spalten: [<expressions>
].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Mindestens eine Wertspalte muss für UNPIVOT
angegeben werden, während alle anderen Spalten als IDs angegeben werden.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
UNPIVOT-Wertspalten müssen mindestens einen allgemeinen Typ teilen, dies ist für einige Typen nicht der Fall: [<types>
].
UNPIVOT_VALUE_SIZE_MISMATCH
Alle UNPIVOT-Wertspalten müssen dieselbe Größe aufweisen wie Wertspaltennamen (<names>
).
UNRECOGNIZED_PARAMETER_NAME
Routine-<routineName>
kann nicht aufgerufen werden, da der Routineaufruf einen benannten Argumentverweis für das Argument namens <argumentName>
enthält, aber diese Routine enthält keine Signatur, die ein Argument mit diesem Namen enthält. Meinten Sie einen der folgenden Punkte? [<proposal>
].
UNRECOGNIZED_SQL_TYPE
Unbekannter SQL-Typ - Name: <typeName>
, ID: <jdbcType>
.
UNRECOGNIZED_STATISTIC
Die Statistik <stats>
wird nicht erkannt. Gültige Statistiken umfassen count
, count_distinct
, approx_count_distinct
, mean
, stddev
, min
, max
und Perzentilwerte. Perzentil muss ein numerischer Wert sein, gefolgt von '%', im Bereich von 0% bis 100%.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
<name>
konnte nicht in eine Tabellenwertfunktion aufgelöst werden.
Stellen Sie sicher, dass <name>
als Tabellenwertfunktion definiert ist und dass alle erforderlichen Parameter korrekt bereitgestellt werden.
Wenn <name>
nicht definiert ist, erstellen Sie die Tabellenwertfunktion, bevor Sie sie verwenden.
Weitere Informationen zum Definieren von Tabellenwertfunktionen finden Sie in der Apache Spark-Dokumentation.
UNRESOLVED_ALL_IN_GROUP_BY
Die Gruppierung von Spalten für GROUP BY ALL
kann nicht basierend auf der Auswahlklausel abgeleitet werden. Geben Sie die Gruppierungsspalten explizit an.
UNRESOLVED_COLUMN
Ein Spalten-, Variablen- oder Funktionsparameter mit dem Namen <objectName>
kann nicht aufgelöst werden.
Weitere Informationen finden Sie unter UNRESOLVED_COLUMN
UNRESOLVED_FIELD
Ein Feld mit dem Namen <fieldName>
kann nicht mit der Strukturspalte <columnPath>
aufgelöst werden.
Weitere Informationen finden Sie unter UNRESOLVED_FIELD
UNRESOLVED_MAP_KEY
Spalte <objectName>
kann nicht als Kartenschlüssel aufgelöst werden. Wenn der Schlüssel ein Zeichenfolgenliteral ist, schließen Sie ihn in einzelne Anführungszeichen (“)ein.
Weitere Details finden Sie unter UNRESOLVED_MAP_KEY.
UNRESOLVED_ROUTINE
Routine <routineName>
im Suchpfad <searchPath>
kann nicht aufgelöst werden.
Überprüfen Sie die Schreibweise von <routineName>
, überprüfen Sie, ob die Routine vorhanden ist, und bestätigen Sie, dass Sie über USE
Berechtigungen für den Katalog und das Schema verfügen, und EXECUTE
für die Routine.
Weitere Informationen finden Sie unter UNRESOLVED_ROUTINE
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING
-Spalte <colName>
kann nicht auf der <side>
-Seite des Join aufgelöst werden. Die <side>
-seitigen Spalten: [<suggestion>
].
UNRESOLVED_VARIABLE
Die Variable <variableName>
für suchpfad <searchPath>
kann nicht aufgelöst werden.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
Unstrukturiertes Dateiformat <format>
wird nicht unterstützt. Unterstützte Dateiformate sind <supportedFormats>
.
Aktualisieren Sie format
in Ihrem <expr>
-Ausdruck auf eines der unterstützten Formate, und wiederholen Sie dann die Abfrage erneut.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL
Das unstrukturierte Modell <model>
wird nicht unterstützt. Unterstützte Modelle sind <supportedModels>
.
Wechseln Sie zu einem der unterstützten Modelle, und wiederholen Sie dann die Abfrage erneut.
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
Der Funktionsparameter 'ocrText' muss 'NULL
' sein oder ausgelassen werden, wenn die Option 'metadataModel' angegeben wird. Eine angegebene 'metadataModel'-Option löst die Metadatenextraktion aus, wobei ein bereitgestellter "ocrText" verboten ist.
UNSUPPORTED_ADD_FILE
Unterstützen Sie das Hinzufügen von Dateien nicht.
Weitere Details finden Sie unter UNSUPPORTED_ADD_FILE.
UNSUPPORTED_ALTER_COLUMN_PARAMETER
Das Angeben von <parameter>
mit ALTER <commandTableType>
wird nicht unterstützt.
UNSUPPORTED_ARROWTYPE
Nicht unterstützter Pfeiltyp <typeName>
.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
Die Funktion <funcName>
unterstützt keine Batchabfragen.
UNSUPPORTED_CALL
Die Methode "<methodName>
" der Klasse "<className>
" kann nicht aufgerufen werden.
Weitere Details finden Sie unter UNSUPPORTED_CALL.
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
Der Zeichen-/Varchar-Typ kann nicht im Tabellenschema verwendet werden.
Wenn Spark diese als Zeichenfolgentyp wie Spark 3.0 und früher behandeln soll, legen Sie "spark.sql.legacy.charVarcharAsString" auf "true" fest.
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause>
wird für <operation>
nicht unterstützt.
UNSUPPORTED_COLLATION
Die <collationName>
-Sortierung wird nicht unterstützt für:
Weitere Details finden Sie unter UNSUPPORTED_COLLATION.
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
Der gemeinsame Vorgänger des Quellpfads und der sourceArchiveDir sollte bei UC registriert werden.
Wenn diese Fehlermeldung angezeigt wird, ist es wahrscheinlich, dass Sie den Quellpfad und den sourceArchiveDir an verschiedenen externen Speicherorten registrieren.
Platzieren Sie sie in einem einzigen externen Speicherort.
UNSUPPORTED_CONSTRAINT_CLAUSES
Einschränkungsklauseln <clauses>
werden nicht unterstützt.
UNSUPPORTED_CONSTRAINT_TYPE
Nicht unterstützter Einschränkungstyp. Nur <supportedConstraintTypes>
werden unterstützt
NICHT UNTERSTÜTZTE DATENQUELLE FÜR DIREKTABFRAGE
Nicht unterstützter Datenquellentyp für direkte Abfrage für Dateien: <dataSourceType>
Nicht unterstützter Datentyp
Nicht unterstützter Datentyp <typeName>
.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
Die Datenquelle "<source>
" kann nicht im <createMode>
Modus geschrieben werden. Verwenden Sie stattdessen den Modus "Anfügen" oder "Überschreiben".
NICHT_UNTERSTÜTZTER_DATENTYP_FÜR_DATENQUELLE
Die <format>
-Datenquelle unterstützt die Spalte <columnName>
des Typs <columnType>
nicht.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Encoder für <dataType>
kann nicht erstellt werden. Verwenden Sie einen anderen Ausgabedatentyp für Ihre UDF oder DataFrame.
UNSUPPORTED_DEFAULT_VALUE
DEFAULT
-Spaltenwerte werden nicht unterstützt.
Weitere Details finden Sie unter UNSUPPORTED_DEFAULT_VALUE.
UNSUPPORTED_DESERIALIZER
Der Deserializer wird nicht unterstützt:
Weitere Details finden Sie unter UNSUPPORTED_DESERIALIZER.
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Die generierte Spalte <fieldName>
mit Generierungsausdruck <expressionStr>
kann nicht erstellt werden, da <reason>
.
UNSUPPORTED_EXPR_FOR_OPERATOR
Ein Abfrageoperator enthält einen oder mehrere nicht unterstützte Ausdrücke.
Erwägen Sie, sie neu zu schreiben, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE
-Klausel zu vermeiden.
Ungültige Ausdrücke: [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
Ein Abfrageparameter enthält einen nicht unterstützten Ausdruck.
Parameter können Variablen oder Literale sein.
Ungültiger Ausdruck: [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
Ausdruck <sqlExpr>
wird in einer Fensterfunktion nicht unterstützt.
UNSUPPORTED_FEATURE
Das Feature wird nicht unterstützt:
Weitere Details finden Sie unter UNSUPPORTED_FEATURE.
UNSUPPORTED_FN_TYPE
Nicht unterstützter benutzerdefinierter Funktionstyp: <language>
UNSUPPORTED_GENERATOR
Der Generator wird nicht unterstützt:
Weitere Details finden Sie unter UNSUPPORTED_GENERATOR.
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() kann nur mit GroupingSets/Cube/Rollup verwendet werden.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger>
mit der initialen Position <initialPosition>
wird mit der Kinesis-Quelle nicht unterstützt
UNSUPPORTED_INSERT
Das Einfügen in das Ziel ist nicht möglich.
Weitere Details finden Sie unter UNSUPPORTED_INSERT.
UNSUPPORTED_JOIN_TYPE
Nicht unterstützter Verknüpfungstyp '<typ>
'. Unterstützte Verknüpfungstypen sind: <supported>
.
UNSUPPORTED_MANAGED_TABLE_CREATION
Das Erstellen einer verwalteten Tabelle <tableName>
mithilfe von Datenquellen <dataSource>
wird nicht unterstützt. Sie müssen Datenquellen-DELTA
verwenden oder eine externe Tabelle mit CREATE EXTERNAL TABLE <tableName>
erstellen ... USING <dataSource>
…
UNSUPPORTED_MERGE_CONDITION
Der MERGE
-Vorgang enthält eine nicht unterstützte <condName>
-Bedingung.
Weitere Details finden Sie unter UNSUPPORTED_MERGE_CONDITION.
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
Tabelle <tableName>
weist eine Sicherheitsrichtlinie oder Spaltenmaske auf Zeilenebene auf, die indirekt auf eine andere Tabelle mit einer Sicherheitsrichtlinie oder Spaltenmaske auf Zeilenebene verweist; dies wird nicht unterstützt. Anrufsequenz: <callSequence>
UNSUPPORTED_OVERWRITE
Das Ziel, aus dem ebenfalls gelesen wird, kann nicht überschrieben werden.
Weitere Details finden Sie unter UNSUPPORTED_OVERWRITE.
UNSUPPORTED_PARTITION_TRANSFORM
Nicht unterstützte Partitionstransformation: <transform>
. Die unterstützten Transformationen sind identity
, bucket
und clusterBy
. Stellen Sie sicher, dass ihr Transformationsausdruck eine dieser Ausdrücke verwendet.
UNSUPPORTED_SAVE_MODE
Der Speichermodus <saveMode>
wird für Folgendes nicht unterstützt:
Weitere Details finden Sie unter UNSUPPORTED_SAVE_MODE.
UNSUPPORTED_SHOW_CREATE_TABLE
Unterstützung für einen SHOW CREATE TABLE
-Befehl aufgehoben.
Weitere Details finden Sie unter UNSUPPORTED_SHOW_CREATE_TABLE.
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
Die Single-Pass-Analyse kann diese Abfrage oder diesen Befehl nicht verarbeiten, da sie <feature>
noch nicht unterstützt.
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
-Ausgabemodus wird für <statefulOperator>
beim Streamen von DataFrames/DataSets ohne Wasserzeichen nicht unterstützt.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Streaming einer Ansicht wird nicht unterstützt. Grund:
Weitere Details finden Sie unter UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW.
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Die Streamingoptionen <options>
werden für eine Datenquelle <source>
in einem freigegebenen Cluster nicht unterstützt. Vergewissern Sie sich, dass die Optionen richtig angegeben und richtig geschrieben sind, und überprüfen Siehttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode auf Einschränkungen.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
Die Datenquelle <sink>
wird nicht als Streamingsenke in einem freigegebenen Cluster unterstützt.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Datenquelle <source>
wird nicht als Streamingquelle auf einem freigegebenen Cluster unterstützt.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
Die Funktion <funcName>
unterstützt kein Streaming. Entfernen Sie das Schlüsselwort STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
wird mit der Kinesis-Quelle nicht unterstützt.
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Nicht unterstützter Unterabfrageausdruck:
Weitere Details finden Sie unter UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY.
UNSUPPORTED_TIMESERIES_COLUMNS
Das Erstellen eines Primärschlüssels mit Zeitserienspalten wird nicht unterstützt.
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Das Erstellen eines Primärschlüssels mit mehr als einer Zeitserienspalte <colSeq>
wird nicht unterstützt.
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
wird mit der Kinesis-Quelle nicht unterstützt.
UNSUPPORTED_TYPED_LITERAL
Literale des Typs <unsupportedType>
werden nicht unterstützt. Folgende Typen werden unterstützt: <supportedTypes>
.
UNSUPPORTED_UDF_FEATURE
Die Funktion <function>
verwendet die folgenden Features, die eine neuere Version der Databricks-Laufzeit erfordern: <features>
. Weitere Informationen finden Sie in <docLink>
.
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
UDF-Typen können nicht zusammen verwendet werden: <types>
UNTYPED_SCALA_UDF
Sie verwenden nicht typisierte Scala UDF, die keine Eingabetypinformationen enthält.
Spark kann ohne Tests NULL an den Scala-Funktionsabschluss über ein Argument mit einem primitiven Typ übergeben, und der Funktionsabschluss erkennt den Standardwert des Java-Typs für das NULL-Argument, z. B. udf((x: Int) => x, IntegerType)
, das Ergebnis ist für NULL-Eingaben 0. Um diesen Fehler zu entfernen, können Sie folgende Aktionen ausführen:
- verwenden Sie typierte Scala UDF-APIs(ohne Rückgabetypparameter), z. B.
udf((x: Int) => x)
. - Verwenden Sie Java-UDF-APIs, wie z. B.
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, wenn alle Eingabetypen nicht primitive sind. - legen Sie "spark.sql.legacy.allowUntypedScalaUDF" auf "true" fest, und verwenden Sie diese API vorsichtig.
UPGRADE_NOT_SUPPORTED
Die Tabelle ist nicht berechtigt, ein Upgrade von Hive Metastore auf den Unity-Katalog durchzuführen. Grund:
Weitere Details finden Sie unter UPGRADE_NOT_SUPPORTED.
BENUTZERDEFINIERTE_FUNKTIONS
Benutzerdefinierte Funktion ist ungültig:
Weitere Details finden Sie unter USER_DEFINED_FUNCTIONS.
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
Die raise_error()
-Funktion wurde zum Auslösen der Fehlerklasse verwendet: <errorClass>
, die Parameter erwartet: <expectedParms>
.
Die bereitgestellten Parameter <providedParms>
entsprechen nicht den erwarteten Parametern.
Stellen Sie sicher, dass Sie alle erwarteten Parameter angeben.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
Die raise_error()
-Funktion wurde verwendet, um eine unbekannte Fehlerklasse auszuheben: <errorClass>
VARIABLE_ALREADY_EXISTS
Die Variable <variableName>
kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, oder legen Sie die vorhandene Variable ab, oder ersetzen Sie sie.
VARIABLE_NOT_FOUND
Die Variable <variableName>
wurde nicht gefunden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP VARIABLE IF EXISTS
.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Es kann kein Variant-Wert erstellt werden, der größer als 16 MiB ist. Die maximal zulässige Größe eines Variant-Werts beträgt 16 MiB.
VARIANT_DUPLICATE_KEY
Fehler beim Erstellen der Variante aufgrund eines doppelten Objektschlüssels <key>
.
VARIANT_SIZE_LIMIT
Es kann keine Variante erstellt werden, die größer als <sizeLimit>
in <functionName>
ist.
Vermeiden Sie große Eingabezeichenfolgen für diesen Ausdruck (z. B. fügen Sie Funktionsaufrufe hinzu, um die Größe des Ausdrucks zu überprüfen und sie zuerst in NULL
zu konvertieren, wenn sie zu groß ist).
VIEW_ALREADY_EXISTS
Die Ansicht <relationName>
kann nicht erstellt werden, da sie bereits existiert.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.
VIEW_EXCEED_MAX_NESTED_DEPTH
Die Tiefe der Ansicht <viewName>
überschreitet die maximale Auflösungstiefe (<maxNestedDepth>
).
Die Analyse wird abgebrochen, um Fehler zu vermeiden. Wenn Sie dies umgehen möchten, versuchen Sie, den Wert von "spark.sql.view.maxNestedViewDepth" zu erhöhen.
VIEW_NOT_FOUND
Die Ansicht <relationName>
kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP VIEW IF EXISTS
.
VOLUME_ALREADY_EXISTS
Volume-<relationName>
kann nicht erstellt werden, da es bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.
WINDOW_FUNCTION_AND_FRAME_MISMATCH
Die Funktion <funcName>
kann nur in einem sortierten zeilenbasierten Fensterrahmen mit einem einzigen Offset ausgewertet werden: <windowExpr>
.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Für die Fensterfunktion <funcName>
ist eine OVER-Klausel erforderlich.
WITH_CREDENTIAL
WITH CREDENTIAL
Syntax wird für <type>
nicht unterstützt.
WRITE_STREAM_NOT_ALLOWED
writeStream
kann nur für ein Streaming-Dataset/DataFrame aufgerufen werden.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Fehler beim Ausführen des Befehls, da DEFAULT
-Werte beim Hinzufügen neuer Elemente nicht unterstützt werden.
Spalten zu bereits vorhandenen Delta-Tabellen nicht unterstützt werden. Fügen Sie die Spalte zunächst ohne Standardwert
und führen Sie dann stattdessen einen zweiten ALTER TABLE ALTER COLUMN SET DEFAULT
-Befehl aus, um
an zukünftige eingefügte Zeilen anzufügen.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Fehler beim Ausführen des Befehls <commandType>
, da ihm ein DEFAULT
-Wert zugewiesen wurde,
die entsprechende Tabellenfunktion wurde jedoch nicht aktiviert. Wiederholen Sie den Befehl erneut.
nach Ausführung von ALTER TABLE
tableName SET
TBLPROPERTIES
(‘delta.feature.allowColumnDefaults’ = ‘supported’).
WRONG_COMMAND_FOR_OBJECT_TYPE
Für den Vorgang <operation>
ist ein <requiredType>
erforderlich. Aber <objectName>
ist ein <foundType>
. Verwenden Sie stattdessen <alternative>
.
WRONG_NUM_ARGS
Der <functionName>
erfordert <expectedNum>
Parameter, aber die tatsächliche Anzahl ist <actualNum>
.
Weitere Details finden Sie unter WRONG_NUM_ARGS.
XML_ROW_TAG_MISSING
<rowTag>
Option ist zum Lesen von Dateien im XML-Format erforderlich.
XML_UNSUPPORTED_NESTED_TYPES
XML unterstützt <innerDataType>
nicht als inneren Typ von <dataType>
. Umschließen Sie den <innerDataType>
innerhalb eines StructType-Felds, wenn Sie ihn in <dataType>
verwenden.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Wiederhergestellte Daten und Platzhalterspalten können nicht gleichzeitig aktiviert werden. Entfernen Sie die wildcardColumnName-Option.
ZORDERBY_COLUMN_DOES_NOT_EXIST
Die Spalte "ZOrderBy" <columnName>
ist nicht vorhanden.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Aktive SparkSession konnte nicht gefunden werden
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Neue Transaktion kann nicht als aktiv festgelegt werden, wenn bereits eine aktiv ist
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Fehler beim Hinzufügen von Spalte <colName>
, da der Name reserviert ist.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
Der aktuelle Vorgang hat versucht, einer Tabelle einen Löschvektor hinzuzufügen, der die Erstellung neuer Löschvektoren nicht zulässt. Bitte geben Sie einen Fehlerbericht an.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Alle Vorgänge, die Löschvektoren hinzufügen, sollten die "tightBounds"-Spalte in Statistiken auf "false" festlegen. Bitte geben Sie einen Fehlerbericht an.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
"Der Index <columnIndex>
zum Hinzufügen der Spalte <columnName>
ist kleiner als 0"
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
<columnName>
kann nicht hinzugefügt werden, da das übergeordnete Element kein StructType ist. <other>
gefunden
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Struktur an Position <position>
nicht gefunden
DELTA_ADD_CONSTRAINTS
Verwenden Sie ALTER TABLE
ADD CONSTRAINT
, um CHECK
-Einschränkungen hinzuzufügen.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Es wurde <sqlExpr>
gefunden. Eine generierte Spalte kann keinen Aggregatausdruck verwenden.
DELTA_AGGREGATION_NICHT_UNTERSTÜTZT
Aggregatfunktionen werden in der <operation> <predicate>
nicht unterstützt.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Fehler beim Ändern der Sortierung der Spalte <column>
, da sie einen Bloom-Filterindex enthält. Bitte behalten Sie entweder die vorhandene Sortierung bei, oder legen Sie den Bloom-Filterindex ab, und wiederholen Sie dann den Befehl erneut, um die Sortierung zu ändern.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Fehler beim Ändern der Sortierung der Spalte <column>
, da es sich um eine Clusteringspalte handelt. Bitte behalten Sie entweder die vorhandene Sortierung bei, oder ändern Sie die Spalte in eine Spalte ohne Clustering mit einem ALTER TABLE
Befehl, und wiederholen Sie dann den Befehl erneut, um die Sortierung zu ändern.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN
wird für das Ändern von Spalten-<currentType>
in <newType>
nicht unterstützt.
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY
wird nur für die Delta-Tabelle mit Liquid Clustering unterstützt.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY
kann nicht auf eine partitionierte Tabelle angewendet werden.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Vorgang nicht zulässig: ALTER TABLE RENAME
TO ist für verwaltete Delta-Tabellen auf S3 nicht zulässig, da die schlussendliche Konsistenz in S3 das Delta-Transaktionsprotokoll beschädigen kann. Wenn Sie darauf bestehen und sicher sind, dass noch nie eine Delta-Tabelle mit dem neuen Namen <newName>
vorhanden ist, können Sie dies aktivieren, indem Sie <key>
auf "true" festlegen.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Das <tableFeature>
-Tabellenfeature kann nicht mit ALTER TABLE SET TBLPROPERTIES
aktiviert werden. Verwenden Sie CREATE
ODER REPLACE TABLE CLUSTER BY
, um eine Delta-Tabelle mit Clustering zu erstellen.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Der Datentyp der <column>
kann von <from>
in <to>
nicht geändert werden. Diese Änderung enthält Spaltenentfernungen und Ergänzungen, daher sind sie mehrdeutig. Bitte nehmen Sie diese Änderungen einzeln mit ALTER TABLE
[ADD | DROP | RENAME
] COLUMN
vor.
DELTA_AMBIGUOUS_PARTITION_COLUMN
Die mehrdeutige Partitionsspalte <column>
kann <colMatches>
sein.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE
enthält zwei verschiedene Speicherorte: <identifier>
und <location>
.
Sie können die LOCATION
-Klausel aus der CREATE TABLE
-Anweisung entfernen oder Folgendes festlegen
<config>
auf TRUE festlegen, um diese Überprüfung zu überspringen.
DELTA_ARCHIVED_FILES_IN_LIMIT
Tabelle <table>
enthält nicht genügend Datensätze in nicht archivierten Dateien, um das angegebene LIMIT
von <limit>
Datensätzen zu erfüllen.
DELTA_ARCHIVED_FILES_IN_SCAN
Es wurden <numArchivedFiles>
potenziell archivierte Dateien in der Tabelle <table>
gefunden, die im Rahmen dieser Abfrage gescannt werden müssen.
Auf archivierte Dateien kann nicht zugegriffen werden. Die aktuelle Zeit, bis die Archivierung als <archivalTime>
konfiguriert ist.
Passen Sie Die Abfragefilter an, um archivierte Dateien auszuschließen.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
Operation „<opName>
“ ist nicht zulässig, wenn die Tabelle den Change Data Feed (CDF) aktiviert hat und das Schema mithilfe von DROP COLUMN
oder RENAME COLUMN
verändert wurde.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Bloom-Filterindizes für die folgenden nicht vorhandenen Spalten können nicht gelöscht werden: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError ist beim Schreiben von Bloom-Filterindizes für die folgenden Spalten aufgetreten: <columnsWithBloomFilterIndices>
.
Sie können den Speicherbedarf von Bloom-Filterindizes reduzieren, indem Sie einen kleineren Wert für die Option "numItems", einen größeren Wert für die Option "fpp" auswählen oder weniger Spalten indizieren.
DELTA_CANNOT_CHANGE_DATA_TYPE
Datentyp kann nicht geändert werden: <dataType>
DELTA_KANN_STANDORT_NICHT_ÄNDERN
Die Position der Delta-Tabelle kann nicht mithilfe von SET TBLPROPERTIES
geändert werden. Verwenden Sie stattdessen ALTER TABLE SET LOCATION
.
DELTA_KANN_ANBIETER_NICHT_WECHSELN
"provider" ist eine reservierte Tabelleneigenschaft und kann nicht geändert werden.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Bloom-Filterindizes für die folgenden nicht vorhandenen Spalten können nicht erstellt werden: <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
<path>
kann nicht erstellt werden
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Der Verlauf einer Sicht kann nicht beschrieben werden.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Der Bloom-Filterindex kann in einer nicht indizierten Spalte nicht entfernt werden: <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Die CHECK
-Einschränkungstabellenfunktion kann nicht getrennt werden.
Die folgenden Einschränkungen müssen zuerst gelöscht werden: <constraints>
.
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
Die Sortierungstabellenfunktion kann nicht getrennt werden.
Spalten mit nicht standardmäßigen Kollationen müssen zuerst auf die Verwendung von UTF8_BINARY geändert werden: <colNames>
.
DELTA_CANNOT_EVALUATE_EXPRESSION
Ausdruck kann nicht ausgewertet werden: <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
Es wird eine Delta-Buckettabelle erwartet, aber die Bucketspezifikation kann in der Tabelle nicht gefunden werden.
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Code für Ausdruck <expression>
kann nicht generiert werden
DELTA_CANNOT_MODIFY_APPEND_ONLY
Diese Tabelle ist so konfiguriert, dass nur Anfüge zulässig sind. Wenn Sie Aktualisierungen oder Löschungen zulassen möchten, verwenden Sie "ALTER TABLE
<table_name>SET TBLPROPERTIES (<config>
=false)".
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
kann die Eigenschaften der In-Commit-Zeitstempeltabelle nicht außer Kraft setzen oder löschen, da koordinierte Commits in dieser Tabelle aktiviert und von diesen abhängig sind. Entfernen Sie sie ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") aus der TBLPROPERTIES
-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Die Konfiguration der Delta-Tabelle <prop>
kann vom Benutzer nicht angegeben werden.
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
kann die Konfigurationen für koordinierte Commits in einer vorhandenen Zieltabelle nicht außer Kraft setzen. Entfernen Sie sie (“delta.coordinatedCommits.commitCoordinator-preview”, “delta.coordinatedCommits.commitCoordinatorConf-preview”, “delta.coordinatedCommits.tableConf-preview”) aus der TBLPROPERTIES
-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Ein URI (<uri>
), der nicht in einen relativen Pfad umgewandelt werden kann, wurde im Transaktionsprotokoll gefunden.
DELTA_CANNOT_RELATIVIZE_PATH
Ein Pfad (<path>
), der nicht mit der aktuellen Eingabe relativiert werden kann, wurde gefunden im
Transaktionsprotokoll. Führen Sie dies wie folgt erneut aus:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<userPath>
”, true)
Führen Sie dann auch Folgendes aus:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<path>
”)
DELTA_CANNOT_RENAME_PATH
<currentPath>
kann nicht in <newPath>
umbenannt werden.
DELTA_CANNOT_REPLACE_MISSING_TABLE
Tabelle <tableName>
kann nicht ersetzt werden, da sie nicht vorhanden ist. Verwenden Sie CREATE
ODER-REPLACE TABLE
, um die Tabelle zu erstellen.
DELTA_CANNOT_RESOLVE_COLUMN
Die Spalte <columnName>
kann nicht in <schema>
aufgelöst werden
DELTA_CANNOT_RESTORE_TABLE_VERSION
Die Tabelle kann nicht in version <version>
wiederhergestellt werden. Verfügbare Versionen: [<startVersion>
, <endVersion>
].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Die Tabelle kann nicht auf den Zeitstempel (<requestedTimestamp>
) wiederhergestellt werden, da er vor der frühesten verfügbaren Version liegt. Bitte verwenden Sie einen Zeitstempel nach (<earliestTimestamp>
)
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Die Tabelle kann nicht auf den Zeitstempel (<requestedTimestamp>
) wiederhergestellt werden, da dieser nach der neuesten verfügbaren Version liegt. Bitte verwenden Sie vor (<latestTimestamp>
) einen Zeitstempel.
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
kann keine Eigenschaften der In-Commit-Zeitstempeltabelle zusammen mit koordinierten Commits festlegen, da letztere von ersteren abhängen und erstere intern festlegen. Entfernen Sie sie ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") aus der TBLPROPERTIES
-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Die Position einer pfadbasierten Tabelle kann nicht geändert werden.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
„Delta.managedDataSkippingStatsColumns“ kann nur für DLT-Tabellen festgelegt werden.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
Wenn "unity-catalog" als Commit-Koordinator aktiviert wird, kann die Konfiguration "<configuration>
" nicht über den Befehl festgelegt werden. Entfernen Sie ihn aus der TBLPROPERTIES
-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
Wenn "unity-catalog" als Commit-Koordinator aktiviert wird, kann die Konfiguration "<configuration>
" nicht aus den SparkSession-Konfigurationen festgelegt werden. Löschen Sie sie, indem Sie spark.conf.unset("<configuration>")
ausführen, und wiederholen Sie dann den Befehl.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER
kann Koordinationseinstellungen für Commits nicht aufheben. Wenn Sie eine Tabelle von koordinierten Commits herabstufen möchten, versuchen Sie es erneut mit ALTER
TABLE [table-name] ``DROP FEATURE`` ‘coordinatedCommits-preview’
.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Feld %1$s vom Typ %2$s kann nicht aktualisiert werden: Aktualisieren Sie das Element durch Aktualisieren von %2$s.element
DELTA_CANNOT_UPDATE_MAP_FIELD
Feld %1$s vom Typ %2$s kann nicht aktualisiert werden: Aktualisieren Sie die Zuordnung durch Aktualisieren von %2$s.key oder %2$s.value
DELTA_KANN_ANDERE_FELDER_NICHT_AKTUALISIEREN
Das Feld <tableName>
vom Typ <typeName>
kann nicht aktualisiert werden.
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Das Feld <tableName>
vom Typ <fieldName>
kann nicht aktualisiert werden: Aktualisieren Sie die Struktur durch Hinzufügen, Löschen oder Aktualisieren ihrer Felder
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Nicht alle Spalten können als Partitionsspalten verwendet werden.
DELTA_CANNOT_VACUUM_LITE
VACUUM
LITE kann nicht alle berechtigten Dateien löschen, da einige Dateien nicht im Delta-Protokoll referenziert sind. Führen Sie VACUUM FULL
aus.
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
ist eine Ansicht. Schreibvorgänge in eine Ansicht werden nicht unterstützt.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Fehler beim Schreiben eines Werts vom Typ <sourceType>
in die Spalte <columnName>
vom Typ <targetType>
aufgrund eines Überlaufs.
Verwenden Sie try_cast
für den Eingabewert, um Überlauf zu tolerieren und stattdessen NULL
zurückzugeben.
Legen Sie bei Bedarf <storeAssignmentPolicyFlag>
auf "LEGACY
" fest, um diesen Fehler zu umgehen, oder legen Sie <updateAndMergeCastingFollowsAnsiEnabledFlag>
auf "true" fest, um auf das alte Verhalten zurückzukehren und <ansiEnabledFlag>
in UPDATE
und MERGE
zu folgen.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Configuration delta.enableChangeDataFeed kann nicht festgelegt werden. Der Änderungsdatenfeed von Delta ist noch nicht verfügbar.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Fehler beim Abrufen von Tabellenänderungen zwischen Version <start>
und <end>
aufgrund eines inkompatiblen Datenschemas.
Ihr Leseschema ist bei Version <readVersion>
<readSchema>
, aber wir haben ein inkompatibles Datenschema bei Version <incompatibleVersion>
gefunden.
Wenn möglich, rufen Sie die Tabellenänderungen mithilfe des Schemas der Endversion ab, indem Sie <config>
auf endVersion
festlegen oder sich an den Support wenden.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Fehler beim Abrufen von Tabellenänderungen zwischen Version <start>
und <end>
aufgrund einer inkompatiblen Schemaänderung.
Ihr Leseschema ist bei Version <readVersion>
<readSchema>
, aber wir haben eine inkompatible Schemaänderung bei version <incompatibleVersion>
gefunden.
Wenn möglich, fragen Sie die Tabellenänderungen separat von Version <start>
bis <incompatibleVersion>
- 1 und von Version <incompatibleVersion>
bis <end>
ab.
Delta-Änderungsdatendatei nicht gefunden
Datei <filePath>
, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies kann auftreten, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE
Anweisung zu verwenden. Diese Anforderung scheint auf den Änderungsdaten-Feed ausgerichtet zu sein. Falls dies der Fall ist, kann dieser Fehler auftreten, wenn sich die Änderungsdatendatei außerhalb des Aufbewahrungszeitraums befindet und durch die VACUUM
statement gelöscht wurde. Weitere Informationen finden Sie unter <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
Es kann nicht in die Tabelle geschrieben werden, wenn delta.enableChangeDataFeed gesetzt ist. Der Änderungsdatenfeed von Delta ist nicht verfügbar.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Eine nicht vorhandene Tabelle <path>
kann keine Überprüfung haben. Haben Sie Dateien im verzeichnis _delta_log manuell gelöscht?
DELTA_CLONE_AMBIGUOUS_TARGET
Es wurden zwei Pfade als CLONE
-Ziel bereitgestellt, sodass nicht eindeutig ist, welcher verwendet werden soll. Ein externer
Speicherort für CLONE
wurde bei <externalLocation>
gleichzeitig mit dem Pfad bereitgestellt
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
Datei (<fileName>
) nicht vollständig kopiert. Erwartete Dateigröße: <expectedSize>
, gefunden: <actualSize>
. Wenn Sie den Vorgang fortsetzen möchten, indem Sie die Dateigrößenüberprüfung ignorieren, legen Sie <config>
auf "false" fest.
DELTA_CLONE_UNSUPPORTED_SOURCE
Nicht unterstützte <mode>
-Klonquelle „<name>
“, deren Format <format>
ist.
Die unterstützten Formate sind "Delta", "Eisberg" und "Parkett".
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE
wird für die Delta-Tabelle mit Liquid Clustering für DBR-Version < 14.0 nicht unterstützt.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY
wird nicht unterstützt, da die folgenden Spalten das Überspringen von Daten nicht unterstützen: <columnsWithDataTypes>
.
DELTA_CLUSTERING_COLUMNS_MISMATCH
Die bereitgestellten Clustering-Spalten stimmen nicht mit denen der vorhandenen Tabelle überein.
- Bereitgestellt:
<providedClusteringColumns>
- Vorhanden:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Für flüssiges Clustering sind Clusterspalten erforderlich, um Statistiken zu erhalten. Die Clusterspalten "<columns>
" im Statistikschema konnten nicht gefunden werden:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Das Erstellen einer externen Tabelle ohne Flüssigclustering aus einem Tabellenverzeichnis mit Flüssigclustering ist nicht zulässig; Pfad: <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>
' unterstützt keine Clustering.
DELTA_CLUSTERING_PHASE_OUT_FAILED
<phaseOutType>
konnte für die Tabelle mit der <tableFeatureToAdd>
-Tabellenfunktion nicht abgeschlossen werden (Grund: <reason>
). Versuchen Sie es erneut mit dem Befehl OPTIMIZE
.
== Fehler ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE
Eine Delta-Tabelle mit Liquid Clustering in Kombination mit einer partitionierten Tabelle ist nicht zulässig.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE
wird für die Delta-Tabelle mit Liquid Clustering ohne Clusteringspalten nicht unterstützt.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
Der Übergang einer Delta-Tabelle mit liquidem Clustering zu einer partitionierten Tabelle ist für den Vorgang nicht zulässig: <operation>
, wenn die vorhandene Tabelle nicht leere Clusterspalten enthält.
Führen Sie ALTER TABLE CLUSTER BY
NONE aus, um zuerst die Clusteringspalten zu entfernen.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Der Überschreibmodus für dynamische Partitionen ist für die Delta-Tabelle mit Liquid Clustering nicht zulässig.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE
Befehl für die Delta-Tabelle mit Liquid Clustering unterstützt keine Partitionsprädikate. Entfernen Sie bitte die Prädikate: <predicates>
.
DELTA_CLUSTERING_WITH_ZORDER_BY
OPTIMIZE
-Befehl für Delta-Tabelle mit Liquid-Clustering kann ZORDER BY
nicht angeben. Entfernen Sie ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY
für Liquid-Clustering unterstützt bis zu <numColumnsLimit>
Clusteringspalten, aber die Tabelle enthält <actualNumColumns>
Clusteringspalten. Entfernen Sie die überzähligen Clusteringspalten.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Es ist nicht zulässig, CLUSTER BY
anzugeben, wenn das Schema nicht definiert ist. Bitte definieren Sie das Schema für tabellen <tableName>
.
DELTA_CLUSTER_BY_WITH_BUCKETING
Clustering und Bucketing können nicht gleichzeitig angegeben werden. Entfernen Sie CLUSTERED BY INTO BUCKETS
/bucketBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Clustering und Partitionierung können nicht beide angegeben werden. Entfernen Sie PARTITIONED BY
/ partitionBy / partitionedBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.
DELTA_COLLATIONS_NOT_SUPPORTED
Sortierungen werden im Delta Lake nicht unterstützt.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Das Überspringen von Daten wird für die Partitionsspalte <column>
nicht unterstützt.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Das Überspringen von Daten wird für die Spalte <column>
mit Typ <type>
nicht unterstützt.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
Die Eigenschaft für die maximale Spalten-ID (<prop>
) ist bei einer Tabelle mit aktivierter Spaltenzuordnung nicht festgelegt.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
Die Eigenschaft für die maximale Spalten-ID (<prop>
) für eine aktivierte Spaltenzuordnung ist <tableMax>
, die nicht kleiner als die maximale Spalten-ID für alle Felder (<fieldMax>
) sein kann.
DELTA_COLUMN_MISSING_DATA_TYPE
Der Datentyp der Spalte <colName>
wurde nicht bereitgestellt.
DELTA_COLUMN_NOT_FOUND
Die Spalte <columnName>
konnte mit der Angabe [<columnList>
] nicht gefunden werden
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Die Spalte '<targetCol>
' der Zieltabelle aus den INSERT
Spalten kann nicht gefunden werden: <colNames>
. INSERT
Klausel muss den Wert für alle Spalten der Zieltabelle angeben.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Spalte <columnName>
konnte nicht gefunden werden in:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Es wurde erwartet, dass <columnPath>
ein geschachtelter Datentyp sein sollte, aber <other>
wurde gefunden. Es wurde nach dem
Index von <column>
in einem geschachtelten Feld.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
Strukturspalte <source>
kann nicht in ein <targetType>
-Feld <targetField>
in <targetTable>
eingefügt werden.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
Der Commit einer Tabelle kann im Umleitungstabellenzustand „<state>
“ nicht bearbeitet werden.
DELTA_COMPACTION_VALIDATION_FAILED
Fehler bei der Überprüfung der Komprimierung des Pfads <compactedPath>
zu <newPath>
: Bitte geben Sie einen Fehlerbericht ein.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Geschachtelter NullType in Spalte <columName>
vom Typ <dataType>
gefunden. Delta unterstützt das Schreiben von NullType in komplexen Typen nicht.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Dateien wurden durch ein gleichzeitiges Update zu <partition>
hinzugefügt. <retryMsg> <conflictingCommit>
Weitere Informationen finden Sie unter <docLink>
.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: Diese Transaktion hat versucht, eine oder mehrere Dateien zu löschen, die durch ein gleichzeitiges Update gelöscht wurden (z. B. <file>
). Versuchen Sie es erneut.<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>
.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: Diese Transaktion hat versucht, eine oder mehrere Dateien zu lesen, die durch eine gleichzeitige Aktualisierung gelöscht wurden (z. B. <file>
). Versuchen Sie es erneut.<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>
.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: Dieser Fehler tritt auf, wenn mehrere Streamingabfragen denselben Prüfpunkt verwenden, um in diese Tabelle zu schreiben. Haben Sie mehrere Instanzen derselben Streamingabfrage gleichzeitig ausgeführt?<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>
.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: Eine gleichzeitige Transaktion hat neue Daten geschrieben, seit die aktuelle Transaktion die Tabelle gelesen hat. Versuchen Sie es erneut.<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>
.
DELTA_CONFLICT_SET_COLUMN
Es besteht ein Konflikt zwischen diesen SET
-Spalten: <columnList>
.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Während <command>
kann die Konfiguration "<configuration>
" nicht über den Befehl festgelegt werden. Entfernen Sie ihn aus der TBLPROPERTIES
-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Während <command>
kann die Konfiguration "<configuration>
" nicht aus den SparkSession-Konfigurationen festgelegt werden. Bitte setzen Sie es zurück, indem Sie spark.conf.unset("<configuration>")
ausführen, und versuchen Sie dann den Befehl erneut.
DELTA_EINSCHRÄNKUNG_EXISTIERT_BEREITS
Die Einschränkung '<constraintName>
' ist bereits vorhanden. Löschen Sie zuerst die alte Einschränkung.
Alte Einschränkung:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
Spalte <columnName>
weist den Datentyp <columnType>
auf und kann nicht auf den Datentyp <dataType>
geändert werden, da auf diese Spalte durch die folgenden Prüfeinschränkungen verwiesen wird:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Spalte <columnName>
kann nicht geändert werden, da auf diese Spalte durch die folgenden Einschränkungen verwiesen wird:
<constraints>
DELTA_EINSCHRÄNKUNG_EXISTIERT_NICHT
Die nicht vorhandene Einschränkung <constraintName>
kann nicht aus der Tabelle <tableName>
entfernt werden. Um einen Fehler zu vermeiden, geben Sie den Parameter IF EXISTS
an, oder legen Sie die SQL-Sitzungskonfiguration <config>
auf <confValue>
fest.
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
Die Konvertierung der beim Lesen zusammengeführten Tabelle <format>
wird nicht unterstützt: <path>
, <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
Es wurden keine Partitionsinformationen im Katalog für die Tabelle <tableName>
gefunden. Haben Sie "MSCK REPAIR TABLE
" auf Ihrer Tabelle ausgeführt, um Partitionen zu ermitteln?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Parquet-Tabelle mit sortierter Partitionsspalte <colName>
kann nicht in Delta umgewandelt werden.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
Die Konfiguration '<config>
' kann nicht auf <mode>
festgelegt werden, wenn sie CONVERT
TO DELTA
verwenden.
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
Nicht unterstützte Schemaänderungen gefunden: <path>
, <hint>
für Tabelle <format>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT
TO DELTA
unterstützt nur Parquet-Tabellen. Sie versuchen jedoch, eine <sourceName>
-Quelle zu konvertieren: <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Zeilenverfolgung kann nicht aktiviert werden, ohne Statistiken zu sammeln.
Wenn Sie die Zeilenverfolgung aktivieren möchten, gehen Sie wie folgt vor:
- Aktivieren der Statistiksammlung durch Ausführen des Befehls
SET <statisticsCollectionPropertyKey>
= wahr
- Führen Sie
CONVERT
TODELTA
ohne die Option "NOSTATISTICS
" aus.
Wenn Sie keine Statistiken sammeln möchten, deaktivieren Sie die Zeilenverfolgung:
- Deaktivieren Sie das Aktivieren des Tabellenfeatures standardmäßig, indem Sie den Befehl ausführen:
RESET <rowTrackingTableFeatureDefaultKey>
- Deaktivieren Sie die Tabelleneigenschaft standardmäßig, indem Sie Folgendes ausführen:
SET <rowTrackingDefaultPropertyKey>
= falsch
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO
Ziel muss eine Delta-Tabelle sein.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Sie versuchen, eine externe Tabelle <tableName>
mit Delta aus <path>
zu erstellen, aber das Schema wird nicht angegeben, wenn der
Der Eingabepfad ist leer.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Sie versuchen eine externe Tabelle <tableName>
zu erstellen
mit Delta aus %2$s
zu erstellen, aber es gibt kein Transaktionsprotokoll in
%2$s/_delta_log
. Überprüfen Sie den Upstreamauftrag, um sicherzustellen, dass er mithilfe des
format("delta") und dass der Pfad der Stamm der Tabelle ist.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Das Erstellen einer pfadbasierten Delta-Tabelle mit einem anderen Speicherort wird nicht unterstützt. Bezeichner: <identifier>
, Ort: <location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
Der Tabellenname oder -speicherort muss angegeben werden.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Das angegebene Schema stimmt nicht mit dem vorhandenen Schema bei <path>
überein.
== Angegeben ==
<specifiedSchema>
== Bestehendes ==
<existingSchema>
== Unterschiede ==
<schemaDifferences>
Wenn Sie das vorhandene Schema beibehalten möchten, können Sie es weglassen.
Schema aus dem "CREATE TABLE"-Befehl. Stellen Sie andernfalls sicher, dass
Das Schema passt.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Das <tableFeature>
-Tabellenfeature kann nicht mit TBLPROPERTIES
aktiviert werden. Verwenden Sie CREATE
ODER REPLACE TABLE CLUSTER BY
, um eine Delta-Tabelle mit Clustering zu erstellen.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
Die angegebenen Clusterspalten stimmen nicht mit den vorhandenen Clusterspalten bei <path>
überein.
== Angegeben ==
<specifiedColumns>
== Bestehendes ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
Die angegebene Partitionierung stimmt nicht mit der vorhandenen Partitionierung bei <path>
überein.
== Spezifiziert ==
<specifiedColumns>
== Bestehendes ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
Die angegebenen Eigenschaften stimmen nicht mit den vorhandenen Eigenschaften bei <path>
überein.
== Angegeben ==
<specifiedProperties>
== Bestehendes ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Tabelle kann nicht erstellt werden ('<tableId>
'). Der zugeordnete Speicherort ('<tableLocation>
') ist nicht leer und auch keine Delta-Tabelle.
DELTA_DATA_CHANGE_FALSE
Tabellenmetadaten können nicht geändert werden, da die Option "dataChange" auf "false" festgelegt ist. Versuchter Vorgang: „<op>
“.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Datei <filePath>
, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Diese Parquet-Datei kann nach der Datenaufbewahrungsrichtlinie von Delta gelöscht werden.
Standardmäßige Aufbewahrungsdauer für Delta-Daten: <logRetentionPeriod>
. Änderungszeit der Parquet-Datei: <modificationTime>
. Löschzeit der Parquet-Datei: <deletionTime>
. Gelöscht in Delta-Version: <deletionVersion>
.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Es ist nicht zulässig, Dateien mit Löschvektoren zu übernehmen, denen die NumRecords-Statistik fehlt.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Erkannte DomainMetadata-Aktion(en) für Domänen <domainNames>
, aber „DomainMetadataTableFeature“ ist nicht aktiviert.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
Index <columnIndex>
zum Löschen einer Spalte ist kleiner als 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Es kann keine Spalte aus einem Schema mit nur einer Spalte entfernt werden. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Dateivorgang '<actionType>
' für Pfad <path>
wurde mehrmals angegeben.
Dies steht in Konflikt mit <conflictingPath>
.
Es ist nicht gültig für mehrere Dateivorgänge mit demselben Pfad, der in einem einzigen Commit vorhanden ist.
DELTA_DUPLICATE_COLUMNS_FOUND
Doppelte Spalten gefunden <coltype>
: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
In der INSERT
-Klausel sind doppelte Spaltennamen vorhanden.
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Entfernen Sie doppelte Spalten, bevor Sie Die Tabelle aktualisieren.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Doppelte Spalten für das Überspringen von Daten gefunden: <columns>
.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Interner Fehler: Zwei DomainMetadata-Aktionen innerhalb derselben Transaktion haben dieselbe Domäne <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
Das Histogramm für die Anzahl gelöschter Datensätze konnte während der Überprüfung der Tabellenintegrität nicht deserialisiert werden.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
Der Modus für dynamische Partitionsüberschreibvorgänge wird durch Sitzungskonfigurations- oder Schreiboptionen angegeben, ist jedoch durch spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
deaktiviert.
DELTA_EMPTY_DATA
Daten, die beim Erstellen der Delta-Tabelle verwendet werden, weisen keine Spalten auf.
DELTA_EMPTY_DIRECTORY
Keine Datei im Verzeichnis gefunden: <directory>
.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
Der Wert "<value>
" überschreitet die Einschränkung der Zeichen-/Varchar-Typlänge. Fehlerhafte Prüfung: <expr>
.
DELTA_FAILED_CAST_PARTITION_VALUE
Fehler beim Umwandeln des Partitionswerts <value>
in <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
<newAttributeName>
konnte unter den vorhandenen Zielausgabe <targetOutputColumns>
nicht gefunden werden
DELTA_FAILED_INFER_SCHEMA
Fehler beim Ableiten des Schemas aus der angegebenen Liste von Dateien.
DELTA_FAILED_MERGE_SCHEMA_FILE
Fehler beim Zusammenführen des Dateischemas <file>
:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
Die Fußzeile der Datei <currentFile>
konnte nicht gelesen werden
DELTA_FAILED_RECOGNIZE_PREDICATE
Das Prädikat '<predicate>
' kann nicht erkannt werden.
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Es wurde ein vollständiger Scan der letzten Version der Delta-Quelle erwartet, aber es wurde eine historischer Scan der Version <historicalVersion>
gefunden
DELTA_FAILED_TO_MERGE_FIELDS
Fehler beim Zusammenführen von Feldern '<currentField>
' und '<updateField>
'
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Diese Tabelle kann nicht ausgeführt werden, da die folgenden Tabellenfeatures in Metadaten aktiviert sind, aber nicht im Protokoll aufgeführt sind: <features>
.
Delta-Funktionen erfordern manuelle Aktivierung
Ihr Tabellenschema erfordert eine manuelle Aktivierung der folgenden Tabellenfeatures: <unsupportedFeatures>
.
Führen Sie dazu den folgenden Befehl für jede der oben aufgeführten Features aus:
ALTER TABLE
table_name SET TBLPROPERTIES
(‘delta.feature.feature_name’ = ‘supported’)
Ersetzen Sie "table_name" und "feature_name" durch reale Werte.
Aktuell unterstützte(s) Feature(s): <supportedFeatures>
.
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
Die Funktion "Prüfpunktschutz" konnte nicht entfernt werden.
Dieses Feature kann nur durch Abschneiden des Verlaufs getrennt werden.
Versuchen Sie es bitte erneut mit der Option TRUNCATE HISTORY
:
ALTER TABLE
table_name DROP FEATURE
checkpointProtection TRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
Fehler beim Ablegen <featureName>
aufgrund eines Fehlers bei der Erstellung des Prüfpunkts.
Versuchen Sie es später erneut. Wenn das Problem weiterhin besteht, wenden Sie sich an den Databricks-Support.
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
Der Vorgang war nicht erfolgreich, da immer noch Spuren von verworfenen Features vorhanden sind.
im Tabellenverlauf. CheckpointProtection kann erst gelöscht werden, wenn diese historischen
Versionen abgelaufen sind.
Um die CheckpointProtection zu entfernen, warten Sie, bis die historischen Versionen
ablaufen, und wiederholen Sie dann diesen Befehl. Der Aufbewahrungszeitraum für historische Versionen ist
zurzeit für <truncateHistoryLogRetentionPeriod>
konfiguriert.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Die Funktion kann nicht gelöscht werden, weil eine gleichzeitige Transaktion die Tabelle geändert hat.
Versuchen Sie es erneut.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Die Tabellenfunktion <feature>
kann nicht entfernt werden, da einige andere Features (<dependentFeatures>
) in dieser Tabelle von <feature>
abhängen.
Erwägen Sie, sie zuerst zu löschen, bevor Sie dieses Feature ablegen.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
<feature>
kann nicht aus dieser Tabelle entfernt werden, da sie derzeit nicht im Protokoll der Tabelle vorhanden ist.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
<feature>
kann nicht gelöscht werden, da das Delta-Protokoll historische Versionen enthält, die das Feature verwenden.
Warten Sie, bis der Aufbewahrungszeitraum für den Verlauf (<logRetentionPeriodKey>=<logRetentionPeriod>
)
Seitdem das Feature zuletzt aktiv war, ist Zeit vergangen.
Alternativ warten Sie, bis der TRUNCATE HISTORY
Aufbewahrungszeitraum abläuft (<truncateHistoryLogRetentionPeriod>
)
und führen daraufhin Folgendes aus:
ALTER TABLE
table_name DROP FEATURE
feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
Für das bestimmte Feature ist keine Verlaufskürzung erforderlich.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
<feature>
kann nicht gelöscht werden, da das Ablegen dieses Features nicht unterstützt wird.
Wenden Sie sich bitte an den Databricks-Support.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
<feature>
kann nicht entfernt werden, da sie von dieser Databricks-Version nicht unterstützt wird.
Erwägen Sie die Verwendung von Databricks mit einer höheren Version.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
Das Löschen von <feature>
war teilweise erfolgreich.
Das Feature wird jetzt nicht mehr in der aktuellen Version der Tabelle verwendet. Das Feature ist allerdings
in historischen Versionen der Tabelle noch vorhanden. Das Tabellenfeature kann nicht gelöscht werden.
aus dem Tabellenprotokoll gelöscht werden, nachdem diese Verlaufsversionen abgelaufen sind.
Um das Tabellenfeature aus dem Protokoll zu löschen, warten Sie, bis die Verlaufsversionen
ablaufen, und wiederholen Sie dann diesen Befehl. Der Aufbewahrungszeitraum für historische Versionen ist
zurzeit als <logRetentionPeriodKey>=<logRetentionPeriod>
konfiguriert.
Alternativ warten Sie, bis der TRUNCATE HISTORY
Aufbewahrungszeitraum abläuft (<truncateHistoryLogRetentionPeriod>
)
und führen daraufhin Folgendes aus:
ALTER TABLE
Tabellenname DROP FEATURE
Funktionsname TRUNCATE HISTORY
DELTA_FUNKTION_ERFORDERT_EINE_HÖHERE_LESERVERSION
Das Tabellenfeature <feature>
kann nicht aktiviert werden, da es eine höhere Leseprotokollversion (aktuelle <current>
) erfordert. Erwägen Sie das Upgrade der Leseprotokollversion der Tabelle auf <required>
oder auf eine Version, die Lesetabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>
.
DELTA-FUNKTION ERFORDERT HÖHERE SCHREIBER-VERSION
Das Tabellenfeature <feature>
kann nicht aktiviert werden, da es eine höhere Writer-Protokollversion (aktuelle <current>
) erfordert. Erwägen Sie das Upgrade der Writer-Protokollversion der Tabelle auf <required>
oder auf eine Version, die Writer-Tabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>
.
DELTA-DATEI_EXISTIERT_BEREITS
Vorhandener Dateipfad <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Es können nicht sowohl eine Dateiliste als auch eine Musterzeichenfolge angegeben werden.
DELTA_FILE_NOT_FOUND
Dateipfad <path>
DELTA_FILE_NOT_FOUND_DETAILED
Datei <filePath>
, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies geschieht, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE
Anweisung zu verwenden. Weitere Informationen finden Sie unter <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
Keine solche Datei oder ein solches Verzeichnis: <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Die Datei (<path>
) zum Umschreiben wurde nicht unter den Kandidatendateien gefunden.
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Es wurde ein MapType gefunden. Um auf den Schlüssel oder Wert eines MapType-Typs zuzugreifen, geben Sie einen an.
eine der folgenden Möglichkeiten an:
<key>
oder
<value>
gefolgt vom Namen der Spalte (nur wenn diese Spalte ein Strukturtyp ist).
Beispiel: mymap.key.mykey
Wenn es sich bei der Spalte um einen einfachen Typ handelt, ist mymap.key oder mymap.value ausreichend.
Schema:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
Spalte <columnName>
weist den Datentyp <columnType>
auf und kann nicht auf den Datentyp <dataType>
geändert werden, da auf diese Spalte durch die folgenden generierten Spalten verwiesen wird:
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Spalten-<columnName>
kann nicht geändert werden, da auf diese Spalte durch die folgenden generierten Spalten verwiesen wird:
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Der Ausdruckstyp der generierten Spalte <columnName>
ist <expressionType>
, der Spaltentyp ist jedoch <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Spalte <currentName>
ist eine generierte Spalte oder eine Spalte, die von einer generierten Spalte verwendet wird. Der Datentyp ist <currentDataType>
und kann nicht in Datentyp <updateDataType>
umgewandelt werden.
DELTA_GEOSPATIAL_NICHT_UNTERSTÜTZT
Geospatialtypen werden in dieser Version von Delta Lake nicht unterstützt.
DELTA_ICEBERG_COMPAT_VIOLATION
Die Validierung von IcebergCompatV<version>
ist fehlgeschlagen.
Weitere Details finden Sie unter DELTA_ICEBERG_COMPAT_VIOLATION.
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN
wird für IDENTITY
-Spalten nicht unterstützt.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY
wird nur von Delta unterstützt.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY
kann nicht für Nicht-IDENTITY
-Spalten aufgerufen werden.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Das Bereitstellen von Werten für GENERATED ALWAYS
AS IDENTITY
in Spalte <colName>
wird nicht unterstützt.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY
Spaltenschritt darf nicht 0 sein.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY
Spalten werden nur von Delta unterstützt.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY
Spalte <colName>
wird nicht unterstützt.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS
wird für eine Tabelle mit IDENTITY
-Spalten nicht unterstützt.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType-<dataType>
wird für IDENTITY
Spalten nicht unterstützt.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE
für IDENTITY
-Spalte <colName>
wird nicht unterstützt.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
IDENTITY
Spalte kann nicht mit einem generierten Spaltenausdruck angegeben werden.
DELTA_ILLEGAL_OPTION
Ungültiger Wert '<input>
' für Option '<name>
', <explain>
DELTA_ILLEGAL_USAGE
Die Verwendung von <option>
ist nicht zulässig, wenn für eine Delta-Tabelle <operation>
ausgeführt wird.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec in Delta-Buckettabelle stimmt nicht mit BucketSpec aus den Metadaten überein. Erwartet: <expected>
. Aktuell: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) kann nicht auf unterschiedliche Werte festgelegt werden. Legen Sie nur einen davon fest, oder legen Sie sie auf denselben Wert fest.
DELTA_INCORRECT_ARRAY_ACCESS
Falscher Zugriff auf einen ArrayType. Verwenden Sie die Position „arrayname.element.elementname“ für das
zu einem Array hinzufügen.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Ein ArrayType wurde gefunden. Um auf Elemente eines ArrayTyps zuzugreifen, geben Sie Folgendes an.
<rightName>
anstelle von <wrongName>
.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Verwenden Sie getConf()
anstelle von "conf.getConf()
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
Dieser Fehler tritt in der Regel auf, wenn die LogStore-Standardimplementierung,
HDFSLogStore, verwendet wird, um in eine Delta-Tabelle in einem Nicht-HDFS-Speichersystem zu schreiben.
Um die transaktionsrelevanten ACID-Garantien für Tabellenupdates zu erhalten, müssen Sie die
korrekte Implementierung von LogStore, die für Ihr Speichersystem geeignet ist.
Weitere Informationen finden Sie unter <docLink>
.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Der Index <position>
zum Ablegen der Spalte ist gleich oder größer als die Strukturlänge: <length>
DELTA_INDEX_LARGER_THAN_STRUCT
Index <index>
zum Hinzufügen der Spalte <columnName>
ist größer als die Strukturlänge: <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Schreiben in „<tableName>
“, <columnName>
nicht möglich. Die Zieltabelle hat <numColumns>
Spalte(n), aber die eingefügten Daten umfassen <insertColumns>
Spalte(n)
DELTA_INSERT_COLUMN_MISMATCH
Spalte <columnName>
wird in INSERT
nicht angegeben.
DELTA_INVALID_AUTO_COMPACT_TYPE
Ungültiger automatisch komprimierter Typ: <value>
. Zulässige Werte sind: <allowed>
.
DELTA_INVALID_BUCKET_COUNT
Ungültige Bucketanzahl: <invalidBucketCount>
. Die Bucketanzahl sollte eine positive Zahl, eine Potenz von 2 und mindestens 8 sein. Sie können stattdessen <validBucketCount>
verwenden.
DELTA_INVALID_BUCKET_INDEX
Die Bucketspalte in den Partitionsspalten kann nicht gefunden werden.
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Das Intervall darf nicht null oder leer sein.
DELTA_INVALID_CDC_RANGE
Der CDC-Bereich von Anfang <start>
bis Ende <end>
war ungültig. Das Ende kann nicht vor dem Start erfolgen.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Attributname "<columnName>
" enthält ungültige Zeichen zwischen " ;;{}()\n\t=". Verwenden Sie zum Umbenennen einen Alias.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Spaltennamen Ihres Schemas enthalten ungültige Zeichen ( ,;{}()nt=).
Ungültige Spaltennamen: <invalidColumnNames>
.
Bitte verwenden Sie andere Zeichen, und versuchen Sie es erneut.
Alternativ können Sie die Spaltenzuordnung aktivieren, um diese Zeichen weiterhin zu verwenden.
DELTA_INVALID_CLONE_PATH
Der Zielspeicherort für CLONE
muss ein absoluter Pfad oder ein Tabellenname sein. Verwenden Sie einen
absoluten Pfad anstelle von <path>
.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Spaltennamen Ihres Schemas enthalten ungültige Zeichen ( ,;{}()nt=).
Ungültige Spaltennamen: <invalidColumnNames>
.
Die Spaltenzuordnung kann nicht entfernt werden, wenn in den Spaltennamen ungültige Zeichen vorhanden sind.
Benennen Sie die Spalten um, um die ungültigen Zeichen zu entfernen, und führen Sie diesen Befehl erneut aus.
DELTA_INVALID_FORMAT
Inkompatibles Format erkannt.
Ein Transaktionsprotokoll für Delta wurde unter <deltaRootPath>
/_delta_log gefunden',
aber Sie versuchen <operation> <path>
mithilfe von format(“<format>
”). Sie müssen
„format(“delta”)“ beim Lesen und Schreiben in eine Delta-Tabelle verwenden.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Eine generierte Spalte darf keine nicht vorhandene oder andere generierte Spalte verwenden.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Ungültige Optionen für idempotente Dataframe-Schreibvorgänge: <reason>
DELTA_INVALID_INTERVAL
<interval>
ist keine gültige INTERVAL
.
DELTA_INVALID_INVENTORY_SCHEMA
Das Schema für die angegebene INVENTORY
enthält nicht alle erforderlichen Felder. Erforderliche Felder sind: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
ungültige Isolationsstufe '<isolationLevel>
'
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) und (<schemeConfig>
) können nicht gleichzeitig festgelegt werden. Bitte legen Sie nur eine Gruppe davon fest.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Sie versuchen, eine verwaltete Tabelle <tableName>
mit Delta zu erstellen, aber das Schema wurde nicht angegeben.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
ist keine gültige Partitionsspalte in tabelle <tableName>
.
DELTA_INVALID_PARTITION_COLUMN_NAME
Partitionsspalten mit ungültigen Zeichen unter „ ,;{}()nt=“ gefunden. Ändern Sie den Namen in Ihre Partitionsspalten. Diese Überprüfung kann deaktiviert werden, indem spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) festgelegt wird, dies wird jedoch nicht empfohlen, da andere Features von Delta möglicherweise nicht ordnungsgemäß funktionieren.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Die Verwendung von Spalte <name>
vom Typ <dataType>
als Partitionsspalte wird nicht unterstützt.
DELTA_INVALID_PARTITION_PATH
Ein Partitionspfadfragment sollte das Format wie part1=foo/part2=bar
sein. Der Partitionspfad: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
Die Protokollversion kann nicht von <oldProtocol>
auf <newProtocol>
herabgestuft werden.
DELTA_INVALID_PROTOCOL_VERSION
Nicht unterstützte Delta-Protokollversion: Tabelle "<tableNameOrPath>
" erfordert Leseversion <readerRequired>
und Writer-Version <writerRequired>
, aber diese Version von Databricks unterstützt Leseversionen <supportedReaders>
und Writer-Versionen <supportedWriters>
. Aktualisieren Sie bitte auf eine neuere Version.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Die Funktion <function>
ist eine nicht unterstützte Tabellenwertfunktion für CDC-Lesevorgänge.
DELTA_INVALID_TIMESTAMP_FORMAT
Der angegebene Zeitstempel <timestamp>
stimmt nicht mit der erwarteten Syntax <format>
überein.
DELTA_LOG_ALREADY_EXISTS
Bei <path>
ist bereits ein Delta-Protokoll vorhanden.
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Wenn Sie sie nie gelöscht haben, liegt ihre Abfrage wahrscheinlich hinterher. Löschen Sie den Prüfpunkt, um von Grund auf neu zu starten. Um dies zu vermeiden, können Sie die Speicherrichtlinie Ihrer Delta-Tabelle aktualisieren.
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Materialisierter Spaltenname für <rowTrackingColumn>
fehlt für <tableName>
.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Bitte verwenden Sie einen Grenzwert kleiner als Int.MaxValue - 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Dieser Commit ist fehlgeschlagen, da es <numAttempts>
Mal versucht wurde, aber nicht erfolgreich war.
Dies kann dadurch verursacht werden, dass für die Delta-Tabelle kontinuierlich viele gleichzeitige
Commits ausgeführt werden.
Commit gestartet bei Version <startVersion>
Commit mit Fehler abgebrochen bei Version <failVersion>
Anzahl der Aktionen, die einen Commit versucht haben: <numActions>
Gesamtzeit für den Versuch dieses Commits: <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
Die Dateiliste darf höchstens <maxFileListSize>
Einträge haben, hatte aber <numFiles>
.
DELTA_MERGE_ADD_VOID_COLUMN
Es kann keine Spalte <newColumn>
mit dem Typ VOID hinzugefügt werden. Bitte geben Sie explizit einen anderen als den void-Typ an.
DELTA_MERGE_NICHT_KOMPATIBLER_DATENTYP
Fehler beim Zusammenführen von inkompatiblen Datentypen <currentDataType>
und <updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Fehler beim Zusammenführen von Dezimaltypen mit inkompatiblen <decimalRanges>
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Die Quelle der MERGE
-Anweisung materialisiert beizubehalten ist wiederholt fehlgeschlagen.
DELTA_MERGE_MISSING_WHEN
Es muss mindestens eine WHEN
-Klausel in einer MERGE
-Anweisung vorhanden sein.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Aufgelöste Attribute <missingAttributes>
fehlen in <input>
im <merge>
-Operator.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Unerwarteter Zuordnungsschlüssel: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
<sqlExpr>
kann in <clause>
mit <cols>
nicht aufgelöst werden.
DELTA_METADATA_CHANGED
MetadataChangedException: Die Metadaten der Delta-Tabelle wurden durch ein gleichzeitiges Update geändert. Versuchen Sie es erneut.<conflictingCommit>
DELTA_MISSING_CHANGE_DATA
Fehler beim Abrufen von Änderungsdaten für den Bereich [<startVersion>
, <endVersion>
], da Änderungsdaten nicht verfügbar waren.
für Version [<version>
] nicht aufgezeichnet wurden. Wenn Sie den Änderungs-Feed für diese Tabelle aktiviert haben,
verwenden Sie DESCRIBE HISTORY
, um zu sehen, wann sie zum ersten Mal aktiviert wurde.
Verwenden Sie andernfalls zum Starten der Aufzeichnung von Änderungsdaten ALTER
TABLE' table_name SET TBLPROPERTIES
(<key>
=true)`.
DELTA_MISSING_COLUMN
Kann <columnName>
nicht in den Tabellenspalten finden: <columnList>
DELTA_MISSING_COMMIT_INFO
Diese Tabelle verfügt über das Feature <featureName>
aktiviert, das das Vorhandensein der CommitInfo-Aktion in jedem Commit erfordert. Die CommitInfo-Aktion fehlt jedoch in der Commit-Version <version>
.
DELTA_MISSING_COMMIT_TIMESTAMP
Diese Tabelle verfügt über das Feature <featureName>
aktiviert, das das Vorhandensein von commitTimestamp in der CommitInfo-Aktion erfordert. Dieses Feld wurde jedoch nicht in commit-Version <version>
festgelegt.
DELTA_MISSING_DELTA_TABLE
<tableName>
ist keine Delta-Tabelle.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Tabelle ist nicht vorhanden. Erstellen Sie zuerst eine leere Delta-Tabelle mit CREATE TABLE <tableName>
.
DELTA_MISSING_ICEBERG_CLASS
Die Iceberg-Klasse wurde nicht gefunden. Bitte stellen Sie sicher, dass die Delta Iceberg-Unterstützung installiert ist.
Weitere Informationen finden Sie unter <docLink>
.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
Spalte <columnName>
, die eine NOT NULL
Einschränkung aufweist, fehlt in den Daten, die in die Tabelle geschrieben werden.
DELTA_MISSING_PARTITION_COLUMN
Partitionsspalte <columnName>
in Schema-<columnList>
nicht gefunden
DELTA_MISSING_PART_FILES
Alle Teildateien der Prüfpunktversion konnten nicht gefunden werden: <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT
TO DELTA
unterstützt nur Parquet-Tabellen. Schreiben Sie Ihr Ziel als parquet.`<path>`
um, wenn es sich um ein Parquet-Verzeichnis handelt.
DELTA_MISSING_SET_COLUMN
SET
-Spalte <columnName>
wurde in den angegebenen Spalten nicht gefunden: <columnList>
.
DELTA_MISSING_TRANSACTION_LOG
Inkompatibles Format erkannt.
Sie versuchen die Ausführung von <operation> <path>
mit Delta, aber es ist kein
Transaktionsprotokoll vorhanden. Überprüfen Sie den Upstreamauftrag, um sicherzustellen, dass er
„format("delta")“ verwendet und dass Sie versuchen, %1$s auf den Basispfad der Tabelle anzuwenden.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_MODE_NOT_SUPPORTED
Der angegebene Modus '<mode>
' wird nicht unterstützt. Unterstützte Modi sind: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
Mehrere <startingOrEnding>
-Argumente für CDC-Lesevorgang bereitgestellt. Bitte geben Sie entweder einen <startingOrEnding>
Zeitstempel oder eine <startingOrEnding>
Version an.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Es wurden mehrere Bloom-Filterindexkonfigurationen an den Befehl für Spalte <columnName>
übergeben:
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Die Zusammenführung konnte nicht durchgeführt werden, da mehrere Quellzeilen übereinstimmen und dieselbe
Zielreihe in der Delta-Tabelle auf möglicherweise widersprüchliche Weise zu ändern versuchten. Gemäß der SQL-Semantik von „MERGE“
Wenn mehrere Quellzeilen in derselben Zielzeile übereinstimmen, kann das Ergebnis mehrdeutig sein.
da unklar ist, welche Quellzeile verwendet werden soll, um den Abgleich zu aktualisieren oder zu löschen
Zielreihe verwendet werden soll. Sie können die Quelltabelle vorverarbeiten, um die Möglichkeit
mehrerer Übereinstimmungen auszuschließen. Informationen zu den nächsten Schritten finden Sie im Abschnitt
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Während <command>
werden entweder beide Konfigurationen der koordinierten Commits ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") im Befehl festgelegt oder keine davon. Fehlt: "<configuration>
". Geben Sie diese Konfiguration in der TBLPROPERTIES
-Klausel an, oder entfernen Sie die andere Konfiguration, und wiederholen Sie dann den Befehl erneut.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Während <command>
werden entweder beide Konfigurationen der koordinierten Commits ("coordinatedCommits.commitCoordinator-preview”, “coordinatedCommits.commitCoordinatorConf-preview") in den SparkSession-Konfigurationen oder keine davon. Fehlt: "<configuration>
". Legen Sie diese Konfiguration in der SparkSession fest, oder deaktivieren Sie die andere Konfiguration, und wiederholen Sie dann den Befehl erneut.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Die folgenden Spaltennamen sind nur für die interne Verwendung der delta-zusammengefassten Tabelle reserviert: <names>
DELTA_NESTED_FIELDS_NEED_RENAME
Das Eingabeschema enthält geschachtelte Felder, die anders großgeschrieben sind als die Zieltabelle.
Sie müssen umbenannt werden, um den Verlust von Daten in diesen Feldern beim Schreiben in Delta zu vermeiden.
Felder:
<fields>
.
Ursprüngliches Schema:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
Der <nestType>
Typ des Felds <parent>
enthält eine NOT NULL
Einschränkung. Delta unterstützt keine NOT NULL
-Einschränkungen, die in Arrays oder Maps geschachtelt sind. Um diesen Fehler zu unterdrücken und die angegebenen Einschränkungen stillschweigend zu ignorieren, setzen Sie <configKey>
= true.
Geparster <nestType>
-Typ:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
Geschachtelte Unterabfragen werden in der <operation>
-Bedingung nicht unterstützt.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
Zeilen in <tableName>
verstoßen gegen die neue CHECK
-Einschränkung (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
Zeilen in <tableName>
verstoßen gegen die neue NOT NULL
Einschränkung für <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK
Einschränkung '<name>
' (<expr>
) sollte ein boolescher Ausdruck sein.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Es wurde <expr>
gefunden. Eine generierte Spalte kann keinen nicht deterministischen Ausdruck verwenden.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Nicht deterministische Funktionen werden in der <operation> <expression>
nicht unterstützt.
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Wenn eine MATCHED
-Anweisung mehr als eine MERGE
-Klausel enthält, darf nur die letzte MATCHED
-Klausel die Bedingung auslassen.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Wenn es in einer MERGE
-Anweisung mehr als eine NOT MATCHED BY SOURCE
-Klausel gibt, kann nur die letzte NOT MATCHED BY SOURCE
-Klausel auf die Bedingung verzichten.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Wenn in einer MERGE
-Anweisung mehr als eine NOT MATCHED
-Klausel vorhanden ist, kann nur die letzte NOT MATCHED
-Klausel auf die Bedingung verzichten.
DELTA_NON_PARSABLE_TAG
Tag <tag>
konnte nicht analysiert werden.
Dateitags sind: <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
In Delta geschriebene Daten müssen mindestens eine nicht partitionierte Spalte enthalten.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Prädikat verweist auf nicht partitionierte Spalte '<columnName>
'. Nur auf die Partitionsspalten kann verwiesen werden: [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Nicht partitionierende Spalten <columnList>
werden angegeben, wobei nur Partitionierungsspalten erwartet werden: <fragment>
.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Der Delta-Katalog erfordert einen einzelteiligen Namespace, aber <identifier>
ist mehrteilig.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
Das Festlegen des Commit-Koordinators auf „<nonUcCoordinatorName>
“ über einen Befehl wird nicht unterstützt, da UC-verwaltete Tabellen nur „unity-catalog“ als Commit-Koordinator haben können. Ändern Sie sie entweder in "unity-catalog", oder entfernen Sie alle Coordinated Commits-Tabelleneigenschaften aus der TBLPROPERTIES
-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
Das Einstellen des Commit-Koordinators auf "<nonUcCoordinatorName>
" aus den SparkSession-Konfigurationen wird nicht unterstützt, da von UC verwaltete Tabellen nur "unity-catalog" als Commit-Koordinator haben können. Ändern Sie sie entweder in "unity-catalog", indem Sie spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")
ausführen, oder entfernen Sie alle "Coordinated Commits"-Tabelleneigenschaften aus den SparkSession-Konfigurationen, indem Sie spark.conf.unset("<coordinatorNameDefaultKey>")
, spark.conf.unset("<coordinatorConfDefaultKey>")
, spark.conf.unset("<tableConfDefaultKey>")
ausführen und dann den Befehl erneut wiederholen.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
ist keine Delta-Tabelle. Löschen Sie bitte zuerst diese Tabelle, wenn Sie sie mit Databricks Delta erstellen möchten.
DELTA_NOT_A_DELTA_TABLE
<tableName>
ist keine Delta-Tabelle. Bitte legen Sie diese Tabelle zuerst ab, wenn Sie sie mit Delta Lake neu erstellen möchten.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Eine Spalte, die keine Nullwerte zulässt, wurde in der Struktur gefunden: <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
Verstoß gegeben NOT NULL
-Einschränkung für Spalte: <columnName>
.
DELTA_NOT_NULL_NESTED_FIELD
Ein nicht-nullfähiges verschachteltes Feld kann nicht zu einem nullfähigen übergeordneten Element hinzugefügt werden. Legen Sie die Nullierbarkeit der übergeordneten Spalte entsprechend fest.
DELTA_NO_COMMITS_FOUND
Keine Commits gefunden bei <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
Keine wiederherstellbaren Commits gefunden bei <logPath>
DELTA_NO_REDIRECT_RULES_VIOLATED
Vorgang nicht zulässig: <operation>
kann für eine Tabelle mit Umleitungsfunktion nicht ausgeführt werden.
Die Regeln für keine Umleitung werden nicht erfüllt <noRedirectRules>
.
DELTA_NO_RELATION_TABLE
Tabelle <tableIdent>
nicht gefunden
DELTA_NO_START_FOR_CDC_READ
Weder „startingVersion“ noch „startTimestamp“ für CDC-Lesezugriff bereitgestellt.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta akzeptiert nullTypes im Schema für Streaming-Schreibvorgänge nicht.
DELTA_ONEOF_IN_TIMETRAVEL
Geben Sie entweder "timestampAsOf" oder "versionAsOf" für Zeitreisen an.
DELTA_ONLY_OPERATION
<operation>
wird nur für Delta-Tabellen unterstützt.
DELTA_OPERATION_MISSING_PATH
Geben Sie den Pfad oder die Tabellen-ID für <operation>
an.
DELTA_OPERATION_NOT_ALLOWED
Vorgang nicht zulässig: <operation>
wird für Delta-Tabellen nicht unterstützt.
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Vorgang nicht zulässig: <operation>
wird für Delta-Tabellen nicht unterstützt: <tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
wird für Spalte <colName>
mit nicht standardmäßiger Sortierung <collation>
nicht unterstützt.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
wird für Ausdrücke <exprText>
nicht unterstützt, da sie nicht standardmäßige Sortierung verwendet.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
Der <operation>
-Befehl, der sich auf eine temporäre Ansicht bezieht und auf eine Delta-Tabelle mit generierten Spalten verweist, wird nicht unterstützt. Führen Sie den Befehl <operation>
direkt in der Delta-Tabelle aus.
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Vorgang nicht zulässig: <operation>
kann nicht auf einer Ansicht ausgeführt werden.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL
wird nur für gruppierte Tabellen mit nicht leeren Clusterspalten unterstützt.
DELTA_OVERWRITE_MUST_BE_TRUE
Die Kopieroption „overwriteSchema“ kann nicht angegeben werden, ohne OVERWRITE
= ‘true’ festzulegen.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' kann im Modus der dynamischen Partitionsüberschreibung nicht verwendet werden.
DELTA_PARTITION_COLUMN_CAST_FAILED
Fehler beim Umwandeln des Werts <value>
in <dataType>
für Partitionsspalte <columnName>
DELTA_PARTITION_COLUMN_NOT_FOUND
Partitionsspalte <columnName>
im Schema nicht gefunden [<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Das Partitionsschema kann beim Konvertieren von Iceberg-Tabellen nicht angegeben werden. Sie wird automatisch abgeleitet.
DELTA_PFAD_EXISTIERT_NICHT
<path>
ist nicht vorhanden oder keine Delta-Tabelle.
DELTA_PATH_EXISTS
Es kann nicht in den bereits vorhandenen Pfad <path>
geschrieben werden, ohne OVERWRITE
= ‘true’ festzulegen.
DELTA_POST_COMMIT_HOOK_FAILED
Das Committen in der Delta-Tabellenversion <version>
war erfolgreich, beim Ausführen des Hooks <name> <message>
nach dem Commit ist jedoch ein Fehler aufgetreten
DELTA_PROTOKOLL_GEÄNDERT
ProtocolChangedException: Die Protokollversion der Delta-Tabelle wurde durch ein gleichzeitiges Update geändert. <additionalInfo> <conflictingCommit>
Weitere Informationen finden Sie unter <docLink>
.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Die Protokolleigenschaft <key>
muss eine ganze Zahl sein. <value>
gefunden
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Es ist nicht möglich, nur die Version des Leseprotokolls zu aktualisieren, um Tabellenfunktionen zu verwenden. Die Writer-Protokollversion muss mindestens <writerVersion>
sein, um fortzufahren. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>
.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Sie versuchen, eine Delta-Tabelle <tableName>
zu lesen, die keine Spalten enthält.
Schreiben Sie einige neue Daten mit der Option mergeSchema = true
, um die Tabelle lesen zu können.
DELTA_REGEX_OPT_SYNTAX_ERROR
Überprüfen Sie ihre Syntax erneut auf '<regExpOption>
'
DELTA_REPLACE_WHERE_IN_OVERWRITE
Sie können „replaceWhere“ nicht in Verbindung mit einer Überschreibung durch einen Filter verwenden.
DELTA_REPLACE_WHERE_MISMATCH
Die geschriebenen Daten entsprechen nicht der Bedingung zum Überschreiben der partiellen Tabelle oder der Einschränkung „<replaceWhere>
“.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Ein „replaceWhere“-Ausdruck und „partitionOverwriteMode’=’dynamic“ können nicht beide in den DataFrameWriter-Optionen festgelegt werden.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'replaceWhere' kann nicht mit Datenfiltern verwendet werden, wenn 'dataChange' auf "false" festgelegt ist. Filter: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Zeilen-IDs ohne Zeilenzählungsstatistiken können nicht zugewiesen werden.
Collect statistics for the table by running the following code in a Scala notebook and retry:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
Schemaänderung erkannt:
Streamingquellenschema: <readSchema>
Datendateischema: <dataSchema>
Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne
dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre
Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Schemaänderung in version <version>
erkannt:
Streamingquellenschema: <readSchema>
Datendateischema: <dataSchema>
Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne
dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre
Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten. Wenn das Problem weiterhin besteht,
Wenn Sie zu einem neuen Prüfpunktverzeichnis wechseln, müssen Sie möglicherweise das vorhandene Prüfpunktverzeichnis ändern.
Option für „startingVersion“ oder „startingTimestamp“ ändern, um ab einer neueren Version als
<version>
mit einem neuen Prüfpunktverzeichnis.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Schemaänderung in version <version>
erkannt:
Streamingquellenschema: <readSchema>
Datendateischema: <dataSchema>
Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne
dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre
Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Das Schema Ihrer Delta-Tabelle hat sich auf inkompatible Weise geändert, nachdem Ihr DataFrame erstellt wurde.
oder ein DeltaTable-Objekt wurde erstellt. Bitte definieren Sie Das DataFrame- oder DeltaTable-Objekt neu.
Änderungen:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Das Tabellenschema wird nicht bereitgestellt. Geben Sie das Schema (Spaltendefinition) der Tabelle an, wenn Sie REPLACE
Tabelle verwenden und eine AS-SELECT
Abfrage nicht bereitgestellt wird.
DELTA_SCHEMA_NOT_SET
Das Tabellenschema ist nicht festgelegt. Schreiben Sie Daten in das Schema, oder verwenden Sie CREATE TABLE
, um das Schema festzulegen.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Das Schema des neuen Delta-Standorts unterscheidet sich vom aktuellen Tabellenschema.
ursprüngliches Schema:
<original>
Zielschema:
<destination>
Wenn dies eine beabsichtigte Änderung ist, können Sie diese Überprüfung deaktivieren, indem Sie Folgendes ausführen:
%%sql festlegen <config>
= wahr
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Datei <filePath>
, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies kann auftreten, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE
Anweisung zu verwenden. Diese Tabelle scheint ein flacher Klon zu sein, wenn dies der Fall ist, kann dieser Fehler auftreten, wenn die ursprüngliche Tabelle, aus der diese Tabelle geklont wurde, eine Datei gelöscht hat, die der Klon noch verwendet. Wenn Klonen unabhängig von der ursprünglichen Tabelle sein sollen, verwenden Sie stattdessen einen DEEP-Klon.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Vordefinierte Eigenschaften, die mit <prefix>
beginnen, können nicht geändert werden.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Die Daten werden durch die Empfängereigenschaft <property>
eingeschränkt, die nicht für den aktuellen Empfänger in der Sitzung gelten.
Weitere Details finden Sie unter DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED.
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
kann nicht in Delta-Sharing-Ansichten verwendet werden, die kontoübergreifend freigegeben sind.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Ungültiger Authentifizierungstyp <authenticationType>
für Anbieter <provider>
.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Ungültiger Authentifizierungstyp <authenticationType>
für empfänger <recipient>
.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Ungültiger Name, um in einer Freigabe auf <type>
zu verweisen. Sie können entweder den Namen von <type>
innerhalb der Freigabe im Format [Schema].[<type>
] verwenden oder den vollständigen Namen der Tabelle im Format [Katalog].[Schema].[>Typ>] verwenden.
Wenn Sie sich nicht sicher sind, welchen Namen Sie verwenden sollen, können Sie „SHOW ALL IN SHARE
[Freigabe]“ ausführen und den Namen des zu entfernenden <type>
ermitteln: Spalte „name“ ist der Name von <type>
innerhalb der Freigabe, und Spalte „shared_object“ ist der ursprüngliche vollständige Name von <type>
.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
Es gibt mehr als zwei Token für Empfänger <recipient>
.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Empfängereigenschaft <property>
ist nicht vorhanden.
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
Empfängertoken fehlen für Empfänger<recipient>
.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Nicht partitionierende Spalten <badCols>
werden für SHOW PARTITIONS
angegeben.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS
ist für eine Nicht partitionierte Tabelle nicht zulässig: <tableName>
DELTA_SOURCE_IGNORE_DELETE
Es wurden gelöschte Daten (z. B. <removedFile>
) in der Streamingquelle der Version <version>
erkannt. Dies wird derzeit nicht unterstützt. Wenn Sie Löschlöschungen ignorieren möchten, legen Sie die Option "ignoreDeletes" auf "true" fest. Die Quelltabelle finden Sie unter Pfad <dataPath>
.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Es wurde ein Datenupdate (z. B. <file>
) in der Quelltabelle in version <version>
erkannt. Dies wird derzeit nicht unterstützt. Wenn dies regelmäßig vorkommt und Sie damit einverstanden sind, Änderungen zu überspringen, legen Sie die Option "skipChangeCommits" auf "true" fest. Wenn die Datenaktualisierung berücksichtigt werden soll, starten Sie diese Abfrage mit einem neuen Prüfpunktverzeichnis neu oder führen Sie eine vollständige Aktualisierung durch, wenn Sie DLT verwenden. Wenn Sie diese Änderungen bearbeiten müssen, wechseln Sie bitte zu MVs. Die Quelltabelle finden Sie unter Pfad <dataPath>
.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Geben Sie entweder "<version>
" oder "<timestamp>
" an.
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
-Statistik für Spalte in Parquet-Metadaten <columnPath>
wurde nicht gefunden: .
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Wir haben eine oder mehrere nicht additive Schemaänderungen (<opType>
) zwischen Delta-Version <previousSchemaChangeVersion>
und <currentSchemaChangeVersion>
in der Delta-Streamingquelle erkannt.
Überprüfen Sie, ob Sie diese Schemaänderungen manuell an die Senkentabelle weitergeben möchten, bevor wir mit der Streamverarbeitung mithilfe des endgültigen Schemas unter <currentSchemaChangeVersion>
fortfahren.
Nachdem Sie das Schema der Senkentabelle behoben oder entschieden haben, dass keine Korrektur erforderlich ist, können Sie (eine der folgenden SQL-Konfigurationen) festlegen, um die Blockierung der nicht-additiven Schemaänderungen aufzuheben und die Datenstromverarbeitung fortzusetzen.
Um die Blockierung für diesen bestimmten Datenstrom nur für diese Reihe von Schemaänderungen aufzuheben: legen Sie <allowCkptVerKey> = <allowCkptVerValue>
fest.
So heben Sie die Blockierung für diesen bestimmten Datenstrom auf: setzen Sie auf <allowCkptKey> = <allowCkptValue>
Um die Blockierung für alle Streams aufzuheben: legen Sie <allowAllKey> = <allowAllValue>
fest.
Alternativ können Sie die <allowAllMode>
durch <opSpecificMode>
in der SQL conf ersetzen, um die Blockierung des Datenstroms nur für diesen Schemaänderungstyp aufzuheben.
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Fehler beim Abrufen einer Delta-Protokollmomentaufnahme für die Startversion, als Schemaänderungen der Spaltenzuordnung überprüft wurden. Wählen Sie eine andere Startversion aus, oder erzwingen Sie die Aktivierung des Streaming-Lesevorgangs auf eigene Gefahr, indem Sie "<config>
" auf "true" festlegen.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Streaminglesevorgänge werden für Tabellen mit leseinkompatiblen Schemaänderungen (z. B. Umbenennen, Löschen oder Datentypänderungen) nicht unterstützt.
Weitere Informationen und mögliche nächste Schritte zur Behebung dieses Problems finden Sie in der Dokumentation unter <docLink>
Leseschema: <readSchema>
. Inkompatibles Datenschema: <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Lesen im Streaming-Modus wird bei Tabellen mit nicht kompatiblen Schemaänderungen (wie Umbenennung, Löschen oder Änderung des Datentyps) nicht unterstützt.
Stellen Sie eine 'schemaTrackingLocation' bereit, um die nicht-additive Schemaentwicklung für die Delta-Datenstromverarbeitung zu ermöglichen.
Weitere Informationen finden Sie unter <docLink>
.
Leseschema: <readSchema>
. Inkompatibles Datenschema: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
Das Schema, die Tabellenkonfiguration oder das Protokoll Ihrer Delta-Tabelle wurde während des Streamings geändert.
Das Schema- oder Metadatenverfolgungsprotokoll wurde aktualisiert.
Starten Sie den Datenstrom neu, um die Verarbeitung mithilfe der aktualisierten Metadaten fortzusetzen.
Aktualisiertes Schema: <schema>
.
Aktualisierte Tabellenkonfigurationen: <config>
.
Aktualisiertes Tabellenprotokoll: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
Das Streamen aus der Quelltabelle <tableId>
mit Schemanachverfolgung unterstützt keine Zeilenfilter oder Spaltenmasken.
Legen Sie die Zeilenfilter oder Spaltenmasken ab, oder deaktivieren Sie die Schemanachverfolgung.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Es wurde ein Konflikt mit dem Schemaspeicherort „<loc>
“ beim Streaming aus der Tabelle oder der Tabelle unter „<table>
“ entdeckt.
Ein anderer Datenstrom kann denselben Schemaspeicherort wiederverwenden, der nicht zulässig ist.
Geben Sie einen neuen eindeutigen schemaTrackingLocation
Pfad oder streamingSourceTrackingId
als Leseoption für einen der Datenströme aus dieser Tabelle an.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Der Schemaspeicherort „<schemaTrackingLocation>
“ muss unter dem Prüfpunktspeicherort „<checkpointLocation>
“ platziert werden.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Unvollständige Protokolldatei im Delta-Streamingquellschemaprotokoll unter '<location>
'.
Möglicherweise wurde das Schemaprotokoll beschädigt. Wählen Sie einen neuen Schemaspeicherort aus.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Eine inkompatible Delta-Tabellen-ID wurde erkannt, als versucht wurde, den Delta-Datenstrom zu lesen.
Persistente Tabellen-ID: <persistedId>
, Tabellen-ID: <tableId>
Möglicherweise wurde das Schemaprotokoll wiederverwendet. Wählen Sie einen neuen Schemaspeicherort aus.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Es wurde ein inkompatibles Partitionsschema beim Lesen des Delta-Datenstroms erkannt.
Beibehaltenes Schema: <persistedSchema>
, Delta-Partitionsschema: <partitionSchema>
Wählen Sie einen neuen Schemaspeicherort aus, um das Schemaprotokoll erneut zu initialisieren, wenn Sie das Partitionsschema der Tabelle kürzlich manuell geändert haben.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Wir konnten das Delta-Streamingquellschemaprotokoll nicht initialisieren, da
beim Bereitstellen eines Streamingbatches von der Tabellenversion <a>
zu <b>
eine inkompatible Schema- oder Protokolländerung erkannt wurde.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Fehler beim Analysieren des Schemas aus dem Delta-Streamingquellschemaprotokoll.
Möglicherweise wurde das Schemaprotokoll beschädigt. Wählen Sie einen neuen Schemaspeicherort aus.
DELTA-TABELLE ENTHÄLT BEREITS CDC-SPALTEN
Die Änderungsdatenerfassung kann in der Tabelle nicht aktiviert werden. Die Tabelle enthält bereits
reservierte Spalten <columnList>
, die
intern als Metadaten für den Änderungsdatenfeed der Tabelle verwendet werden. Um
Ändern Sie den Datenfluss in der Tabelle, wenn Sie diese Spalten umbenennen oder löschen.
DELTA-TABELLE_EXISTIERT_BEREITS
Tabelle <tableName>
ist bereits vorhanden.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
Derzeit unterstützt DeltaTable.forPath nur Hadoop-Konfigurationsschlüssel, die mit <allowedPrefixes>
beginnen, erhielt jedoch <unsupportedOptions>
.
DELTA_TABLE_ID_MISMATCH
Die Delta-Tabelle bei <tableLocation>
wurde ersetzt, während dieser Befehl die Tabelle verwendet hat.
Die Tabellen-ID war <oldId>
, ist aber jetzt <newId>
.
Wiederholen Sie den aktuellen Befehl, um sicherzustellen, dass er eine konsistente Ansicht der Tabelle liest.
DELTA_TABLE_LOCATION_MISMATCH
Die Position der vorhandenen Tabelle <tableName>
ist <existingTableLocation>
. Sie stimmt nicht mit der angegebenen Position <tableLocation>
überein.
DELTA-TABELLE NICHT GEFUNDEN
Die Delta-Tabelle <tableName>
ist nicht vorhanden.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
Tabelle wird in <operation>
nicht unterstützt. Verwenden Sie stattdessen einen Pfad.
DELTA_TABLE_ONLY_OPERATION
<tableName>
ist keine Delta-Tabelle. <operation>
wird nur für Delta-Tabellen unterstützt.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Das endgültige Schema der Zieltabelle ist leer.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
Der bereitgestellte Zeitstempel (<providedTimestamp>
) liegt nach der aktuellen Version, die verfügbar ist für diese
Tabelle (<tableName>
). Bitte verwenden Sie einen Zeitstempel bis einschließlich <maximumTimestamp>
.
DELTA_TIMESTAMP_INVALID
Der angegebene Zeitstempel (<expr>
) kann nicht in einen gültigen Zeitstempel konvertiert werden.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
muss ein gültiger Anfangswert sein.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: Der Zustand kann in der Version <version>
nicht rekonstruiert werden, da das Transaktionsprotokoll aufgrund der manuellen Löschung oder der Protokollaufbewahrungsrichtlinie (<logRetentionKey>=<logRetention>
) und der Prüfpunktaufbewahrungsrichtlinie (<checkpointRetentionKey>=<checkpointRetention>
) abgeschnitten wurde.
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Vorgang nicht zulässig: TRUNCATE TABLE
in Delta-Tabellen unterstützt keine Partitions-Prädikate; verwenden Sie DELETE
, um bestimmte Partitionen oder Zeilen zu löschen.
DELTA_UDF_IN_GENERATED_COLUMN
Es wurde <udfExpr>
gefunden. Eine generierte Spalte kann keine benutzerdefinierte Funktion verwenden.
DELTA_UNEXPECTED_ACTION_EXPRESSION
Unerwarteter Aktionsausdruck <expression>
.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Es werden die <expectedColsSize>
-Partitionsspalten <expectedCols>
erwarten, es wurden jedoch <parsedColsSize>
-Partitionsspalten <parsedCols>
beim Parsen des Dateinamens <path>
gefunden
DELTA_UNEXPECTED_PARTIAL_SCAN
Es wurde ein vollständiger Scan der Delta-Quellen erwartet, aber nur ein Teilscan gefunden. Pfad: <path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Erwartet wurde die Partitionsspalte <expectedCol>
, jedoch wurde die Partitionsspalte <parsedCol>
beim Analysieren des Dateinamens gefunden: <path>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT
TO DELTA
wurde mit einem anderen Partitionsschema aufgerufen als dem, das aus dem Katalog abgeleitet wird. Bitte vermeiden Sie es, das Schema bereitzustellen, damit das Partitionsschema aus dem Katalog ausgewählt werden kann.
Katalogpartitionsschema:
<catalogPartitionSchema>
bereitgestelltes Partitionsschema:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
delta.universalFormat.compatibility.location kann nicht geändert werden.
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location ist nicht im Katalog registriert.
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
Fehlender oder ungültiger Speicherort für das Uniform-Kompatibilitätsformat. Legen Sie ein leeres Verzeichnis für delta.universalFormat.compatibility.location fest.
Fehlerursache:
Weitere Details finden Sie unter DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION.
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
"Eisberg mit Delta Uniform lesen" ist fehlgeschlagen.
Weitere Informationen finden Sie unter DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Das Erstellen oder Aktualisieren einer einheitlichen Eingangstabelle wird nicht unterstützt.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Format<fileFormat>
wird nicht unterstützt. Nur Eisberg als ursprüngliches Dateiformat wird unterstützt.
DELTA_UNIFORM_NICHT_UNTERSTÜTZT
Universelles Format wird nur in Unity-Katalogtabellen unterstützt.
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH
Bezeichner SYNC UNIFORM
wird aus einem Grund nicht unterstützt:
Weitere Details finden Sie unter DELTA_UNIFORM_REFRESH_NOT_SUPPORTED.
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE
mit METADATA_PATH
wird für verwaltete Iceberg-Tabellen nicht unterstützt.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Fehler beim Konvertieren der Tabellenversion <version>
in das universelle Format <format>
. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Fehler bei der Überprüfung des universellen Formats (<format>
): <violation>
DELTA_UNBEKANNTE_KONFIGURATION
Unbekannte Konfiguration wurde angegeben: <config>
DELTA_UNBEKANNTES_PRIVILEG
Unbekannte Berechtigung: <privilege>
DELTA_UNKNOWN_READ_LIMIT
Unbekanntes ReadLimit: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Nicht erkannte Spaltenänderung <otherClass>
. Möglicherweise führen Sie eine veraltete Delta Lake-Version aus.
DELTA_UNRECOGNIZED_INVARIANT
Nicht erkannte Invariante. Bitte aktualisieren Sie Ihre Spark-Version.
DELTA_UNRECOGNIZED_LOGFILE
Nicht erkannte Protokolldatei <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
Es wurde versucht, in der Tabelle <tableName>
die nicht vorhandene Eigenschaft „<property>
“ zu entfernen.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
unterstützt das Hinzufügen von Dateien mit einem absoluten Pfad nicht.
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN
wird für das Ändern von Spalten-<fieldPath>
von <oldField>
in <newField>
nicht unterstützt.
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Nicht unterstützter ALTER TABLE REPLACE COLUMNS
-Vorgang. Grund: <details>
Fehler beim Ändern des Schemas von:
<oldSchema>
in:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Sie haben versucht, mit dem Vorgang REPLACE
eine vorhandene Tabelle (<tableName>
) durch CLONE
zu ersetzen. Dieser Vorgang wird
Nicht unterstützt. Probieren Sie ein anderes Ziel für CLONE
aus, oder löschen Sie die Tabelle am aktuellen Ziel.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Das Ändern des Spaltenzuordnungsmodus von "<oldMode>
" in "<newMode>
" wird nicht unterstützt.
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Fehler beim Ausführen des Spaltenzuordnungsvorgangs <opName>
für Spalte(n) <columnNames>
da diese Spalte(n) über Bloom-Filter-Index(e) verfügen.
Wenn Sie den Spaltenzuordnungsvorgang für Spalte(n)
mit Bloom-Filterindex ausführen möchten,
Bitte entfernen Sie zuerst den/die Bloom Filter Index/Indizes:
DROP BLOOMFILTER INDEX ON TABLE
tableName FOR COLUMNS(<columnNames>
)
Wenn Sie stattdessen alle Bloom-Filterindizes in der Tabelle entfernen möchten, verwenden Sie Folgendes:
DROP BLOOMFILTER INDEX ON TABLE
TabellenName
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Die aktuelle Tabellenprotokollversion unterstützt das Ändern von Spaltenzuordnungsmodi nicht.
mittels <config>
.
Erforderliche Delta-Protokollversion für die Spaltenzuordnung:
<requiredVersion>
Die aktuelle Delta-Protokollversion Ihrer Tabelle:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Schemaänderung wird erkannt:
altes Schema:
<oldTableSchema>
neues Schema:
<newTableSchema>
Schemaänderungen sind während der Änderung des Spaltenzuordnungsmodus nicht zulässig.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Das Schreiben von Daten mit dem Spaltenzuordnungsmodus wird nicht unterstützt.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Das Erstellen eines Bloom-Filterindex für eine Spalte mit dem Typ <dataType>
wird nicht unterstützt: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Ein Kommentar kann nicht zu <fieldPath>
hinzugefügt werden. Das Hinzufügen eines Kommentars zu einem Kartenschlüssel/Wert oder Arrayelement wird nicht unterstützt.
DELTA_UNSUPPORTED_DATA_TYPES
Spalten mit nicht unterstützten Datentypen gefunden: <dataTypeList>
. Sie können '<config>
' auf 'false' festlegen, um die Typüberprüfung zu deaktivieren. Die Deaktivierung dieser Typüberprüfung kann es Benutzern ermöglichen, nicht unterstützte Delta-Tabellen zu erstellen, und sollte nur erfolgen, wenn versucht wird, Legacytabellen zu lesen oder zu schreiben.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
kann nicht das Ergebnis einer generierten Spalte sein.
DELTA_UNSUPPORTED_DEEP_CLONE
Deep Clone wird für diese Delta-Version nicht unterstützt.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
ist eine Ansicht. DESCRIBE DETAIL
wird nur für Tabellen unterstützt.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Das Ablegen von Clusteringspalten (<columnList>
) ist nicht zulässig.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN
wird für Ihre Delta-Tabelle nicht unterstützt. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Geschachtelte Spalten können nur von StructType abgelegt werden. <struct>
gefunden
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Das Entfernen von Partitionsspalten (<columnList>
) ist nicht zulässig.
DELTA_UNSUPPORTED_EXPRESSION
Nicht unterstützter Ausdruckstyp(<expType>
) für <causedBy>
. Die unterstützten Typen sind [<supportedTypes>
].
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
kann nicht in einer generierten Spalte verwendet werden.
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Nicht unterstützte Delta-Lesefunktion: Tabelle "<tableNameOrPath>
" erfordert Lesetabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>
. Weitere Informationen zur Featurekompatibilität von Delta Lake finden Sie unter <link>
.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Nicht unterstützte Delta-Schreibfunktion: Tabelle "<tableNameOrPath>
" erfordert Writer-Tabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>
. Weitere Informationen zur Featurekompatibilität von Delta Lake finden Sie unter <link>
.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
In den folgenden Spark-Konfigurationen oder Delta-Tabelleneigenschaften konfigurierte Tabellenfunktionen werden von dieser Version von Databricks nicht erkannt: <configs>
.
DELTA_UNSUPPORTED_FEATURE_STATUS
Es wird erwartet, dass der Status für das Tabellenfeature <feature>
„unterstützt“ lautet, er lautet aber „<status>
“.
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
Das Aktualisieren geschachtelter Felder wird nur für StructType unterstützt, aber Sie versuchen, ein Feld von <columnName>
zu aktualisieren, dessen Typ: <dataType>
ist.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
Der Befehl "FSCK REPAIR TABLE
" wird in Tabellenversionen mit fehlenden Vektordateien für löschungen nicht unterstützt.
Wenden Sie sich an den Support.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
Der Befehl "GENERATE
symlink_format_manifest" wird für Tabellenversionen mit Vektoren zum Löschen nicht unterstützt.
Um eine Version der Tabelle ohne Löschvektoren zu erstellen, führen Sie "REORG TABLE
Tabelle APPLY (PURGE
)" aus. Führen Sie dann den Befehl 'GENERATE
' erneut aus.
Stellen Sie sicher, dass zwischen REORG
und GENERATE
keine gleichzeitigen Transaktionen erneut Löschvektoren hinzufügen.
Wenn Sie Manifeste regelmäßig generieren müssen oder nicht gleichzeitige Transaktionen verhindern können, erwägen Sie das Deaktivieren von Löschvektoren in dieser Tabelle mithilfe von 'ALTER TABLE
Tabelle SET TBLPROPERTIES
(delta.enableDeletionVectors = false)'.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Invarianten in geschachtelten Feldern außer StructTypes werden nicht unterstützt.
DELTA_UNSUPPORTED_IN_SUBQUERY
Die IN-Unterabfrage wird in der <operation>
-Bedingung nicht unterstützt.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix nicht verfügbar
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
Die Manifestgenerierung wird für Tabellen, die die Spaltenzuordnung nutzen, nicht unterstützt, da externe Leser diese Delta-Tabellen nicht lesen können. Weitere Details finden Sie in der Delta-Dokumentation.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO
-Vorgänge mit Schemaentwicklung unterstützen derzeit nicht das Schreiben von CDC-Ausgaben.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Mehrspaltige IN-Prädikate werden in der <operation>
-Bedingung nicht unterstützt.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
Das Erstellen eines Bloomfilterindexes in einer geschachtelten Spalte wird derzeit nicht unterstützt: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Geschachteltes Feld wird im <operation>
(Feld = <fieldName>
) nicht unterstützt.
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
Die Klonzieltabelle ist nicht leer. TRUNCATE
oder DELETE FROM
Sie die Tabelle, bevor Sie CLONE
ausführen.
DELTA_UNSUPPORTED_OUTPUT_MODE
Die Datenquelle <dataSource>
unterstützt den <mode>
-Ausgabemodus nicht
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Das Erstellen eines Bloomfilterindexes für eine Partitionierungsspalte wird nicht unterstützt: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
Spaltenumbenennung wird für Ihre Delta-Tabelle nicht unterstützt. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta unterstützt die Angabe des Schemas zur Lesezeit nicht.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY
wird für Delta-Bucket-Tabellen nicht unterstützt.
DELTA_UNSUPPORTED_SOURCE
Das <operation>
-Ziel unterstützt nur Delta-Quellen.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Das Angeben statischer Partitionen in der Partitionsspezifikation wird derzeit während der Einfügungen nicht unterstützt.
DELTA_UNSUPPORTED_STRATEGY_NAME
Nicht unterstützter Strategiename: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
Unterabfragen werden in der <operation>
(Bedingung = <cond>
) nicht unterstützt.
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Unterabfragen werden in Partitionsprädikaten nicht unterstützt.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Zeitreisen können nicht in mehreren Formaten spezifiziert werden.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Zeitreisen für Ansichten, Unterabfragen, Streams oder Änderungsdatenfeedabfragen sind nicht möglich.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Abschneiden von Beispieltabellen wird nicht unterstützt
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Diese Tabelle kann nicht ausgeführt werden, da eine nicht unterstützte Typänderung angewendet wurde. Feld-<fieldName>
wurde von <fromType>
in <toType>
geändert.
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Fehler beim Ändern des Datentyps der spalten(n) <columnNames>
da diese Spalten Bloom-Filterindizes aufweisen.
Wenn Sie den Datentyp von Spalten mit Bloom Filter Index(es) ändern möchten,
entfernen Sie zuerst die Bloom-Filterindizes:
DROP BLOOMFILTER INDEX ON TABLE
tableName FOR COLUMNS(<columnNames>
)
Wenn Sie stattdessen alle Bloom-Filterindizes in der Tabelle entfernen möchten, verwenden Sie Folgendes:
DROP BLOOMFILTER INDEX ON TABLE
tableName
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Geben Sie den Basispfad (<baseDeltaPath>
) beim Vakuumieren von Delta-Tabellen an. Das Vakuumieren bestimmter Partitionen wird derzeit nicht unterstützt.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
Die Tabellenimplementierung unterstützt keine Schreibvorgänge: <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Sie versuchen, Schreibvorgänge für eine Tabelle durchzuführen, die beim Commit-Koordinator <coordinatorName>
registriert wurde. In der aktuellen Umgebung ist jedoch keine Implementierung dieses Koordinators verfügbar und Schreibvorgänge ohne Koordinatoren sind nicht zulässig.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Schreiben in Beispieltabellen wird nicht unterstützt
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
<fromCatalog>
kann nicht in <toCatalog>
umgestellt werden. Alle geschachtelten Spalten müssen übereinstimmen.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM
für Datendateien war erfolgreich, aber COPY INTO
Zustands-GC ist fehlgeschlagen.
DELTA_VERSIONS_NOT_CONTIGUOUS
Versionen (<versionList>
) sind nicht zusammenhängend.
Weitere Details finden Sie unter DELTA_VERSIONS_NOT_CONTIGUOUS.
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
Verstoß gegen CHECK
-Einschränkung <constraintName> <expression>
durch Zeile mit Werten:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Die Validierung der Eigenschaften der Tabelle <table>
wurde verletzt:
Weitere Details finden Sie unter DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED.
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
ist eine Ansicht. Sie dürfen keine Daten in eine Ansicht schreiben.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Die Spalte "Z-Sortierung" <columnName>
ist im Datenschema nicht vorhanden.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Die Z-Sortierung auf <cols>
wird
ineffektiv, da wir derzeit keine Statistiken für diese Spalten sammeln. Informationen zu den nächsten Schritten finden Sie im Abschnitt
<link>
weitere Informationen zum Überspringen von Daten und zur Z-Ordnung. Sie können deaktivieren
diese Überprüfung deaktivieren, indem Sie
„%%sql set <zorderColStatKey>
= false“ festlegen
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
ist eine Partitionsspalte. Z-Sortierung kann nur für Datenspalten ausgeführt werden
Delta Sharing
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Aktivierungsnonce nicht gefunden. Der verwendete Aktivierungslink ist ungültig oder abgelaufen. Generieren Sie den Aktivierungslink neu, und versuchen Sie es erneut.
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE: nicht zugewiesen
Die Freigabe zwischen <regionHint>
-Regionen und Regionen außerhalb davon wird nicht unterstützt.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: nicht zugewiesen
Die mit der current_recipient
-Funktion definierte Ansicht dient nur der gemeinsamen Nutzung und kann nur von der Datenempfängerseite abgefragt werden. Das bereitgestellte Securable mit der ID <securableId>
ist keine Delta Sharing View.
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Die bereitgestellte sicherungsfähige Art <securableKind>
unterstützt keine Veränderlichkeit bei Delta-Freigaben.
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: nicht zugewiesen
Die bereitgestellte sicherungsfähige Art <securableKind>
unterstützt keine Tokenrotationsaktion, die vom Marketplace-Dienst initiiert wird.
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: nicht zugewiesen
<dsError>
: Authentifizierungstyp ist in der Anbieterentität <providerEntity>
nicht verfügbar.
DS_CDF_NOT_ENABLED
SQLSTATE: nicht zugewiesen
<dsError>
: Der Zugriff auf den Änderungsdaten-Feed für <tableName>
ist nicht möglich. CDF ist in der ursprünglichen Delta-Tabelle nicht aktiviert. Wenden Sie sich bitte an Ihren Datenanbieter.
DS_CDF_NOT_SHARED
SQLSTATE: nicht zugewiesen
<dsError>
: Zugriff auf Änderungsdatenfeed für <tableName>
nicht möglich. CDF ist für die Tabelle nicht freigegeben. Wenden Sie sich bitte an Ihren Datenanbieter.
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE: nicht zugewiesen
<dsError>
: Der Cloudanbieter ist vorübergehend für <rpcName>
nicht verfügbar, versuchen Sie es erneut.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: nicht zugewiesen
<dsError>
: Datenmaterialisierungsaufgabe <runId>
von Organisation <orgId>
ist bei Befehl <command>
fehlgeschlagen.
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
<dsError>
: Datenmaterialisierungsaufgabe <runId>
von Organisation <orgId>
unterstützt Befehl <command>
nicht
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: nicht zugewiesen
<dsError>
: Der gültige Namespace zum Erstellen der Materialisierung für <tableName>
konnte nicht gefunden werden. Wenden Sie sich an Ihren Datenanbieter, um dies zu beheben.
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
<dsError>
: Datenmaterialisierungsaufgabe <runId>
von Organisation <orgId>
ist nicht vorhanden.
DS_DELTA_ILLEGAL_STATE
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: nicht zugewiesen
<dsError>
: Es konnten nicht alle Teildateien der Prüfpunktversion gefunden werden: <version>
. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: nicht zugewiesen
<dsError>
Die bereitgestellte sicherungsfähige Art <securableKind>
unterstützt keine Tokenablaufaktion, die vom Marketplace-Dienst initiiert wird.
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: nichts zugewiesen
<dsError>
: <feature>
ist nur für die Databricks-zu-Databricks-Delta-Freigabe aktiviert.
DS_FILE_LISTING_EXCEPTION
SQLSTATE: nicht zugewiesen
<dsError>
: <storage>
: <message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_FLAKY_NETWORK_CONNECTION
SQLSTATE: nicht zugewiesen
<dsError>
: Für <rpcName>
ist die Netzwerkverbindung instabil, bitte versuchen Sie es erneut.<traceId>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: nicht zugewiesen
<dsError>
: <key>
wird vom Aufrufer nicht festgelegt.
DS_ILLEGAL_STATE
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: nicht zugewiesen
<dsError>
: Ungültiger Azure-Pfad: <path>
.
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_INVALID_FIELD
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_INVALID_PARTITION_SPEC
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: nicht zugewiesen
<dsError>
: Abfrage für <schema>
fehlgeschlagen.<table>
aus Freigabe <share>
.
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE: nicht zugewiesen
<dsError>
: Zeitüberschreitung bei Abfrage für <schema>
.<table>
von Freigabe <share>
nach <timeoutInSec>
Sekunden.
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: nicht zugewiesen
<dsError>
: Idempotenzschlüssel ist für die asynchrone Abfrage von <schema>
<table>
aus Freigabe <share>
erforderlich.
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: nicht zugewiesen
<dsError>
: Geben Sie einen davon an: <parameters>
.
DS_NO_METASTORE_ASSIGNED
SQLSTATE: nicht zugewiesen
<dsError>
: Kein Metaspeicher für den aktuellen Arbeitsbereich zugewiesen (workspaceId: <workspaceId>
).
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: nicht zugewiesen
<dsError>
: Fehler beim Generieren des Workload-Identitätstokens für den O2D-OIDC-Anbieter: <message>
.
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: nicht zugewiesen
<dsError>
: Nicht übereinstimmende Paginierungs- oder Abfrageargumente.
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: nicht zugewiesen
<dsError>
: Partitionsspalte [<renamedColumns>
] wurde in der freigegebenen Tabelle umbenannt. Wenden Sie sich an Ihren Datenanbieter, um dies zu beheben.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: nicht zugewiesen
<dsError>
: Sie können Tabellendaten nur seit version <startVersion>
abfragen.
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: nicht zugewiesen
<dsError>
: Beim Verarbeiten von <queryType>
in <tableName>
nach <numActions>
-Aktualisierungen in <numIter>
-Iterationen ist ein Timeout aufgetreten.<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE: nichts zugewiesen
<dsError>
: Der Grenzwert für <resource>
wurde überschritten: [<limitSize>
]<suggestion>
.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: nicht zugewiesen
Es können keine Berechtigungen für <securableType>
an die vom System generierte Gruppe <principal>
gewährt werden.
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE: nicht zugewiesen
<dsError>
: Zeitreiseabfrage ist nicht zulässig, es sei denn, der Verlauf wird für <tableName>
freigegeben. Wenden Sie sich bitte an Ihren Datenanbieter.
DS_UNAUTHORIZED
SQLSTATE: nicht zugewiesen
<dsError>
: Nicht autorisiert.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: nicht zugewiesen
<dsError>
: Nicht autorisierter D2O-OIDC-Empfänger: <message>
.
DS_UNKNOWN_EXCEPTION
SQLSTATE: nicht zugewiesen
<dsError>
: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: nicht zugewiesen
<dsError>
: Unbekannte Abfrage-ID <queryID>
für <schema>
.<table>
aus Freigabe <share>
.
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: nicht zugewiesen
<dsError>
: Unbekannter Abfragestatus für die Abfrage-ID <queryID>
für <schema>
.<table>
aus Freigabe <share>
.
DS_UNKNOWN_RPC
SQLSTATE: nicht zugewiesen
<dsError>
: Unbekannter RPC <rpcName>
.
DS_UNSUPPORTED_DELTA_READER_VERSION (Nicht unterstützte Delta-Leser-Version)
SQLSTATE: nicht zugewiesen
<dsError>
: Die Delta-Protokollleserversion <tableReaderVersion>
ist höher als <supportedReaderVersion>
und kann nicht auf dem Delta-Freigabeserver unterstützt werden.
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE: nicht zugewiesen
<dsError>
: Tabellenfeatures <tableFeatures>
befinden sich in Tabelle<versionStr> <historySharingStatusStr> <optionStr>
DS_UNSUPPORTED_OPERATION
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: nicht zugewiesen
<dsError>
: Nicht unterstütztes Speicherschema: <scheme>
.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: nicht zugewiesen
<dsError>
: <schema>
konnte nicht abgerufen werden.<table>
aus "Share <share>
", da die Tabelle mit dem Typ [<tableType>
] derzeit im Delta Sharing-Protokoll nicht unterstützt wird.
DS_Benutzerkontextfehler
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE: nicht zugewiesen
<dsError>
: Die folgenden Funktionen sind in der Ansichtsfreigabeabfrage nicht zulässig: <functions>
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: nicht zugewiesen
<dsError>
: Arbeitsbereich <workspaceId>
Domäne ist nicht festgelegt.
DS_WORKSPACE_NOT_FOUND
SQLSTATE: nicht zugewiesen
<dsError>
: Arbeitsbereich <workspaceId>
wurde nicht gefunden.
Automatischer Lader
CF_ADD_NEW_NOT_SUPPORTED
Der Schemaentwicklungsmodus <addNewColumnsMode>
wird beim Angeben des Schemas nicht unterstützt. Um diesen Modus zu verwenden, können Sie stattdessen das Schema über cloudFiles.schemaHints
bereitstellen.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Es wurden Authentifizierungsoptionen für die Benachrichtigungseinrichtung für den (Standard-)Auflistungsmodus des
Eintragsmodus:
<options>
Wenn Sie den Dateibenachrichtigungsmodus verwenden möchten, legen Sie folgendes explizit fest:
.option(“cloudFiles.<useNotificationsKey>
”, “true”)
Alternativ können Sie die Überprüfung Ihrer Optionen überspringen und diese ignorieren.
Authentifizierungsoptionen können Sie festlegen:
.option(„cloudFiles.ValidateOptionsKey>“, „false“)
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Inkrementeller Auflistungsmodus (cloudFiles.<useIncrementalListingKey>
)
und Dateibenachrichtigung (cloudFiles.<useNotificationsKey>
)
wurden gleichzeitig aktiviert.
Stellen Sie sicher, dass Sie nur eine auswählen.
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Bitte stellen Sie entweder Databricks-Dienstanmeldeinformationen oder sowohl eine ClientID als auch ein ClientSecret für die Authentifizierung mit Azure bereit.
CF_AZURE_AUTHENTIFIZIERUNG_MEHRERE_OPTIONEN
Wenn eine Databricks-Dienstanmeldeinformation bereitgestellt wird, sollten keine anderen Anmeldeinformationen (z. B. clientId, clientSecret oder connectionString) bereitgestellt werden.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Erforderlich sind adlsBlobSuffix und adlsDfsSuffix für Azure
CF_BUCKET_MISMATCH
Der <storeType>
im Dateiereignis <fileEvent>
entspricht nicht der Erwartung der Quelle: <source>
.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Schema kann nicht weiterentwickelt werden, wenn das Schemaprotokoll leer ist. Schemaprotokollspeicherort: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Die folgende Warteschlangenmeldung kann nicht analysiert werden: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Der Containername kann nicht vom Pfad <path>
aufgelöst werden, aufgelöster URI: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Verzeichnisauflistung kann nicht ausgeführt werden, wenn ein asynchroner Backfill-Thread ausgeführt wird
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
CloudFiles.cleanSource und cloudFiles.allowOverwrites können nicht gleichzeitig aktiviert werden.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Das automatische Laden kann verarbeitete Dateien nicht löschen, da sie keine Schreibberechtigungen für das Quellverzeichnis besitzt.
<reason>
Um das Problem zu beheben, können Sie entweder:
- Erteilen von Schreibberechtigungen für das Quellverzeichnis ODER
- Set cleanSource to 'OFF'
Sie können den Stream auch entsperren, indem Sie die SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors auf "true" aktivieren.
CF_DUPLICATE_COLUMN_IN_DATA
Fehler beim Ableiten des Partitionsschemas der Tabelle. Sie haben dieselbe Spalte sowohl in Ihren Daten als auch in Ihren Partitionspfaden dupliziert. Um den Partitionswert zu ignorieren, geben Sie Ihre Partitionsspalten explizit an, indem Sie verwenden: .option("cloudFiles.<partitionColumnsKey>
", "{kommagetrennte Liste}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Das Schema kann nicht abgeleitet werden, wenn der Eingabepfad <path>
leer ist. Versuchen Sie, den Datenstrom zu starten, wenn Dateien im Eingabepfad vorhanden sind, oder geben Sie das Schema an.
CF_EVENT_GRID_AUTH_ERROR
Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Dienstprinzipal
über <permissionType>
-Event Grid-Abonnements verfügt. Weitere Details finden Sie unter:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Fehler beim Erstellen des Event Grid-Abonnements. Stellen Sie sicher, dass Microsoft.EventGrid als
Ressourcenanbieter in Ihrem Abonnement registriert ist. Weitere Details finden Sie unter:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Speicherkonto
(<storageAccount>
) sich in Ihrer Ressourcengruppe (<resourceGroup>
) befindet und dass
Das Speicherkonto ist ein "StorageV2(general purpose v2)"-Konto. Weitere Details finden Sie unter:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Der Modus für Ereignisbenachrichtigungen beim automatischen Laden wird für <cloudStore>
nicht unterstützt.
CF_FAILED_TO_CHECK_STREAM_NEW
Fehler beim Überprüfen, ob der Datenstrom neu ist.
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Fehler beim Erstellen des Abonnements: <subscriptionName>
. Ein Abonnement mit demselben Namen ist bereits vorhanden und einem anderen Thema zugeordnet: <otherTopicName>
. Das gewünschte Thema ist <proposedTopicName>
. Löschen Sie entweder das vorhandene Abonnement, oder erstellen Sie ein Abonnement mit einem neuen Ressourcensuffix.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Fehler beim Erstellen von Thema <topicName>
. Ein Thema mit demselben Namen ist bereits vorhanden.<reason>
Entfernen sie das vorhandene Thema, oder versuchen Sie es erneut mit einem anderen Ressourcensuffix.
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Fehler beim Löschen der Benachrichtigung mit der ID <notificationId>
im Bucket <bucketName>
für Thema <topicName>
. Versuchen Sie es erneut, oder entfernen Sie die Benachrichtigung manuell über die GCP-Konsole.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Fehler beim Deserialisieren des gespeicherten Schemas aus der Zeichenfolge: ‚<jsonSchema>
‘
CF_FAILED_TO_EVOLVE_SCHEMA
Schema kann nicht ohne Schemaprotokoll weiterentwickelt werden.
CF_FAILED_TO_FIND_PROVIDER
Der Anbieter für <fileFormatInput>
konnte nicht gefunden werden.
CF_FAILED_TO_INFER_SCHEMA
Fehler beim Ableiten des Schemas für das Format <fileFormatInput>
aus vorhandenen Dateien im Eingabepfad <path>
.
Weitere Details finden Sie unter CF_FAILED_TO_INFER_SCHEMA.
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Fehler beim Schreiben in das Schemaprotokoll am Speicherort <path>
.
CF_FILE_FORMAT_REQUIRED
Die erforderliche Option wurde nicht gefunden: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Es wurden mehrere (<num>
) Abonnements mit dem Präfix "Auto Loader" für das Thema <topicName>
gefunden:
<subscriptionList>
Pro Thema sollte nur ein Abonnement vorhanden sein. Stellen Sie bitte manuell sicher, dass Ihr Thema nicht über mehrere Abonnements verfügt.
CF_GCP_AUTHENTICATION
Bitte geben Sie entweder alle folgenden Informationen an: <clientEmail>
, <client>
,
<privateKey>
und <privateKeyId>
, oder geben Sie <serviceCredential>
an, um Ihre Databricks-Dienstanmeldeinformationen zu verwenden.
Geben Sie alternativ nichts davon an, um die standardmäßige GCP-Anmeldeinformationsanbieterkette für die Authentifizierung bei GCP-Ressourcen zu verwenden.
CF_GCP_LABELS_COUNT_EXCEEDED
Es wurden zu viele Bezeichnungen (<num>
) für die GCP-Ressource empfangen. Die maximale Bezeichnungsanzahl pro Ressource ist <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Sie haben zu viele Ressourcentags (<num>
) für die GCP-Ressource empfangen. Die maximale Anzahl von Ressourcentags pro Ressource ist <maxNum>
, da Ressourcentags als GCP-Bezeichnungen für Ressourcen gespeichert werden, und Databricks-spezifische Tags verbrauchen einige dieser Bezeichnungskontingente.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Unvollständige Protokolldatei im Schemaprotokoll im Pfad <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Unvollständige Metadatendatei im Prüfpunkt "Auto Loader"
CF_INCORRECT_BATCH_USAGE
CloudFiles ist eine Streamingquelle. Verwenden Sie spark.readStream anstelle von spark.read. Um diese Überprüfung zu deaktivieren, legen Sie <cloudFilesFormatValidationEnabled>
auf "false" fest.
CF_INCORRECT_SQL_PARAMS
Die cloud_files-Methode akzeptiert zwei erforderliche Zeichenfolgenparameter: den Pfad zum Laden von und das Dateiformat. Dateileseoptionen müssen in einer Zeichenfolgen-Schlüsselwertzuordnung bereitgestellt werden. Beispiel: cloud_files(“path”, “json”, map(“option1”, “value1”)). Empfangen: <params>
CF_INCORRECT_STREAM_USAGE
Um "cloudFiles" als Streamingquelle zu verwenden, geben Sie das Dateiformat mit der Option "cloudFiles.format" an, und verwenden Sie .load(), um Ihren DataFrame zu erstellen. Um diese Überprüfung zu deaktivieren, legen Sie <cloudFilesFormatValidationEnabled>
auf "false" fest.
CF_INTERNE_FEHLER
Interner Fehler.
Weitere Details finden Sie unter CF_INTERNAL_ERROR.
CF_INVALID_ARN
Ungültiger ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
Der private Schlüssel, der mit option cloudFiles.certificate bereitgestellt wird, kann nicht analysiert werden. Geben Sie einen gültigen öffentlichen Schlüssel im PEM-Format an.
CF_INVALID_AZURE_CERT_PRIVATE_KEY (Ungültiger privater Schlüssel für Azure-Zertifikat)
Der private Schlüssel, der mit option cloudFiles.certificatePrivateKey bereitgestellt wird, kann nicht analysiert werden. Geben Sie einen gültigen privaten Schlüssel im PEM-Format an.
CF_INVALID_CHECKPOINT
Dieser Prüfpunkt ist keine gültige CloudFiles-Quelle.
CF_INVALID_CLEAN_SOURCE_MODE
Ungültiger Modus für die Option "Saubere Quelle" <value>
.
CF_INVALID_GCP_RESOURCE_TAG_KEY
Ungültiger Ressourcentagschlüssel für GCP-Ressource: <key>
. Schlüssel müssen mit einem Kleinbuchstaben beginnen, innerhalb von 1 bis 63 Zeichen lang sein und nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Ungültiger Ressourcentagwert für GCP-Ressource: <value>
. Werte müssen innerhalb von 0 bis 63 Zeichen lang sein und dürfen nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Auto Loader unterstützt bei Verwendung mit verwalteten Dateiereignissen die folgenden Optionen nicht:
<optionList>
Es wird empfohlen, diese Optionen zu entfernen und dann den Datenstrom neu zu starten.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Ungültige Antwort vom Dienst für verwaltete Dateiereignisse. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
Weitere Details finden Sie unter CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE.
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
muss eine von { sein
„<addNewColumns>
“
„<failOnNewColumns>
“
„<rescue>
“
“<noEvolution>
”}
CF_INVALID_SCHEMA_HINTS_OPTION
Schemahinweise können nur einmal eine bestimmte Spalte angeben.
In diesem Fall wird die Spalte neu definiert: <columnName>
mehrmals in „schemaHints“ neu definiert:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Schemahinweise können nicht verwendet werden, um die geschachtelten Typen von Zuordnungen und Arrays außer Kraft zu setzen.
In Konflikt stehende Spalte: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset sollte mit einem ReadLimit für diese Quelle aufgerufen werden.
CF_LOG_FILE_MALFORMED
Die Protokolldatei war falsch formatiert: Fehler beim Lesen der richtigen Protokollversion aus <fileName>
.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Sie haben den Auto Loader angewiesen, bestehende Dateien an Ihrem externen Speicherort zu ignorieren, indem Sie "includeExistingFiles" auf "false" setzen. Der Dienst für das Management von Dateivorgängen entdeckt jedoch weiterhin vorhandene Dateien an Ihrem externen Speicherort. Versuchen Sie es erneut, nachdem die Dateiverwaltungsereignisse das Ermitteln aller Dateien an Ihrem externen Speicherort abgeschlossen haben.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Sie verwenden Auto Loader mit verwalteten Dateiereignissen, aber es scheint, dass die externe Position für Ihren Eingabepfad „<path>
“ nicht über aktivierte Dateiereignisse verfügt oder der Eingabepfad ungültig ist. Bitten Sie Ihren Databricks-Administrator, die Dateivorgänge am externen Speicherort für Ihren Eingabepfad zu aktivieren.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Sie verwenden Auto Loader mit verwalteten Dateiereignissen, haben jedoch keinen Zugriff auf den externen Speicherort oder das Volume für den Eingabepfad ‚<path>
‘ oder der Eingabepfad ist ungültig. Bitten Sie Ihren Databricks-Administrator, Leseberechtigungen für den externen Speicherort oder das Volume zu erteilen oder einen gültigen Eingabepfad innerhalb eines vorhandenen externen Speicherorts oder Volumes bereitzustellen.
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
Auto Loader mit verwalteten Dateiereignissen ist nur in Databricks Serverless verfügbar. Um den Vorgang fortzusetzen, verschieben Sie diesen Workload auf Databricks serverless, oder deaktivieren Sie die Option "cloudFiles.useManagedFileEvents".
CF_MAX_MUST_BE_POSITIVE
max muss positiv sein
CF_METADATA_FILE_CONCURRENTLY_USED
Mehrere Streaming-Abfragen werden gleichzeitig mit <metadataFile>
ausgeführt.
CF_MISSING_METADATA_FILE_ERROR
Die Metadatendatei im Verzeichnis des Streamingquellpunkts fehlt. Diese Metadaten
Datei enthält wichtige Standardoptionen für den Datenstrom, sodass der Datenstrom nicht neu gestartet werden kann.
werden kann. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
CF_MISSING_PARTITION_COLUMN_ERROR
Die Partitionsspalte <columnName>
ist im bereitgestellten Schema nicht vorhanden:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Geben Sie mit .schema() ein Schema an, wenn im Dateibenachrichtigungsmodus kein Pfad für die CloudFiles-Quelle bereitgestellt wird. Alternativ können Sie das automatische Ladeprogramm verwenden, um das Schema abzuleiten, bitte geben Sie einen Basispfad in .load() an.
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Es wurden vorhandene Benachrichtigungen für das Thema <topicName>
im Bucket <bucketName>
gefunden.
Benachrichtigung,ID
<notificationList>
Um das Verunreinigen des Abonnenten mit unbeabsichtigten Ereignissen zu vermeiden, löschen Sie die oben genannten Benachrichtigungen, und versuchen Sie es erneut.
CF_NEW_PARTITION_ERROR
Neue Partitionsspalten wurden von Ihren Dateien abgeleitet: [<filesList>
]. Geben Sie alle Partitionsspalten in Ihrem Schema an, oder geben Sie eine Liste der Partitionsspalten an, für die Sie Werte extrahieren möchten, indem Sie folgendes verwenden: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Fehler beim Ableiten des Partitionsschemas des aktuellen Dateibatches. Geben Sie Ihre Partitionsspalten explizit mit .option("cloudFiles.<partitionColumnOption>
", "{kommagetrennte Liste}") an.
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Dateien können nicht gelesen werden, wenn der Eingabepfad <path>
nicht vorhanden ist. Stellen Sie sicher, dass der Eingabepfad vorhanden ist, und versuchen Sie es erneut.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Regelmäßiges Zurückfüllen wird nicht unterstützt, wenn asynchrones Ausfüllen deaktiviert ist. Sie können die asynchrone Nachfüll-/Verzeichnisauflistung aktivieren, indem Sie spark.databricks.cloudFiles.asyncDirListing
auf "true" festlegen.
CF_PREFIX_MISMATCH
Nicht übereinstimmendes Ereignis gefunden: Der Schlüssel <key>
verfügt nicht über das Präfix <prefix>
CF_PROTOCOL_MISMATCH
<message>
Wenn Sie keine weiteren Änderungen an Ihrem Code vornehmen müssen, legen Sie die SQL-Datei fest.
Konfiguration: '<sourceProtocolVersionKey> = <value>
'
um Ihren Datenstrom fortzusetzen. Weitere Informationen finden Sie unter:
<docLink>
finden Sie weitere Details.
CF_REGION_NOT_FOUND_ERROR
Aws-Standardregion konnte nicht abgerufen werden. Geben Sie eine Region mit der Option "cloudFiles.region" an.
CF_RESOURCE_SUFFIX_EMPTY
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht leer sein.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur alphanumerische Zeichen, Bindestriche (-) und Unterstriche (_) enthalten.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur Kleinbuchstaben, Zahlen und Gedankenstriche (-) aufweisen.
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur alphanumerische Zeichen, Bindestriche (-), Unterstriche (_), Punkte (.), Tilden (~) Pluszeichen (+) und Prozentzeichen (<percentSign>
) enthalten.
CF_RESOURCE_SUFFIX_LIMIT
Fehler beim Einrichten von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht mehr als <limit>
Zeichen enthalten.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix muss zwischen den Zeichen <lowerLimit>
und <upperLimit>
liegen.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Tagschlüssel (<key>
) für eingeschränkte GCP-Ressource gefunden. Die folgenden GCP-Ressourcentagschlüssel sind für das automatische Laden eingeschränkt: [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration darf nicht größer als cloudFiles.maxFileAge sein.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Fehler beim Erstellen einer Benachrichtigung für das Thema: <topic>
mit präfix: <prefix>
. Es gibt bereits ein Thema mit demselben Namen mit einem anderen Präfix: <oldPrefix>
. Versuchen Sie, ein anderes Ressourcensuffix zum Einrichten zu verwenden oder das vorhandene Setup zu löschen.
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
Fehler beim Klonen und Migrieren von Schemaprotokolleinträgen aus dem Quellschemaprotokoll.
CF_SFTP_FEHLENDES_PASSWORT_ODER_SCHLÜSSELDATEI
Eine Kennwort- oder Schlüsseldatei muss für SFTP angegeben werden.
Geben Sie das Kennwort im Quell-URI oder über <passwordOption>
an, oder geben Sie den Schlüsseldateiinhalt über <keyFileOption>
an.
CF_SFTP_NOT_ENABLED
Der Zugriff auf SFTP-Dateien ist nicht aktiviert.. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
CF_SFTP_REQUIRE_UC_CLUSTER
Für den Zugriff auf SFTP-Dateien ist ein UC-fähiger Cluster erforderlich. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
CF_SFTP_USERNAME_NOT_FOUND
Der Benutzername muss für SFTP angegeben werden.
Geben Sie den Benutzernamen im Quell-URI oder über <option>
an.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Geben Sie den Quellverzeichnispfad mit Option path
an.
CF_SOURCE_UNSUPPORTED
Die Clouddateienquelle unterstützt derzeit nur S3-Pfade, Azure Blob Storage (wasb/wasbs) und Azure Data Lake Gen1 (adl) und Gen2 (abfs/abfss). Pfad: „<path>
“, aufgelöster URI: „<uri>
“
CF_STATE_INCORRECT_SQL_PARAMS
Die Funktion cloud_files_state akzeptiert einen Zeichenfolgenparameter, der das Prüfpunktverzeichnis eines CloudFiles-Datenstroms oder einen mehrteiligen Tabellennamen darstellt, der eine Streamingtabelle identifiziert. Zudem gibt es einen optionalen zweiten Parameter vom Typ Ganzzahl, der die Prüfpunktversion angibt, für die der Zustand geladen werden soll. Der zweite Parameter kann auch "latest" sein, um den neuesten Prüfpunkt zu lesen. Empfangen: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Der Eingabeprüfpunktpfad <path>
ist ungültig. Entweder ist der Pfad nicht vorhanden oder es wurden keine cloud_files Quellen gefunden.
CF_STATE_INVALID_VERSION
Die angegebene Version <version>
ist nicht vorhanden oder wurde während der Analyse entfernt.
CF_THREAD_IS_DEAD
<threadName>
Thread ist tot.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Der Prüfpunktspeicherort des Streams kann nicht aus dem Prüfpunktspeicherort der Quelle <checkPointLocation>
abgeleitet werden
CF_UNABLE_TO_DETECT_FILE_FORMAT
Das Quelldateiformat aus <fileSize>
-Stichprobendateien konnte nicht erkannt werden, es wurde <formats>
gefunden. Geben Sie das Format an.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Bucketinformationen können nicht extrahiert werden. Pfad: „<path>
“, aufgelöster URI: „<uri>
“.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Schlüsselinformationen können nicht extrahiert werden. Pfad: „<path>
“, aufgelöster URI: „<uri>
“.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Speicherkontoinformationen können nicht extrahiert werden; Pfad: '<path>
', aufgelöste URI: '<uri>
'
CF_UNABLE_TO_LIST_EFFICIENTLY
Es wurde ein Verzeichnisbenennungsereignis für den Pfad <path>
empfangen, aber wir können dieses Verzeichnis nicht effizient auflisten. Damit der Datenstrom fortgesetzt werden kann, legen Sie die Option "cloudFiles.ignoreDirRenames" auf "true" fest, und erwägen Sie, reguläre Backfills mit "cloudFiles.backfillInterval" zu aktivieren, damit diese Daten verarbeitet werden.
CF_UNEXPECTED_READ_LIMIT
Unerwartetes Leselimit: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Unbekannte Optionstasten gefunden:
<optionList>
Stellen Sie sicher, dass alle bereitgestellten Optionstasten korrekt sind. Wenn Sie die
Überprüfung Ihrer Optionen überspringen und diese unbekannten Optionen ignorieren möchten, können Sie Folgendes festlegen:
.option(“cloudFiles.<validateOptions>
”, “false”)
CF_UNKNOWN_READ_LIMIT
Unbekanntes LeseLimit: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
Die SQL-Funktion "cloud_files" zum Erstellen einer Streamingquelle für das automatische Laden wird nur in einer Delta Live Tables-Pipeline unterstützt. Weitere Details finden Sie unter:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Die Schemaerkennung wird für das Format nicht unterstützt: <format>
. Geben Sie das Schema an.
CF_UNSUPPORTED_LOG_VERSION
Nicht unterstützte Logversion: Die maximal unterstützte Logversion ist v<maxVersion>``, but encountered v``<version>
. Die Protokolldatei wurde von einer neueren Version von DBR erstellt und kann von dieser Version nicht gelesen werden. Bitte aktualisieren.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Schema-Evolutionsmodus <mode>
wird für Format <format>
nicht unterstützt. Legen Sie den Schemaentwicklungsmodus auf "none" fest.
CF_USE_DELTA_FORMAT
Das Lesen aus einer Delta-Tabelle wird mit dieser Syntax nicht unterstützt. Wenn Sie Daten aus Delta nutzen möchten, lesen Sie bitte die Dokumente: lesen Sie eine Delta-Tabelle (<deltaDocLink>
) oder lesen Sie eine Delta-Tabelle als Datenstromquelle (<streamDeltaDocLink>
). Die Streamingquelle von Delta ist bereits für den inkrementellen Verbrauch von Daten optimiert.
Geodaten
EWKB_PARSE_ERROR
Fehler beim Parsen von EWKB „<parseError>
“ an Position <pos>
Fehler beim Parsen von GEOJSON
Fehler beim Analysieren von GeoJSON: <parseError>
an Position <pos>
Weitere Informationen finden Sie unter GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
ist keine gültige H3-Zell-ID.
Weitere Details finden Sie unter H3_INVALID_CELL_ID.
H3_INVALID_GRID_DISTANCE_VALUE
H3-Rasterabstand <k>
darf nicht negativ sein
Weitere Details finden Sie unter H3_INVALID_GRID_DISTANCE_VALUE.
H3_INVALID_RESOLUTION_VALUE
Die H3-Auflösung <r>
muss zwischen <minR>
und <maxR>
liegen (inklusive)
Weitere Details finden Sie unter H3_INVALID_RESOLUTION_VALUE.
H3_NOT_ENABLED
<h3Expression>
ist deaktiviert oder wird nicht unterstützt. Erwägen Sie, Photon zu aktivieren oder zu einer Stufe zu wechseln, die H3-Ausdrücke unterstützt
Weitere Details finden Sie unter H3_NOT_ENABLED.
H3_PENTAGON_ENCOUNTERED_ERROR
Beim Berechnen des Hexrings von <h3Cell>
mit Rasterabstand <k>
ist ein Fünfeck aufgetreten.
H3_UNDEFINED_GRID_DISTANCE
H3-Rasterabstand zwischen <h3Cell1>
und <h3Cell2>
ist nicht definiert
ST_DIFFERENT_SRID_VALUES
Argumente für "<sqlFunction>
" müssen denselben SRID-Wert aufweisen. SRID-Werte gefunden: <srid1>
, <srid2>
ST_INVALID_ARGUMENT
„<sqlFunction>
“: <reason>
ST_INVALID_ARGUMENT_TYPE
Das Argument für „<sqlFunction>
“ muss vom Typ „<validTypes>
“ sein
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: Ungültige oder nicht unterstützte CRS-Transformation von SRID-<srcSrid>
in SRID-<trgSrid>
ST_INVALID_ENDIANNESS_VALUE
Die Byte-Reihenfolge „<e>
“ muss „NDR“ (little-endian) oder „XDR“ (big-endian) sein
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: Ungültiger Geohashwert: '<geohash>
'. Geohash-Werte müssen gültige Base32-Zeichenfolgen in Kleinbuchstaben sein, wie inhttps://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_INDEX_VALUE
<sqlFunction>
: Ungültiger Index <index>
für den bereitgestellten Geospatialwert.
ST_INVALID_PRECISION_VALUE
Präzisions-<p>
muss zwischen <minP>
und <maxP>
(einschließlich) liegen.
ST_INVALID_SRID_VALUE
Ungültige oder nicht unterstützte SRID <srid>
ST_NOT_ENABLED
<stExpression>
ist deaktiviert oder wird nicht unterstützt. Erwägen Sie, Photon zu aktivieren oder zu einer Stufe zu wechseln, die ST-Ausdrücke unterstützt
ST_UNSUPPORTED_RETURN_TYPE
Die Datentypen GEOGRAPHY
und GEOMETRY
können in Abfragen nicht zurückgegeben werden. Verwenden Sie einen der folgenden SQL-Ausdrücke, um sie in Standardaustauschformate zu konvertieren: <projectionExprs>
.
WKB_PARSE_ERROR
Fehler beim Analysieren von WKB „<parseError>
“ an Position <pos>
Weitere Informationen finden Sie unter WKB_PARSE_ERROR
WKT_PARSE_ERROR
Fehler beim Parsen von WKT <parseError>
bei Position <pos>
Weitere Details finden Sie unter WKT_PARSE_ERROR.
Unity-Katalog
CONFLICTING_COLUMN_NAMES_ERROR
Spalte <columnName>
konfliktet mit einer anderen Spalte mit demselben Namen, aber ohne nachfolgende Leerzeichen (z. B. eine vorhandene Spalte mit dem Namen <columnName>
''). Benennen Sie die Spalte mit einem anderen Namen um.
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
SQLSTATE: nicht zugewiesen
Ungültige Anforderung zum Abrufen von Anmeldeinformationen auf Verbindungsebene für die Verbindung vom Typ <connectionType>
. Solche Anmeldeinformationen sind nur für verwaltete PostgreSQL-Verbindungen verfügbar.
CONNECTION_TYPE_NOT_ENABLED
SQLSTATE: nicht zugewiesen
Der Verbindungstyp '<connectionType>
' ist nicht aktiviert. Aktivieren Sie die Verbindung, um sie zu verwenden.
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
SQLSTATE: nicht zugewiesen
Es gibt bereits ein Empfängerobjekt („<existingRecipientName>
“) mit demselben Freigabebezeichner „<existingMetastoreId>
“.
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
SQLSTATE: nicht zugewiesen
Daten der sicherungsfähigen Delta-Freigabeart <securableKindName>
sind schreibgeschützt und können nicht erstellt, geändert oder gelöscht werden.
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
SQLSTATE: nicht zugewiesen
Die Ausgabe von Anmeldeinformationen wird für Nicht-Databricks-Compute-Umgebung abgelehnt, da der Zugriff auf externe Daten für Metastore <metastoreName>
deaktiviert wurde. Wenden Sie sich an Ihren Metastore-Administrator, um die Konfiguration "Externer Datenzugriff" im Metastore zu aktivieren.
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
SQLSTATE: nicht zugewiesen
Auf die Tabelle mit der ID <tableId>
kann aufgrund ihrer Art <securableKind>
außerhalb der Databricks Compute Environment nicht zugegriffen werden. Nur "TABLE_EXTERNAL
", "TABLE_DELTA_EXTERNAL
" und "TABLE_DELTA
" Tabellentypen können extern aufgerufen werden.
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
SQLSTATE: nicht zugewiesen
Berechtigungen EXTERNAL
USE SCHEMA
gelten nicht für diese Entität <assignedSecurableType>
und können nur einem Schema oder Katalog zugewiesen werden. Entfernen Sie die Berechtigungen aus dem <assignedSecurableType>
-Objekt, und weisen Sie sie stattdessen einem Schema oder Katalog zu.
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
SQLSTATE: nicht zugewiesen
Tabelle mit ID <tableId>
kann wegen ihres Typs <securableKind>
nicht von außerhalb der "Databricks Compute Environment" beschrieben werden. Nur 'TABLE_EXTERNAL
' und 'TABLE_DELTA_EXTERNAL
' Tabellentypen können extern geschrieben werden.
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
SQLSTATE: nicht zugewiesen
Der Speicherort für einen Fremdkatalog vom Typ <catalogType>
wird zum Entladen von Daten verwendet und darf nicht schreibgeschützt sein.
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
SQLSTATE: nicht zugewiesen
Die Anzahl der <resourceType>
für Eingabepfad <url>
überschreitet den zulässigen Grenzwert (<overlapLimit>
) für überlappende HMS-<resourceType>
.
INVALID_RESOURCE_NAME_DELTA_SHARING
SQLSTATE: nicht zugewiesen
Delta-Freigabeanforderungen werden nicht mit Ressourcennamen unterstützt.
INVALID_RESOURCE_NAME_ENTITY_TYPE
SQLSTATE: nicht zugewiesen
Der bereitgestellte Ressourcenname verweist auf den Entitätstyp <provided>
, aber es wurde <expected>
erwartet.
INVALID_RESOURCE_NAME_METASTORE_ID
SQLSTATE: nicht zugewiesen
Der bereitgestellte Ressourcenname verweist auf einen Metaspeicher, der für die aktuelle Anforderung nicht im Gültigkeitsbereich ist.
LOCATION_OVERLAP
SQLSTATE: Nicht zugewiesen
Eingabepfad-URL „<path>
“ überlappt mit <overlappingLocation>
innerhalb des Aufrufs „<caller>
“. <conflictingSummary>
.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
SQLSTATE: nicht zugewiesen
Der Speicherstamm für den Fremdkatalog von Redshift muss AWS S3 sein.
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
SQLSTATE: nicht zugewiesen
Sicherungsfähig mit Art <securableKind>
unterstützt keinen Lakehouse Verbund.
SECURABLE_KIND_NOT_ENABLED
SQLSTATE: nicht zugewiesen
Sicherungsfähige Art „<securableKind>
“ ist nicht aktiviert. Wenn es sich um eine sicherungsfähige Art handelt, die einer Previewfunktion zugeordnet ist, aktivieren Sie sie in den Arbeitsbereichseinstellungen.
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
SQLSTATE: nicht zugewiesen
Sicherungsfähig mit Typ <securableType>
unterstützt keinen Lakehouse Verbund.
Quelltabelle-Spaltenanzahl überschreitet das Limit
SQLSTATE: nicht zugewiesen
Die Quelltabelle enthält mehr als <columnCount>
Spalten. Bitte reduzieren Sie die Anzahl der Spalten auf <columnLimitation>
oder weniger.
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
SQLSTATE: nicht zugewiesen
Die ausgetauschte AAD-Tokenlebensdauer beträgt <lifetime>
und ist zu kurz konfiguriert. Überprüfen Sie Ihre Azure AD-Einstellung, um sicherzustellen, dass das temporäre Zugriffstoken mindestens eine Stunde lebensdauer hat.https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_EVALUATION_ERROR
SQLSTATE: nicht zugewiesen
Fehler beim Auswerten von ABAC-Richtlinien für <resource>
.
UC_AUTHZ_ACTION_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Die Autorisierung <actionName>
wird nicht unterstützt; Überprüfen Sie, ob der aufgerufene RPC für diesen Ressourcentyp implementiert ist.
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Es kann keine Verbindung für einen integrierten Hive-Metaspeicher erstellt werden, da der Benutzer: <userId>
nicht der Administrator des Arbeitsbereichs ist: <workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
SQLSTATE: nicht zugewiesen
Versuchen Sie, ein eingeschränktes Feld in der integrierten HMS-Verbindung '<connectionName>
' zu ändern. Nur "warehouse_directory" kann aktualisiert werden.
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
SQLSTATE: nicht zugewiesen
Fehler beim Umbenennen der Tabellenspalte <originalLogicalColumn>
, da sie für die Partitionsfilterung in <sharedTableName>
verwendet wird. Um fortzufahren, können Sie die Tabelle aus der Freigabe entfernen, die Spalte umbenennen und mit den gewünschten Partitionsfilterspalten erneut freigeben. Dies kann jedoch die Streamingabfrage für Ihren Empfänger unterbrechen.
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
SQLSTATE: nicht zugewiesen
<securableType>
'<securable>
' kann nicht unter <parentSecurableType>
'<parentSecurable>
' erstellt werden, da die Anforderung nicht von einem UC-Cluster stammt.
UC_CLOUD_STORAGE_ACCESS_FAILURE
SQLSTATE: nicht zugewiesen
Fehler beim Zugriff auf Cloudspeicher: <errMsg>
exceptionTraceId=<exceptionTraceId>
UC_CONFLICTING_CONNECTION_OPTIONS
SQLSTATE: nicht zugewiesen
Eine Verbindung mit den Authentifizierungsoptionen "Benutzername/Kennwort" und "Oauth" kann nicht hergestellt werden. Wählen Sie eine aus.
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
SQLSTATE: nicht zugewiesen
Die Anmeldeinformationen „<credentialName>
“ haben mindestens eine abhängige Verbindung. Sie können die Option "Erzwingen" verwenden, um die Anmeldeinformationen weiterhin zu aktualisieren oder zu löschen, aber die Verbindungen, die diese Anmeldeinformationen verwenden, funktionieren möglicherweise nicht mehr.
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
SQLSTATE: nicht zugewiesen
Das der Verbindung zugeordnete Zugriffstoken ist abgelaufen. Aktualisieren Sie die Verbindung, um den OAuth-Fluss neu zu starten, um ein Token abzurufen.
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
SQLSTATE: nicht zugewiesen
Das aktualisierungstoken, das der Verbindung zugeordnet ist, ist abgelaufen. Aktualisieren Sie die Verbindung, um den OAuth-Fluss neu zu starten, um ein neues Token abzurufen.
UC_CONNECTION_IN_FAILED_STATE
SQLSTATE: Kein Wert zugewiesen
Die Verbindung befindet sich im FAILED
Zustand. Aktualisieren Sie die Verbindung mit gültigen Anmeldeinformationen, um sie erneut zu aktivieren.
UC_CONNECTION_MISSING_REFRESH_TOKEN
SQLSTATE: nicht zugewiesen
Der Verbindung ist kein Aktualisierungstoken zugeordnet. Aktualisieren Sie die OAuth-Client-Integration in Ihrem Identitätsanbieter, um Aktualisierungs-Token zurückzugeben, und aktualisieren oder erstellen Sie die Verbindung neu, um den OAuth-Fluss erneut zu starten und die erforderlichen Token abzurufen.
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
SQLSTATE: nicht zugewiesen
Fehler beim OAuth-Tokenaustausch mit HTTP-Statuscode <httpStatus>
. Die zurückgegebene Serverantwort oder Ausnahmemeldung lautet: <response>
UC_COORDINATED_COMMITS_NOT_ENABLED
SQLSTATE: kein Wert zugewiesen
Die Unterstützung für koordinierte Commits ist nicht aktiviert. Wenden Sie sich bitte an den Databricks-Support.
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
SQLSTATE: nicht zugewiesen
<securableType>
'<securableName>
' kann nicht erstellt werden, da es sich unter einem <parentSecurableType>
'<parentSecurableName>
' befindet, der nicht aktiv ist. Löschen Sie das übergeordnete sicherungsfähige Element, und erstellen Sie das übergeordnete Element neu.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
SQLSTATE: nicht zugewiesen
Fehler beim Parsen der bereitgestellten Zugriffsconnector-ID: <accessConnectorId>
. Überprüfen Sie die Formatierung, und versuchen Sie es erneut.
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
SQLSTATE: nicht zugewiesen
Fehler beim Erhalten eines AAD-Tokens zur Überprüfung der Cloud-Berechtigungen für einen Zugriffskonnektor. Wiederholen Sie die Aktion.
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: keiner wurde zugewiesen
Für die Registrierung von Anmeldeinformationen ist die Teilnehmerrolle über den entsprechenden Zugriffsconnector mit ID <accessConnectorId>
erforderlich. Wenden Sie sich an Ihren Kontoadministrator.
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
SQLSTATE: nicht zugewiesen
Der Anmeldeinformationstyp „<credentialType>
“ wird für den Zweck „<credentialPurpose>
“ nicht unterstützt.
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Nur der Kontoadministrator kann eine Anmeldeinformation mit dem Typ <storageCredentialType>
erstellen oder aktualisieren.
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
SQLSTATE: nicht zugewiesen
Die Vertrauensrichtlinie der IAM-Rolle, um dem Databricks-Konto zu erlauben, die Rolle zu übernehmen, sollte eine externe ID erfordern. Wenden Sie sich an Ihren Kontoadministrator, um die Bedingung für die externe ID hinzuzufügen. Dieses Verhalten dient dazu, das Problem des verwirrten Stellvertreters (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) zu vermeiden.
UC_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Dienstprinzipale können die CREATE_STORAGE_CREDENTIAL
Berechtigung nicht zum Registrieren verwalteter Identitäten verwenden. Um eine verwaltete Identität zu registrieren, weisen Sie dem Dienstprinzipal die Kontoadministratorrolle zu.
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
SQLSTATE: nicht zugewiesen
Das Erstellen oder Aktualisieren von Anmeldeinformationen als Nicht-Kontoadministrator wird in der API auf Kontoebene nicht unterstützt. Verwenden Sie stattdessen die API auf Arbeitsbereichsebene.
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
SQLSTATE: nicht zugewiesen
Die Iceberg-Tabellenversion kann nicht vom Metadatenstandort <metadataLocation>
ausgelesen werden.
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
SQLSTATE: nicht zugewiesen
Es wurde eine gleichzeitige Aktualisierung derselben Iceberg-Metadatenversion erkannt.
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
SQLSTATE: nicht zugewiesen
Der zugesicherte Metadatenspeicherort <metadataLocation>
ist ungültig. Es handelt sich nicht um ein Unterverzeichnis des Stammverzeichnisses der Tabelle <tableRoot>
.
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
SQLSTATE: nicht zugewiesen
In den bereitgestellten Informationen zum Delta-Iceberg-Format fehlen erforderliche Felder.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
SQLSTATE: nicht zugewiesen
Das Festlegen von Delta-Iceberg-Formatinformationen beim Erstellen wird nicht unterstützt.
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
SQLSTATE: nicht zugewiesen
Die Informationen zur Delta-Iceberg-Formatkonvertierung sind zu umfangreich.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
SQLSTATE: nicht zugewiesen
Einheitliche Metadaten können nur auf Delta-Tabellen aktualisiert werden, wenn das Uniform-Feature aktiviert ist.
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
SQLSTATE: nicht zugewiesen
Tiefe von <resourceType>
„<ref>
“ überschreitet den Grenzwert (oder hat einen Zirkelbezug).
UC_DEPENDENCY_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
<resourceType>
'<ref>
' ist ungültig, da eine der zugrunde liegenden Ressourcen nicht vorhanden ist. <cause>
UC_DEPENDENCY_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
<resourceType>
"<ref>
" verfügt nicht über ausreichende Berechtigungen zum Ausführen, da der Eigentümer einer der zugrunde liegenden Ressourcen eine Autorisierungsprüfung nicht bestanden hat. <cause>
UC_DUPLICATE_CONNECTION
SQLSTATE: kein Wert zugewiesen
Eine Verbindung namens "<connectionName>
" mit derselben URL ist bereits vorhanden. Bitten Sie den Besitzer, diese Verbindung zu verwenden, anstatt ein Duplikat zu erstellen.
UC_DUPLICATE_FABRIC_CATALOG_CREATION
SQLSTATE: nicht zugewiesen
Es wurde versucht, einen Fabric-Katalog mit url '<storageLocation>
' zu erstellen, die einem vorhandenen Katalog entspricht, der nicht zulässig ist.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
SQLSTATE: nicht zugewiesen
Die Tag-Zuweisung mit dem Tagschlüssel <tagKey>
existiert bereits.
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
SQLSTATE: nicht zugewiesen
Die Entität <securableType> <entityId>
verfügt nicht über einen entsprechenden Onlinecluster.
UC_EXCEEDS_MAX_FILE_LIMIT
SQLSTATE: nicht zugewiesen
Es sind mehr als <maxFileResults>
Dateien vorhanden. Geben Sie [max_results] an, um die Anzahl der zurückgegebenen Dateien einzuschränken.
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
SQLSTATE: nicht zugewiesen
<opName> <extLoc> <reason>
nicht möglich. <suggestion>
.
UC_FEATURE_DISABLED
SQLSTATE: nicht zugewiesen
<featureName>
ist derzeit in UC deaktiviert.
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Das Erstellen eines Fremdkatalogs für den Verbindungstyp "<connectionType>
" wird nicht unterstützt. Dieser Verbindungstyp kann nur zum Erstellen verwalteter Aufnahmepipelines verwendet werden. Weitere Informationen finden Sie in der Databricks-Dokumentation.
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
SQLSTATE: nicht zugewiesen
Nur Leseberechtigungen können für Fremdtabellen abgerufen werden.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
SQLSTATE: nicht zugewiesen
Die unter- und übergeordneten Spalten von Fremdschlüssel <constraintName>
sind unterschiedlich groß.
UC_FOREIGN_KEY_COLUMN_MISMATCH
SQLSTATE: nicht zugewiesen
Die übergeordneten Fremdschlüsselspalten stimmen nicht mit den referenzierten untergeordneten Primärschlüsselspalten überein. Übergeordnete Fremdschlüsselspalten sind (<parentColumns>
), und untergeordnete Primärschlüsselspalten sind (<primaryKeyChildColumns>
).
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
SQLSTATE: nicht zugewiesen
Der untergeordnete Spaltentyp des Fremdschlüssels stimmt nicht mit dem übergeordneten Spaltentyp überein. Untergeordnete Fremdschlüsselspalte <childColumnName>
hat Typ <childColumnType>
, und übergeordnete Spalte <parentColumnName>
hat Typ <parentColumnType>
.
UC_GCP_INVALID_PRIVATE_KEY (Ungültiger privater Schlüssel in UC_GCP)
SQLSTATE: nicht zugewiesen
Zugriff abgelehnt. Ursache: Privater Schlüssel des Dienstkontos ist ungültig.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
SQLSTATE: nicht zugewiesen
Google Server-Konto OAuth Private Key muss ein gültiges JSON-Objekt mit erforderlichen Feldern sein. Stellen Sie bitte sicher, dass Sie die vollständige JSON-Datei bereitstellen, die aus dem Abschnitt "KEYS" der Seite mit den Details des Dienstkontos generiert wird.
UC_GCP_UNGÜLTIGES_PRIVATSCHLÜSSEL_JSON_FORMAT_FEHLENDE_FELDER
SQLSTATE: nicht zugewiesen
Google Server-Konto OAuth Private Key muss ein gültiges JSON-Objekt mit erforderlichen Feldern sein. Stellen Sie bitte sicher, dass Sie die vollständige JSON-Datei bereitstellen, die aus dem Abschnitt "KEYS" der Seite mit den Details des Dienstkontos generiert wird. Fehlende Felder sind <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: nicht zugewiesen
Es wurde festgestellt, dass die IAM-Rolle für diese Speicheranmeldeinformationen nicht selbstübernehmend ist. Überprüfen Sie die Vertrauens- und IAM-Richtlinien Ihrer Rolle, um sicherzustellen, dass Ihre IAM-Rolle sich gemäß der Dokumentation zu Unity Catalog-Speicheranmeldeinformationen selbst annehmen kann.
UC_ICEBERG_COMMIT_CONFLICT
SQLSTATE: nicht zugewiesen
Commit für <tableName>
nicht möglich: Metadatenspeicherort <baseMetadataLocation>
wurde von <catalogMetadataLocation>
geändert.
UC_ICEBERG_COMMIT_INVALID_TABLE
SQLSTATE: nicht zugewiesen
Verwaltetes Iceberg-Commit kann nicht für eine unverwaltete Iceberg-Tabelle ausgeführt werden: <tableName>
.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
SQLSTATE: nicht zugewiesen
In den bereitgestellten Informationen zum verwalteten Iceberg-Commit fehlen erforderliche Felder.
UC_ID_MISMATCH
SQLSTATE: nicht zugewiesen
<type> <name>
hat nicht ID <wrongId>
. Versuchen Sie den Vorgang erneut.
UC_INVALID_ACCESS_DBFS_ENTITY
SQLSTATE: nicht zugewiesen
Ungültiger Zugriff auf <securableType> <securableName>
im Verbundkatalog <catalogName>
. <reason>
UC_UNGÜLTIGE_CLOUDFLARE_KONTONUMMER
SQLSTATE: nicht zugewiesen
Ungültige Cloudflare-Konto-ID.
UC_INVALID_CREDENTIAL_CLOUD
SQLSTATE: nicht zugewiesen
Ungültiger Cloudanbieter „<cloud>
“ für Anmeldeinformationen. Zulässiger Cloudanbieter '<allowedCloud>
'.
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
SQLSTATE: nicht zugewiesen
Ungültiger Wert „<value>
“ für den „Zweck“ der Anmeldeinformationen. Zulässige Werte '<allowedValues>
'.
UC_INVALID_CREDENTIAL_TRANSITION
SQLSTATE: nicht zugewiesen
Es kann keine Verbindung von <startingCredentialType>
auf <endingCredentialType>
aktualisiert werden. Der einzige gültige Übergang besteht aus einer benutzernamen-/kennwortbasierten Verbindung zu einer OAuth-tokenbasierten Verbindung.
UC_INVALID_CRON_STRING_FABRIC
SQLSTATE: nicht zugewiesen
Ungültige Cron-Zeichenfolge. Gefunden: „<cronString>
“ mit Parsing-Ausnahme: „<message>
“
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
SQLSTATE: nicht zugewiesen
Ungültige verwaltete Tabelle für direkten Zugriff <tableName>
. Stellen Sie sicher, dass die Pipelinedefinitionen der Quelltabelle & nicht definiert sind.
UC_INVALID_EMPTY_STORAGE_LOCATION
SQLSTATE: nicht zugewiesen
Unerwarteter leerer Speicherort für <securableType>
'<securableName>
' im Katalog '<catalogName>
'. Um diesen Fehler zu beheben, führen Sie bitte DESCRIBE SCHEMA <catalogName>
aus.<securableName>
, und aktualisieren Sie diese Seite.
UC_INVALID_OPTIONS_UPDATE
SQLSTATE: nicht zugewiesen
Ungültige Optionen wurden für das Update bereitgestellt. Ungültige Optionen: <invalidOptions>
. Zulässige Optionen: <allowedOptions>
.
UC_INVALID_OPTION_VALUE
SQLSTATE: nicht zugewiesen
Ungültiger Wert '<value>
' für '<option>
'. Zulässige Werte '<allowedValues>
'.
UC_INVALID_OPTION_VALUE_EMPTY
SQLSTATE: kein Wert zugewiesen
'<option>
' darf nicht leer sein. Geben Sie einen nicht leeren Wert ein.
UC_INVALID_R2_ACCESS_KEY_ID
SQLSTATE: nicht zugewiesen
Ungültige R2-Zugriffstasten-ID.
UC_INVALID_R2_SECRET_ACCESS_KEY
SQLSTATE: nicht zugewiesen
Ungültiger geheimer R2-Zugriffsschlüssel.
UC_INVALID_RULE_CONDITION
SQLSTATE: nicht zugewiesen
Ungültige Bedingung in regel '<ruleName>
'. Kompilierungsfehler mit meldung '<message>
'.
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
SQLSTATE: nicht zugewiesen
<securableType>
„<securableName>
“ kann nicht aktualisiert werden, da es sich im Besitz einer internen Gruppe befindet. Bitte wenden Sie sich an den Databricks-Support, um weitere Details zu erhalten.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
SQLSTATE: nicht zugewiesen
Die bereitgestellten Speicher-Zugangsdaten <storageCredentialName>
sind nicht mit dem DBFS-Stamm verbunden, daher ist die Erstellung eines wasbs-Externstandorts nicht zulässig.
UC_LOCATION_INVALID_SCHEME
SQLSTATE: nicht zugewiesen
Der Speicherort weist ein ungültiges URI-Schema auf: <scheme>
.
UC_MALFORMED_OAUTH_SERVER_RESPONSE
SQLSTATE: nicht zugewiesen
Die Antwort vom Token-Server enthielt das Feld <missingField>
nicht. Die zurückgegebene Serverantwort lautet: <response>
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
SQLSTATE: nicht zugewiesen
'<metastoreAssignmentStatus>
' kann nicht zugewiesen werden. Nur MANUALLY_ASSIGNABLE
und AUTO_ASSIGNMENT_ENABLED
werden unterstützt.
UC_METASTORE_CERTIFICATION_NOT_ENABLED
SQLSTATE: nicht zugewiesen
Die Metastore-Zertifizierung ist nicht aktiviert.
UC_METASTORE_DB_SHARD_MAPPING_NOT_FOUND
SQLSTATE: nicht zugewiesen
Fehler beim Abrufen eines Metastores zur Datenbank-Shardzuordnung für Metastore-ID <metastoreId>
aufgrund eines internen Fehlers. Wenden Sie sich bitte an den Databricks-Support.
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE: nicht zugewiesen
Der Metastore <metastoreId>
enthält <numberManagedOnlineCatalogs>
verwaltete(n) Onlinekatalog(e). Löschen Sie sie explizit, und wiederholen Sie dann den Metastore-Löschvorgang.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
SQLSTATE: nicht zugewiesen
Metastore-Stammanmeldeinformationen können beim Aktualisieren des Metastore-Stammspeicherorts nicht festgelegt werden. Die Anmeldeinformationen werden vom übergeordneten externen Speicherort des Metastores abgerufen.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
SQLSTATE: kein Wert zugewiesen
Das Löschen des Metastore-Speicherwurzelorts ist fehlgeschlagen. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
SQLSTATE: nicht zugewiesen
Der Stamm <securableType>
für einen Metastore darf nicht schreibgeschützt sein.
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
SQLSTATE: nicht zugewiesen
Der Metastore-Speicherstamm kann nicht aktualisiert werden, nachdem er festgelegt wurde.
UC_MODEL_INVALID_STATE
SQLSTATE: nicht zugewiesen
Temporäre Anmeldeinformationen „<opName>
“ für Modellversion <modelVersion>
mit Status <modelVersionStatus>
können nicht generiert werden. „<opName>
“-Anmeldeinformationen können nur für Modellversionen mit Status <validStatus>
generiert werden.
UC_NO_ORG_ID_IN_CONTEXT
SQLSTATE: nicht zugewiesen
Es wurde versucht, auf die Organisations-ID (oder Arbeitsbereichs-ID) zuzugreifen, der Kontext hat jedoch keine.
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE: nicht zugewiesen
Die <rpcName>
-Anforderung aktualisiert <fieldName>
. Verwenden Sie die Computeregisterkarte für den Onlinespeicher, um alles andere als Kommentar, Besitzende und isolationMode eines Onlinekatalogs zu ändern.
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
SQLSTATE: nicht zugewiesen
Es können höchstens <quota>
Onlinespeicher im Metastore erstellt werden, und es gibt bereits <currentCount>
. Möglicherweise haben Sie keinen Zugriff auf vorhandene Online-Stores. Wenden Sie sich an Ihren Metastore-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE: nicht zugewiesen
Onlineindexkataloge müssen über die API „/vector-search“ <action>
werden.
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE: nicht zugewiesen
Die <rpcName>
-Anforderung aktualisiert <fieldName>
. Verwenden Sie die API „/vector-search“, um alles andere als Kommentar, Besitzende und isolationMode eines Onlineindexkatalogs zu ändern.
Das Kontingent für den UC Online-Indexkatalog wurde überschritten.
SQLSTATE: nicht zugewiesen
Es können höchstens <quota>
Onlineindexkataloge im Metastore erstellt werden, und es gibt bereits <currentCount>
. Möglicherweise haben Sie keinen Zugriff auf vorhandene Onlineindexkataloge. Wenden Sie sich an Ihren Metastore-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.
UC_ONLINE_INDEX_INVALID_CRUD
SQLSTATE: kein zugewiesener Wert
Onlineindizes müssen über die API „/vector-search“ <action>
werden.
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: nicht zugewiesen
Onlinespeicher müssen über die Computeregisterkarte des Onlinespeichers <action>
werden.
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
SQLSTATE: nicht zugewiesen
Der Name der Quelltabellenspalte <columnName>
ist zu lang. Die maximale Länge beträgt <maxLength>
Zeichen.
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
SQLSTATE: nicht zugewiesen
Spalte <columnName>
kann nicht als Primärschlüsselspalte der Onlinetabelle verwendet werden, da sie nicht Teil der vorhandenen PRIMARY KEY
Einschränkung der Quelltabelle ist. Weitere Informationen finden Sie unter <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
SQLSTATE: nicht zugewiesen
Spalte <columnName>
kann nicht als Zeitserienschlüssel der Onlinetabelle verwendet werden, da es sich nicht um eine Zeitserienspalte der vorhandenen PRIMARY KEY
Einschränkung der Quelltabelle handelt. Weitere Informationen finden Sie unter <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
SQLSTATE: nicht zugewiesen
Pro Quelltabelle können nicht mehr als <quota>
Onlinetabellen erstellt werden.
UC_ONLINE_VIEW_ACCESS_DENIED
SQLSTATE: nicht zugewiesen
Für den Zugriff auf Ressourcen <resourceName>
ist die Verwendung eines Serverless SQL Warehouse erforderlich. Stellen Sie sicher, dass das Lager, das verwendet wird, um eine Abfrage auszuführen oder einen Datenbankkatalog in der Benutzeroberfläche anzuzeigen, serverlos ist. Weitere Informationen finden Sie unter <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
SQLSTATE: nicht zugewiesen
Es können höchstens <quota>
fortlaufende Onlineansichten im Onlinespeicher erstellt werden, und es gibt bereits <currentCount>
. Möglicherweise haben Sie keinen Zugriff auf vorhandene Onlineansichten. Wenden Sie sich an Ihren Online-Shop-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.
UC_ONLINE_VIEW_UNTERSTÜTZT_NICHT_DMK
SQLSTATE: kein Wert zugewiesen
<tableKind>
kann unter einem Speicherort mit von Databricks verwalteten Schlüsseln nicht erstellt werden. Wählen Sie ein anderes Schema/Katalog an einem Speicherort ohne Verschlüsselung für verwaltete Schlüssel von Databricks aus.
UC_ONLINE_VIEW_INVALID_CATALOG
SQLSTATE: nicht zugewiesen
Ungültiger Katalog <catalogName>
mit Art <catalogKind>
, um <tableKind>
darin zu erstellen. <tableKind>
kann nur unter Katalogen der folgenden Arten erstellt werden: <validCatalogKinds>
.
UC_ONLINE_VIEW_INVALID_SCHEMA
SQLSTATE: nicht zugewiesen
Ungültiges Schema <schemaName>
mit Art <schemaKind>
, um <tableKind>
darin zu erstellen. <tableKind>
kann nur unter Schemas der folgenden Arten erstellt werden: <validSchemaKinds>
.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
SQLSTATE: nicht zugewiesen
Spalten-<columnName>
vom Typ <columnType>
können nicht als TTL-Zeitspalte verwendet werden. Zulässige Typen sind <supportedTypes>
.
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
SQLSTATE: nicht zugewiesen
Fehler bei autorisiertem Pfad. Der <securableType>
-Speicherort <location>
ist nicht innerhalb der autorisierten Pfade für den Katalog definiert: <catalogName>
. Bitten Sie den Katalogbesitzer, den Pfad zur Liste der autorisierten Pfade hinzuzufügen, die im Katalog definiert sind.
UC_OVERLAPPED_AUTHORIZED_PATHS
SQLSTATE: nicht zugewiesen
Die Option „authorized_paths“ enthält überlappende Pfade: <overlappingPaths>
. Stellen Sie sicher, dass jeder Pfad eindeutig ist und sich nicht mit anderen in der Liste überschneidet.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: nicht zugewiesen
Das Abfrageargument '<arg>
' ' ist auf '<received>
' festgelegt, was sich vom Wert unterscheidet, der im ersten Paginierungsaufruf verwendet wird ('<expected>
')
UC_PATH_TOO_LONG
SQLSTATE: nicht zugewiesen
Der Eingabepfad ist zu lang. Zulässige Länge: <maxLength>
. Eingabelänge: <inputLength>
. Eingabe: <path>
…
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
SQLSTATE: nicht zugewiesen
Zu viele Anforderungen an die Datenbank aus metastore <metastoreId>
. Versuchen Sie es später erneut.
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
SQLSTATE: nicht zugewiesen
Der Primärschlüssel <constraintName>
kann nicht erstellt werden, da die untergeordnete Spalte <childColumnNames>
Nullwerte zulässt. Ändern Sie die NULL-Zulässigkeit der Spalte, und versuchen Sie es erneut.
UC_REQUEST_TIMEOUT
SQLSTATE: nicht zugewiesen
Dieser Vorgang dauerte zu lange.
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
SQLSTATE: nicht zugewiesen
Der S3-Bucketname des Stammspeichers mit Punkten wird vom Unity-Katalog nicht unterstützt: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
SQLSTATE: nicht zugewiesen
Unerwarteter leerer Speicherort für schema '<schemaName>
' im Katalog '<catalogName>
'. Stellen Sie sicher, dass das Schema ein Pfadschema von <validPathSchemesListStr>
verwendet.
UC_SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE: nicht zugewiesen
Beim Verarbeiten Ihrer Anforderung ist ein temporäres Problem aufgetreten. Versuchen Sie es in einigen Momenten erneut. Wenn das Problem weiterhin besteht, wenden Sie sich an den Support.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
SQLSTATE: nicht zugewiesen
Fehler beim Parsen der bereitgestellten Zugriffskonnektor-ID: <accessConnectorId>
. Überprüfen Sie die Formatierung, und versuchen Sie es erneut.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Die Speicheranmeldeinformationen für den DBFS-Stamm können nicht erstellt werden, da der Benutzer: <userId>
nicht der Administrator des Arbeitsbereichs ist: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_INVALID_LOCATION
SQLSTATE: nicht zugewiesen
Der Speicherort <location>
befindet sich nicht innerhalb der DBFS-Stamm-<dbfsRootLocation>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
SQLSTATE: nicht zugewiesen
DBFS-Stammspeicher-Anmeldeinformationen werden für Arbeitsbereiche mit firewallfähigen DBFS noch nicht unterstützt.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
DBFS-Root-Speicherberechtigungen für den aktuellen Arbeitsbereich werden derzeit nicht unterstützt.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
SQLSTATE: nicht zugewiesen
Der DBFS-Stamm ist für den Arbeitsbereich <workspaceId>
nicht aktiviert.
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
SQLSTATE: nicht zugewiesen
Fehler beim Abrufen eines AAD-Tokens zur Validierung von Cloud-Berechtigungen für einen Zugriffs-Connector. Wiederholen Sie die Aktion.
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: nicht zugewiesen
Für die Registrierung von Speicheranmeldeinformationen ist die Teilnehmerrolle über den entsprechenden Zugriffsconnector mit ID <accessConnectorId>
erforderlich. Wenden Sie sich an Ihren Kontoadministrator.
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Nur der Kontoadministrator kann eine Speicheranmeldeinformation mit dem Typ <storageCredentialType>
erstellen oder aktualisieren.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
SQLSTATE: nicht zugewiesen
Fehlendes Überprüfungstoken für den Dienstprinzipal. Bitte geben Sie im Anforderungsheader "X-Databricks-Azure-SP-Management-Token" ein gültiges, auf ARM beschränktes Entra ID-Token ein und versuchen Sie es erneut. Details finden Sie unterhttps://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
SQLSTATE: nicht zugewiesen
Die Vertrauensrichtlinie der IAM-Rolle, damit das Databricks-Konto die Rolle übernehmen kann, sollte eine externe ID erfordern. Wenden Sie sich an Ihren Kontoadministrator, um die externe ID-Bedingung hinzuzufügen. Dieses Verhalten soll vor dem "Confused Deputy"-Problem https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) schützen.
UC_STORAGE_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Dienstprinzipale können die CREATE_STORAGE_CREDENTIAL
Berechtigung nicht zum Registrieren verwalteter Identitäten verwenden. Um eine verwaltete Identität zu registrieren, weisen Sie dem Dienstprinzipal die Kontoadministratorrolle zu.
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
SQLSTATE: nicht zugewiesen
Der Speicherort <location>
befindet sich nicht im DBFS-Stamm. Daher können wir keine Speicheranmeldeinformationen <storageCredentialName>
erstellen.
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
SQLSTATE: nicht zugewiesen
Das Erstellen oder Aktualisieren von Speicheranmeldeinformationen als Nicht-Kontoadministrator wird in der API auf Kontoebene nicht unterstützt. Verwenden Sie stattdessen die API auf Arbeitsbereichsebene.
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: nicht zugewiesen
Es können keine Berechtigungen für <securableType>
an die vom System generierte Gruppe <principal>
gewährt werden.
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Tag-Zuweisung mit Tag-Schlüssel <tagKey>
ist nicht vorhanden.
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
SQLSTATE: nicht zugewiesen
Ungültiger Basispfad angegeben, Basispfad sollte etwa "/api/resources/v1" sein. Nicht unterstützter Pfad: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
SQLSTATE: nicht zugewiesen
Ungültiger Hostname angegeben, der Hostname sollte wiehttps://www.databricks.com ohne Pfadsuffix sein. Nicht unterstützter Host: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: nicht zugewiesen
In Pfaden für externe Speicherorte/Volumes/Tabellen werden nur einfache Latin/Latin-1-ASCII
-Zeichen unterstützt. Nicht unterstützter Pfad: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
SQLSTATE: nicht zugewiesen
<securableType>
'<securableName>
' kann nicht aktualisiert werden, da es gerade provisioniert wird.
UC_WRITE_CONFLICT
SQLSTATE: nicht zugewiesen
<type> <name>
wurde von einer anderen Anforderung geändert. Versuchen Sie den Vorgang erneut.
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
SQLSTATE: nicht zugewiesen
Die Anforderung, ein Commit oder getCommits für die Tabelle „<tableId>
“ außerhalb einer Databricks Unity Catalog-aktivierten Compute-Umgebung auszuführen, wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
SQLSTATE: nicht zugewiesen
Die Anfrage, die Staging-Tabelle '<tableFullName>
' außerhalb der für Databricks Unity Catalog aktivierten Compute-Umgebung zu erstellen, wird aus Sicherheitsgründen abgelehnt. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
SQLSTATE: nicht zugewiesen
Die Anforderung zum Erstellen der nicht externen Tabelle „<tableFullName>
“ außerhalb einer Databricks Unity Catalog-fähigen Computeumgebung wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
SQLSTATE: nicht zugewiesen
Die Anforderung zum Generieren von Zugriffsanmeldeinformationen für den Pfad '<path>
' von außerhalb der Databricks Unity-Katalog aktivierten Compute-Umgebung wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
SQLSTATE: nicht zugewiesen
Die Anforderung, Zugriffsanmeldeinformationen für die Tabelle '<tableId>
' von außerhalb der Databricks Unity-Katalog-aktivierten Compute-Umgebung zu generieren, wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
SQLSTATE: nicht zugewiesen
Die Anforderung, fremde Anmeldeinformationen für sicherungsfähige Objekte von außerhalb der Databricks Unity Catalog-aktivierten Compute-Umgebung abzurufen, wird aus Sicherheitsgründen verweigert.
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
SQLSTATE: nicht zugewiesen
Die Anforderung, Metadaten-Schnappschüsse von außerhalb der durch Databricks Unity Catalog aktivierten Compute-Umgebung zu aktualisieren, wird aus Sicherheitsgründen verweigert.
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
SQLSTATE: nicht zugewiesen
Ungültige Anforderung zum Abrufen von Schreibberechtigungen für die verwaltete Onlinetabelle in einem Onlinekatalog.
Datei-API
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: nicht zugewiesen
<api_name>-API ist nicht aktiviert.
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE: nicht zugewiesen
Die angeforderte Methode der Datei-API wird für Cloudpfade nicht unterstützt.
FILES_API_AWS_ACCESS_DENIED
SQLSTATE: nicht zugewiesen
Der Zugriff auf den Speicher-Bucket wird von AWS verweigert.
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: nicht zugewiesen
Der gesamte Zugriff auf den Speicher-Bucket wurde in AWS deaktiviert.
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Der Speicher-Bucket ist in AWS nicht vorhanden.
FILES_API_AWS_FORBIDDEN
SQLSTATE: nicht zugewiesen
Der Zugriff auf den Speicher-Bucket ist von AWS verboten.
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: nicht zugewiesen
Der Arbeitsbereich ist falsch konfiguriert: Er muss sich in derselben Region wie der AWS-Arbeitsbereich-Stammspeicher-Bucket befinden.
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: nicht zugewiesen
Der Speicher-Bucketname ist ungültig.
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE: nicht zugewiesen
Die konfigurierten KMS-Schlüssel für den Zugriff auf den Speicher-Bucket sind in AWS deaktiviert.
FILES_API_AWS_UNAUTHORIZED
SQLSTATE: nicht zugewiesen
Der Zugriff auf AWS-Ressource ist nicht autorisiert.
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE: nicht zugewiesen
Das Speicherkonto ist in Azure deaktiviert.
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Der Azure-Container ist nicht vorhanden.
FILES_API_AZURE_FORBIDDEN
SQLSTATE: kein Wert zugewiesen
Der Zugriff auf den Speichercontainer ist von Azure verboten.
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: nicht zugewiesen
Azure hat geantwortet, dass es derzeit eine Lease für die Ressource gibt. Versuchen Sie es später erneut.
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: nicht zugewiesen
Das Konto, auf das zugegriffen wird, verfügt nicht über ausreichende Berechtigungen, um diesen Vorgang auszuführen.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: nicht zugewiesen
Auf das Speicherkonto in Azure kann nicht zugegriffen werden: Ungültiger Speicherkontoname.
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE: nicht zugewiesen
Der Schlüsseltresor wird in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: ist nicht zugewiesen
Der Azure Key Vault-Schlüssel wurde in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: nicht zugewiesen
Der Schlüsseltresor wird in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: nicht zugewiesen
Anmeldeinformationen für verwaltete Azure-Identität mit Zugriffsconnector nicht gefunden. Dies könnte darauf zurückzuführen sein, dass die IP-Zugriffskontrollen Ihre Anforderung abgelehnt haben.
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: nicht zugewiesen
Der Vorgang konnte nicht innerhalb der zulässigen Zeit abgeschlossen werden.
FILES_API_AZURE_PATH_INVALID
SQLSTATE: nicht zugewiesen
Der angeforderte Pfad ist für Azure ungültig.
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE: nicht zugewiesen
Der angeforderte Pfad ist unveränderlich.
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE: nicht zugewiesen
Einer der im Vorgang angegebenen Header wird nicht unterstützt.
FILES_API_CATALOG_NOT_FOUND
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE: nicht zugewiesen
<message>
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE: nicht zugewiesen
Das Zeichen ':' wird in Pfaden nicht unterstützt.
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: nicht zugewiesen
Netzwerkzone der Databricks-Steuerungsebene nicht zulässig.
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE: nicht zugewiesen
Ein Textkörper wurde bereitgestellt, Verzeichnisse können jedoch keinen Dateiinhalt haben.
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE: nicht zugewiesen
Das Verzeichnis ist nicht leer. Dieser Vorgang wird für nicht leere Verzeichnisse nicht unterstützt.
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE: nicht zugewiesen
Das Verzeichnis, auf das zugegriffen werden soll, wurde nicht gefunden.
FILES_API_DUPLICATED_HEADER
SQLSTATE: nicht zugewiesen
Die Anforderung enthielt mehrere Kopien eines Headers, der nur einmal zulässig ist.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: nicht zugewiesen
Der Abfrageparameter '<parameter_name>' muss genau einmal vorhanden sein, wurde aber mehrmals bereitgestellt.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: nicht zugewiesen
Der DbFS-Bucketname ist leer.
FILES_API_ENTITY_TOO_LARGE
SQLSTATE: nicht zugewiesen
Ihr Objekt überschreitet die maximal zulässige Objektgröße.
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE: nicht zugewiesen
Ablaufzeit muss vorhanden sein
FILES_API_EXPIRED_TOKEN
SQLSTATE: nicht zugewiesen
Das bereitgestellte Token ist abgelaufen.
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE: nicht zugewiesen
„ExpireTime“ muss in der Zukunft liegen.
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE: nicht zugewiesen
Die angeforderte TTL überschreitet die unterstützte Dauer (1 Stunde).
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE: nicht zugewiesen
Die erstellte Datei ist bereits vorhanden.
FILES_API_FILE_NOT_FOUND
SQLSTATE: nicht zugewiesen
Die zugegriffene Datei wurde nicht gefunden.
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE: nicht zugewiesen
Dateien oder Verzeichnisse, die auf "." enden. Zeichen werden nicht unterstützt.
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE: kein Wert zugewiesen
Die Dateigröße sollte <max_download_size_in_bytes> Bytes nicht überschreiten, aber <size_in_bytes> Bytes wurden gefunden.
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE: nicht zugewiesen
Der Zugriff auf den Speicher-Bucket wurde in GCP deaktiviert.
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Der Speicher-Bucket ist in GCP nicht vorhanden.
FILES_API_GCP_FORBIDDEN
SQLSTATE: nichts zugewiesen
Der Zugriff auf den Bucket ist von GCP verboten.
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE: nicht zugewiesen
Der für diesen Speicherort konfigurierte vom Kunden verwaltete Verschlüsselungsschlüssel ist entweder deaktiviert oder zerstört.
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE: nicht zugewiesen
Die GCP-Anforderungen an den Bucket sind per Richtlinie verboten, prüfen Sie die VPC-Dienststeuerungen.
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE: nicht zugewiesen
Cloudanbieterhost ist vorübergehend nicht verfügbar; versuchen Sie es später erneut.
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE: nicht zugewiesen
Das bereitgestellte Seitentoken ist ungültig.
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: nicht zugewiesen
Ungültiges Seitentoken
FILES_API_INVALID_PATH
SQLSTATE: nicht zugewiesen
Ungültiger Pfad: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: nicht zugewiesen
Der Range-Header ist ungültig.
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: nicht zugeordnet
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: nicht zugewiesen
Ungültiges Sitzungstoken
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: nicht zugewiesen
Ungültiger Sitzungstokentyp. „<expected>
“ erwartet, aber „<actual>
“ erhalten.
FILES_API_INVALID_TIMESTAMP
SQLSTATE: nicht zugewiesen
Der Zeitstempel ist ungültig.
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE: nicht zugewiesen
Ungültiger Uploadtyp. „<expected>
“ erwartet, aber „<actual>
“ erhalten.
Unzulässiger URL-Parameter (FILES_API_INVALID_URL_PARAMETER)
SQLSTATE: nicht zugewiesen
Die als Parameter übergebene URL ist ungültig.
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: nicht zugewiesen
„überschreiben“ für Abfrageparameter muss entweder „true“ oder „false“ sein, war jedoch: <got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE: nicht zugewiesen
Der Abfrageparameter „<parameter_name>“ muss einer der folgenden sein: <expected>
, war jedoch: <actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE: nicht zugewiesen
Falsch formatierter Anforderungstext
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE: nicht zugewiesen
<Unity-Katalog-Fehlermeldung>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: nicht zugewiesen
Die angeforderte Methode der Dateien-API wird für Artefaktspeicher für Hintergrundberechnungen von Aufträgen nicht unterstützt.
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE: nicht zugewiesen
Der Header „content-length“ ist in der Anforderung erforderlich.
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE: kein Wert zugewiesen
Der Abfrageparameter '<parameter_name>' ist erforderlich, fehlt jedoch in der Anforderung.
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE: nicht zugewiesen
Bei der Anforderung fehlt ein erforderlicher Parameter.
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE: nicht zugewiesen
Modellversion ist noch nicht bereit
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Vorsignierte URLs zum Abbrechen von mehrteiligen Uploads werden für Dateien, die auf <cloud_storage_provider>gespeichert sind, nicht unterstützt.
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE: nicht zugewiesen
Die Liste der Teile muss mindestens ein Element aufweisen, war aber leer.
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE: nicht zugewiesen
Teilenummern müssen sich innerhalb der Grenzen befinden, die in der Antwort angegeben werden, die beim Initiieren des Uploads empfangen wurde.
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE: nicht zugewiesen
ETags müssen für Dateien bereitgestellt werden, die auf <cloud_storage_provider>gespeichert sind. Mindestens ein ETag wurde nicht bereitgestellt oder leer.
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE: nicht zugewiesen
Der interne Status der Speicherentität wurde seit dem Initiieren des Uploads geändert, z. B. weil der Dateipfad nicht auf denselben zugrunde liegenden Cloudspeicherort verweist. Fahren Sie fort, indem Sie eine neue Uploadsitzung initiieren.
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE: nicht zugewiesen
Die als Teil einer mehrteiligen Uploadsitzung hochgeladenen Teile müssen für Dateien, die auf <cloud_storage_provider>gespeichert sind, dieselbe Größe aufweisen, mit Ausnahme des letzten Teils, der kleiner sein kann.
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: nicht zugewiesen
Die Größe der teile, die als Teil einer mehrteiligen Uploadsitzung hochgeladen wurden, muss sich innerhalb der Grenzen befinden, die in der Antwort angegeben sind, die beim Initiieren des Uploads empfangen wurde.
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE: nicht zugewiesen
Die Uploadsitzung wurde nicht gefunden. Möglicherweise wurde sie abgebrochen oder abgeschlossen.
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE: nicht zugewiesen
Die Liste von Teilen muss nach der Teilenummer sortiert werden, war aber ungeordnet.
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE: nicht zugewiesen
Die Datei-API für <place>
ist für diesen Arbeitsbereich/dieses Konto nicht aktiviert.
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE: nicht zugewiesen
Die angeforderte Methode der Datei-API wird für den internen Arbeitsbereichspeicher nicht unterstützt.
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE: nicht zugewiesen
Vorgang muss vorhanden sein.
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE: nicht zugewiesen
page_size muss größer oder gleich 0 sein.
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE: nicht zugewiesen
Pfade, die auf dem Zeichen "/" enden, stellen Verzeichnisse dar. Diese API unterstützt keine Vorgänge in Verzeichnissen.
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE: nicht zugewiesen
Der angegebene Pfad verweist auf ein vorhandenes Verzeichnis. Diese API unterstützt keine Vorgänge in Verzeichnissen.
FILES_API_PATH_IS_A_FILE
SQLSTATE: nicht zugewiesen
Der angegebene Pfad verweist auf eine vorhandene Datei. Diese API unterstützt keine Vorgänge für Dateien.
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE: nicht zugewiesen
Der angegebene Pfad war keine gültige UTF-8-codierte URL.
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE: nicht zugewiesen
Der angegebene Pfad ist für den Datenebenenproxy nicht aktiviert.
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE: nicht zugewiesen
Pfad muss vorhanden sein.
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
<Ablehnungsnachricht>
FILES_API_PATH_TOO_LONG
SQLSTATE: nicht zugewiesen
Der bereitgestellte Dateipfad ist zu lang.
FILES_API_PRECONDITION_FAILED
SQLSTATE: nicht zugewiesen
Die Anforderung konnte aufgrund einer Vorbedingung nicht ausgeführt werden.
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Die Datei-API für vorsignierte URLs für Modelle wird derzeit nicht unterstützt.
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE: nichts zugewiesen
R2 wird derzeit nicht unterstützt.
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: nicht zugewiesen
Der angeforderte Bereich ist nicht zufriedenstellend.
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Rekursives Auflisten von Dateien wird nicht unterstützt.
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE: nicht zugewiesen
Anforderung wurde falsch weitergeleitet
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE: nicht zugewiesen
Anforderung muss Kontoinformationen enthalten
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE: nicht zugewiesen
Anforderung muss Benutzerinformationen enthalten
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE: nicht zugewiesen
Anforderung muss Arbeitsbereichsinformationen enthalten
FILES_API_RESOURCE_IS_READONLY
SQLSTATE: nicht zugewiesen
Ressource ist schreibgeschützt.
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE: nicht zugewiesen
Auf die URL kann nicht zugegriffen werden.
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE: nicht zugewiesen
Fehler bei der Signaturüberprüfung.
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE: nicht zugewiesen
Auf die Speicherkonfiguration für diesen Arbeitsbereich kann nicht zugegriffen werden.
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Die Datei-API wird für <table_type> nicht unterstützt.
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: nicht zugewiesen
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE: nicht zugewiesen
Unerwarteter Fehler beim Analysieren des URI
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE: nicht zugewiesen
Unerwartete Abfrageparameter: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE: nicht zugewiesen
Unbekannte Methode <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE: nicht zugewiesen
Unbekannter Serverfehler.
FILES_API_UNKNOWN_URL_HOST
SQLSTATE: nicht zugewiesen
Der URL-Host ist unbekannt.
FILES_API_UNSUPPORTED_PATH
SQLSTATE: nicht zugewiesen
Der bereitgestellte Pfad wird von der Datei-API nicht unterstützt. Stellen Sie sicher, dass der angegebene Pfad keine Vorkommen der Sequenzen '../' oder './' enthält. Stellen Sie sicher, dass der angegebene Pfad nicht mehrere aufeinander folgende Schrägstriche verwendet (z. B. '///').
FILES_API_URL_GENERATION_DISABLED
SQLSTATE: nicht zugewiesen
Die Vorsignierte URL-Generierung ist für <cloud>
nicht aktiviert.
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Die Datei-API wird für <volume_type>nicht unterstützt.
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE: nicht zugewiesen
Der Arbeitsbereich wurde abgebrochen.
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE: nicht zugewiesen
Auf die Speicherkonfiguration für diesen Arbeitsbereich kann nicht zugegriffen werden.
Delta Live Tables
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
<type>
einer Tabelle kann nicht geändert werden, ohne dass ein vorhandener Zeitplan oder Trigger vorhanden ist. Fügen Sie der Tabelle einen Zeitplan oder Trigger hinzu, bevor Sie versuchen, ihn zu ändern.
API_QUOTA_EXCEEDED
Sie haben das API-Kontingent für die Datenquelle <sourceName>
überschritten.
Weitere Details finden Sie unter API_QUOTA_EXCEEDED.
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
SQLSTATE: nicht zugewiesen
Das Feature COLUMNS
TO UPDATE
befindet sich in der Vorschau und ist für Ihren Arbeitsbereich nicht aktiviert. Wenden Sie sich an Ihren Databricks-Vertreter, um mehr über dieses Feature zu erfahren und auf die private Vorschau zuzugreifen.
ARCHITECTURE_MIGRATION_FAILURE
SQLSTATE: nicht zugewiesen
Weitere Details finden Sie unter ARCHITECTURE_MIGRATION_FAILURE.
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
SQLSTATE: nicht zugewiesen
Neue Spalten (<columnNames>
) werden zum Feld include_columns in der Pipeline-Definition für die Tabelle <qualifiedTableName>
hinzugefügt. Aktualisieren Sie die Tabelle vollständig, um potenzielle Datenverluste zu vermeiden oder diese Spalten aus include_columns zu entfernen.
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
SQLSTATE: nicht zugewiesen
Die Pipelinedefinition schließt Spalten (<columnNames>
) aus, die in der Tabelle <qualifiedTableName>
der Quell-<sourceType>
nicht vorhanden sind. Entfernen Sie diese Spalten aus dem Feld exclude_columns.
CANNOT_FILTER_OUT_REQUIRED_COLUMN
SQLSTATE: nicht zugewiesen
Die Pipelinedefinition enthält nicht die erforderlichen Spalten (<columnNames>
) in der Tabelle <qualifiedTableName>
der Quelle <sourceType>
zur Erfassung. Bitte fügen Sie sie zu den `include_columns` hinzu oder entfernen Sie sie aus den `exclude_columns`.
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
SQLSTATE: nicht zugewiesen
Die Pipelinedefinition enthält Spalten (<columnNames>
), die in der Tabelle <qualifiedTableName>
der Quell-<sourceType>
nicht vorhanden sind. Entfernen Sie diese Spalten aus dem Feld include_columns.
CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY
SQLSTATE: nicht zugewiesen
Die Tabelle <qualifiedTableName>
in der <sourceType>
Quelle hat keinen Primärschlüssel.
Geben Sie einen Primärschlüssel in der Connectorkonfiguration an, um die Tabelle einzulesen, wenn vorhanden.
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
SQLSTATE: nicht zugewiesen
Spalten (<columnNames>
) werden aus dem exclude_columns-Feld in der Pipeline-Definition für die Tabelle <qualifiedTableName>
entfernt. Aktualisieren Sie die Tabelle vollständig, um potenzielle Datenverluste zu vermeiden oder diese Spalten wieder zu exclude_columns hinzuzufügen.
CANNOT_SET_CATALOG_FOR_HMS_PIPELINE
SQLSTATE: nicht zugewiesen
Ein Katalog kann einer vorhandenen Pipeline mit definiertem Speicherort nicht hinzugefügt werden. Wenn Sie UC verwenden möchten, erstellen Sie eine neue Pipeline und legen Sie den Katalog fest.
Vorhandener Speicherort: '<storageLocation>
'
Angeforderter Katalog: '<catalog>
'
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
SQLSTATE: nicht zugewiesen
Die Pipelinedefinition gibt sowohl include_columns als auch exclude_columns für <identifier>
an. Entfernen Sie eine davon.
KLASSIFIZIERUNSSPALTEN_KÖNNEN_NICHT_AKTUALISIERT_WERDEN
SQLSTATE: nicht zugewiesen
Clusteringspalten für Tabelle <tableName>
können nicht aktualisiert werden, da Partitionsspalten verwendet werden. Eine Tabelle kann entweder Partitionsspalten oder Clusterspalten verwenden, aber nicht beide.
Um zwischen flüssiger Clusterung und Partitionierung zu wechseln, lösen Sie eine vollständige Aktualisierung dieser Tabelle aus.
CANNOT_UPDATE_PARTITION_COLUMNS
SQLSTATE: nicht zugewiesen
Partitionsspalten für streamingtabelle <tableName>
können nicht aktualisiert werden.
Aktuell: <existingPartitionColumns>
,
Angefordert: <requestedPartitionColumns>
Um diese Partitionsänderung anzuwenden, lösen Sie eine vollständige Aktualisierung dieser Tabelle und aller anderen Streamingtabellen mit aktualisierten Partitionsspalten aus.
Alternativ können Sie diese Änderung wiederherstellen, um weiterhin die vorhandenen Partitionsspalten zu verwenden.
CANNOT_UPDATE_TABLE_SCHEMA
SQLSTATE: nicht zugewiesen
Fehler beim Zusammenführen der aktuellen und neuen Schemas für die Tabelle <tableName>
.
Um mit dieser Schemaänderung fortzufahren, können Sie eine vollständige Aktualisierung dieser Tabelle auslösen.
Je nach Anwendungsfall und Schemaänderungen können Sie die Schemaänderung möglicherweise vermeiden, indem Sie Ihre Abfragen so aktualisieren, dass das Ausgabeschema mit dem vorhandenen Schema kompatibel ist (z. B. durch explizites Umwandeln von Spalten in den richtigen Datentyp).
CANNOT_WRITE_TO_INACTIVE_COLUMNS
SQLSTATE: nicht zugewiesen
Die folgenden Tabellen im Ziel haben inaktive Spalten, die mit den aktuellen Quelltabellen in Konflikt stehen:
<details>
Diese Spalten bleiben in den Zieltabellen inaktiv, da sie zuvor aus den Quelltabellen gelöscht wurden.
Um mit der Aktualisierung fortzufahren, führen Sie bitte eine FULL REFRESH
für die Tabellen aus, oder legen Sie diese inaktiven Spalten aus den Zieltabellen über ALTER TABLE DROP COLUMN
Befehl ab, und wiederholen Sie die Aktualisierung.
CANNOT_WRITE_TO_INACTIVE_TABLES
SQLSTATE: nicht zugewiesen
Die folgenden Tabellen im Ziel sind inaktiv und stehen in Konflikt mit den aktuellen Quelltabellen: <tables>
.
Diese Tabellen bleiben inaktiv, da sie zuvor aus der Quelle gelöscht oder aus dem Connector nicht ausgewählt wurden.
Um mit dem Update fortzufahren, führen Sie bitte eine FULL REFRESH
für die Tabellen aus oder entfernen Sie diese inaktiven Tabellen entweder aus dem Ziel im Katalog-Explorer oder über den Befehl DROP TABLE
, und versuchen Sie das Update erneut.
CANNOT_WRITE_TO_TABLES_PENDING_RESET
SQLSTATE: nicht zugewiesen
Die folgenden Tabellen im Ziel wurden in der vorherigen vollständigen Aktualisierung nicht ordnungsgemäß zurückgesetzt: <tables>
.
Lösen Sie eine vollständige Aktualisierung aus, um sie wiederherzustellen.
CATALOG_SPEC_UNSUPPORTED
SQLSTATE: nicht zugewiesen
CatalogSpecs werden von den Datenbank-Connectors derzeit nicht unterstützt. Entfernen Sie die Katalogspezifikation.
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
SQLSTATE: nicht zugewiesen
Die vollständige Aktualisierung einer Zieltabelle und die normale Aktualisierung einer anderen Zieltabelle aus derselben Quelle wird nicht unterstützt.
Bitte aktualisieren Sie beide Tabellen vollständig, um nach Möglichkeit fortzufahren.
Tabellen vollständig aktualisieren: <fullRefreshTables>
Zieltabellen für Quelle <sourceTable>
: <destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
SQLSTATE: nicht zugewiesen
Die Schemaversion <dataSchemaVersion>
unterscheidet sich von der Leseschemaversion <readSchemaVersion>
.
DLT wird das Update wiederholen.
CDC_INCOMPATIBLE_SCHEMA_CHANGES
SQLSTATE: nicht zugewiesen
Wir sind auf eine inkompatible Schemaänderung (<cause>
) von der Schemaversion <previousSchemaVersion>
zu <currentSchemaVersion>
gestoßen.
Daher können wir nicht mit der Anwendung von Änderungen für <tableName>
fortfahren. Bitte fordern Sie eine vollständige Aktualisierung der Tabelle an.
Vorheriges Schema: <previousSchema>
Aktuelles Schema: <currentSchema>
CDC_MÖGLICHE_DATENLÜCKEN
SQLSTATE: nicht zugewiesen
Die folgenden Tabellen [<needFullRefreshTableList>
] wurden seit <retention>
Tagen nicht erfolgreich aktualisiert.
Bitte aktualisieren Sie diese Tabellen oder die gesamte Pipeline vollständig.
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
SQLSTATE: nicht zugewiesen
Den gleichen Tabellennamen <table>
bei mehreren Quellen gefunden: <sources>
.
Teilen Sie sie bitte in verschiedene Pipelines auf, um Konflikte zu vermeiden.
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
SQLSTATE: nicht zugewiesen
Tabelle <table>
wird in der Momentaufnahme aller Tabellen der Quelldatenbank nicht gefunden.
Tabellenspezifikationsdetails:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
SQLSTATE: nicht zugewiesen
Das Ändern einer HMS-Pipeline in eine UC-Pipeline ist nicht zulässig.
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
SQLSTATE: kein Wert zugewiesen
Das Ändern einer UC-Pipeline in eine HMS-Pipeline ist nicht zulässig.
KATALOGÄNDERUNG_NICHT_ERLAUBT
SQLSTATE: nicht zugewiesen
Der Katalog einer vorhandenen Pipeline kann nicht geändert werden. Vorhandener Katalog: '<existingCatalog>
'. Angeforderter Katalog: '<requestedCatalog>
'.
ÄNDERUNG_DES_ZIELSCHEMAS_NICHT_ERLAUBT
SQLSTATE: nicht zugewiesen
Das Ändern des Zielschemas ist nicht zulässig. Grund: <reason>
.
CLUSTER_CREATION_CREDITS_EXHAUSTED
Fehler beim Erstellen eines Clusters, da Sie Ihr verfügbares Guthaben ausgeschöpft haben. Fügen Sie eine Zahlungsmethode hinzu, um Ihr Konto zu aktualisieren.
Berechtigung zur Cluster-Erstellung verweigert
Sie sind nicht berechtigt, Cluster zu erstellen. Wenden Sie sich an Ihren Administrator.
CLUSTER_CREATION_TRIAL_EXPIRED
Fehler beim Erstellen oder Starten eines Clusters, da der Testzeitraum für Ihren Arbeitsbereich abgelaufen ist. Wenden Sie sich an Ihren Administrator.
CLUSTER_LAUNCH_CLIENT_ERROR
Fehler beim Starten des Pipelineclusters <clusterId>
: <clusterStateMessage>
Dieser Fehler ist wahrscheinlich auf eine Fehlkonfiguration in der Pipeline zurückzuführen.
Überprüfen Sie die Pipelineclusterkonfiguration und die zugeordnete Clusterrichtlinie.
CLUSTER_LAUNCH_CLOUD_FAILURE
Fehler beim Starten des Pipelineclusters <clusterId>
: <clusterStateMessage>
Dieser Fehler kann vorübergehend sein: Starten Sie Die Pipeline neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
CLUSTER_POLICY_PERMISSION_DENIED
Sie sind nicht berechtigt, auf die für diese Pipeline konfigurierte Clusterrichtlinie zuzugreifen. Wenden Sie sich an Ihren Administrator.
CLUSTER_SETUP_CLIENT_ERROR
Weitere Details finden Sie unter CLUSTER_SETUP_CLIENT_ERROR.
CLUSTER_UNREACHABLE
SQLSTATE: nicht zugewiesen
Kommunikation mit Fahrer verloren. Cluster <clusterId>
war für <timeoutSeconds>
Sekunden nicht erreichbar.
COLUMN_TO_UPDATE_NOT_FOUND
SQLSTATE: nicht zugewiesen
Spalte <column>
, die in COLUMNS
bis UPDATE
angegeben ist, wurde im Quelldatenframe nicht gefunden.
CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE
SQLSTATE: nicht zugewiesen
Update „<upgradedUpdateId>
“ wurde für ein Upgrade gestartet, jedoch ist es fehlgeschlagen, das vorherige Update „<oldUpdateId>
“ zu stoppen.
Dieser Fehler ist wahrscheinlich vorübergehend. Die Pipeline wird automatisch erneut wiederholt, und das Problem sollte sich von alleine lösen.
Melden Sie diesen Fehler an Databricks, wenn weiterhin dasselbe Problem angezeigt wird.
DATASET_DECORATOR_APPLIED_TWICE
SQLSTATE: nicht zugewiesen
Dataset <datasetName>
ist bereits vorhanden. Stellen Sie sicher, dass die Abfragefunktion nur einmal als Ansicht oder Tabelle markiert wurde.
DATASET_NOT_DEFINED
SQLSTATE: nicht zugewiesen
Fehler beim Lesen des Datasets '<datasetName>
'. Dieses Dataset ist in der Pipeline nicht definiert.
Wenn diese Tabelle von einer anderen Pipeline verwaltet wird, sollten Sie nicht dlt.read
/ dlt.readStream
verwenden, um die Tabelle zu lesen oder den Namen mit dem LIVE-Schlüsselwort voranzustellen.
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
SCHEDULE
kann nicht in einer Tabelle ohne vorhandenen Zeitplan oder Trigger abgelegt werden.
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
SQLSTATE: nicht zugewiesen
Die Konfiguration der Aufnahmepipeline enthält doppelte Tabellen. Stellen Sie sicher, dass jede Tabelle eindeutig ist.
EMPTY_INGESTION_CONFIG_OBJECTS
SQLSTATE: nicht zugewiesen
Konfigurationsobjekte für Erfassung sind leer.
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Das Veröffentlichen des Ereignisprotokolls im Unity-Katalog wird für diese Pipeline nicht unterstützt. Wenn dies unerwartet ist, wenden Sie sich bitte an den Databricks-Support.
FAILED_TO_CREATE_EVENT_LOG
SQLSTATE: nicht zugewiesen
Ereignisprotokoll für Pipeline (ID=<pipelineId>
) mit Bezeichner <eventLogIdentifier>
konnte nicht erstellt werden. Weitere Informationen finden Sie in der nachstehenden Ausnahme.
FAILED_TO_UPDATE_EVENT_LOG
SQLSTATE: nicht zugewiesen
Ereignisprotokollbezeichner für Pipeline (ID=<pipelineId>
) mit Sichtbarkeit <newVisibility>
konnte nicht auf <newEventLogIdentifier>
aktualisiert werden. Weitere Informationen finden Sie in der nachstehenden Ausnahme.
FLOW_SCHEMA_CHANGED
SQLSTATE: nicht zugewiesen
Der Ablauf <flowName>
wurde beendet, da während der Ausführung eine Schemaänderung aufgetreten ist.
Die Schemaänderung ist mit dem vorhandenen Zielschema kompatibel, und die nächste Ausführung des Flusses kann mit dem neuen Schema fortgesetzt werden.
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
SQLSTATE: nicht zugewiesen
DLT ForeachBatch Sink wird derzeit nicht unterstützt.
Die private Vorschau für DLT-ForeachBatch-Senke erfordert den PREVIEW
-Kanal.
DLT-Senken: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
SQLSTATE: nicht zugewiesen
Die Gatewaypipeline lässt keine Cluster-Init-Skripts zu. Entfernen Sie es aus <from>
.
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
SQLSTATE: nicht zugewiesen
Die Gateway-Pipeline erlaubt die Spark-Konfiguration [<configs>
] nicht. Entfernen Sie sie aus <from>
.
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
SQLSTATE: nicht zugewiesen
Der Datentyp der in COLUMNS
TO UPDATE
angegebenen Spalte muss ein Zeichenfolgenarray sein, es wurde aber <illegalDataType>
gefunden.
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
SQLSTATE: kein Wert zugewiesen
Das angegebene Feld "schema" in den Pipelineeinstellungen ist unzulässig. Grund: <reason>
.
INGESTION_CONFIG_DUPLICATED_SCHEMA
SQLSTATE: nicht zugewiesen
Die Konfiguration der Aufnahmepipeline enthält doppelte Schemas. Stellen Sie sicher, dass jedes Schema eindeutig ist.
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
SQLSTATE: nicht zugewiesen
Authentifizierungsfehler
Weitere Details finden Sie unter INGESTION_GATEWAY_AUTHENTICATION_FAILURE.
INGESTION_GATEWAY_CDC_NOT_ENABLED
SQLSTATE: nicht zugewiesen
CDC ist für <entityType>
'<entityName>
' nicht aktiviert. Fehlermeldung: '<errorMessage>
'.
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
SQLSTATE: nicht zugewiesen
Bei der Konfiguration des Erfassungsgateways fehlt eine Verbindung.
Fügen Sie einen Verweis auf die Unity-Katalogverbindung hinzu, die Ihre Anmeldeinformationen enthält.
Details der Pipelinedefinition des Erfassungsgateways:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
SQLSTATE: nicht zugewiesen
Die Konfiguration des Erfassungsgateways fehlt im internen Speicherortkatalog.
Fügen Sie den internen Speicherortkatalog hinzu.
Details der Pipelinedefinition des Erfassungsgateways:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
SQLSTATE: nicht zugewiesen
Die Konfiguration des Aufnahmegateways enthält den Namen des internen Speicherorts nicht.
Fügen Sie den Namen des internen Speicherorts hinzu.
Details der Pipelinedefinition des Erfassungsgateways:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
SQLSTATE: nicht zugewiesen
Die Konfiguration des Aufnahmegateways enthält das Schema des internen Speicherorts nicht.
Fügen Sie das interne Speicherortschema hinzu.
Details der Pipelinedefinition des Erfassungsgateways:
<definition>
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
SQLSTATE: nicht zugewiesen
Verbindungsfehler aufgrund eines falschen Hostnamens <host>
und/oder Port <port>
.
Weitere Details finden Sie unter INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE.
INSTANCE_POOL_CAPACITY_EXCEEDED
Fehler beim Erstellen oder Starten eines Clusters, da dieser Vorgang die Kapazität des Instanzpools überschreitet: <errorMessage>
INVALID_APPLY_CHANGES_COMMAND
SQLSTATE: nicht zugewiesen
APPLY CHANGES
Befehl ist ungültig. <reason>
.
UNGÜLTIGER_ARGUMENTTYP
SQLSTATE: kein Wert zugewiesen
Wert des ungültigen Typs, der an den Parameter '<paramName>
' übergeben wurde. <expectedType>
erwartet. <additionalMsg>
.
INVALID_EVENT_LOG_PICKER_CONFIGURATION
SQLSTATE: nicht zugewiesen
Ungültige Konfiguration der Ereignisprotokollauswahl in Pipelinespezifikation: <message>
INVALID_NAME_IN_USE_COMMAND
SQLSTATE: nicht zugewiesen
Ungültiger Name '<name>
' in <command>
Befehl. Grund: <reason>
INVALID_REFRESH_SELECTION
SQLSTATE: nicht zugewiesen
Die für dieses Update angegebenen Aktualisierungsauswahlparameter sind ungültig, da
Weitere Details finden Sie unter INVALID_REFRESH_SELECTION.
INVALID_SCHEMA_NAME
SQLSTATE: nicht zugewiesen
Ungültiges Schema „<schemaName>
“ in der Pipelineeinstellung angegeben. Grund: <reason>
.
INVALID_TRIGGER_INTERVAL_FORMAT
SQLSTATE: nicht zugewiesen
Die in der <configurationType>
angegebene Triggerintervallkonfiguration ist ungültig.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
SQLSTATE: nicht zugewiesen
Das Verweisen auf Datasets mithilfe des virtuellen Schemas LIVE
außerhalb der Dataset-Abfragedefinition (d. h. @dlt.table-Anmerkung) wird nicht unterstützt.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
SQLSTATE: nicht zugewiesen
Das Verweisen auf Datasets mithilfe des virtuellen Schemas LIVE
<identifier>
außerhalb der Definition der Dataset-Abfrage (d. h. @dlt.table Anmerkung) wird nicht unterstützt.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
SQLSTATE: nicht zugewiesen
Das Verweisen auf Datasets mithilfe des virtuellen Schemas LIVE
in der API „spark.sql(…)“ darf nicht außerhalb der Dataset-Abfragedefinition (d. h. @dlt.table-Anmerkung) aufgerufen werden. Sie kann nur innerhalb der Datasetabfragedefinition aufgerufen werden.
MATERIALIZED_VIEW_METADATA_READ_FAILURE
SQLSTATE: nicht zugewiesen
Fehler beim Aktualisieren der Tabelle <tableName>
aufgrund eines Fehlers beim Lesen von Metadaten. Wenden Sie sich bitte an den Databricks-Support.
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
SQLSTATE: nicht zugewiesen
Die maximale Wiederholungsanzahl wurde erreicht. Wiederholungsanzahl:<flowRetryCount>
. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>
. <message>
METASTORE_OPERATION_TIMED_OUT
SQLSTATE: nicht zugewiesen
Vorgänge, die an der Aktualisierung der Metaspeicherinformationen für <tableName>
beteiligt waren, dauerten länger als <timeout>
.
Dieses Problem kann vorübergehend sein oder auf Fehler im konfigurierten Metastore-Client hinweisen. Versuchen Sie, Die Pipeline neu zu starten, und melden Sie dieses Problem, wenn sie weiterhin besteht.
MISSING_CREATE_SCHEMA_PRIVILEGE
SQLSTATE: nicht zugewiesen
Der Benutzer "<userName>
" verfügt nicht über die Berechtigung zum Erstellen eines Schemas im Katalog <catalogName>
MISSING_CREATE_TABLE_PRIVILEGE
SQLSTATE: nicht zugewiesen
Der Benutzer "<userName>
" verfügt nicht über die Berechtigung zum Erstellen einer Tabelle im Schema <schemaName>
MISSING_RUN_AS_USER
SQLSTATE: nicht zugewiesen
Für das Update wurde keine Benutzerausführung angegeben.
MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_NOT_FOUND
Die Zielpipeline <pipelineId>
kann nicht gefunden werden. Stellen Sie sicher, dass Sie sich im gleichen Arbeitsbereich wie die Pipeline befinden, die Pipeline besitzen, und dass die Pipeline mindestens einmal ausgeführt wird.
MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_NOT_IN_NEW_ARCHITECTURE
Die Zielpipeline <pipelineId>
verwendet nicht den Direct Publishing-Modus. Das Verschieben von Tabellen zwischen Pipelines erfordert, dass sich sowohl Quell- als auch Zielpipeline im Direct Publishing-Modus befinden.
MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_PERMISSION_DENIED
Sie dürfen diesen Vorgang nicht ausführen, Sie sind nicht der Besitzer der Zielpipeline <pipelineId>
. Nur Besitzende können die Tabelle zwischen Pipelines verschieben.
MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE
Die Zielpipeline <pipelineId>
ist keine Standardpipeline. Wir unterstützen nur das Verschieben von Tabellen zwischen Standardpipelines.
MOVE_TABLE_BETWEEN_PIPELINES_FEATURE_DISABLED
Das Verschieben von <tableType>
zwischen Pipelines wird noch nicht unterstützt.
MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_NOT_FOUND
Die Quellpipeline <pipelineId>
, die die Tabelle <tableName>
verwaltet, wurde nicht gefunden. Stellen Sie sicher, dass Sie sich im gleichen Arbeitsbereich wie die Pipeline befinden, die Pipeline besitzen, und dass die Pipeline mindestens einmal ausgeführt wird.
MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_NOT_IN_NEW_ARCHITECTURE
Die Quellpipeline <pipelineId>
, die die Tabelle <tableName>
verwaltet, verwendet nicht den Direct Publishing-Modus. Das Verschieben von Tabellen zwischen Pipelines erfordert, dass sich sowohl Quell- als auch Zielpipeline im Direct Publishing-Modus befinden.
MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_PERMISSION_DENIED
Sie dürfen diesen Vorgang nicht ausführen, da Sie nicht der Eigentümer der Quellpipeline <pipelineId>
sind und die Tabelle <tableName>
verwalten. Nur Besitzende können die Tabelle zwischen Pipelines verschieben.
MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_TYPE_NOT_WORKSPACE
Die Quellpipeline <pipelineId>
, die die Tabelle <tableName>
verwaltet, ist keine Standardpipeline. Wir unterstützen nur das Verschieben von Tabellen zwischen Standardpipelines.
MOVE_TABLE_BETWEEN_PIPELINES_TABLE_CHANGED
Die Tabelle <tableName>
wurde während des Vorgangs geändert. Versuchen Sie es erneut.
MOVE_TABLE_BETWEEN_PIPELINES_UPDATE_IS_RUNNING
Die Pipeline <pipelineId>
für die Tabelle <tableName>
wird ausgeführt. Beenden Sie die Pipeline, bevor Sie den Vorgang ausführen.
Gegenseitig ausschließende Optionen
SQLSTATE: nicht zugewiesen
Sich gegenseitig ausschließende Optionen <options>
. Entfernen Sie eine dieser Optionen.
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
SQLSTATE: nicht zugewiesen
Tabelle '<tableName>
' wird bereits von Pipeline-<otherPipelineId>
verwaltet.
Wenn Sie möchten, dass die Tabelle '<tableName>
' von dieser Pipeline verwaltet wird -
- Entfernen Sie die Tabelle aus der Pipeline „
<otherPipelineId>
“. - Starten Sie ein vollständiges Aktualisierungsupdate für diese Pipeline.
Wenn Sie die Tabelle weiterhin aus mehreren Pipelines verwalten möchten, deaktivieren Sie diese Überprüfung, indem Sie die Konfiguration pipelines.tableManagedByMultiplePipelinesCheck.enabled
in den Pipelineeinstellungen auf false
festlegen.
Dies wird nicht empfohlen, da gleichzeitige Vorgänge in der Tabelle möglicherweise miteinander in Konflikt stehen und zu unerwarteten Ergebnissen führen.
NOTEBOOK_NOT_FOUND
Notizbuch '<notebookPath>
' konnte nicht geladen werden.
NO_TABLES_IN_PIPELINE
SQLSTATE: nicht zugewiesen
Es wird erwartet, dass Pipelines mindestens eine Tabelle definiert haben, aber in Ihrer Pipeline wurden keine Tabellen gefunden.
Stellen Sie sicher, dass Sie die erwarteten Quelldateien eingeschlossen haben und dass Ihr Quellcode Tabellendefinitionen enthält (z. B. CREATE <mv>
in SQL-Code, @dlt.table in Python-Code).
Beachten Sie, dass nur Tabellen zu dieser Prüfung gezählt werden. Dieser Fehler kann auch auftreten, wenn Sie nur Ansichten oder Flows in Ihre Pipeline einbinden.
NO_WORKER_ENVIRONMENTS
Fehler beim Erstellen oder Starten eines Clusters, da Ihre Organisation keine Workerumgebungen hat. Wenden Sie sich bitte an den Databricks-Support.
PIPELINE_NON_RETRYABLE_ANALYSIS
SQLSTATE: nicht zugewiesen
Die Pipeline konnte die Quelltabellen (<tables>
) aufgrund nicht wiederholbarer Fehler nach einer teilweisen Ausführung nicht analysieren.
Ein neues Pipeline-Update wird nicht erstellt. Überprüfen Sie das Ereignisprotokoll, und beheben Sie die Probleme entsprechend.
PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
SQLSTATE: nicht zugewiesen
Die Tabelle ist noch nicht für die Aktualisierung bereit.
Weitere Details finden Sie unter PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE.
PIPELINE_TYPE_QUOTA_EXCEEDED
Das Update "<updateId>
" kann nicht gestartet werden, da der Grenzwert für aktive Pipelines vom Typ "<pipelineType>
" erreicht wurde.
PIP_INSTALL_ERROR
SQLSTATE: nicht zugewiesen
Ein Fehler ist beim Aufrufen der %pip-Installation aufgetreten.
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
SQLSTATE: nicht zugewiesen
Es wurden Zellen gefunden, die „%pip install“ enthalten, die sich nicht am Anfang des Notebooks für „<notebookPath>
“ befinden.
Verschieben Sie alle Zellen mit „%pip install“ an den Anfang des Notebooks.
PY4J_BLOCKED_API
SQLSTATE: nicht zugewiesen
Sie verwenden eine Python-API, die in der aktuellen Umgebung nicht unterstützt wird.
Bitte überprüfen Sie die Databricks-Dokumentation auf Alternativen.
<additionalInfo>
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
SQLSTATE: nicht zugewiesen
Das Verweisen auf das DLT-Dataset <identifier>
außerhalb der Definitionsabfrage für das Dataset (d. h., Anmerkung @dlt.table) wird nicht unterstützt. Lesen Sie sie stattdessen innerhalb der Datasetabfragedefinition.
REFRESH_MODE_ALREADY_EXISTS
Einer Tabelle, die bereits <existingType>
hat, kann <type>
nicht hinzugefügt werden. Bitte legen Sie den vorhandenen Zeitplan ab oder verwenden Sie ALTER TABLE
... ALTER <type>
… , um sie zu ändern.
RESERVIERTES_SCHLÜSSELWORT_IM_VERWENDUNGSKATALOG
SQLSTATE: nicht zugewiesen
USE CATALOG
'<reservedKeyword>
' ist illegal, da '<reservedKeyword>
' ein reserviertes Schlüsselwort in DLT ist.
RESERVED_KEYWORD_IN_USE_SCHEMA
SQLSTATE: nicht zugewiesen
USE SCHEMA
'<reservedKeyword>
' ist illegal, da '<reservedKeyword>
' ein reserviertes Schlüsselwort in DLT ist.
RUN_AS_USER_NOT_FOUND
SQLSTATE: nicht zugewiesen
Die angegebene Ausführung als benutzende Person „<runAsUserId>
“ für das Update ist im Arbeitsbereich nicht vorhanden.
SAAS_CONNECTION_ERROR
Fehler beim Herstellen einer Verbindung mit der <sourceName>
Quelle. Fehlercode: <saasConnectionErrorCode>
.
Weitere Informationen finden Sie unter SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SQLSTATE: nicht zugewiesen
In der Tabelle <tableName>
der <sourceName>
Quelle ist eine Schemaänderung aufgetreten.
Weitere Details finden Sie unter SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR.
SAAS_CONNECTOR_SOURCE_API_ERROR
Fehler im <sourceName>
-API-Aufruf. Quell-API-Typ: <saasSourceApiType>
. Fehlercode: <saasSourceApiErrorCode>
.
Versuchen Sie, die Zieltabelle zu aktualisieren. Wenn das Problem weiterhin besteht, reichen Sie bitte ein Ticket ein.
SAAS_CONNECTOR_UNSUPPORTED_ERROR
In der Datenquelle <sourceName>
ist ein nicht unterstützter Fehler aufgetreten.
Weitere Informationen finden Sie unter SAAS_CONNECTOR_UNSUPPORTED_ERROR.
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
SQLSTATE: nicht zugewiesen
Beim Initialisieren der Pipeline wurden inkompatible Schemaänderungen erkannt:
<details>
Bitte führen Sie eine vollständige Aktualisierung der betroffenen Tabellen durch.
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
SQLSTATE: nicht zugewiesen
Das analysierte Schema der Quelltabelle (<table>
) hat sich vom erwarteten Schema abgegrenzt.
Versuchen Sie das Pipelineupdate erneut, und überprüfen Sie, ob das Problem behoben ist.
Wenn dieses Problem weiterhin besteht, führen Sie eine vollständige Aktualisierung der oben genannten Tabellen durch.
Erwartetes Schema:
<expectedSchema>
Tatsächliches Schema:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
SQLSTATE: nicht zugewiesen
Auf die bereitgestellte Verbindungs-<connectionName>
kann nicht zugegriffen werden. Überprüfen Sie die Verbindung, und versuchen Sie es erneut.
Weitere Informationen finden Sie unter SAAS_UC_CONNECTION_INACCESSIBLE.
SCHEMA_SPEC_EMPTY_CATALOG
SQLSTATE: nicht zugewiesen
SchemaSpec weist eine leere Zeichenfolge im Katalogfeld auf.
Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Katalognamen hinzu. (Wenn dieses Schema nicht zu einem Katalog in der Quelle gehört, legen Sie das Feld nicht fest.)
Schemaspezifikationsdetails:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SQLSTATE: nicht zugewiesen
SchemaSpec verfügt über eine leere Zeichenfolge im Schemafeld.
Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Schemanamen hinzu. (Wenn diese Tabelle nicht zu einem Schema in der Quelle gehört, legen Sie das Feld nicht fest.)
Schemaspezifikationsdetails:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
SQLSTATE: nicht zugewiesen
Mindestens ein Quellkatalog- und Quellschema muss vorhanden sein. Aber beide sind leer.
Schemaspezifikationsdetails:
<schemaSpec>
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Fehler beim Herstellen einer Verbindung mit der ServiceNow-Instanz. Die Instanz scheint im Ruhezustand oder inaktiv zu sein.
Melden Sie sich bei Ihrem ServiceNow-Verwaltungsportal an, und warten Sie einige Zeit, bis die Instanz vollständig aktiviert ist.
Um es erneut zu versuchen, führen Sie entweder die gesamte Pipeline erneut aus, oder aktualisieren Sie diese bestimmte Zieltabelle. Wenn der Fehler weiterhin besteht, melden Sie bitte ein Ticket an.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Fehler beim Abfragen des Schemas der Tabelle '<tableName>
'. Die Tabelle ist im ServiceNow-Konto für diesen Benutzer nicht vorhanden.
Überprüfen Sie den Tabellennamen für alle Tippfehler, und stellen Sie sicher, dass der Benutzer über die erforderlichen Berechtigungen für den Zugriff auf die Tabelle verfügt.
Um es erneut zu versuchen, führen Sie entweder die gesamte Pipeline erneut aus, oder aktualisieren Sie diese bestimmte Zieltabelle. Wenn der Fehler weiterhin besteht, melden Sie bitte ein Ticket an.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Ungültige ServiceNow-API-Endpunkt-URL erkannt. Die URL-Struktur stimmt nicht mit dem erwarteten ServiceNow-Format überein.
Überprüfen Sie die ServiceNow-Instanzkonfiguration in den UC-Verbindungsanmeldeinformationen.
Weitere Details finden Sie unter SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR.
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Weitere Details finden Sie unter SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR.
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_DLT_DATASET
ALTER <commandTableType>
… SET TBLPROPERTIES
wird nicht unterstützt. Wenn Sie Tabelleneigenschaften ändern möchten, ändern Sie die ursprüngliche Definition, und führen Sie ein Update aus.
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
Die Aufnahme für Objekt-<objName>
ist unvollständig, da der Salesforce-API-Abfrageauftrag zu lang dauerte, fehlgeschlagen oder manuell abgebrochen wurde.
Weitere Details finden Sie unter SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE.
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
Die Erfassung von Objekt-<objName>
ist unvollständig, da die Erstellung des Salesforce-Massen-API-Abfrageauftrags fehlgeschlagen ist. Fehlercode: <saasSourceApiErrorCode>
.
<actionText>
.
SINKS_NOT_SUPPORTED_IN_SEG
SQLSTATE: nicht zugewiesen
DLT-Senken werden in Arbeitsbereichen ohne Internetverbindung nicht unterstützt. Die folgenden Senken wurden gefunden: <sinkNames>
START_PYTHON_REPL_TIMED_OUT
SQLSTATE: nicht zugewiesen
Timeout beim Warten auf den Start von Python REPL. Dauerte länger als <timeoutSeconds>
Sekunden.
STREAMING_TARGET_NOT_DEFINED
SQLSTATE: nicht zugewiesen
Die Zieltabelle <target>
für den Befehl <command>
wurde nicht gefunden. Zieltabelle <target>
ist in der Pipeline nicht definiert.
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
SQLSTATE: nicht zugewiesen
Bei „TableSpec“ fehlt der Quellkatalog und/oder das Quellschema.
Tabellenspezifikationsdetails:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
SQLSTATE: nicht zugewiesen
TableSpec verfügt über eine leere Zeichenfolge im Katalogfeld.
Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Katalognamen hinzu. (Wenn diese Tabelle nicht zu einem Katalog in der Quelle gehört, legen Sie das Feld nicht fest.)
Tabellenspezifikationsdetails:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
SQLSTATE: nicht zugewiesen
TableSpec verfügt über eine leere Zeichenfolge im Schemafeld.
Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Schemanamen hinzu. (Wenn diese Tabelle nicht zu einem Schema in der Quelle gehört, legen Sie das Feld nicht fest.)
Tabellenspezifikationsdetails:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
SQLSTATE: nicht zugewiesen
Der Tabellenname ist leer. Geben Sie einen Tabellennamen an.
Tabellenspezifikationsdetails:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
SQLSTATE: nicht zugewiesen
Die Schemaentwicklung kann aufgrund fehlender Metadaten nicht aktiviert werden. Lösen Sie eine vollständige Aktualisierung aus.
Grund: Snapshot-Tabellentoken muss definiert werden, wenn die Schemaentwicklung aktiviert ist.
TRIGGER_INTERVAL_VALUE_INVALID
Das Triggerintervall muss eine positive Dauer sein, der maximal zulässige Wert beträgt 2.147.483.647 Sekunden. Empfangen: <actual>
Sekunden.
Auslöserquellentyp nicht unterstützt (TRIGGER_SOURCE_TYPE_NOT_SUPPORTED)
Die Quelle <source>
mit Typ <type>
wird derzeit nicht vom Auslöser unterstützt.
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
SQLSTATE: nicht zugewiesen
Das Löschen des Zielschemafelds ist für UC-Pipelines nicht zulässig. Grund: <reason>
.
UC_TARGET_SCHEMA_REQUIRED
SQLSTATE: nicht zugewiesen
Das Zielschemafeld ist für UC-Pipelines erforderlich. Grund: <reason>
.
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
SQLSTATE: nicht zugewiesen
Unerwarteter Fehler beim Überprüfen von Schemaberechtigungen für Pipeline-<pipelineId>
. Wenden Sie sich bitte an den Databricks-Support.
UNRESOLVED_SINK_PATH
SQLSTATE: nicht zugewiesen
Speicherpfad für Senke <identifier>
kann nicht aufgelöst werden. Wenden Sie sich bitte an den Databricks-Support.
UNRESOLVED_TABLE_PATH
SQLSTATE: nicht zugewiesen
Der Speicherpfad für tabellen <identifier>
kann nicht aufgelöst werden. Wenden Sie sich bitte an den Databricks-Support.
UNSUPPORTED_CHANNEL_FOR_DPM
SQLSTATE: nicht zugewiesen
Nicht unterstützter Kanal für den Direct Publishing-Modus. Erwartet wurde entweder den Kanal „CURRENT
“ oder „PREVIEW
“, aber „PREVIOUS
“ wurde erhalten.
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
SQLSTATE: nicht zugewiesen
<command>
wird nur im aktivierten Direktveröffentlichungsmodus der DLT-Pipeline unterstützt
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
SQLSTATE: nicht zugewiesen
'<command>
' wird in der Abfragedefinition nicht unterstützt. Verschieben Sie den Befehl außerhalb der Abfragedefinition. Wenn es sich um eine DLT-Pipeline in Python handelt, verschieben Sie „<command>
“ außerhalb des Decorator-Elements @dlt.table(/@dlt.view(). Wenn es sich um eine DLT-Pipeline in Scala handelt, verschieben Sie die '<command>
' außerhalb der 'Abfrage'-Methode.
UNSUPPORTED_FEATURE_FOR_WORKSPACE
<featureName>
wird in Ihrem Arbeitsbereich nicht unterstützt. Wenden Sie sich an den Databricks-Support, um dieses Feature für Ihren Arbeitsbereich zu aktivieren.
UNSUPPORTED_LANGUAGE
Fehler beim Laden des <language>
-Notebooks „<notebookPath>
“. Derzeit werden nur <supportedLanguages>
Notizbücher unterstützt.
Nicht unterstützter verwalteter Ingestionsquellentyp
SQLSTATE: nicht zugewiesen
Ungültige Definition einer verwalteten Aufnahmepipeline, nicht unterstützter Quelltyp: <sourceType>
.
UNSUPPORTED_SAAS_INGESTION_TYPE
SQLSTATE: nicht zugewiesen
Der bereitgestellte Erfassungstyp <ingestionType>
wird nicht unterstützt.
Wenden Sie sich an den Databricks-Support, wenn dieses Problem weiterhin besteht.
UNSUPPORTED_SPARK_SQL_COMMAND
SQLSTATE: nicht zugewiesen
'<command>
' wird in spark.sql("...") API in DLT Python nicht unterstützt. Unterstützter Befehl: <supportedCommands>
.
USE_CATALOG_IN_HMS
SQLSTATE: kein Wert zugewiesen
USE CATALOG
wird nur in UC-fähigen DLT-Pipelines unterstützt.
VIEW_TEXT_NOT_SAVED_IN_UC
SQLSTATE: nicht zugewiesen
Tabelle <tableName>
kann nicht aktualisiert werden, da sie keine Abfrage im Unity-Katalog gespeichert hat. Wenden Sie sich bitte an den Databricks-Support.
WORKDAY_REPORT_URL_EMPTY
SQLSTATE: nicht zugewiesen
Die Url des Workday-Berichts ist leer. Mindestens ein Bericht muss bereitgestellt werden.
WORKSPACE_QUOTA_EXCEEDED
Update „<updateId>
“ kann nicht gestartet werden, da bereits „<maxActiveUpdates>
“ aktive Pipelines in diesem Arbeitsbereich ausgeführt werden.
Verschiedenes
ABAC_ROW_COLUMN_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: nicht zugewiesen
Abfrage für Tabelle <tableFullName>
mit Zeilenfilter oder Spaltenmaske, die durch Richtlinienregeln zugewiesen wurden, wird für zugewiesene Clustern nicht unterstützt.
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE: nicht zugewiesen
Anmeldeinformationen für Azure Entra (auch als Azure Active Directory bekannt) fehlen.
Stellen Sie sicher, dass Sie entweder mit Ihrem Entra-Konto angemeldet sind.
oder Sie ein persönliches Azure DevOps-Zugriffstoken (PAT) in den „Benutzereinstellungen > Git-Integration“ eingerichtet haben.
Wenn Sie kein PAT verwenden und Azure DevOps mit der Repos-API verwenden,
Sie müssen ein Azure Entra-Zugriffstoken verwenden.
Schritte zum Abrufen eines Azure Entra-Zugriffstokens finden Sie unterhttps://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token.
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: nicht zugewiesen
Es wurde ein Fehler mit Ihren Azure Entra (Azure Active Directory)-Anmeldeinformationen festgestellt. Bitte versuchen Sie, sich abzumelden von
Entra https://portal.azure.com) und wieder anzumelden.
Alternativ können Sie auch „Benutzereinstellungen > Git-Integration“ aufrufen, um ein
ein persönliches Azure DevOps-Zugriffstoken einrichten.
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: nicht zugewiesen
Ein Fehler ist bei Ihren Azure Active Directory-Anmeldeinformationen aufgetreten. Bitte versuchen Sie, sich abzumelden von
Azure Active Directory https://portal.azure.com) und wieder anzumelden.
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE: nicht zugewiesen
Die Generierung von Anmeldeinformationen für sicherungsfähige Reinraum-Delta-Freigabe kann nicht angefordert werden.
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Sicherungsfähiger <securableName>
mit Typ <securableType>
und Art <securableKind>
wird vom Reinraumsystem verwaltet, Benutzende haben keinen Zugriff.
BESCHRÄNKUNG_EXISTIERT_BEREITS
SQLSTATE: nicht zugewiesen
Es gibt bereits eine Einschränkung mit dem Namen <constraintName>
, wählen Sie bitte einen anderen Namen.
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Einschränkung <constraintName>
ist nicht vorhanden.
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE: nicht zugewiesen
Konnte Remote-Repository (<repoUrl>
) nicht lesen.
Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:
- Ihre Git-Repository-REMOTE-URL ist gültig.
- Ihr persönliches Zugriffstoken oder App-Kennwort verfügt über den richtigen Repositoryzugriff.
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE: nicht zugewiesen
Host für <repoUrl>
konnte nicht aufgelöst werden.
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Der Parameter beginning_of_time
kann nicht wahr sein.
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE: nicht zugewiesen
Angeforderte Objekte konnten für das Fortsetzungstoken nicht gefunden werden.
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE: nicht zugewiesen
Fortsetzungstoken ungültig. Ursache: <msg>
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: nicht zugewiesen
Ungültiger Wert <value>
für Parameter-max_objects, erwarteter Wert in [<minValue>
, <maxValue>
]
CSMS_INVALID_URI_FORMAT
SQLSTATE: nicht zugewiesen
Ungültiges URI-Format. Ein Volume (z. B. /Volumes/catalog/schema/volume”) oder Cloudspeicherpfad (z. B. „s3://some-uri“) wurde erwartet
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: nicht zugewiesen
Muss ein Kafka-Thema bereitstellen
CSMS_LOCATION_ERROR
SQLSTATE: nicht zugewiesen
Fehler beim Auflisten von Objekten. Es gibt Probleme am Standort, die behoben werden müssen. Details: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: nicht zugewiesen
Kein Speicherort für URI <path>
gefunden.
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: nicht zugewiesen
Ein Metaspeicher für die Anforderung kann nicht ermittelt werden.
CSMS-Dienst deaktiviert
SQLSTATE: nicht zugewiesen
Der Dienst ist deaktiviert.
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: nicht zugewiesen
Unity Catalog-Entität nicht gefunden. Stellen Sie sicher, dass der Katalog, das Schema, das Volume und/oder der externe Speicherort vorhanden sind.
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: kein Wert zugewiesen
Der externe Speicherort des Unity-Katalogs ist nicht vorhanden.
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: nicht zugewiesen
URI überlappt mit anderen Volumes
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Ein Metaspeicher für die Anforderung kann nicht ermittelt werden. Metastore ist nicht vorhanden
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Berechtigung verweigert
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Die Unity-Katalogtabelle ist nicht vorhanden.
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Das Unity-Katalogvolumen existiert nicht.
CSMS_URI_MISSING
SQLSTATE: nicht zugewiesen
URI muss bereitgestellt werden
CSMS_URI_TOO_LONG
SQLSTATE: nicht zugewiesen
Der angegebene URI ist zu lang. Die maximal zulässige Länge ist <maxLength>
.
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: nicht zugewiesen
Auf den Databricks-Standardspeicher kann nicht mithilfe des klassischen Compute zugegriffen werden. Verwenden Sie Serverless Compute, um auf Daten im Standardspeicher zuzugreifen.
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE: nicht zugewiesen
Fehler beim Vorgang, da verknüpfte GitHub-App-Anmeldeinformationen nicht aktualisiert werden konnten.
Versuchen Sie es erneut, oder wechseln Sie zu "Benutzereinstellungen" > Git-Integration, und versuchen Sie erneut, Ihr Git-Anbieterkonto zu verknüpfen.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE: nicht zugewiesen
Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:
- Ein Administrator des Repositorys muss zuhttps://github.com/apps/databricks/installations/new wechseln und die GitHub-App "Databricks" im Repository installieren.
Alternativ kann ein GitHub-Kontobesitzer die App auf dem Konto installieren, um Zugriff auf die Repositorys des Kontos zu gewähren.
- Wenn die App bereits installiert ist, muss die Administration sicherstellen, dass bei Verwendung des bereichsbezogenen Zugriffs mit der Option „Nur ausgewählte Repositorys“ Zugriff auf dieses Repository besteht, indem es ausgewählt wird.
Weitere Informationen finden Sie unterhttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE: nicht zugewiesen
Verknüpfte GitHub-App-Anmeldeinformationen sind nach 6 Monaten Inaktivität abgelaufen.
Wechseln Sie zu "Benutzereinstellungen" > Git-Integration, und versuchen Sie, Ihre Anmeldeinformationen erneut zu verknüpfen.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: nicht zugewiesen
Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:
- GitHub-Benutzer
<gitCredentialUsername>
sollte zuhttps://github.com/apps/databricks/installations/new wechseln und die App auf dem Konto<gitCredentialUsername>
installieren, um den Zugriff zu ermöglichen. - Wenn der Benutzer die App bereits installiert
<gitCredentialUsername>
und den bereichsbezogenen Zugriff mit der Option "Nur ausgewählte Repositorys" verwendet, sollte er sicherstellen, dass er Zugriff auf dieses Repository hat, indem er es auswählt.
Weitere Informationen finden Sie unterhttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: nicht zugewiesen
Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:
- Ein Besitzer der GitHub-Organisation
<organizationName>
sollte zuhttps://github.com/apps/databricks/installations/new wechseln und die App in der Organisation installieren<organizationName>
, um den Zugriff zu ermöglichen. - Wenn die App bereits in der GitHub-Organisation
<organizationName>
installiert ist, sollte ein Besitzer dieser Organisation sicherstellen, dass bei Verwendung des bereichsbezogenen Zugriffs mit der Option „Nur ausgewählte Repositorys“ dieses Repository durch Auswahl in den Zugriff einbezogen wird.
Weitere Informationen finden Sie unterhttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE: nicht zugewiesen
Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:
- Wechseln Sie zuhttps://github.com/apps/databricks/installations/new, und installieren Sie die App auf Ihrem Konto
<gitCredentialUsername>
, um den Zugriff zu ermöglichen. - Wenn die App bereits installiert ist und Sie den bereichsbezogenen Zugriff mit der Option "Nur Repositorys auswählen" verwenden, stellen Sie sicher, dass Sie Zugriff auf dieses Repository haben, indem Sie sie auswählen.
Weitere Informationen finden Sie unterhttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE: nicht zugewiesen
Ungültige Git-Anbieteranmeldeinformationen für Repository-URL <repoUrl>
.
Ihr aktueller Git-Anmeldeinformationsanbieter ist <gitCredentialProvider>
und benutzername ist <gitCredentialUsername>
.
Rufen Sie „Benutzereinstellungen > Git-Integration“ auf, um Ihre Anmeldeinformationen anzuzeigen.
Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:
- Sie haben die richtige Git-Benutzer-E-Mail oder ihren Benutzernamen mit Ihren Git-Anbieteranmeldeinformationen eingegeben.
- Ihr Token- oder App-Kennwort verfügt über den richtigen Repositoryzugriff.
- Ihr Token ist nicht abgelaufen.
- Wenn Sie SSO mit Ihrem Git-Anbieter aktiviert haben, müssen Sie Ihr Token autorisieren.
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE: nicht zugewiesen
Ungültige Personal Access Token-Anmeldeinformationen des Git-Anbieters für die Repository-URL <repoUrl>
.
Ihr aktueller Git-Anmeldeinformationsanbieter ist <gitCredentialProvider>
und benutzername ist <gitCredentialUsername>
.
Wechseln Sie zu "Benutzereinstellungen" > "Git-Integration", um Ihre Zugangsdaten anzuzeigen.
Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:
- Sie haben die richtige Git-Benutzer-E-Mail oder ihren Benutzernamen mit Ihren Git-Anbieteranmeldeinformationen eingegeben.
- Ihr Token- oder App-Kennwort verfügt über den richtigen Repositoryzugriff.
- Ihr Token ist nicht abgelaufen.
- Wenn Sie SSO mit Ihrem Git-Anbieter aktiviert haben, müssen Sie Ihr Token autorisieren.
GIT_CREDENTIAL_MISSING
SQLSTATE: nicht zugewiesen
Keine Git-Anmeldeinformationen konfiguriert, aber Anmeldeinformationen sind für dieses Repository erforderlich (<repoUrl>
).
Wechseln Sie zu "Benutzereinstellungen" > Git-Integration, um Ihre Git-Anmeldeinformationen einzurichten.
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: nicht zugewiesen
Schreibzugriff auf <gitCredentialProvider>
-Repository (<repoUrl>
) nicht gewährt.
Stellen Sie sicher, dass Sie (<gitCredentialUsername>
) Schreibzugriff auf dieses Remote-Repository haben.
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: nicht zugewiesen
Falscher Git-Anmeldeinformationsanbieter für Repository.
Der Anbieter Ihrer aktuellen Git-Anmeldeinformationen (<gitCredentialProvider>
) stimmt nicht mit dem des Git-Anbieters des Repositorys <repoUrl>
überein.
Probieren Sie ein anderes Repository aus, oder wechseln Sie zu "Benutzereinstellungen" > Git-Integration, um Ihre Git-Anmeldeinformationen zu aktualisieren.
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE: nicht zugewiesen
Git-Proxycluster ist nicht bereit.
GIT_SECRET_IN_CODE
SQLSTATE: nicht zugewiesen
Geheimnisse im Commit gefunden. Detail: <secretDetail>
. So beheben Sie diesen Fehler:
Entfernen Sie das Geheimnis, und committen Sie erneut.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE: nicht zugewiesen
Das Azure-Speicherkonto hat keinen hierarchischen Namespace aktiviert.
INVALID_FIELD_LENGTH
SQLSTATE: nicht zugewiesen
<rpcName> <fieldName>
zu lang. Die maximale Länge beträgt <maxLength>
Zeichen.
UNGÜLTIGER_PARAMETERWERT
SQLSTATE: nicht zugewiesen
<msg>
Weitere Details finden Sie unter INVALID_PARAMETER_VALUE.
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE: nicht zugewiesen
Aufgabenframework: Ausgabe der Aufgabenausführung für Aufgabe mit runId <runId>
und orgId <orgId>
konnte nicht gefunden werden.
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE: nicht zugewiesen
Aufgabenframework: Status der Aufgabenausführung für Aufgabe mit runId <runId>
und orgId <orgId>
konnte nicht gefunden werden.
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
RPC-ClientConfig für Aufgabe mit ID <taskId>
existiert nicht.
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Die Aufgabe mit der ID <taskId>
ist nicht vorhanden.
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE: nicht zugewiesen
Aufgabenregistrierung: Nicht unterstützte oder unbekannte JobTask mit Klasse <taskClassName>
.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE: nicht zugewiesen
Pfadbasierter Zugriff auf externe flache Klontabelle <tableFullName>
wird nicht unterstützt. Verwenden Sie stattdessen Tabellennamen, um auf den flachen Klon zuzugreifen.
Pfadbasierter Zugriff wird für Fabric nicht unterstützt
SQLSTATE: nicht zugewiesen
Die Fabric-Tabelle an der URL „<url>
“ wurde nicht gefunden. Verwenden Sie den Befehl REFRESH FOREIGN CATALOG
, um Fabric-Tabellen aufzufüllen.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE: nicht zugewiesen
Pfadbasierter Zugriff auf Tabelle <tableFullName>
mit Zeilenfilter oder Spaltenmaske nicht unterstützt.
PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Benutzende Person verfügt nicht über <msg>
für <resourceType>
„<resourceName>
“.
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: nichts zugewiesen
Die Löschanforderung für das Objekt kann nicht verarbeitet werden: <invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE: nicht zugewiesen
Objekt <resourceName>
kann nicht gelöscht werden, da es sich nicht im Papierkorb befindet.
REDASH_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Der Zugriff auf Ressource <resourceId>
konnte nicht gefunden werden oder es fehlen die notwendigen Berechtigungen.
REDASH_QUERY_NOT_FOUND
SQLSTATE: nicht zugewiesen
Die Ressource konnte nicht aus der Abfrage-ID <queryId>
gefunden werden.
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE: nicht zugewiesen
Der neue Abfrageausschnitt kann nicht erstellt werden.
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE: nicht zugewiesen
Das Kontingent für die Anzahl der Abfrageausschnitte wurde erreicht. Das aktuelle Kontingent beträgt <quota>
.
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE: nicht zugewiesen
Der angegebene Trigger <trigger>
wird bereits von einem anderen Abfrageausschnitt in diesem Arbeitsbereich verwendet.
REDASH_RESOURCE_NOT_FOUND
SQLSTATE: kein Wert zugewiesen
Die angeforderte Ressource <resourceName>
ist nicht vorhanden.
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: nicht zugewiesen
Die Löschanforderung konnte nicht verarbeitet/parsiert werden: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE: nicht zugewiesen
Objekt <resourceName>
, das sich nicht im Papierkorb befindet, kann nicht wiederhergestellt werden.
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE: nicht zugewiesen
Objekt <resourceName>
befindet sich bereits im Papierkorb und kann nicht erneut in den Papierkorb verschoben werden.
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE: nicht zugewiesen
Der Ressourcenname konnte nicht aus id <id>
generiert werden.
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE: nicht zugewiesen
Neue Visualisierung kann nicht erstellt werden.
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE: nicht zugewiesen
Visualisierung <visualizationId>
konnte nicht gefunden werden.
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE: nicht zugewiesen
Das Kontingent für die Anzahl der Visualisierungen der Abfrage <query_id> wurde erreicht. Das aktuelle Kontingent beträgt <quota>
.
REPOSITORY_URL_NOT_FOUND
SQLSTATE: nicht zugewiesen
Remote-Repository (<repoUrl>
) nicht gefunden.
Ihr aktueller Git-Anmeldeinformationsanbieter ist <gitCredentialProvider>
und benutzername ist <gitCredentialUsername>
.
Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:
- Ihre Git-Repository-REMOTE-URL ist gültig.
- Ihr persönliches Zugriffstoken oder App-Kennwort verfügt über den richtigen Repositoryzugriff.
RESSOURCE_EXISTIERT_BEREITS
SQLSTATE: nicht zugewiesen
<resourceType>
'<resourceIdentifier>
' ist bereits vorhanden
DIE_RESOURCE_EXISTIERT_NICHT
SQLSTATE: nicht zugewiesen
<resourceType>
'<resourceIdentifier>
' ist nicht vorhanden.
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: nicht zugewiesen
Abfrage auf die Tabelle <tableFullName>
mit Zeilenfilter oder Spaltenmaske wird auf zugewiesenen Clustern nicht unterstützt.
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE: nicht zugewiesen
Tabelle <tableFullName>
wird mit Delta Sharing geteilt und kann keine Zeilen-/Spaltensicherheit verwenden.
SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE: nicht zugewiesen
Der <serviceName>
-Dienst wird vorübergehend gewartet. Versuchen Sie es später erneut.
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE: nicht zugewiesen
Tabelle <tableFullName>
kann nicht sowohl die Zeilen-/Spaltensicherheit als auch online materialisierte Ansichten haben.
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE: nicht zugewiesen
Zu viele Zeilen zum Aktualisieren, Aktualisierung wird abgebrochen.