Fehlerklassen in Azure Databricks
Gilt für: Databricks SQL Databricks Runtime 12.2 und höher
Fehlerklassen sind beschreibende, lesbare Zeichenfolgen, die für die Fehlerbedingung eindeutig sind.
Sie können Fehlerklassen verwenden, um Fehler in Ihrer Anwendung programmgesteuert zu behandeln, ohne die Fehlermeldung analysieren zu müssen.
Dies ist eine Liste allgemeiner, benannter Fehlerbedingungen, die von Azure Databricks zurückgegeben werden.
Databricks Runtime und Databricks SQL
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
Der nicht deterministische Ausdruck <sqlExpr>
darf nicht in den Argumenten einer Aggregatfunktion aufgeführt werden.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Fehler beim Analysieren der Modellausgabe beim Umwandeln in den angegebenen returnType: "<dataType>
", Antwort von JSON lautete: "<responseString>
". Aktualisieren Sie den returnType so, dass er dem Inhalt des Typs entspricht, der durch den Antwort-JSON dargestellt wird, und wiederholen Sie dann die Abfrage erneut.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
Die tatsächliche Modellausgabe weist mehr als eine Spalte "<responseString>
" auf. Der angegebene Rückgabetyp ["<dataType>
"] weist jedoch nur eine Spalte auf. Aktualisieren Sie den returnType so, dass er dieselbe Anzahl von Spalten wie die Modellausgabe enthält, und wiederholen Sie dann die Abfrage erneut.
AI_FUNCTION_HTTP_REQUEST_ERROR
Fehler beim Ausführen einer HTTP-Anforderung für die Funktion <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Ungültige HTTP-Antwort für Funktion <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Die maximale Anzahl von Wörtern muss eine nicht negative ganze Zahl sein, es wurde aber <maxWords>
erhalten.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Die bereitgestellten Modellparameter (<modelParameters>
) sind in der AI_QUERY-Funktion für die Bereitstellung des Endpunkts "<endpointName>
" ungültig.
Weitere Informationen finden Sie unter AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_JSON_PARSE_ERROR
Fehler beim Analysieren der JSON-Antwort für die Funktion <funcName>
: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Fehler beim Analysieren des Schemas für den bereitgestellten Endpunkt "<endpointName>
": <errorMessage>
, Antwort-JSON lautete: "<responseJson>
".
Legen Sie den returnType
-Parameter manuell in der AI_QUERY-Funktion fest, um die Schemaauflösung außer Kraft zu setzen.
AI_FUNCTION_UNSUPPORTED_ERROR
Die Funktion <funcName>
wird in der aktuellen Umgebung nicht unterstützt. Sie ist nur in Databricks SQL Pro und Serverless verfügbar.
AI_FUNCTION_UNSUPPORTED_REQUEST
Fehler beim Auswerten der SQL-Funktion „<functionName>
“, da das angegebene Argument von <invalidValue>
den Typ „<invalidDataType>
“ aufweist, aber nur die folgenden Typen unterstützt werden: <supportedDataTypes>
. Aktualisieren Sie den Funktionsaufruf. Geben Sie dabei ein Argument vom Typ „string“ an, und wiederholen Sie die Abfrage.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
Die KI-Funktion <functionName>
unterstützt den folgenden Typ nicht als Rückgabetyp: <typeName>
. Der Rückgabetyp muss ein gültiger SQL-Typ sein, der von Catalyst verstanden und von der KI-Funktion unterstützt wird. Beispiele für aktuell unterstützte Typen: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
Der angegebene Wert <argValue>
wird vom <argName>
-Argument nicht unterstützt. Folgende Werte werden unterstützt: <supportedValues>
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Die bereitgestellte "<sqlExpr>
" wird vom Argument returnType nicht unterstützt.
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
Die Vektorsuche mit Spalteneinbettungstyp <embeddingColumnType>
wird nicht unterstützt.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
Die Vektorsuche mit Indextyp <indexType>
wird nicht unterstützt.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Fehler beim Materialisieren der Vektorsuchabfrage vom Spark-Typ <dataType>
bis hin zu skala-nativen Objekten während der Anforderungscodierung mit Fehler: <errorMessage>
.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
Die Vektorsuche mit num_results größer als <maxLimit>
wird nicht unterstützt. Der angegebene Grenzwert war <requestedLimit>
. Versuchen Sie es erneut mit num_results <= <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
Für die Verwendung von nach dem Namen parametrisierten Abfragen müssen alle Parameter benannt sein. Parameter ohne Namen: <exprs>
.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Für Partitionsspalten können nicht alle Spalten verwendet werden.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type>
Spalte <columnName>
gibt den Deskriptor „<optionName>
“ mehr als einmal an, was ungültig ist.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Der Name <name>
ist im geschachtelten CTE mehrdeutig.
Legen Sie <config>
auf „CORRECTED“ fest, damit der im inneren CTE definierte Name Vorrang hat. Wenn der Wert auf „LEGACY“ festgelegt ist, haben äußere CTE-Definitionen Vorrang.
Siehe https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine’.
AMBIGUOUS_COLUMN_OR_FIELD
Spalte oder Feld <name>
ist mehrdeutig und weist <n>
Übereinstimmungen auf.
AMBIGUOUS_COLUMN_REFERENCE
Die Spalte <name>
ist mehrdeutig. Dies liegt daran, dass Sie mehrere DataFrames miteinander verknüpft haben, und einige dieser DataFrames identisch sind.
Diese Spalte verweist auf einen der DataFrames, aber Spark kann nicht ermitteln auf welchen.
Verwenden Sie für die DataFrames unterschiedliche Namen mit DataFrame.alias
, bevor Sie sie verknüpfen,
und geben Sie die Spalte mithilfe des qualifizierten Namens an, z. B. df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
AMBIGUOUS_CONSTRAINT
Mehrdeutige Referenz auf Einschränkung <constraint>
.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
Der Alias der Lateral-Spalte <name>
ist mehrdeutig und weist <n>
Übereinstimmungen auf.
AMBIGUOUS_REFERENCE
Verweis <name>
ist mehrdeutig, könnte Folgendes sein: <referenceNames>
.
AMBIGUOUS_REFERENCE_TO_FIELDS
Mehrdeutiger Verweis auf das Feld <field>
. Es erscheint <count>
Mal im Schema.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYSEEINSCHRÄNKUNGEN werden nicht unterstützt.
ANSI_CONFIG_CANNOT_BE_DISABLED
Die ANSI SQL-Konfiguration <config>
kann in diesem Produkt nicht deaktiviert werden.
AQE_THREAD_INTERRUPTED
Der AQE-Thread wird unterbrochen, wahrscheinlich aufgrund des Abbruchs von Abfragen durch den Benutzer.
ARGUMENT_NOT_CONSTANT
Die Funktion <functionName>
enthält einen <parameterName>
-Parameter and der Position <pos>
, der ein konstantes Argument erfordert. Bitte berechnen Sie das Argument <sqlExpr>
separat, und übergeben Sie das Ergebnis als Konstante.
ARITHMETIC_OVERFLOW
<message>
.<alternative>
Legen Sie bei Bedarf <config>
auf FALSCH fest, um diesen Fehler zu umgehen.
Weitere Details finden Sie unter ARITHMETIC_OVERFLOW
ASSIGNMENT_ARITY_MISMATCH
Die Anzahl der zugewiesenen oder an einen Alias gebundenen Spalten oder Variablen: <numTarget>
stimmt nicht mit der Anzahl der Quellausdrücke überein: <numExpr>
.
AS_OF_JOIN
Ungültiger As-of-Join.
Weitere Informationen finden Sie unter AS_OF_JOIN.
AVRO_DEFAULT_VALUES_UNSUPPORTED
Die Verwendung von Standardwerten wird nicht unterstützt, wennrescuedDataColumn
aktiviert ist. Sie können diese Überprüfung möglicherweise entfernen, indem Sie spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
auf FALSE festlegen, aber die Standardwerte werden nicht angewendet, und NULL-Werte werden weiterhin verwendet.
AVRO_INCOMPATIBLE_READ_TYPE
Avro <avroPath>
kann nicht in SQL <sqlPath>
konvertiert werden, weil als ursprünglicher Datentyp <avroType>
codiert wurde. Sie versuchen jedoch, das Feld als <sqlType>
zu lesen, was zu einer falschen Antwort führen würde.
Um das Lesen dieses Felds zuzulassen, aktivieren Sie die SQL-Konfiguration: „spark.sql.legacy.avro.allowIncompatibleSchema”.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Die Verwendung des Positionsfeldabgleichs wird nicht unterstützt, wenn rescuedDataColumn
oder failOnUnknownFields
aktiviert ist. Entfernen Sie diese Optionen, um fortzufahren.
BATCH_METADATA_NOT_FOUND
Batch <batchMetadataFile>
wurde nicht gefunden.
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
BigQuery-Verbindungsanmeldeinformationen müssen entweder mit dem Parameter „GoogleServiceAccountKeyJson“ oder „projectId“, „OAuthServiceAcctEmail“, „OAuthPvtKey“ angegeben werden.
BINARY_ARITHMETIC_OVERFLOW
<value1>
<symbol>
<value2>
verursachte einen Überlauf.
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
Boolesche Anweisung <invalidStatement>
ist ungültig. Es wurde eine einzelne Zeile mit einem Wert des BOOLEAN
Typs erwartet, aber eine leere Zeile erhalten.
BUILT_IN_CATALOG
<operation>
unterstützt keine integrierten Kataloge.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
Die Methode <methodName>
kann für das Streamingdataset/den DataFrame nicht aufgerufen werden.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN kann die Sortierung von Typ/Untertypen von Bucket-Spalten nicht ändern, hat aber die Bucket-Spalte <columnName>
in der Tabelle <tableName>
gefunden.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN wird für Partitionsspalten nicht unterstützt, aber die Partitionsspalte <columnName>
wurde in der Tabelle <tableName>
gefunden.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
Grenzwert muss definiert werden, um die Ereigniszeitspalte neu zuzuweisen. Die Grenzwert-Definition in der Streamingabfrage konnte nicht gefunden werden.
CANNOT_CAST_DATATYPE
<sourceType>
kann nicht in <targetType>
umgewandelt werden.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Protobuf <protobufColumn>
kann nicht in SQL <sqlColumn>
konvertiert werden, da das Schema inkompatibel ist (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
<protobufType>
von Protobuf kann nicht in den SQL-Typ <toType>
konvertiert werden.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
SQL <sqlColumn>
kann nicht in Protobuf <protobufColumn>
konvertiert werden, da das Schema inkompatibel ist (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
SQL <sqlColumn>
kann nicht in Protobuf <protobufColumn>
konvertiert werden, da <data>
sich nicht in den definierten Werten für die Enumeration <enumString>
befindet.
CANNOT_COPY_STATE
Der Katalogstatus wie die aktuelle Datenbank und temporäre Sichten können nicht von Unity Catalog in einen Legacykatalog kopiert werden.
CANNOT_CREATE_DATA_SOURCE_TABLE
Fehler beim Erstellen der Datenquellentabelle <tableName>
:
Weitere Informationen finden Sie unter CANNOT_CREATE_DATA_SOURCE_TABLE.
CANNOT_DECODE_URL
Die angegebene URL kann nicht decodiert werden: <url>
. Stellen Sie sicher, dass die URL ordnungsgemäß formatiert ist, und versuchen Sie es erneut.
CANNOT_DELETE_SYSTEM_OWNED
Der systemeigene <resourceType>
kann nicht gelöscht werden.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Die Einschränkung mit dem gemeinsamen Namen <constraintName>
einer CHECK-Einschränkung
und einer PRIMARY KEY- oder FOREIGN KEY-Einschränkung kann nicht gelöscht werden. Sie können die PRIMARY KEY- oder
FOREIGN KEY-Einschränkung durch Abfragen löschen:
- ALTER TABLE .. DROP PRIMARY KEY oder
- ALTER TABLE .. DROP FOREIGN KEY ..
CANNOT_ESTABLISH_CONNECTION
Die Verbindung mit der Remotedatenbank <jdbcDialectName>
kann nicht hergestellt werden. Überprüfen Sie die Verbindungsinformationen und die Anmeldeinformationen, z. B. die Optionen für Host, Port, Benutzer, Kennwort und Datenbank. ** Wenn Sie der Meinung sind, dass die Informationen korrekt sind, überprüfen Sie die Netzwerkeinrichtung Ihres Arbeitsbereichs, und stellen Sie sicher, dass er keine Beschränkungen für ausgehenden Datenverkehr für den Host aufweist. Stellen Sie auch sicher, dass der Host keine eingehenden Verbindungen aus dem Netzwerk blockiert, in dem die Spark-Cluster des Arbeitsbereichs bereitgestellt werden. ** Detaillierte Fehlermeldung: <causeErrorMessage>
.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Die Verbindung mit der Remotedatenbank <jdbcDialectName>
kann nicht hergestellt werden. Überprüfen Sie die Verbindungsinformationen und die Anmeldeinformationen, z. B. die Optionen für Host, Port, Benutzer, Kennwort und Datenbank. ** Wenn Sie die Informationen für richtig halten, lassen Sie eingehenden Datenverkehr aus dem Internet zu Ihrem Host zu, da Sie serverloses Computing verwenden. Wenn Ihre Netzwerkrichtlinien keinen eingehenden Internetdatenverkehr zulassen, verwenden Sie kein serverloses Computing, oder wenden Sie sich an Ihren Databricks-Vertreter, um mehr über serverlose private Netzwerke zu erfahren. ** Detaillierte Fehlermeldung: <causeErrorMessage>
.
CANNOT_INVOKE_IN_TRANSFORMATIONS
Datasettransformationen und -aktionen können nur vom Treiber aufgerufen werden, nicht innerhalb anderer Datasettransformationen. Beispielsweise ist „dataset1.map(x => dataset2.values.count() * x)“ ungültig, da die Wertetransformations- und Zählaktion nicht innerhalb der dataset1.map-Transformation ausgeführt werden kann. Weitere Informationen finden Sie unter SPARK-28702.
CANNOT_LOAD_FUNCTION_CLASS
Die Klasse <className>
kann beim Registrieren der Funktion <functionName>
nicht geladen werden, stellen Sie bitte sicher, dass sie sich im Klassenpfad befindet.
CANNOT_LOAD_PROTOBUF_CLASS
Die Protobuf-Klasse mit dem Namen <protobufClassName>
konnte nicht geladen werden. <explanation>
.
CANNOT_LOAD_STATE_STORE
Beim Laden des Zustands ist ein Fehler aufgetreten.
Weitere Informationen finden Sie unter CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Fehler beim Zusammenführen der inkompatiblen Datentypen <left>
und <right>
. Überprüfen Sie die Datentypen der Spalten, die zusammengeführt werden, und stellen Sie sicher, dass sie kompatibel sind. Erwägen Sie bei Bedarf, die Spalten in kompatible Datentypen umzuwandeln, bevor Sie die Zusammenführung versuchen.
CANNOT_MERGE_SCHEMAS
Fehler beim Zusammenführen von Schemas:
Ursprüngliches Schema:
<left>
Schema, das nicht mit dem ursprünglichen Schema zusammengeführt werden kann:
<right>
.
CANNOT_MODIFY_CONFIG
Der Wert der Spark-Konfiguration kann nicht geändert werden: <key>
.
Weitere Informationen finden Sie unter https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements“.
CANNOT_PARSE_DECIMAL
Dezimalwerte können nicht geparst werden. Stellen Sie sicher, dass es sich bei der Eingabe um eine gültige Zahl mit optionalen Dezimaltrennzeichen (Punkt oder Komma) handelt.
CANNOT_PARSE_INTERVAL
<intervalString>
kann nicht geparst werden. Stellen Sie sicher, dass der angegebene Wert in einem gültigen Format zum Definieren eines Intervalls vorliegt. Das richtige Format finden Sie in der Dokumentation. Wenn das Problem weiterhin besteht, stellen Sie sicher, dass der Eingabewert nicht NULL oder leer ist, und versuchen Sie es erneut.
CANNOT_PARSE_JSON_FIELD
Der Feldname <fieldName>
und der Wert <fieldValue>
des JSON-Tokentyps <jsonType>
können nicht auf den Spark-Zieldatentyp <dataType>
geparst werden.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Fehler beim Analysieren von Deskriptorbytes in Protobuf FileDescriptorSet.
CANNOT_PARSE_TIMESTAMP
<message>
. Legen Sie bei Bedarf <ansiConfig>
auf FALSCH fest, um diesen Fehler zu umgehen.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
MV/ST kann während der Initialisierung nicht abgerufen werden.
Weitere Informationen finden Sie unter CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Die Datei kann im Pfad <path>
nicht gelesen werden, da sie archiviert wurde. Bitte passen Sie Ihre Abfragefilter an, um archivierte Dateien auszuschließen.
CANNOT_READ_FILE
Die <format>
-Datei kann nicht gelesen werden unter Pfad: <path>
.
Weitere Details finden Sie unter CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Der vertrauliche Schlüssel „<key>
“ kann nicht vom sicheren Anbieter gelesen werden.
CANNOT_RECOGNIZE_HIVE_TYPE
Die Strukturtypzeichenfolge kann nicht erkannt werden: <fieldType>
, Spalte: <fieldName>
. Der angegebene Datentyp für das Feld wird von Spark SQL nicht erkannt. Überprüfen Sie den Datentyp des angegebenen Felds, und stellen Sie sicher, dass es sich um einen gültigen Spark SQL-Datentyp handelt. Eine Liste gültiger Datentypen und deren Format finden Sie in der Spark SQL-Dokumentation. Wenn der Datentyp richtig ist, stellen Sie sicher, dass Sie eine unterstützte Version von Spark SQL verwenden.
CANNOT_REFERENCE_UC_IN_HMS
In Hive-Metastore-Objekten kann nicht auf einen Unity Catalog <objType>
verwiesen werden.
CANNOT_RENAME_ACROSS_CATALOG
Das Umbenennen von <type>
über Kataloge hinweg ist nicht zulässig.
CANNOT_RENAME_ACROSS_SCHEMA
Das Umbenennen von <type>
über Schemas hinweg ist nicht zulässig.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Fehler beim Auflösen der DataFrame-Spalte <name>
. Die Ursache sind wahrscheinlich unzulässige Verweise wie df1.select(df2.col("a"))
.
CANNOT_RESOLVE_STAR_EXPAND
<targetString>
.* kann anhand der Eingabespalten <columns>
nicht aufgelöst werden. Überprüfen Sie, ob die angegebene Tabelle oder Struktur vorhanden und in den Eingabespalten zugänglich ist.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Fehler beim Festlegen von Berechtigungen für den erstellten Pfad <path>
zurück zu <permission>
.
CANNOT_SAVE_VARIANT
Der Datentyp „variant“ kann nicht im externen Speicher gespeichert werden.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Tabellen können zwischen Unity Catalog und Hive Metastore nicht flach geklont werden.
CANNOT_SHALLOW_CLONE_NESTED
Eine Tabelle <table>
, die bereits ein flacher Klon ist, kann nicht flach geklont werden.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Ein flacher Klon wird nur für den VERWALTETEN Tabellentyp unterstützt. Die Tabelle <table>
ist keine VERWALTETE Tabelle.
CANNOT_UPDATE_FIELD
Das <table>
-Feld vom <fieldName>
-Typ kann nicht aktualisiert werden:
Weitere Informationen finden Sie unter CANNOT_UPDATE_FIELD
CANNOT_UP_CAST_DATATYPE
<expression>
kann nicht von <sourceType>
zu <targetType>
umgewandelt werden.
<details>
CANNOT_VALIDATE_CONNECTION
Die Validierung der <jdbcDialectName>
-Verbindung wird nicht unterstützt. Wenden Sie sich für alternative Lösungen an den Databricks-Support, oder legen Sie „spark.databricks.testConnectionBeforeCreation“ auf „false“ fest, um Verbindungstests vor dem Erstellen eines Verbindungsobjekts zu überspringen.
CANNOT_WRITE_STATE_STORE
Fehler beim Schreiben von Zustandsspeicherdateien für Anbieter <providerClass>
.
Weitere Informationen finden Sie unter CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
Der Wert <expression>
des Typs <sourceType>
kann nicht in <targetType>
umgewandelt werden, da er nicht wohlgeformt ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie den Zieltyp. Verwenden Sie try_cast
, um fehlerhafte Eingaben zu tolerieren und stattdessen NULL zurückzugeben.
Weitere Details finden Sie unter CAST_INVALID_INPUT
CAST_OVERFLOW
Der Wert <value>
des Typs <sourceType>
kann aufgrund eines Überlaufs nicht in <targetType>
umgewandelt werden. Verwenden Sie try_cast
, um den Überlauf zu tolerieren und stattdessen NULL zurückzugeben.
CAST_OVERFLOW_IN_TABLE_INSERT
Aufgrund eines Überlaufs konnte kein Wert vom Typ <sourceType>
der <targetType>
-Typspalte oder Variablen <columnName>
zugewiesen werden. Verwenden Sie try_cast
für den Eingabewert, um einen Überlauf zu tolerieren, und geben Sie stattdessen NULL zurück.
CATALOG_NOT_FOUND
Der Katalog <catalogName>
wurde nicht gefunden. Erwägen Sie, die SQL-Konfiguration <config>
auf ein Katalog-Plug-In festzulegen.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Der Prüfpunktblock <rddBlockId>
wurde nicht gefunden!
Entweder der Executor, der die Prüfpunkte für diese Partition ursprünglich festgelegt hat, ist nicht mehr aktiv, oder die ursprüngliche RDD wird nicht beständig gespeichert.
Wenn dieses Problem weiterhin besteht, können Sie stattdessen rdd.checkpoint()
verwenden. Dies ist langsamer als die lokale Festlegung von Prüfpunkten, aber fehlertoleranter.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
muss entweder <method1>
oder <method2>
überschreiben.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
unterstützt die Klasse <cls>
nicht als resultierende Sammlung.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Clean Room-Befehle werden nicht unterstützt.
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Ungültiger Name, um in einem Reinraum auf einen <type>
Verweis zu verweisen. Verwenden Sie einen <type>
-Namen innerhalb des Reinraums nach dem Format von [Katalog].[ schema]. [<type>
].
Wenn Sie nicht sicher sind, welchen Namen Sie verwenden sollen, können Sie "SHOW ALL IN CLEANROOM [clean_room]" und den Wert in der Spalte "Name" verwenden.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Für die Datei <filePath>
wurde eine Dateibenachrichtigung empfangen, aber sie ist nicht mehr vorhanden. Bitte stellen Sie sicher, dass Dateien nicht gelöscht werden, bevor sie verarbeitet werden. Um Ihren Stream fortzusetzen, können Sie die Spark SQL-Konfiguration <config>
auf WAHR festlegen.
CLOUD_PROVIDER_ERROR
Cloudanbieterfehler: <message>
CLUSTERING_COLUMNS_MISMATCH
Das angegebene Clustering stimmt nicht mit der der vorhandenen Tabelle <tableName>
überein.
Angegebene Clusterspalten: [<specifiedClusteringString>
].
Vorhandene Clusterspalten: [<existingClusteringString>
].
CLUSTERING_NOT_SUPPORTED
„<operation>
“ unterstützt kein Clustering.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Wenden Sie sich bitte an Ihren Databricks-Vertreter, um die Cluster-by-Auto-Funktion zu aktivieren.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Aktivieren Sie clusteringTable.enableClusteringTableFeature, um CLUSTER BY AUTO zu verwenden.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO erfordert, dass die Predictive Optimization aktiviert ist.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO wird nur in verwalteten UC-Tabellen unterstützt.
CODEC_NOT_AVAILABLE
Der Codec <codecName>
ist nicht verfügbar.
Weitere Details finden Sie unter CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Für den Codec <codecName>
kann kein Kurzname gefunden werden.
COLLATION_INVALID_NAME
Der Wert <collationName>
stellt keinen korrekten Sortierungsnamen dar. Vorgeschlagene gültige Sortierungsnamen: [<proposals>
].
COLLATION_INVALID_PROVIDER
Der Wert <provider>
stellt keinen korrekten Sortierungsanbieter dar. Unterstützte Anbieter sind: [<supportedProviders>
].
COLLATION_MISMATCH
Es konnte nicht ermittelt werden, welche Sortierung für Zeichenfolgenfunktionen und Operatoren verwendet werden soll.
Weitere Informationen finden Sie unter COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Fehler beim Erstellen eines Arrays mit <numberOfElements>
-Elementen, die den Grenzwert für die Arraygröße von <maxRoundedArrayLength>
überschreiten.
Weitere Informationen finden Sie unter COLLECTION_SIZE_LIMIT_EXCEEDED.
COLUMN_ALIASES_NOT_ALLOWED
Spaltenaliase sind in <op>
nicht zulässig.
COLUMN_ALREADY_EXISTS
Die Spalte <columnName>
ist bereits vorhanden. Wählen Sie einen anderen Namen aus oder benennen Sie die vorhandene Spalte um.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
Das Erstellen einer CHECK-Einschränkung für die Tabelle <tableName>
mit Spaltenmaskenrichtlinien wird nicht unterstützt.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
Eine <statementType>
-Anweisung hat versucht, einer Spalte eine Maskenrichtlinie zuzuweisen, die zwei oder mehr andere referenzierte Spalten aus der Liste USING COLUMNS mit demselben Namen <columnName>
enthielt. Dies ist ungültig.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
Spaltenmaskenrichtlinien für <tableName>
werden nicht unterstützt:
Weitere Details finden Sie unter COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
<statementType>
<columnName>
können nicht aus der Tabelle <tableName>
übernommen werden, da sie in einer Spaltenformatrichtlinie für Spalte <maskedColumn>
referenziert werden. Der Tabellenbesitzer muss diese Richtlinie entfernen oder ändern, bevor er fortfährt.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
MERGE INTO-Vorgänge unterstützen keine Spaltenmaskenrichtlinien in der Quelltabelle <tableName>
.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO-Vorgänge unterstützen das Schreiben in die Tabelle <tableName>
mit Spaltenmaskenrichtlinien nicht.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Mit dieser Anweisung wurde versucht, der Spalte <columnName>
mit mehreren Namensteilen eine Spaltenmaskenrichtlinie zuzuweisen, was ungültig ist.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Mit dieser Anweisung wurde versucht, einer Spalte eine Spaltenmaskenrichtlinie zuzuweisen, wobei die Liste USING COLUMNS den Namen <columnName>
mit mehreren Namensteilen enthielt, was ungültig ist.
COLUMN_MASKS_NOT_ENABLED
Die Unterstützung für das Definieren von Spaltenmasken ist nicht aktiviert.
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Spaltenmaskenrichtlinien werden nur in Unity Catalog unterstützt.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
Ein <mode>
-Klon aus der Tabelle <tableName>
mit Spaltenmaskenrichtlinien wird nicht unterstützt.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
Ein <mode>
-Klon in die Tabelle <tableName>
mit Spaltenmaskenrichtlinien wird nicht unterstützt.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
Die Verwendung einer Konstante als Parameter in einer Spaltenmaskenrichtlinie wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Spaltenmaskendefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.
COLUMN_MASKS_UNSUPPORTED_PROVIDER
Fehler beim Ausführen des <statementType>
-Befehls, da das Zuweisen von Spaltenmaskenrichlinien für eine Zieldatenquelle mit dem Tabellenanbieter <provider>
nicht unterstützt wird.
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
<operation>
kann für die Tabelle <tableName>
nicht ausgeführt werden, da sie eine oder mehrere Spaltenmaskenrichtlinien mit Unterabfrageausdrücken enthält, die noch nicht unterstützt werden. Wenden Sie sich an den Besitzer der Tabelle, um die Spaltenmaskenrichtlinien zu aktualisieren und fortfahren zu können.
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
Die Spalte <columnName>
hatte denselben Namen wie die Zielspalte, was ungültig ist. Entfernen Sie die Spalte aus der Liste USING COLUMNS, und wiederholen Sie den Befehl.
COLUMN_NOT_DEFINED_IN_TABLE
Die <colType>
-Spalte <colName>
ist nicht in der Tabelle <tableName>
definiert. Definierte Tabellenspalten: <tableCols>
.
COLUMN_NOT_FOUND
Die Spalte <colName>
kann nicht gefunden werden. Überprüfen Sie die Schreibweise und Korrektheit des Spaltennamens gemäß der SQL-Konfiguration <caseSensitiveConfig>
.
COMMA_PRECEDING_CONSTRAINT_ERROR
Unerwartetes ',' vor der Einschränkungsdefinition(n). Stellen Sie sicher, dass die Einschränkungsklausel nicht mit einem Komma beginnt, wenn Spalten (und Erwartungen) nicht definiert sind.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
Der BEFEHL COMMENT ON CONNECTION ist noch nicht implementiert.
COMPARATOR_RETURNS_NULL
Der Vergleichsoperator hat NULL für einen Vergleich zwischen <firstValue>
und <secondValue>
zurückgegeben.
Er sollte eine positive ganze Zahl für „größer als“, 0 für „gleich“ und eine negative ganze Zahl für „kleiner als“ zurückgeben.
Um ein veraltetes Verhalten rückgängig zu machen, bei dem NULL als 0 (gleich) behandelt wird, müssen Sie „spark.sql.legacy.allowNullComparisonResultInArraySort“ auf WAHR festlegen.
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Eingabedatentypen können nicht verarbeitet werden für den Ausdruck: <expression>
.
Weitere Informationen finden Sie unter COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Eine weitere Instanz dieser Abfrage [ID: <queryId>
] wurde gerade von einer gleichzeitigen Sitzung gestartet [vorhandene runId: <existingQueryRunId>
, neue runId: <newQueryRunId>
].
CONCURRENT_STREAM_LOG_UPDATE
Gleichzeitiges Aktualisieren des Protokolls. Für <batchId>
wurden mehrere Streamingaufträge erkannt.
Stellen Sie sicher, dass jeweils nur ein Streamingauftrag an einem bestimmten Prüfpunktort ausgeführt wird.
CONFIG_NOT_AVAILABLE
Die Konfiguration <config>
ist nicht verfügbar.
CONFLICTING_PARTITION_COLUMN_NAMES
Konfliktierende Partitionsspaltennamen erkannt:
<distinctPartColLists>
Bei partitionierten Tabellenverzeichnissen sollten Datendateien nur in Blattverzeichnissen vorhanden sein.
Und Verzeichnisse auf derselben Ebene sollten denselben Partitionsspaltennamen aufweisen.
Überprüfen Sie die folgenden Verzeichnisse auf unerwartete Dateien oder inkonsistente Partitionsspaltennamen:
<suspiciousPaths>
CONFLICTING_PROVIDER
Der angegebene Anbieter <provider>
ist mit dem vorhandenen Kataloganbieter <expectedProvider>
inkonsistent. Verwenden Sie "USING <expectedProvider>
", und wiederholen Sie den Befehl.
CONNECT
Generischer Spark Connect-Fehler.
Weitere Informationen finden Sie unter CONNECT.
CONNECTION_ALREADY_EXISTS
Die Verbindung <connectionName>
kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, löschen oder ersetzen Sie die vorhandene Verbindung, oder fügen Sie die „IF NOT EXISTS“-Klausel hinzu, um bereits vorhandene Verbindungen zu tolerieren.
CONNECTION_NAME_CANNOT_BE_EMPTY
Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname nicht leer sein darf.
CONNECTION_NOT_FOUND
Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname <connectionName>
nicht gefunden wurde.
CONNECTION_OPTION_NOT_SUPPORTED
Verbindungen vom Typ „<connectionType>
“ unterstützen die folgende(n) Option(en) nicht: <optionsNotSupported>
. Unterstützte Optionen: <allowedOptions>
.
CONNECTION_TYPE_NOT_SUPPORTED
Es kann keine Verbindung vom Typ „<connectionType>
“ erstellt werden. Unterstützte Verbindungstypen: <allowedTypes>
.
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Tabellenconstraints werden nur in Unity Catalog unterstützt.
CONVERSION_INVALID_INPUT
Der Wert <str>
(<fmt>
) kann nicht in <targetType>
konvertiert werden, da er nicht wohlgeformt ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie das Format. Verwenden Sie <suggestion>
, um fehlerhafte Eingaben zu tolerieren und stattdessen NULL zurückzugeben.
COPY_INTO_COLUMN_ARITY_MISMATCH
In <tableName>
kann nicht geschrieben werden. Ursache:
Weitere Informationen finden Sie unter COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Ungültiges Schema <scheme>
. COPY INTO-Quellanmeldeinformationen unterstützen derzeit nur s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO-Quellanmeldeinformationen müssen <keyList>
angeben.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Duplizierte Dateien wurden in einem gleichzeitigen COPY INTO-Vorgang committet. Versuchen Sie es später noch mal.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Ungültiges Schema <scheme>
. COPY INTO-Quellenverschlüsselung unterstützt derzeit nur s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO-Verschlüsselung unterstützt nur ADLS Gen2 oder das Dateischema abfss://
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO-Quellenverschlüsselung muss „<key>
“ angeben.
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Ungültige Verschlüsselungsoption <requiredKey>
. COPY INTO-Quellenverschlüsselung muss „<requiredKey>
“ = „<keyValue>
“ angeben.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
Das FEATURE KOPIEREN IN '<feature>
' ist nicht kompatibel mit '<incompatibleSetting>
'.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO mit anderen Aktionen als dem Anfügen von Daten darf nicht gleichzeitig mit anderen Transaktionen ausgeführt werden. Versuchen Sie es später noch mal.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO konnte den Zustand nicht laden, maximale Anzahl von Wiederholungen überschritten.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Beim Kopieren in die Delta-Tabelle (Tabelle: <table>
) wurde ein Schemakonflikt erkannt.
Dies kann auf ein Problem mit den eingehenden Daten hinweisen, oder das Delta-Tabellenschema kann automatisch entsprechend den eingehenden Daten weiterentwickelt werden, indem Sie Folgendes festlegen:
COPY_OPTIONS (‘mergeSchema’ = ‘true’)
Schemaunterschied:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
Das Format der Quelldateien muss CSV, JSON, AVRO, ORC, PARQUET, TEXT oder BINARYFILE sein. Die Verwendung von COPY INTO in Delta-Tabellen als Quelle wird nicht unterstützt, da nach OPTIMIZE-Vorgängen doppelte Daten erfasst werden können. Diese Überprüfung kann mit dem SQL-Befehl set spark.databricks.delta.copyInto.formatCheck.enabled = false
deaktiviert werden.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
Das Quellverzeichnis enthielt keine Dateien vom Typ <format>
, die geparst werden konnten. Bitte überprüfen Sie den Inhalt von „<source>
“.
Der Fehler kann stummgehalten werden, indem "<config>
" auf "false" festgelegt wird.
COPY_INTO_STATE_INTERNAL_ERROR
Interner Fehler beim Verarbeiten des COPY INTO-Zustands.
Weitere Details finden Sie unter COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Fehler beim Parsen des COPY INTO-Befehls.
Weitere Informationen finden Sie unter COPY_INTO_SYNTAX_ERROR.
COPY_INTO_UNSUPPORTED_FEATURE
Das FEATURE KOPIEREN IN '<feature>
' wird nicht unterstützt.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Daten können nicht im Format '<formatType>
' entladen werden. Unterstützte Formate für <connectionType>
: <allowedFormats>
.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
Der Befehl CREATE FOREIGN SCHEMA ist noch nicht implementiert.
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
Der Befehl "CREATE FOREIGN TABLE" ist noch nicht implementiert.
CREATE_OR_REFRESH_MV_ST_ASYNC
Es können keine materialisierten ANSICHTEN ODER Streamingtabellen mit ASYNC ERSTELLT ODER AKTUALISIERT werden. Entfernen Sie ASYNC aus der CREATE OR REFRESH-Anweisung, oder verwenden Sie REFRESH ASYNC, um vorhandene materialisierte Ansichten oder Streamingtabellen asynchron zu aktualisieren.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Es ist nicht zulässig, die permanente Ansicht <name>
zu erstellen, ohne explizit einen Alias für den Ausdruck <attr>
zuzuweisen.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE-Spalte <columnName>
gibt den Deskriptor „<optionName>
“ mehr als einmal an, was ungültig ist.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Die Ansicht <viewName>
kann nicht erstellt werden. Der Grund ist
Weitere Informationen finden Sie unter CREATE_VIEW_COLUMN_ARITY_MISMATCH.
CREDENTIAL_MISSING
Bitte geben Sie beim Erstellen oder Aktualisieren externer Speicherorte Anmeldeinformationen an.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
Die CSV-Option enforceSchema
kann nicht festgelegt werden, wenn rescuedDataColumn
oder failOnUnknownFields
verwendet wird, da Spalten nach Namen und nicht nach Ordnungszahlen gelesen werden.
CYCLIC_FUNCTION_REFERENCE
Zyklische Funktionsreferenz wurde entdeckt: <path>
.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta ist in Ihrem Konto nicht aktiviert.<hints>
DATATYPE_MISMATCH
<sqlExpr>
kann aufgrund von Datentypkonflikten nicht aufgelöst werden:
Weitere Informationen finden Sie unter DATATYPE_MISMATCH.
DATATYPE_MISSING_SIZE
Der Datentyp <type>
erfordert einen Längenparameter, z. B. <type>
(10). Geben Sie die Länge an.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Schreibzeile nicht erfolgreich: Fehlende entsprechende Beziehung zu Richtlinien für CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
Die Datenquelle „<provider>
“ ist bereits vorhanden. Wählen Sie einen anderen Namen für die neue Datenquelle aus.
DATA_SOURCE_EXTERNAL_ERROR
Fehler beim Speichern in externer Datenquelle.
DATA_SOURCE_NOT_EXIST
Die Datenquelle <provider>
wurde nicht gefunden. Stellen Sie sicher, dass die Datenquelle registriert ist.
DATA_SOURCE_NOT_FOUND
Fehler beim Auffinden der Datenquelle: <provider>
. Stellen Sie sicher, dass der Anbietername korrekt ist und das Paket ordnungsgemäß registriert und mit Ihrer Spark-Version kompatibel ist.
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
Die Option <option>
darf nicht leer sein und darf keine ungültigen Zeichen, Abfragezeichenfolgen oder Parameter enthalten.
DATA_SOURCE_OPTION_IS_REQUIRED
Die Option <option>
ist erforderlich.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Das Schema der Datenquellentabelle stimmt nicht mit dem erwarteten Schema überein. Wenn Sie die DataFrameReader.schema-API verwenden oder eine Tabelle erstellen, sollten Sie kein Schema angeben.
Datenquellenschema: <dsSchema>
Erwartetes Schema: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
JDBC-URL ist in den Datenquellenoptionen nicht zulässig, bitte geben Sie stattdessen die Optionen „Host“, „Port“ und „Datenbank“ an.
DATETIME_OVERFLOW
Überlauf beim Datetime-Vorgang: <operation>
.
DC_API_QUOTA_EXCEEDED
Sie haben das API-Kontingent für die Datenquelle <sourceName>
überschritten.
Weitere Informationen finden Sie unter DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Fehler beim Herstellen einer Verbindung mit der Quelle <sourceName>
. Fehlercode: <errorCode>
Weitere Informationen finden Sie unter DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Fehler in Dynamics-API-Aufrufen, errorCode: <errorCode>
.
Weitere Details finden Sie unter DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Fehler in Netsuite abrufen, errorCode: <errorCode>
.
Weitere Informationen finden Sie unter DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: keiner zugewiesen
In der Tabelle <tableName>
der <sourceName>
Quelle ist eine Schemaänderung aufgetreten.
Weitere Informationen finden Sie unter DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Fehler in ServiceNow-API-Aufrufen, errorCode: <errorCode>
.
Weitere Informationen finden Sie unter DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Die Aufnahme für das Objekt <objName>
ist unvollständig, da der Salesforce-API-Abfrageauftrag zu lang dauerte, fehlgeschlagen oder manuell abgebrochen wurde.
Um es erneut zu versuchen, können Sie entweder die gesamte Pipeline erneut ausführen oder diese bestimmte Zieltabelle aktualisieren. Wenn der Fehler weiterhin besteht, erstellen Sie ein Ticket. Auftrags-ID: <jobId>
. Auftragsstatus: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Fehler in SharePoint-API-Aufrufen, errorCode: <errorCode>
.
Weitere Informationen finden Sie unter DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Fehler im <sourceName>
API-Aufruf. Quell-API-Typ: <apiType>
. Fehlercode: <errorCode>
Dies kann manchmal passieren, wenn Sie einen <sourceName>
API-Grenzwert erreicht haben. Wenn Sie Ihren API-Grenzwert nicht überschritten haben, versuchen Sie, den Connector erneut auszuführen. Wenn das Problem weiterhin besteht, erstellen Sie bitte ein Ticket.
DC_UNSUPPORTED_ERROR
In der Datenquelle <sourceName>
ist ein nicht unterstützter Fehler aufgetreten.
Weitere Informationen finden Sie unter DC_UNSUPPORTED_ERROR.
DC_WORKDAY_RAAS_API_ERROR
Fehler in Workday RAAS-API-Aufrufen, errorCode: <errorCode>
.
Weitere Informationen finden Sie unter DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
Die Dezimalgenauigkeit <precision>
überschreitet die maximale Genauigkeit <maxPrecision>
.
DEFAULT_DATABASE_NOT_EXISTS
Die Standarddatenbank <defaultDatabase>
ist nicht vorhanden, bitte erstellen Sie diese zuerst, oder ändern Sie die Standarddatenbank in <defaultDatabase>
.
DEFAULT_FILE_NOT_FOUND
Möglicherweise wurden die zugrunde liegenden Dateien aktualisiert. Sie können den Cache in Spark explizit ungültig machen, indem Sie den Befehl „REFRESH TABLE tableName“ in SQL ausführen oder das betroffene Dataset/DataFrame neu erstellen. Wenn der Datenträgercache veraltet ist oder die zugrunde liegenden Dateien entfernt wurden, können Sie den Datenträgercache manuell ungültig machen, indem Sie den Cluster neu starten.
DEFAULT_PLACEMENT_INVALID
Ein DEFAULT-Schlüsselwort in einem MERGE-, INSERT-, UPDATE- oder SET VARIABLE-Befehl konnte nicht direkt einer Zielspalte zugewiesen werden, da es Teil eines Ausdrucks war.
Beispielsweise ist UPDATE SET c1 = DEFAULT
zulässig, während UPDATE T SET c1 = DEFAULT + 1
nicht zulässig ist.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
Die Streamingabfrage las aus einer unerwarteten Delta-Tabelle (id = <newTableId>
).
Gemäß Prüfpunkt las sie ursprünglich aus einer anderen Delta-Tabelle (id = <oldTableId>
).
Dies kann passieren, wenn Sie den Code so geändert haben, dass aus einer neuen Tabelle gelesen wird, oder wenn Sie eine Tabelle gelöscht und
neu erstellt haben. Machen Sie Ihre Änderung rückgängig, oder löschen Sie den Prüfpunkt für die Streamingabfrage,
um noch einmal von vorn zu beginnen.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
DISTINCT WINDOW-Funktionen werden nicht unterstützt: <windowExpr>
.
DIVIDE_BY_ZERO
Division durch Null. Verwenden Sie try_divide
, um zu tolerieren, dass der Divisor 0 ist, und stattdessen NULL zurückzugeben. Legen Sie bei Bedarf <config>
auf FALSCH fest, um diesen Fehler zu umgehen.
Weitere Details finden Sie unter DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Erwartungen werden nur innerhalb einer Delta Live Tables-Pipeline unterstützt.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED VIEWs mit einer CLUSTER BY-Klausel werden nur in einer Delta Live Tables-Pipeline unterstützt.
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALIZED VIEW-Speicherorte werden nur in einer Delta Live Tables-Pipeline unterstützt.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
MATERIALIZED VIEW-Schemas mit einem angegebenen Typ werden nur in einer Delta Live Tables-Pipeline unterstützt.
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
CONSTRAINT-Klauseln in einer Ansicht werden nur in einer Delta Live Tables-Pipeline unterstützt.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Doppelte Feldnamen in Arrow Struct sind nicht zulässig, <fieldNames>
abgerufen.
DUPLICATED_MAP_KEY
Duplizierter Zuordnungsschlüssel <key>
wurde gefunden, bitte überprüfen Sie die Eingabedaten.
Wenn Sie die doppelten Schlüssel entfernen möchten, können Sie <mapKeyDedupPolicy>
auf „LAST_WIN“ festlegen, damit der zuletzt eingefügte Schlüssel Vorrang hat.
DUPLICATED_METRICS_NAME
Der Metrikname ist nicht eindeutig: <metricName>
. Für Metriken mit unterschiedlichen Ergebnissen kann nicht derselbe Name verwendet werden.
Es sind jedoch mehrere Instanzen von Metriken mit demselben Ergebnis und demselben Namen zulässig (z. B. Selbstverknüpfungen).
DUPLICATE_ASSIGNMENTS
Die Spalten oder Variablen <nameList>
erscheinen mehrmals als Zuweisungsziele.
DUPLICATE_CLAUSES
Doppelte Klauseln gefunden: <clauseName>
. Entfernen Sie eine Klausel.
DUPLICATE_KEY
Doppelte Schlüssel <keyColumn>
gefunden.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
Der Aufruf der Funktion <functionName>
ist ungültig, weil er mehrere Argumentzuweisungen zu demselben Parameternamen <parameterName>
enthält.
Weitere Informationen finden Sie unter DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT.
DUPLICATE_ROUTINE_PARAMETER_NAMES
In der Parameterliste der benutzerdefinierten Routine <routineName>
wurden doppelte Namen gefunden: <names>
.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
In der Spaltenliste der RETURNS-Klausel der benutzerdefinierten Routine <routineName>
wurden doppelte Spalten gefunden: <columns>
.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Vorheriger Knoten hat eine Zeile mit eventTime=<emittedRowEventTime>
ausgegeben, die älter als current_watermark_value=<currentWatermark>
ist
Dies kann zu Korrekturproblemen in den zustandsbehafteten Operatoren nachgelagert in der Ausführungspipeline führen.
Korrigieren Sie die Operatorlogik so, dass Zeilen nach dem aktuellen globalen Grenzwert ausgegeben werden.
EMPTY_JSON_FIELD_VALUE
Fehler beim Parsen einer leeren Zeichenfolge für den Datentyp <dataType>
.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Leere lokale Datei in Staging-<operation>
-Abfrage
ENCODER_NOT_FOUND
Es wurde kein Encoder des Typs <typeName>
für die interne Darstellung von Spark SQL gefunden.
Ziehen Sie in Betracht, den Eingabetyp in einen der unterstützten Datentypen in „<docroot>
/sql-ref-datatypes.html“ zu ändern.
END_LABEL_WITHOUT_BEGIN_LABEL
Endbezeichnung <endLabel>
kann nicht ohne Anfangsbezeichnung vorhanden sein.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Einige Partitionen in Kafka-Themen melden verfügbaren Offset, welcher geringer als der Endoffset während der Ausführung der Abfrage mit Trigger.AvailableNow ist. Der Fehler kann vorübergehend sein – starten Sie die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Neuester Offset: <latestOffset>
, Endoffset: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Für die Kafka-Datenquelle mit Trigger.AvailableNow sollte der Endoffset pro Themenpartition über einen geringeren oder oder gleichen Offset verfügen als der vorab abgerufene Offset. Der Fehler kann vorübergehend sein – starten Sie die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Vorab abgerufener Offset: <prefetchedOffset>
, Endoffset: <endOffset>
.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Fehler beim Lesen von Avro-Daten: Unbekannter Fingerabdruck: <fingerprint>
, nicht sicher, welches Schema zu verwenden ist.
Dies kann passieren, wenn Sie nach dem Starten Ihres Spark-Kontexts zusätzliche Schemata registriert haben.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Ereignisprotokolle können nicht aus einem Cluster vom Typ „Zugewiesen“ oder „Keine Isolation freigegeben“ abgefragt werden, bitte verwenden Sie stattdessen einen Cluster vom Typ „Freigegeben“ oder ein Databricks SQL-Warehouse.
EVENT_LOG_UNAVAILABLE
Für <tableOrPipeline>
sind keine Ereignisprotokolle verfügbar. Bitte versuchen Sie es später erneut, nachdem Ereignisse generiert wurden
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
Der Tabellentyp von <tableIdentifier>
ist <tableType>
.
Das Abfragen von Ereignisprotokollen unterstützt nur materialisierte Ansichten, Streamingtabellen oder Delta Live Tables-Pipelines.
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
Die Ereigniszeit <eventName>
hat den ungültigen Typ <eventType>
, TIMESTAMP
erwartet.
EXCEED_LIMIT_LENGTH
Überschreitet die Längenbegrenzung des Typs char/varchar: <limit>
.
EXCEPT_NESTED_COLUMN_INVALID_TYPE
Die EXCEPT-Spalte <columnName>
wurde aufgelöst, und es wurde erwartet, dass sie StructType ist, gefunden wurde aber der Typ <dataType>
.
EXCEPT_OVERLAPPING_COLUMNS
Spalten in einer EXCEPT-Liste müssen eindeutig und nicht überlappend sein, empfangen wurde aber (<columns>
).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
Die EXCEPT-Spalten [<exceptColumns>
] wurden aufgelöst, entsprechen jedoch keiner der Spalten [<expandedColumns>
] aus der Sternerweiterung.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
Der Spalten-/Feldname <objectName>
in der EXCEPT-Klausel kann nicht aufgelöst werden. Meinten Sie eines der Folgenden: [<objectList>
]?
Hinweis: Geschachtelte Spalten in der EXCEPT-Klausel dürfen während einer struct-Erweiterung keine Qualifizierer (Tabellenname, Name der übergeordneten struct-Spalte usw.) enthalten. Versuchen Sie, Qualifizierer zu entfernen, wenn sie mit geschachtelten Spalten verwendet werden.
EXECUTOR_BROADCAST_JOIN_OOM
Zum Erstellen der Broadcast-Beziehung <relationClassName>
ist nicht genügend Arbeitsspeicher verfügbar. Beziehungsgröße = <relationSize>
. Gesamter von dieser Aufgabe verwendeter Arbeitsspeicher = <taskMemoryUsage>
. Executorarbeitsspeicher-Manager-Metriken: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
]
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
Die USING-Klausel dieses EXECUTE IMMEDIATE-Befehls enthielt unzulässigerweise mehrere Argumente mit demselben Alias (<aliases>
). Ändern Sie den Befehl, geben Sie dabei eindeutige Aliase an, und versuchen Sie es dann erneut.
EXPECT_PERMANENT_VIEW_NOT_TEMP
„<operation>
“ erwartet eine permanente Ansicht, aber <viewName>
ist eine temporäre Ansicht.
EXPECT_TABLE_NOT_VIEW
„<operation>
“ erwartet eine Tabelle, aber <viewName>
ist eine Ansicht.
Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
Die Tabelle <tableName>
unterstützt <operation>
nicht.
Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_TABLE
EXPRESSION_DECODING_FAILED
Fehler beim Decodieren einer Zeile in einen Wert der Ausdrücke: <expressions>
.
EXPRESSION_ENCODING_FAILED
Fehler beim Codieren eines Werts der Ausdrücke: <expressions>
in eine Zeile.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Der Spaltenausdruck <expr>
kann nicht sortiert werden, weil der zugehörige Typ <exprType>
nicht sortiert werden kann.
EXTERNAL_TABLE_INVALID_SCHEME
Externe Tabellen unterstützen das <scheme>
-Schema nicht.
FABRIC_REFRESH_INVALID_SCOPE
Fehler beim Ausführen von 'REFRESH FOREIGN <scope>
<name>
'. Ein Fabric <scope>
kann nicht direkt aktualisiert werden. Verwenden Sie stattdessen "REFRESH FOREIGN CATALOG <catalogName>
", um den Fabric-Katalog zu aktualisieren.
FAILED_EXECUTE_UDF
Fehler bei der benutzerdefinierten Funktion (<functionName>
: (<signature>
) =><result>
) aufgrund von: <reason>
.
FAILED_FUNCTION_CALL
Fehler bei der Vorbereitung der Funktion <funcName>
für den Aufruf. Überprüfen Sie die Argumente der Funktion.
FAILED_JDBC
Fehler beim JDBC-Operator <url>
im Vorgang:
Weitere Informationen finden Sie unter FAILED_JDBC.
FAILED_PARSE_STRUCT_TYPE
Fehler beim Parsen der Struktur: <raw>
.
FAILED_READ_FILE
Fehler beim Lesen der Datei <path>
.
Weitere Details finden Sie unter FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Fehler beim Registrieren von Klassen bei Kryo.
FAILED_RENAME_PATH
Fehler beim Umbenennen von <sourcePath>
nach <targetPath>
, da das Ziel bereits vorhanden ist.
FAILED_RENAME_TEMP_FILE
Fehler beim Umbenennen der temporären Datei <srcPath>
in <dstPath>
, da von FileSystem.rename „false“ zurückgegeben wurde.
FAILED_ROW_TO_JSON
Fehler beim Konvertieren des Zeilenwerts <value>
der Klasse <class>
in den SQL-Zieltyp <sqlType>
im JSON-Format.
FAILED_TO_PARSE_TOO_COMPLEX
Die Anweisung, einschließlich potenzieller SQL-Funktionen und referenzierter Ansichten, war zu komplex, um zu analysieren.
Um diesen Fehler zu vermeiden, teilen Sie die Anweisung in mehrere, weniger komplexe Blöcke auf.
FEATURE_NOT_ENABLED
Das Feature <featureName>
ist nicht aktiviert. Erwägen Sie die Einstellung der Konfiguration <configKey>
auf <configValue>
, um diese Funktion zu aktivieren.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
wird in klassischen SQL-Warehouses nicht unterstützt. Um dieses Feature verwenden zu können, müssen Sie ein Pro- oder serverloses SQL-Warehouse verwenden. Weitere Informationen zu Warehouse-Typen finden Sie unter <docLink>
FEATURE_REQUIRES_UC
<feature>
wird ohne Unity Catalog nicht unterstützt. Aktivieren Sie Unity Catalog, um dieses Feature zu verwenden. Weitere Informationen zu Unity Catalog finden Sie unter <docLink>
FEATURE_UNAVAILABLE
<feature>
wird in Ihrer Umgebung nicht unterstützt. Wenden Sie sich an den Databricks-Support, um dieses Feature zu verwenden.
FIELD_ALREADY_EXISTS
<op>
für Spalte nicht möglich, da <fieldNames>
bereits in <struct>
vorhanden ist.
FIELD_NOT_FOUND
Kein solches Strukturfeld <fieldName>
in <fields>
.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Die Datei im Stagingpfad <path>
ist bereits vorhanden, aber OVERWRITE ist nicht festgelegt
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Fehler in der vom Benutzer bereitgestellten Funktion in flatMapGroupsWithState. Grund: <reason>
FORBIDDEN_OPERATION
Der Vorgang <statement>
ist auf dem <objectType>
nicht zulässig: <objectName>
.
FOREACH_BATCH_USER_FUNCTION_ERROR
Fehler in der vom Benutzer bereitgestellten Funktion in der Batchsenke. Grund: <reason>
FOREACH_USER_FUNCTION_ERROR
Fehler in der vom Benutzer bereitgestellten Funktion in der Spüle. Grund: <reason>
FOREIGN_KEY_MISMATCH
Übergeordnete Fremdschlüsselspalten <parentColumns>
stimmen nicht mit untergeordneten Primärschlüsselspalten <childColumns>
überein.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Dieser Befehl kann nicht ausgeführt werden, da der Fremdname <objectType>
nicht leer sein darf.
FOUND_MULTIPLE_DATA_SOURCES
Es wurden mehrere Datenquellen mit dem Namen „<provider>
“ gefunden. Überprüfen Sie, ob die Datenquelle nicht gleichzeitig registriert ist und sich im Klassenpfad befindet.
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
Bei einem from_json-Rückschluss wurden an folgender Stelle widersprüchliche Schemaupdates festgestellt: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json gefunden columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) in einem
JSON-Objekt gefunden. Fortsetzung nicht möglich. Konfigurieren Sie einen anderen Wert für
die Option „columnNameOfCorruptRecord“.
FROM_JSON_CORRUPT_SCHEMA
Beim from_json-Rückschluss konnte das an folgendem Speicherort gespeicherte Schema nicht gelesen werden: <location>
FROM_JSON_INFERENCE_FAILED
from_json konnte das Schema nicht ableiten. Bitte geben Sie stattdessen eins an.
FROM_JSON_INFERENCE_NOT_SUPPORTED
Ein from_json Rückschluss wird nur beim Definieren von Streamingtabellen unterstützt.
FROM_JSON_INVALID_CONFIGURATION
Die from_json-Konfiguration ist ungültig:
Weitere Informationen finden Sie unter FROM_JSON_INVALID_CONFIGURATION.
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json konnte sich nicht von <old>
zu <new>
entwickeln
FUNCTION_PARAMETERS_MUST_BE_NAMED
Für die Funktion <function>
sind benannte Parameter erforderlich. Parameter ohne Namen: <exprs>
. Aktualisieren Sie den Funktionsaufruf, um Namen für alle Parameter hinzuzufügen, z. B. <function>
(param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Eine Spalte kann nicht sowohl einen Standardwert als auch einen Generierungsausdruck aufweisen, aber die Spalte <colName>
hat den Standardwert (<defaultValue>
) und den Generierungsausdruck (<genExpr>
).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 und niedrigere Versionen unterstützen getTablesByType nicht. Verwenden Sie Hive 2.3 oder eine höhere Version.
GET_WARMUP_TRACING_FAILED
Fehler beim Abrufen der Warmup-Ablaufverfolgung. Ursache: <cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Funktion get_warmup_tracing() nicht zulässig.
GRAPHITE_SINK_INVALID_PROTOCOL
Ungültiges Graphite-Protokoll: <protocol>
.
GRAPHITE_SINK_PROPERTY_MISSING
Graphite-Senke erfordert die „<property>
“-Eigenschaft.
GROUPING_COLUMN_MISMATCH
Die Spalte der Gruppierung (<grouping>
) kann in den Gruppierungsspalten <groupingColumns>
nicht gefunden werden.
GROUPING_ID_COLUMN_MISMATCH
Spalten der grouping_id (<groupingIdColumn>
) stimmen nicht mit Gruppierungsspalten (<groupByColumns>
) überein.
GROUPING_SIZE_LIMIT_EXCEEDED
Die Größe der Gruppierungssätze darf nicht größer sein als <maxSize>
.
GROUP_BY_AGGREGATE
Aggregatfunktionen sind in GROUP BY nicht zulässig, es wurde aber <sqlExpr>
gefunden.
Weitere Details finden Sie unter GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
bezieht sich auf einen Ausdruck <aggExpr>
, der eine Aggregatfunktion enthält. Aggregatfunktionen sind in GROUP BY nicht zulässig.
GROUP_BY_POS_OUT_OF_RANGE
Die GROUP BY-Position <index>
befindet sich nicht in der Auswahlliste (gültiger Bereich ist [1, <size>
]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
Der Ausdruck <sqlExpr>
kann nicht als Gruppierungsausdruck verwendet werden, weil der zugehörige Datentyp <dataType>
kein sortierbarer Datentyp ist.
HDFS_HTTP_ERROR
Beim Versuch, aus HDFS zu lesen, ist die HTTP-Anforderung fehlgeschlagen.
Weitere Informationen finden Sie unter HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
Ungültiger Aufruf von <function>
; es werden nur gültige (z. B. von der Funktion hll_sketch_agg
erzeugte) HLL-Skizzenpuffer als Eingaben unterstützt.
HLL_INVALID_LG_K
Ungültiger Aufruf von <function>
; der Wert lgConfigK
muss zwischen <min>
und <max>
liegen (einschließlich): <value>
.
HLL_UNION_DIFFERENT_LG_K
Skizzen weisen unterschiedliche lgConfigK
-Werte auf: <left>
und <right>
. Legen Sie den Parameter allowDifferentLgConfigK
auf TRUE fest, um <function>
mit anderen lgConfigK
-Werten aufzurufen.
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
ist kein gültiger Bezeichner, da er über mehr als 2 Namensteile verfügt.
ILLEGAL_STATE_STORE_VALUE
Ungültiger Wert, der für den Zustandsspeicher bereitgestellt wird
Weitere Informationen finden Sie unter ILLEGAL_STATE_STORE_VALUE
INCOMPARABLE_PIVOT_COLUMN
Ungültige Pivotspalte <columnName>
. Pivotspalten müssen vergleichbar sein.
INCOMPATIBLE_COLUMN_TYPE
<operator>
kann nur für Tabellen mit kompatiblen Spaltentypen ausgeführt werden. Die <columnOrdinalNumber>
-Spalte der Tabelle <tableOrdinalNumber>
ist der <dataType1>
-Typ, der nicht mit <dataType2>
in der gleichen Spalte der ersten Tabelle kompatibel ist.<hint>
.
INCOMPATIBLE_DATASOURCE_REGISTER
Es wurde ein inkompatibles DataSourceRegister erkannt. Entfernen Sie die inkompatible Bibliothek aus dem Klassenpfad, oder aktualisieren Sie sie. Fehler: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Für die Tabelle <tableName>
können keine inkompatiblen Daten geschrieben werden:
Weitere Informationen finden Sie unter INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
Die Join-Typen <joinType1>
und <joinType2>
sind nicht kompatibel.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
Die SQL-Abfrage der Ansicht <viewName>
weist eine nicht kompatible Schemaänderung auf, und die Spalte <colName>
kann nicht aufgelöst werden. Es wurden <expectedNum>
Spalten mit dem Namen <colName>
erwarten, aber erhalten wurden <actualCols>
.
Bitte versuchen Sie, die Ansicht erneut zu erstellen, indem Sie Folgendes ausführen: <suggestion>
.
INCOMPLETE_TYPE_DEFINITION
Unvollständiger komplexer Typ:
Weitere Details finden Sie unter INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Möglicherweise erhalten Sie ein anderes Ergebnis aufgrund des Upgrades auf
Weitere Informationen finden Sie unter INCONSISTENT_BEHAVIOR_CROSS_VERSION.
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
, <functionName>
erfordert mindestens <minArgs>
Argumente und maximal <maxArgs>
Argumente.
INCORRECT_RAMP_UP_RATE
Der maximale Versatz mit <rowsPerSecond>
rowsPerSecond ist <maxSeconds>
, aber „rampUpTimeSeconds“ ist <rampUpTimeSeconds>
.
INDETERMINATE_COLLATION
Die aufgerufene Funktion erfordert Kenntnisse der Sortierung, die sie anwenden sollte, aber unbestimmte Sortierung wurde gefunden. Verwenden Sie die COLLATE-Funktion, um die Sortierung explizit festzulegen.
INDEX_ALREADY_EXISTS
Der Index <indexName>
kann auf der Tabelle <tableName>
nicht erstellt werden, da er bereits vorhanden ist.
INDEX_NOT_FOUND
Der Index <indexName>
auf der Tabelle <tableName>
wurde nicht gefunden.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Der Triggertyp <trigger>
wird für diesen Clustertyp nicht unterstützt.
Verwenden Sie einen anderen Triggertyp, z. B. AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
In <tableName>
kann nicht geschrieben werden. Ursache:
Weitere Informationen finden Sie unter INSERT_COLUMN_ARITY_MISMATCH.
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
In <tableName>
kann nicht geschrieben werden. <reason>
:
Tabellenspalten: <tableColumns>
.
Partitionsspalten mit statischen Werten: <staticPartCols>
.
Datenspalten: <dataColumns>
.
INSUFFICIENT_PERMISSIONS
Keine ausreichenden Berechtigungen:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
Der Benutzer <user>
hat nicht genügend Berechtigungen für den externen Speicherort <location>
.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Es gibt keinen Besitzer für <securableName>
. Bitten Sie Ihren Administrator, einen Besitzer festzulegen.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
Der Benutzer besitzt <securableName>
nicht.
INSUFFICIENT_PERMISSIONS_SECURABLE
Der Benutzer hat keine <action>
-Berechtigung für <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
Der Besitzer von <securableName>
unterscheidet sich vom Besitzer von <parentSecurableName>
.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Die Speicheranmeldeinformation <credentialName>
verfügt nicht über ausreichend Berechtigungen.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
Der Benutzer kann <action>
auf <securableName>
aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
Der Benutzer kann <action>
auf <securableName>
aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
<message>
.<alternative>
INTERVAL_DIVIDED_BY_ZERO
Division durch Null. Verwenden Sie try_divide
, um zu tolerieren, dass der Divisor 0 ist, und stattdessen NULL zurückzugeben.
INVALID_AGGREGATE_FILTER
Der FILTER-Ausdruck <filterExpr>
in einer Aggregatfunktion ist ungültig.
Weitere Informationen finden Sie unter INVALID_AGGREGATE_FILTER
INVALID_ARRAY_INDEX
Der Index <indexValue>
liegt außerhalb der Begrenzung. Das Array enthält <arraySize>
Elemente. Verwenden Sie die SQL-Funktion get()
, um den Zugriff auf ein Element mit ungültigem Index zu tolerieren und stattdessen NULL zurückzugeben. Legen Sie bei Bedarf <ansiConfig>
auf FALSCH fest, um diesen Fehler zu umgehen.
Weitere Details finden Sie unter INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
Der Index <indexValue>
liegt außerhalb der Begrenzung. Das Array enthält <arraySize>
Elemente. Verwenden Sie try_element_at
, um den Zugriff auf ein Element mit ungültigem Index zu tolerieren und stattdessen NULL zurückzugeben. Legen Sie bei Bedarf <ansiConfig>
auf FALSCH fest, um diesen Fehler zu umgehen.
Weitere Details finden Sie unter INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_BITMAP_POSITION
Die mit 0 indizierte Bitmapposition <bitPosition>
liegt außerhalb der zulässigen Grenzen. Die Bitmap umfasst <bitmapNumBits>
Bits (<bitmapNumBytes>
Bytes).
INVALID_BOOLEAN_STATEMENT
Boolesche Anweisung wird in der Bedingung erwartet, wurde aber <invalidStatement>
gefunden.
INVALID_BOUNDARY
Die Grenze <boundary>
ist ungültig: <invalidValue>
.
Weitere Details finden Sie unter INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Für Bucketspalte kann nicht <type>
verwendet werden. Sortierte Datentypen werden für die Bucketerstellung nicht unterstützt.
INVALID_BUCKET_FILE
Ungültige Bucketdatei: <path>
.
INVALID_BYTE_STRING
Das erwartete Format ist ByteString, war aber <unsupported>
(<class>
).
INVALID_COLUMN_NAME_AS_PATH
Die Datenquelle <datasource>
kann die Spalte <columnName>
nicht speichern, da ihr Name einige Zeichen enthält, die in Dateipfaden nicht zulässig sind. Verwenden Sie bitte einen Alias, um ihn umzubenennen.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Die Spalte oder das Feld <name>
ist vom Typ <type>
, während <expectedType>
erforderlich ist.
INVALID_CONF_VALUE
Der Wert '<confValue>
' in der Konfiguration "<confName>
" ist ungültig.
Weitere Informationen finden Sie unter INVALID_CONF_VALUE.
INVALID_CURRENT_RECIPIENT_USAGE
Die current_recipient
-Funktion kann nur in der CREATE VIEW
-Anweisung oder der ALTER VIEW
-Anweisung verwendet werden, um in Unity Catalog eine Ansicht nur für die Freigabe zu definieren.
INVALID_CURSOR
Der Cursor ist ungültig.
Weitere Informationen finden Sie unter INVALID_CURSOR.
INVALID_DATETIME_PATTERN
Unbekanntes Datetime-Muster: <pattern>
.
Weitere Informationen finden Sie unter INVALID_DATETIME_PATTERN
INVALID_DEFAULT_VALUE
Fehler beim Ausführen des <statement>
-Befehls, weil die Zielspalte oder Variable <colName>
den DEFAULT-Wert <defaultValue>
aufweist,
Weitere Details finden Sie unter INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Ungültiger Wert für Trennzeichen.
Weitere Informationen finden Sie unter INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
Der Zielkatalog des SYNC-Befehls muss in Unity Catalog enthalten sein. Es wurde <catalog>
gefunden.
INVALID_DRIVER_MEMORY
Der Systemspeicher <systemMemory>
muss mindestens <minSystemMemory>
sein.
Erhöhen Sie die Heapgröße mithilfe der Option „–driver-memory“ oder <config>
in der Spark-Konfiguration.
INVALID_DYNAMIC_OPTIONS
Optionen, die option_list> übergeben <werden, sind für fremdtabellen <table_name> verboten.
INVALID_EMPTY_LOCATION
Der Name des Speicherorts darf keine leere Zeichenfolge sein, es wurde aber <location>
angegeben.
INVALID_ESC
Es wurde eine ungültige Escapezeichenfolge gefunden: <invalidEscape>
. Die Escapezeichenfolge darf nur ein Zeichen enthalten.
INVALID_ESCAPE_CHAR
EscapeChar
sollte ein Zeichenfolgenliteral der Länge 1 sein, enthielt jedoch <sqlExpr>
.
INVALID_EXECUTOR_MEMORY
Der Executorarbeitsspeicher <executorMemory>
muss mindestens <minSystemMemory>
sein.
Erhöhen Sie den Executorarbeitsspeicher mithilfe der Option „–executor-memory“ oder <config>
in der Spark-Konfiguration.
INVALID_EXPRESSION_ENCODER
Es wurde ein ungültiger Ausdrucks-Encoder gefunden. Erwartet eine Instanz von ExpressionEncoder, es wurde aber <encoderType>
erhalten. Weitere Informationen finden Sie unter '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_EXTRACT_BASE_FIELD_TYPE
Ein Wert kann nicht aus <base>
extrahiert werden. Komplexer Typ [STRUCT
, ARRAY
, MAP
] erforderlich, aber <other>
erhalten.
INVALID_EXTRACT_FIELD
<field>
kann nicht aus <expr>
extrahiert werden.
INVALID_EXTRACT_FIELD_TYPE
Der Feldname sollte ein Zeichenfolgenliteral ungleich NULL sein, aber er ist <extraction>
.
INVALID_FIELD_NAME
Feldname <fieldName>
ist ungültig: <path>
ist keine Struktur.
INVALID_FORMAT
Das Format ist ungültig: <format>
.
Weitere Informationen finden Sie unter INVALID_FORMAT.
INVALID_FRACTION_OF_SECOND
Der Sekundenbruchteil muss null sein. Der gültige Bereich ist [0, 60]. Legen Sie bei Bedarf <ansiConfig>
auf FALSCH fest, um diesen Fehler zu umgehen.
INVALID_HANDLE
Das Handle <handle>
ist ungültig.
Weitere Informationen finden Sie unter INVALID_HANDLE
INVALID_IDENTIFIER
Der nicht zitierte Bezeichner <ident>
ist ungültig und muss wie folgt zurück zitiert werden: <ident>
.
Nicht zitierte Bezeichner können nur ASCII-Buchstaben ('a' - 'z', 'A' - 'Z'), Ziffern ('0' - '9') und Unterleiste ('_') enthalten.
Nicht zitierte Bezeichner dürfen auch nicht mit einer Ziffer beginnen.
Unterschiedliche Datenquellen und Metaspeicher können zusätzliche Einschränkungen für gültige Bezeichner erzwingen.
INVALID_INDEX_OF_ZERO
Der Index 0 ist ungültig. Ein Index muss entweder < 0 oder > 0 sein (das erste Element hat den Index 1).
INVALID_INLINE_TABLE
Ungültige Inlinetabelle.
Weitere Informationen finden Sie unter INVALID_INLINE_TABLE.
INVALID_INTERVAL_FORMAT
Fehler beim Analysieren von '<input>
' in das Intervall. Stellen Sie sicher, dass der angegebene Wert in einem gültigen Format zum Definieren eines Intervalls vorliegt. Das richtige Format finden Sie in der Dokumentation.
Weitere Informationen finden Sie unter INVALID_INTERVAL_FORMAT
INVALID_INVERSE_DISTRIBUTION_FUNCTION
Ungültige inverse Verteilungsfunktion <funcName>
.
Weitere Informationen finden Sie unter INVALID_INVERSE_DISTRIBUTION_FUNCTION.
INVALID_JOIN_TYPE_FOR_JOINWITH
Ungültiger Verknüpfungstyp in joinWith: <joinType>
.
INVALID_JSON_DATA_TYPE
Fehler beim Konvertieren der JSON-Zeichenfolge "<invalidType>
" in einen Datentyp. Geben Sie einen gültigen Datentyp ein.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Sortierungen können nur auf Zeichenfolgentypen angewendet werden, der JSON-Datentyp ist <jsonType>
jedoch .
INVALID_JSON_ROOT_FIELD
Das JSON-Stammfeld kann nicht in den Spark-Zieltyp konvertiert werden.
INVALID_JSON_SCHEMA_MAP_TYPE
Das Eingabeschema <jsonSchema>
kann nur STRING
als Schlüsseltyp für MAP
enthalten.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
Der Wert der Konfiguration „<bufferSizeConfKey>
“ muss kleiner als 2.048 MiB sein, enthält jedoch <bufferSizeConfValue>
MiB.
INVALID_LABEL_USAGE
Die Verwendung der Bezeichnung <labelName>
ist ungültig.
Weitere Details finden Sie unter INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Ungültiger Lambdafunktionsaufruf.
Weitere Informationen finden Sie unter INVALID_LAMBDA_FUNCTION_CALL.
INVALID_LATERAL_JOIN_TYPE
Der <joinType>
-JOIN mit LATERAL-Korrelation ist nicht zulässig, da eine OUTER-Subabfrage nicht mit ihrem Joinpartner korrelieren kann. Entfernen Sie die LATERAL-Korrelation, oder verwenden Sie stattdessen einen INNER JOIN oder LEFT OUTER JOIN.
INVALID_LIMIT_LIKE_EXPRESSION
Der Limit-Like- Ausdruck <expr>
ist ungültig.
Weitere Details finden Sie unter INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOCATION
Der Speicherortname darf keine ungültige URI sein, wurde jedoch <location>
angegeben.
INVALID_NON_ABSOLUTE_PATH
Der bereitgestellte nicht absolute Pfad <path>
kann nicht qualifiziert werden. Aktualisieren Sie den Pfad als gültigen Dbfs-Bereitstellungsspeicherort.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
Der Operator erwartet einen deterministischen Ausdruck, aber der tatsächliche Ausdruck lautet <sqlExprs>
.
INVALID_NUMERIC_LITERAL_RANGE
Das numerische Literal <rawStrippedQualifier>
liegt mit einem Mindestwert von <minValue>
und einem Höchstwert von <maxValue>
außerhalb des gültigen Bereichs für <typeName>
. Passen Sie den Wert entsprechend an.
INVALID_OBSERVED_METRICS
Ungültige beobachtete Metriken.
Weitere Informationen finden Sie unter INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Ungültige Optionen:
Weitere Details finden Sie unter INVALID_SCHEMA
INVALID_PANDAS_UDF_PLACEMENT
Die pandas-UDF <functionList>
für die Gruppenaggregierung kann nicht zusammen mit anderen Aggregatfunktionen vom Typ nicht-pandas aufgerufen werden.
INVALID_PARAMETER_MARKER_VALUE
Eine ungültige Parameterzuordnung wurde bereitgestellt:
Weitere Details finden Sie unter INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
Der Wert der Parameter <parameter>
in <functionName>
ist ungültig:
Weitere Details finden Sie unter INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Für die Partitionsspalte kann nicht <type>
verwendet werden.
INVALID_PARTITION_OPERATION
Der Partitionsbefehl ist ungültig.
Weitere Details finden Sie unter INVALID_PARTITION_OPERATION
INVALID_PIPELINE_ID
Die Pipeline-ID <pipelineId>
ist nicht gültig.
Eine Pipeline-ID sollte eine UUID im Format „xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx“ sein
INVALID_PRIVILEGE
Die Berechtigung <privilege>
ist nicht gültig für <securable>
.
INVALID_PROPERTY_KEY
<key>
ist ein ungültiger Eigenschaftsschlüssel, bitte verwenden Sie Anführungszeichen, z. B.: SET <key>
=<value>
.
INVALID_PROPERTY_VALUE
<value>
ist ein ungültiger Eigenschaftswert bitte verwenden Sie Anführungszeichen, z. B. SET <key>
=<value>
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Parametrisierte Abfragen müssen entweder die Position oder benannte Parameter verwenden, aber nicht beides.
INVALID_S3_COPY_CREDENTIALS
COPY INTO-Anmeldeinformationen müssen AWS_ACCESS_KEY, AWS_SECRET_KEY und AWS_SESSION_TOKEN enthalten.
INVALID_SAVE_MODE
Der angegebene Speichermodus <mode>
ist ungültig. Gültige Speichermodi sind: „append“, „overwrite“, „ignore“, „error“, „errorifexists“ und „default“.
INVALID_SCHEMA
Das Eingabeschema <inputSchema>
ist keine gültige Schemazeichenfolge.
Weitere Informationen finden Sie unter INVALID_SCHEMA.
INVALID_SCHEMA_OR_RELATION_NAME
<name>
ist kein gültiger Name für Tabellen/Schemas. Gültige Namen enthalten nur alphabetische Zeichen, Zahlen und _.
INVALID_SCHEME
Der Unity Catalog unterstützt <name>
nicht als Standarddateischema.
INVALID_SECRET_LOOKUP
Geheimnislookup ungültig:
Weitere Informationen finden Sie unter INVALID_SECRET_LOOKUP.
INVALID_SET_SYNTAX
Das erwartete Format ist „SET“, „SET key“ oder „SET key=value“. Wenn Sie Sonderzeichen in den Schlüssel oder Semikolon in den Wert einschließen möchten, verwenden Sie rückwärts gerichtete Anführungszeichen, z. B. SET key
=value
.
INVALID_SHARED_ALIAS_NAME
Der <sharedObjectType>
-Aliasname muss das Format „schema.name“ aufweisen.
INVALID_SINGLE_VARIANT_COLUMN
Die singleVariantColumn
Option kann nicht verwendet werden, wenn auch ein vom Benutzer angegebenes Schema vorhanden ist.
INVALID_SOURCE_CATALOG
Der Quellkatalog darf nicht innerhalb von Unity Catalog für den SYNC-Befehl enthalten sein. Es wurde <catalog>
gefunden.
INVALID_SQL_ARG
Das Argument <name>
für sql()
ist ungültig. Erwägen Sie, es entweder durch ein SQL-Literal oder durch Sammlungskonstruktorfunktionen wie map()
, array()
, struct()
zu ersetzen.
INVALID_SQL_SYNTAX
Ungültige SQL-Syntax:
Weitere Details finden Sie unter INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Ungültiger Stagingpfad in der Staging-<operation>
-Abfrage: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
Die INTO-Klausel von EXECUTE IMMEDIATE ist nur für Abfragen gültig, die angegebene Anweisung ist aber keine Abfrage: <sqlString>
.
INVALID_STATEMENT_OR_CLAUSE
Die Anweisung oder Klausel: <operation>
ist ungültig.
INVALID_SUBQUERY_EXPRESSION
Ungültige Unterabfrage:
Weitere Informationen finden Sie unter INVALID_SUBQUERY_EXPRESSION.
INVALID_TEMP_OBJ_REFERENCE
Das persistente Objekt <objName>
des Typs <obj>
kann nicht erstellt werden, da es auf das temporäre Objekt <tempObjName>
des Typs <tempObj>
verweist. Bitte machen Sie das temporäre Objekt <tempObjName>
dauerhaft, oder machen Sie das persistente Objekt <objName>
temporär.
INVALID_TIMESTAMP_FORMAT
Der angegebene Zeitstempel <timestamp>
stimmt nicht mit der erwarteten Syntax <format>
überein.
INVALID_TIME_TRAVEL_SPEC
Bei einer Zeitreise der Tabelle können nicht sowohl die Version als auch der Zeitstempel angegeben werden.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
Der Zeitstempelausdruck <expr>
für die Zeitreise ist ungültig.
Weitere Informationen finden Sie unter INVALID_TIME_TRAVEL_TIMESTAMP_EXPR.
INVALID_TYPED_LITERAL
Der Wert des eingegebenen Literals <valueType>
ist ungültig: <value>
.
INVALID_UDF_IMPLEMENTATION
Die Funktion <funcName>
implementiert weder eine ScalarFunction noch eine AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command>
<supportedOrNot>
die Quelltabelle befindet sich im Hive-Metastore und die Zieltabelle im Unity Catalog.
INVALID_URL
Die URL ist ungültig: <url>
. Legen Sie bei Bedarf <ansiConfig>
auf FALSCH fest, um diesen Fehler zu umgehen.
INVALID_USAGE_OF_STAR_OR_REGEX
Ungültige Verwendung von <elem>
in <prettyName>
.
INVALID_UTF8_STRING
Ungültige UTF8-Bytesequenz in Zeichenfolge gefunden: <str>
.
INVALID_UUID
Die Eingabe <uuidInput>
ist keine gültige UUID.
Die UUID sollte im Format „xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx“ vorliegen
Bitte überprüfen Sie das Format der UUID.
INVALID_VARIABLE_DECLARATION
Ungültige Variablendeklaration.
Weitere Informationen finden Sie unter INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Der Variablentyp muss eine Zeichenfolge (string) sein, empfangen wurde aber <varType>
.
INVALID_VARIANT_CAST
Der Variant-Wert <value>
kann nicht in <dataType>
umgewandelt werden. Verwenden Sie stattdessen try_variant_get
.
INVALID_VARIANT_FROM_PARQUET
Ungültige Variante.
Weitere Informationen finden Sie unter INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
Der Pfad <path>
ist kein gültiger Variant-Extraktionspfad in <functionName>
.
Ein gültiger Pfad sollte mit $
beginnen, gefolgt von null oder mehr Segmenten wie [123]
, .name
, ['name']
oder ["name"]
.
INVALID_WHERE_CONDITION
Die WHERE-Bedingung <condition>
enthält ungültige Ausdrücke: <expressionList>
.
Schreiben Sie die Abfrage erneut, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE-Klausel zu vermeiden.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
ORDER BY oder ein Fensterrahmen für <aggFunc>
kann nicht angegeben werden.
INVALID_WRITER_COMMIT_MESSAGE
Der Datenquellen-Writer hat eine ungültige Anzahl von Commitnachrichten generiert. Es wurde genau eine Commitnachricht für jede Aufgabe vom Writer erwartet, aber <detail>
empfangen.
INVALID_WRITE_DISTRIBUTION
Die angeforderte Schreibverteilung ist ungültig.
Weitere Details finden Sie unter INVALID_WRITE_DISTRIBUTION
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
Die Verknüpfungsbedingung <joinCondition>
weist den ungültigen Typ <conditionType>
auf, BOOLEAN
erwartet.
KAFKA_DATA_LOSS
Einige Daten sind möglicherweise verloren gegangen, weil sie in Kafka nicht mehr verfügbar sind;
entweder die Daten wurden von Kafka ausgelöscht, oder das Thema wurde möglicherweise gelöscht, bevor alle Daten im
Thema verarbeitet wurden.
Wenn Ihre Streamingabfrage in solchen Fällen nicht fehlschlägt, legen Sie die Quelloption failOnDataLoss auf "false" fest.
Ursache:
Weitere Informationen finden Sie unter KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Konnte nicht bis zur gewünschten Sequenznummer <endSeqNum>
für Shard <shardId>
im
kinesis-Stream <stream>
mit Consumermodus <consumerMode>
. Die Abfrage führt aufgrund eines
potenziellen Datenverlusts zu einem Fehler. Der letzte Lesedatensatz befand sich bei Sequenznummer <lastSeqNum>
.
Dies kann passieren, wenn die Daten mit endSeqNum bereits veraltet sind oder der Kinesis-Stream
gelöscht und mit demselben Namen rekonstruiert wurde. Das Fehlerverhalten kann außer Kraft gesetzt werden
indem Sie spark.databricks.kinesis.failOnDataLoss auf FALSE in der Spark-Konfiguration festlegen.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Die abgerufene Mindest-ShardId von Kinesis (<fetchedShardId>
)
ist kleiner als die nachverfolgte Mindest-ShardID (<trackedShardId>
).
Dies ist unerwartet und tritt auf, wenn ein Kinesis-Stream gelöscht und mit demselben Namen neu erstellt wird
und eine Streamingabfrage mit diesem Kinesis-Stream mithilfe eines vorhandenen Prüfpunktorts neu gestartet wird.
Starten Sie die Streamingabfrage mit einem neuen Prüfpunktort neu, oder erstellen Sie einen Stream mit einem neuen Namen.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Bei Shard <shard>
hat der letzte Datensatz, der aus Kinesis in vorherigen Abrufen gelesen wurde, die Sequenznummer <lastSeqNum>
,
der größer als der Datensatz ist, der im aktuellen Abruf mit Sequenznummer <recordSeqNum>
gelesen wird.
Dies ist unerwartet und kann auftreten, wenn die Startposition des Wiederholungs- oder nächsten Abrufs falsch initialisiert ist und zu doppelten Datensätzen nachgeschaltet werden kann.
KRYO_BUFFER_OVERFLOW
Fehler bei der Kryo-Serialisierung: <exceptionMsg>
. Um dies zu vermeiden, erhöhen Sie den Wert von „<bufferSizeConfKey>
“.
LABELS_MISMATCH
Die Anfangsbezeichnung <beginLabel>
stimmt nicht mit der Endbezeichnung <endLabel>
überein.
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA-Eingabepfad ist nicht vorhanden: <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL muss zusammen mit dem Schema von file
verwendet werden, enthielt jedoch Folgendes: <actualSchema>
.
LOCATION_ALREADY_EXISTS
Die verwaltete Tabelle kann nicht als <identifier>
benannt werden, da der zugeordnete Speicherort <location>
bereits vorhanden ist. Wählen Sie einen anderen Tabellennamen aus, oder entfernen Sie zuerst den vorhandenen Speicherort.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Einige Partitionen in Kafka-Themen sind während der Ausführung der Abfrage mit Trigger.AvailableNow verloren gegangen. Der Fehler kann vorübergehend sein – starten Sie die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Themenpartitionen für den neuesten Offset: <tpsForLatestOffset>
, Themenpartitionen für den Endoffset: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Falsch formatierte Avro-Nachrichten werden bei der Nachrichtendeserialisierung erkannt. Parsenmodus: <mode>
. Um falsch formatierte Avro-Nachrichten als NULL-Ergebnis zu verarbeiten, sollten Sie versuchen, die Option „mode“ als „PERMISSIVE“ festzulegen.
MALFORMED_CHARACTER_CODING
Ungültiger Wert beim Ausführen <function>
mit <charset>
MALFORMED_CSV_RECORD
Nicht wohlgeformter CSV-Datensatz: <badRecord>
MALFORMED_RECORD_IN_PARSING
Nicht wohlgeformte Datensätze werden beim Datensatzparsen erkannt: <badRecord>
.
Parsenmodus: <failFastMode>
. Um nicht wohlgeformte Datensätze als NULL-Ergebnis zu verarbeiten, sollten Sie versuchen, die Option „mode“ als „PERMISSIVE“ festzulegen.
Weitere Informationen finden Sie unter MALFORMED_RECORD_IN_PARSING.
MALFORMED_VARIANT
Die Variant-Binärdatei ist falsch formatiert. Überprüfen Sie, ob die Datenquelle gültig ist.
MANAGED_TABLE_WITH_CRED
Das Erstellen einer verwalteten Tabelle mit Speicheranmeldeinformationen wird nicht unterstützt.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Die materialisierte Sicht kann nicht <refreshType>
werden, da sie vor pipelineId vorhanden war. Um <refreshType>
zu aktivieren, löschen Sie bitte die materialisierte Sicht und erstellen sie neu.
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
Der Vorgang <operation>
für die materialisierte Sicht ist nicht erlaubt:
Weitere Details finden Sie unter MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
Der Ausgabeausdruck <expression>
in einer materialisierten Sicht muss explizit mit einem Alias erstellt werden.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
Die materialisierte Ansicht <name>
konnte nicht mit streamingabfrage erstellt werden. Verwenden Sie CREATE [OR REFRESH] STREAMING TABLE, oder entfernen Sie das STREAM-Schlüsselwort aus Ihrer FROM-Klausel, um diese Beziehung stattdessen in eine Batchabfrage umzuwandeln.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Der Vorgang <operation>
wird für materialisierte Ansichten für diese Version nicht unterstützt.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Die neue Variable <variableName>
kann nicht erstellt werden, da die Anzahl der Variablen in der Sitzung die maximal zulässige Anzahl (<maxNumVariables>
) überschreitet.
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch muss eine positive ganze Zahl kleiner oder gleich <kinesisRecordLimit>
sein.
MERGE_CARDINALITY_VIOLATION
Die ON-Suchbedingung der MERGE-Anweisung entsprach einer einzelnen Zeile aus der Zieltabelle mit mehreren Zeilen der Quelltabelle.
Dies kann dazu führen, dass die Zielzeile bei einem Aktualisierungs- oder Löschvorgang mehrmals verarbeitet wird, und ist daher nicht zulässig.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT ist nicht aktiviert.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
Der bereitgestellte Wert "<argValue>
" wird von Argument "<argName>
" für die METRIC_STORE Tabellenfunktion nicht unterstützt.
Weitere Informationen finden Sie unter METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
Die Metrikspeicherfunktion <functionName>
ist derzeit in dieser Umgebung deaktiviert.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Die Kafka-Datenquelle in Trigger.AvailableNow sollte die gleichen Themenpartitionen im vorab abgerufenen Offset bis zum End-Offset für jeden Mikrobatch bereitstellen. Der Fehler kann vorübergehend sein – starten Sie die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Themenpartitionen für den vorab abgerufenen Offset: <tpsForPrefetched>
, Themenpartitionen für den Endoffset: <tpsForEndOffset>
.
MISSING_AGGREGATION
Der nicht aggregierende Ausdruck <expression>
basiert auf Spalten, die nicht an der GROUP BY-Klausel beteiligt sind.
Fügen Sie die Spalten oder den Ausdruck zur GROUP BY-Klausel hinzu, aggregieren Sie den Ausdruck, oder verwenden Sie <expressionAnyValue>
, wenn es keine Rolle spielt, welcher der Werte innerhalb einer Gruppe zurückgegeben wird.
Weitere Details finden Sie unter MISSING_AGGREGATION
MISSING_CONNECTION_OPTION
Verbindungen vom Typ „<connectionType>
“ müssen die folgende(n) Option(en) enthalten: <requiredOptions>
.
MISSING_GROUP_BY
Die Abfrage enthält keine GROUP BY-Klausel. Fügen Sie eine GROUP BY-Klausel hinzu, oder wandeln Sie sie mithilfe von OVER-Klauseln in die Fensterfunktionen um.
MISSING_NAME_FOR_CHECK_CONSTRAINT
Die CHECK-Einschränkung muss einen Namen haben.
MISSING_PARAMETER_FOR_KAFKA
Der Parameter <parameterName>
ist für Kafka erforderlich, ist aber in <functionName>
nicht angegeben.
MISSING_PARAMETER_FOR_ROUTINE
Der <parameterName>
-Parameter ist für Kafka erforderlich, wurde aber in <functionName>
nicht angegeben.
MISSING_WINDOW_SPECIFICATION
Die Fensterspezifikation ist in der WINDOW-Klausel für <windowName>
. Weitere Informationen zu WINDOW-Klauseln finden Sie unter "<docroot>
/sql-ref-syntax-qry-select-window.html".
MODIFY_BUILTIN_CATALOG
Das Ändern des integrierten Katalogs <catalogName>
wird nicht unterstützt.
MULTIPLE_LOAD_PATH
Databricks Delta unterstützt in der load()-API nicht mehrere Eingabepfade.
Pfade: <pathList>
. Um einen einzelnen DataFrame zu erstellen, indem Sie
mehrere Pfade aus derselben Delta-Tabelle laden, sollten Sie den Stammpfad der
Delta-Tabelle mit den entsprechenden Partitionsfiltern laden. Wenn mehrere Pfade
aus verschiedenen Delta-Tabellen stammen, verwenden Sie die APIs union() oder unionByName() des Datasets,
um die DataFrames zu kombinieren, die durch verschiedene Aufrufe der load()-API generiert wurden.
MULTIPLE_MATCHING_CONSTRAINTS
Es wurden mindestens zwei übereinstimmende Einschränkungen mit der angegebenen Bedingung gefunden.
MULTIPLE_TIME_TRAVEL_SPEC
Die Zeitreise kann nicht sowohl in der Zeitreiseklausel als auch in den Optionen angegeben werden.
MULTIPLE_XML_DATA_SOURCE
Es wurden mehrere Datenquellen mit dem Namen <provider>
(<sourceNames>
) gefunden. Geben Sie den vollqualifizierten Klassennamen an, oder entfernen Sie <externalSource>
aus dem Klassenpfad.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
Der Ausdruck <expr>
unterstützt nicht mehr als eine Quelle.
MULTI_UDF_INTERFACE_ERROR
Es ist nicht zulässig, mehrere UDF-Schnittstellen zu implementieren, UDF-Klasse <className>
.
MUTUALLY_EXCLUSIVE_CLAUSES
Sich gegenseitig ausschließende Klauseln oder Optionen <clauses>
. Entfernen Sie eine dieser Klauseln.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
Die Eingabeabfrage erwartet <expectedType>
, aber die zugrunde liegende Tabelle ist <givenType>
.
NAMED_PARAMETERS_NOT_SUPPORTED
Benannte Parameter werden für die Funktion <functionName>
nicht unterstützt. Wiederholen Sie die Abfrage stattdessen mit positionellen Argumenten für den Funktionsaufruf.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Funktion <functionName>
kann nicht aufgerufen werden, da benannte Argumentverweise nicht unterstützt werden. In diesem Fall lautete der benannte Argumentverweis <argument>
.
NAMED_PARAMETER_SUPPORT_DISABLED
Die Funktion <functionName>
kann nicht aufgerufen werden, weil benannte Argumentverweise hier nicht aktiviert sind.
In diesem Fall lautete der benannte Argumentverweis <argument>
.
Legen Sie „spark.sql.allowNamedFunctionArguments“ auf TRUE fest, um das Feature zu aktivieren.
NAMESPACE_ALREADY_EXISTS
Der Namespace <nameSpaceName>
kann nicht erstellt werden, da er bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, löschen Sie den vorhandenen Namespace, oder fügen Sie die IF NOT EXISTS-Klausel hinzu, um bereits vorhandene Namespaces zu tolerieren.
NAMESPACE_NOT_EMPTY
Ein Namespace <nameSpaceNameName>
kann nicht gelöscht werden, da er Objekte enthält.
Verwenden Sie DROP NAMESPACE ... CASCADE, um den Namespace und alle zugehörigen Objekte zu löschen.
NAMESPACE_NOT_FOUND
Der Namespace <nameSpaceName>
kann nicht gefunden werden. Überprüfen Sie die Schreibweise und Korrektheit des Namespace.
Wenn Sie den Namen nicht mit einem qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen.
Verwenden Sie DROP NAMESPACE IF EXISTS, um den Fehler beim Löschen zu tolerieren.
NATIVE_IO_ERROR
Fehler bei der systemeigenen Anforderung. requestId: , cloud: <requestId>
<cloud>
, operation:<operation>
request: [https: <https>
, method = , path = <path>
<method>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
Fehler: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Die native XML-Datenquelle ist in diesem Cluster nicht aktiviert.
NESTED_AGGREGATE_FUNCTION
Es ist nicht zulässig, eine Aggregatfunktion im Argument einer anderen Aggregatfunktion zu verwenden. Verwenden Sie die interne Aggregatfunktion in einer Unterabfrage.
NESTED_EXECUTE_IMMEDIATE
Geschachtelte EXECUTE IMMEDIATE-Befehle sind nicht zulässig. Stellen Sie sicher, dass die bereitgestellte SQL-Abfrage (<sqlString>
) keinen weiteren EXECUTE IMMEDIATE-Befehl enthält.
NONEXISTENT_FIELD_NAME_IN_LIST
Feld(er) <nonExistFields>
ist/sind nicht vorhanden. Verfügbare Felder: <fieldNames>
NON_FOLDABLE_ARGUMENT
Für die Funktion <funcName>
muss der Parameter <paramName>
ein faltbarer Ausdruck des Typs <paramType>
sein; das tatsächliche Argument ist jedoch nicht faltbar.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Wenn eine MERGE-Anweisung mehr als eine MATCHED-Klausel enthält, kann nur die letzte MATCHED-Klausel die Bedingung auslassen.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Wenn eine MERGE-Anweisung mehrere NOT MATCHED BY SOURCE-Klauseln enthält, kann nur die letzte NOT MATCHED BY SOURCE-Klausel die Bedingung auslassen.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Wenn eine MERGE-Anweisung mehrere NOT MATCHED [BY TARGET]-Klauseln enthält, kann nur die letzte NOT MATCHED [BY TARGET]-Klausel die Bedingung auslassen.
NON_LITERAL_PIVOT_VALUES
Literal-Ausdrücke sind für Pivotwerte erforderlich, es wurde <expression>
gefunden.
NON_PARTITION_COLUMN
PARTITION-Klausel darf keine Nicht-Partitionsspalten enthalten: <columnName>
.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
Die WINDOW-Funktion wird in <windowFunc>
(als Spalte <columnName>
) für Streamingdatenframes/Datasets nicht unterstützt.
Strukturiertes Streaming unterstützt nur die Aggregation von Zeitfenstern mithilfe der WINDOW-Funktion. (Fensterspezifikation: <windowSpec>
)
NOT_ALLOWED_IN_FROM
In der FROM-Klausel nicht zulässig:
Weitere Details finden Sie unter NOT_ALLOWED_IN_FROM
NOT_A_CONSTANT_STRING
Der für die Routine oder Klausel <name>
verwendete <expr>
-Ausdruck muss eine konstante STRING
sein, die NOT NULL ist.
Weitere Details finden Sie unter NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
Der Vorgang <operation>
ist für <tableIdentWithDB>
nicht zulässig, da es sich nicht um eine partitionierte Tabelle handelt.
NOT_A_SCALAR_FUNCTION
<functionName>
erscheint hier als skalarer Ausdruck, aber die Funktion wurde als Tabellenfunktion definiert. Bitte aktualisieren Sie die Abfrage, um den Funktionsaufruf in die FROM-Klausel zu verschieben, oder definieren Sie <functionName>
stattdessen als skalare Funktion.
NOT_A_TABLE_FUNCTION
<functionName>
erscheint hier als Tabellenfunktion, aber die Funktion wurde als skalare Funktion definiert. Bitte aktualisieren Sie die Abfrage, um den Funktionsaufruf außerhalb der FROM-Klausel zu verschieben, oder definieren Sie <functionName>
stattdessen als Tabellenfunktion.
NOT_NULL_ASSERT_VIOLATION
NULL-Wert wurde in einem nicht nullablen Feld angezeigt: <walkedTypePath>
Wenn das Schema von einer Scala-Tupel-/Fallklasse oder einer Java-Bean abgeleitet wird, versuchen Sie, skala zu verwenden. Option[_] oder andere nullable Typen (z. B. java.lang.Integer anstelle von int/scala). Int).
NOT_NULL_CONSTRAINT_VIOLATION
Das Zuweisen eines NULL-Werts ist hier nicht zulässig.
Weitere Details finden Sie unter NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER/CHANGE COLUMN wird nicht unterstützt, um die Spalte <originName>
von <table>
mit dem Typ <originType>
in <newName>
mit dem Typ <newType>
zu ändern.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
wird für v2-Tabellen nicht unterstützt.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
wird nicht unterstützt. Wenn Sie diesen Befehl aktivieren möchten, legen Sie „spark.sql.catalogImplementation“ auf „hive“ fest.
NOT_SUPPORTED_IN_JDBC_CATALOG
Nicht unterstützter Befehl im JDBC-Katalog:
Weitere Details finden Sie unter NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>
wird in einer SQL <endpoint>
nicht unterstützt.
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
wird auf serverlosem Computing nicht unterstützt.
NOT_UNRESOLVED_ENCODER
Nicht aufgelöster Encoder erwartet, aber <attr>
wurde gefunden.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Der Standardwert für <colName>
kann nicht bestimmt werden, weil er keine Nullwerte zulässt und keinen Standardwert aufweist.
NO_HANDLER_FOR_UDAF
Kein Handler für UDAF „<functionName>
“. Verwenden Sie stattdessen sparkSession.udf.register(...).
NO_MERGE_ACTION_SPECIFIED
Nach „df.mergeInto“ muss mindestens eine der folgenden Optionen folgen:whenMatched, whenNotMatched, whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: keiner zugewiesen
Für den Pfad „<path>
“ wurde kein übergeordneter externer Speicherort gefunden. Erstellen Sie einen externen Speicherort unter einem der übergeordneten Pfade, und wiederholen Sie dann die Abfrage oder den Befehl.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
<catalystFieldPath>
kann Im Protobuf-Schema nicht gefunden werden.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: keiner zugewiesen
Beim Generieren von Tabellenanmeldeinformationen wurde kein Speicherort für die Tabelle „<tableId>
“ gefunden. Überprüfen Sie den Tabellentyp und die URL des Tabellenspeicherorts, und wiederholen Sie dann die Abfrage oder den Befehl.
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE: keiner zugewiesen
Der Katalog „<catalog>
“ wurde nicht gefunden. Überprüfen Sie den Katalognamen, und wiederholen Sie dann die Abfrage oder den Befehl.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: keiner zugewiesen
Der Reinraum "<cleanroom>
" ist nicht vorhanden. Überprüfen Sie, ob der Reinraumname richtig geschrieben ist und dem Namen eines gültigen vorhandenen Reinraumes entspricht, und wiederholen Sie dann die Abfrage oder den Befehl.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: keiner zugewiesen
Der externe Speicherort „<externalLocation>
“ ist nicht vorhanden. Vergewissern Sie sich, dass der Name des externen Speicherorts korrekt ist, und wiederholen Sie dann die Abfrage oder den Befehl.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: keiner zugewiesen
Der Metastore wurde nicht gefunden. Bitten Sie Ihre Kontoadministrator*innen, dem aktuellen Arbeitsbereich einen Metastore zuzuweisen, und wiederholen Sie dann die Abfrage oder den Befehl.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: keiner zugewiesen
Der Freigabeanbieter „<providerName>
“ ist nicht vorhanden. Überprüfen Sie, ob der Name des Freigabeanbieters richtig geschrieben ist und dem Namen eines gültigen vorhandenen Anbieters entspricht, und wiederholen Sie dann die Abfrage oder den Befehl.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: keiner zugewiesen
Der Empfänger „<recipient>
“ ist nicht vorhanden. Vergewissern Sie sich, dass der Empfängername richtig geschrieben ist und dem Namen eines gültigen vorhandenen Empfängers entspricht, und wiederholen Sie dann die Abfrage oder den Befehl.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: keiner zugewiesen
Die Freigabe „<share>
“ ist nicht vorhanden. Überprüfen Sie, ob der Freigabename richtig geschrieben ist und dem Namen einer gültigen vorhandenen Freigabe entspricht, und wiederholen Sie dann die Abfrage oder den Befehl.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: keiner zugewiesen
Die Speicheranmeldeinformationen „<storageCredential>
“ sind nicht vorhanden. Überprüfen Sie, ob der Name für die Speicheranmeldeinformationen richtig geschrieben ist und dem Namen gültiger vorhandener Speicheranmeldeinformation entspricht, und wiederholen Sie dann die Abfrage oder den Befehl.
NO_SUCH_USER_EXCEPTION
SQLSTATE: keiner zugewiesen
Der/die Benutzer*in „<userName>
“ ist nicht vorhanden. Vergewissern Sie sich, dass Benutzer*innen, für die Sie Berechtigungen zuweisen oder den Besitz ändern möchten, richtig geschrieben sind und den Namen gültiger vorhandener Benutzer*innen entsprechen, und wiederholen Sie dann die Abfrage oder den Befehl.
NO_UDF_INTERFACE
UDF-Klasse <className>
implementiert keine UDF-Schnittstelle.
NULLABLE_COLUMN_OR_FIELD
Spalte oder Feld <name>
lässt Nullwerte zu, obwohl sie/es keine Nullwerte zulassend darf.
NULLABLE_ROW_ID_ATTRIBUTES
Zeilen-ID-Attribute dürfen keine Nullwerte zulassen: <nullableRowIdAttrs>
.
NULL_DATA_SOURCE_OPTION
Die Option "Datenquellenlese-/Schreibzugriff" <option>
darf keinen Nullwert aufweisen.
NULL_MAP_KEY
Null kann nicht als Zuordnungsschlüssel verwendet werden.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
"Direkt ausführen" erfordert eine Variable ohne Null als Abfragezeichenfolge, die angegebene Variable <varName>
ist jedoch NULL.
NUMERIC_OUT_OF_SUPPORTED_RANGE
Der Wert <value>
kann nicht als numerischer Wert interpretiert werden, da er mehr als 38 Ziffern aufweist.
NUMERIC_VALUE_OUT_OF_RANGE
Weitere Details finden Sie unter NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator>
kann nur für Eingaben mit der gleichen Anzahl von Spalten ausgeführt werden, aber die erste Eingabe enthält <firstNumColumns>
Spalten, und die <invalidOrdinalNum>
-Eingabe enthält <invalidNumColumns>
Spalten.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Die Anzahl der angegebenen Aliase stimmt nicht mit der Anzahl der Ausgabespalten überein.
Funktionsname: <funcName>
, Anzahl der Aliase: <aliasesNum>
, Anzahl der Ausgabespalten: <outColsNum>
.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Es wurde kein benutzerdefinierter Identitätsanspruch bereitgestellt.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
Das Aufrufen der Funktion <functionName>
wird in diesem <location>
nicht unterstützt. <supportedFunctions>
wird hier unterstützt.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
Der SQL-Vorgang <operation>
wird nur für Databricks SQL-Connectors mit Unity-Katalogunterstützung unterstützt.
OPERATION_CANCELED
Der Vorgang wurde abgebrochen.
OPERATION_REQUIRES_UNITY_CATALOG
Der Vorgang <operation>
erfordert die Aktivierung des Unity Catalog.
OP_NOT_SUPPORTED_READ_ONLY
<plan>
wird im schreibgeschützten Sitzungsmodus nicht unterstützt.
ORDER_BY_POS_OUT_OF_RANGE
Die ORDER BY-Position <index>
befindet sich nicht in der Auswahlliste (gültiger Bereich ist [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Es ist nicht möglich, einen Parkettkonverter für den Datentyp <dataType>
zu erstellen, dessen Parketttyp ist <parquetType>
.
Weitere Informationen finden Sie unter PARQUET_CONVERSION_FAILURE
PARSE_EMPTY_STATEMENT
Syntaxfehler, unerwartete leere Anweisung.
PARSE_SYNTAX_ERROR
Syntaxfehler bei oder in der Nähe von <error>
<hint>
.
PARTITIONS_ALREADY_EXIST
Die Partition(en) <partitionList>
können nicht mit ADD oder RENAME TO zur Tabelle <tableName>
hinzugefügt werden, da sie bereits vorhanden sind.
Wählen Sie einen anderen Namen aus, löschen Sie die vorhandene Partition, oder fügen Sie die IF NOT EXISTS-Klausel hinzu, um eine bereits vorhandene Partition zu tolerieren.
PARTITIONS_NOT_FOUND
Die Partition(en) <partitionList>
kann/können in der Tabelle <tableName>
nicht gefunden werden.
Überprüfen Sie die Partitionsspezifikation und den Tabellennamen.
Verwenden Sie ALTER TABLE, um den Fehler beim Löschen zu tolerieren. DROP IF EXISTS PARTITION.
PARTITION_LOCATION_ALREADY_EXISTS
Der Partitionsspeicherort „<locationPath>
“ ist bereits in der Tabelle „<tableName>
“ vorhanden.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Fehler beim Ausführen der ALTER TABLE SET PARTITION LOCATION-Anweisung, da sich der
Partitionsspeicherort „<location>
“ nicht unter dem Tabellenverzeichnis „<table>
“ befindet.
Um dies zu beheben, legen Sie den Speicherort der Partition auf ein Unterverzeichnis von „<table>
“ fest.
PARTITION_METADATA
<action>
ist in der Tabelle <tableName>
nicht zulässig, da das Speichern von Partitionsmetadaten im Unity Catalog nicht unterstützt wird.
PATH_ALREADY_EXISTS
Der Pfad <outputPath>
ist bereits vorhanden. Legen Sie den Modus auf „overwrite“ fest, um den vorhandenen Pfad zu überschreiben.
PATH_NOT_FOUND
Der Pfad ist nicht vorhanden: <path>
.
PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION
Aggregatfunktion <expr>
ist bei Verwendung des Pipeoperators |> nicht zulässig. SELECT-Klausel; bitte verwenden Sie den Rohroperator |> AGGREGATE-Klausel stattdessen
PIVOT_VALUE_DATA_TYPE_MISMATCH
Ungültiger Pivotwert „<value>
“: Wertdatentyp <valueType>
stimmt nicht mit dem Datentyp der Pivotspalte <pivotType>
überein.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
Die Prozedur <procedureName>
erwartet <expected>
Argumente, <actual>
wurden jedoch bereitgestellt.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE mit einer leeren Routinedefinition ist nicht zulässig.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
Der Parameter <parameterName>
wird im Parametermodus <parameterMode>
definiert. OUT- und INOUT-Parameter können beim Aufrufen einer Routine nicht weggelassen werden und unterstützen daher keinen DEFAULT-Ausdruck. Um fortzufahren, entfernen Sie die DEFAULT-Klausel, oder ändern Sie den Parametermodus in IN.
PROCEDURE_NOT_SUPPORTED
Die gespeicherte Prozedur wird nicht unterstützt
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Gespeicherte Prozedur wird mit dem Hive-Metastore nicht unterstützt. Verwenden Sie stattdessen Unity-Katalog.
PROTOBUF_DEPENDENCY_NOT_FOUND
Die Abhängigkeit <dependencyName>
wurde nicht gefunden.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Fehler beim Lesen der Protobuf-Deskriptordatei unter Pfad: <filePath>
.
PROTOBUF_FIELD_MISSING
Die Suche nach <field>
im Protobuf-Schema bei <protobufSchema>
hat <matchSize>
Übereinstimmungen ergeben. Kandidaten: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Im Protobuf-Schema wurde <field>
gefunden, es gibt aber keine Übereinstimmung im SQL-Schema.
PROTOBUF_FIELD_TYPE_MISMATCH
Für des Feld <field>
wurde ein Typenkonflikt gefunden.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Java-Klassen werden für <protobufFunction>
nicht unterstützt. Wenden Sie sich an den Databricks-Support, um mehr über alternative Optionen zu erfahren.
PROTOBUF_MESSAGE_NOT_FOUND
Die Nachricht <messageName>
wurde im Deskriptor nicht gefunden.
PROTOBUF_TYPE_NOT_SUPPORT
Der Protobuf-Typ <protobufType>
ist noch nicht unterstützt.
PS_FETCH_RETRY_EXCEPTION
Die Aufgabe in der PubSub-Abrufstage kann nicht wiederholt werden. Partition <partitionInfo>
in Stage <stageInfo>
, TID <taskId>
.
PS_INVALID_EMPTY_OPTION
<key>
darf keine leere Zeichenfolge sein.
PS_INVALID_KEY_TYPE
Ungültiger Schlüsseltyp für PubSub-Deduplizierung: <key>
.
PS_INVALID_OPTION
Die Option <key>
wird von PubSub nicht unterstützt. Sie kann nur beim Testen verwendet werden.
PS_INVALID_OPTION_TYPE
Ungültiger Typ für <key>
. Für <key>
wird der Typ <type>
erwartet.
PS_INVALID_READ_LIMIT
Ungültiges Leselimit für PubSub-Stream: <limit>
.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Ungültige UnsafeRow zum Decodieren in PubSubMessageMetadata. Gewünschtes Protokollschema: <protoSchema>
. Die UnsafeRow-Eingabe ist möglicherweise beschädigt: <unsafeRow>
.
PS_MISSING_AUTH_INFO
Es wurden keine vollständigen PubSub-Authentifizierungsinformationen gefunden.
PS_MISSING_REQUIRED_OPTION
Erforderliche Option wurde nicht gefunden: <key>
.
PS_MOVING_CHECKPOINT_FAILURE
Fehler beim Verschieben von Rohdaten-Prüfpunktdateien aus <src>
in das Zielverzeichnis: <dest>
.
PS_MULTIPLE_FAILED_EPOCHS
PubSub-Stream kann nicht gestartet werden, weil beim Abrufen mehrere Fehler aufgetreten sind: <failedEpochs>
.
PS_OPTION_NOT_IN_BOUNDS
<key>
muss innerhalb der folgenden Grenzwerte liegen (ausschließlich): <min>
, <max>
.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Freigegebene Cluster unterstützen keine Authentifizierung mit Instanzprofilen. Geben Sie Anmeldeinformationen mithilfe von „.option()“ direkt für den Stream an.
PS_SPARK_SPECULATION_NOT_SUPPORTED
Der PubSub-Quellconnector ist nur im Cluster verfügbar, wenn spark.speculation
deaktiviert ist.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Fehler beim Versuch, ein Abonnement <subId>
zum Thema <topicId>
zu erstellen. Überprüfen Sie, ob ausreichende Berechtigungen zum Erstellen eines Abonnements vorhanden sind, und versuchen Sie es erneut.
PS_UNABLE_TO_PARSE_PROTO
Serialisierte Bytes können nicht geparst werden, um das Protokoll zu generieren.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset wird ohne Angabe eines Limits nicht unterstützt.
PYTHON_DATA_SOURCE_ERROR
Fehler bei der <action>
-Python-Datenquelle <type>
: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Fehler beim Ausführen der Python-Streamingdatenquelle <action>
: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Auf die Verweistabelle kann nicht zugegriffen werden, da eine zuvor zugewiesene Spaltenmaske derzeit nicht mit dem Tabellenschema kompatibel ist. Um fortzufahren, wenden Sie sich an den Besitzer der Tabelle, damit dieser die Richtlinie aktualisiert:
Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Auf die Verweistabelle kann nicht zugegriffen werden, da eine zuvor zugewiesene Sicherheitsrichtlinie auf Zeilenebene derzeit nicht mit dem Tabellenschema kompatibel ist. Um fortzufahren, wenden Sie sich an den Besitzer der Tabelle, damit dieser die Richtlinie aktualisiert:
Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
READ_CURRENT_FILE_NOT_FOUND
<message>
Möglicherweise wurden die zugrunde liegenden Dateien aktualisiert. Sie können den Cache in Spark explizit ungültig machen, indem Sie den Befehl „REFRESH TABLE tableName“ in SQL ausführen oder das betroffene Dataset/DataFrame neu erstellen.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
Der Aufruf der Funktion <functionName>
hat <parameterName>
und <alternativeName>
festgelegt, welche Aliase voneinander sind. Legen Sie nur einen davon fest.
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
Der erforderliche Parameter <parameterName>
für die Funktion <functionName>
muss an der Position <expectedPos>
ohne den Namen zugewiesen werden.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Es werden nur TIMESTAMP
/TIMESTAMP_LTZ/TIMESTAMP_NTZ-Typen für den Ablaufzeitstempel des Empfängers unterstützt.
RECURSIVE_PROTOBUF_SCHEMA
Ein rekursiver Verweis wurde im Protobuf-Schema gefunden, der von Spark standardmäßig nicht verarbeitet werden kann: <fieldDescriptor>
. Versuchen Sie, die Option recursive.fields.max.depth
1 auf 10 festzulegen. Es ist nicht zulässig, über 10 Ebenen der Rekursion hinauszugehen.
RECURSIVE_VIEW
Rekursive Ansicht <viewIdent>
erkannt (Zyklus: <newPath>
).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Verweise auf DEFAULT-Spaltenwerte sind innerhalb der PARTITION-Klausel nicht zulässig.
RELATION_LARGER_THAN_8G
Eine <relationName>
, die größer als 8G ist, kann nicht erstellt werden.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Fehler bei der HTTP-Remoteanforderung mit Code <errorCode>
und Fehlermeldung <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Fehler beim Auswerten der SQL-Funktion <functionName>
, da das JSON-Ergebnis aus der Remote-HTTP-Antwort nicht geparst werden kann. Die Fehlermeldung lautet <errorMessage>
. Weitere Informationen finden Sie in der REST-API-Dokumentation: <docUrl>
. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Fehler beim Auswerten der SQL-Funktion <functionName>
, da die unerwartete Remote-HTTP-Antwort nicht verarbeitet werden kann. Die Fehlermeldung lautet <errorMessage>
. Weitere Informationen finden Sie in der REST-API-Dokumentation: <docUrl>
. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
Fehler bei der Remoteanforderung nach <N>
Wiederholungsversuchen. Der letzte HTTP-Fehlercode war <errorCode>
, und die Meldung lautete <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Fehler beim Auswerten der SQL-Funktion <functionName>
, aufgrund von <errorMessage>
. Überprüfen Sie die Anforderungen in <docUrl>
. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage.
RENAME_SRC_PATH_NOT_FOUND
Fehler beim Umbenennen, da <sourcePath>
nicht gefunden wurde.
REPEATED_CLAUSE
Die <clause>
-Klausel kann höchstens einmal pro <operation>
-Vorgang verwendet werden.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
Der erforderliche Parameter <parameterName>
für die Funktion <functionName>
wurde an der Position <positionalIndex>
ohne den Namen zugewiesen.
Aktualisieren Sie den Funktionsaufruf, um entweder das benannte Argument für <parameterName>
diesen Parameter zu entfernen oder entfernen Sie das
Positionsargument bei <positionalIndex>
und versuchen Sie es dann nochmal.
REQUIRED_PARAMETER_NOT_FOUND
Die Funktion <functionName>
kann nicht aufgerufen werden, weil der Parameter <parameterName>
erforderlich ist, aber im Funktionsaufruf kein Wert bereitgestellt wurde. Aktualisieren Sie den Funktionsaufruf, sodass ein Argumentwert (entweder über die Position am Index <index>
oder den Namen) angegeben wird, und wiederholen Sie die Abfrage.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
erfordert einen einteiligen Namespace, er hat aber <namespace>
.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
Die DataFrame-API-Leseoption "rescuedDataColumn" schließt sich gegenseitig mit der DataFrame-API-Option "singleVariantColumn" aus.
Entfernen Sie einen dieser Elemente, und wiederholen Sie dann den DataFrame-Vorgang erneut.
RESERVED_CDC_COLUMNS_ON_WRITE
Der Schreibvorgang umfasst reservierte Spalten <columnList>
, die
intern als Metadaten für den Änderungsdatenfeed verwendet werden. Zum Schreiben in die Tabelle müssen Sie diese Spalten entweder umbenennen/entfernen
oder den Änderungsdatenfeed in der Tabelle deaktivieren, indem
<config>
auf FALSCH festgelegt wird.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
Die Option <option>
hat eingeschränkte Werte für freigegebene Cluster für die Quelle <source>
.
Weitere Informationen finden Sie unter RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.
ROUTINE_ALREADY_EXISTS
Der <newRoutineType>
<routineName>
Name kann nicht erstellt werden, da bereits ein <existingRoutineType>
Name vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie den vorhandenen <existingRoutineType>
Namen ab, oder ersetzen Sie die IF NOT EXISTS-Klausel, um eine bereits vorhandene <newRoutineType>
Klausel zu tolerieren.
ROUTINE_NOT_FOUND
Die Routine <routineName>
kann nicht gefunden werden. Überprüfen Sie die Schreibweise und Korrektheit des Schemas und des Katalogs.
Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Um den Fehler beim Löschen zu tolerieren, verwenden Sie DROP … IF EXISTS.
ROUTINE_PARAMETER_NOT_FOUND
Die Funktion <functionName>
unterstützt den Parameter <parameterName>
nicht, der an der Position <pos>
angegeben ist.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
Die Funktion <routineName>
kann nicht erstellt werden, da der angegebene Klassenname „<className>
“ für die Systemverwendung reserviert ist. Bitte benennen Sie die Klasse um, und versuchen Sie es erneut.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Das Erstellen einer CHECK-Einschränkung für die Tabelle <tableName>
mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Eine <statementType>
-Anweisung hat versucht, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber zwei oder mehr Spalten, auf die verwiesen wird, hatten denselben Namen <columnName>
. Dies ist ungültig.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Sicherheitsrichtlinien auf Zeilenebene für <tableName>
werden nicht unterstützt:
Weitere Details finden Sie unter ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
<statementType>
<columnName>
können nicht aus der Tabelle <tableName>
übernommen werden, da sie in einer Sicherheitsrichtlinie auf Zeilenebene referenziert werden. Der Tabellenbesitzer muss diese Richtlinie entfernen oder ändern, bevor er fortfährt.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO-Vorgänge unterstützen keine Sicherheitsrichtlinien auf Zeilenebene in der Quelltabelle <tableName>
.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO-Vorgänge unterstützen das Schreiben in die Tabelle <tableName>
mit Sicherheitsrichtlinien auf Zeilenebene nicht.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Diese Anweisung hat versucht, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber die Spalte <columnName>
, auf die verwiesen wird, hatte mehrere Namensteile, was ungültig ist.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Sicherheitsrichtlinien auf Zeilenebene werden nur in Unity Catalog unterstützt.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
Ein <mode>
-Klon aus der Tabelle <tableName>
mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
Ein <mode>
-Klon in die Tabelle <tableName>
mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Die Verwendung einer Konstante als Parameter in einer Sicherheitsrichtlinie auf Zeilenebene wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Zeilenfilterdefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Fehler beim Ausführen des Befehls <statementType>
, da das Zuweisen von Sicherheitsrichtlinien auf Zeilenebene für eine Zieldatenquelle mit dem Tabellenanbieter <provider>
nicht unterstützt wird.
ROW_SUBQUERY_TOO_MANY_ROWS
Mehr als eine Zeile, die von einer Teilabfrage zurückgegeben wurden, werden als Zeile verwendet.
ROW_VALUE_IS_NULL
Es wurde NULL in einer Zeile am Index <index>
gefunden, wobei ein Wert ungleich NULL erwartet wurde.
RULE_ID_NOT_FOUND
Für den Regelnamen „<ruleName>
“ wurde keine ID gefunden. Ändern Sie „RuleIdCollection.scala“, wenn Sie eine neue Regel hinzufügen.
SAMPLE_TABLE_PERMISSIONS
Berechtigungen werden in Beispieldatenbanken/-tabellen nicht unterstützt.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
Die korrelierte Skalarunterabfrage <sqlExpr>
ist weder in GROUP BY noch in einer Aggregatfunktion vorhanden.
Fügen Sie sie GROUP BY anhand der Ordnungsposition hinzu, oder umschließen Sie sie in first()
(oder first_value
), wenn der Ergebniswert nicht relevant ist.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Mehr als eine Zeile, die von einer Teilabfrage zurückgegeben wurden, wird als Ausdruck verwendet.
SCHEDULE_PERIOD_INVALID
Der Zeitplanzeitraum <timeUnit>
muss ein ganzzahliger Wert zwischen 1 und <upperBound>
(einschließlich) sein. Empfangen: <actual>
.
SCHEMA_ALREADY_EXISTS
Das Schema <schemaName>
kann nicht erstellt werden, da es bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, löschen Sie das vorhandene Schema, oder fügen Sie die IF NOT EXISTS-Klausel hinzu, um bereits vorhandene Schemas zu tolerieren.
SCHEMA_NOT_EMPTY
Ein Schema <schemaName>
kann nicht gelöscht werden, da es Objekte enthält.
Verwenden Sie DROP SCHEMA ... CASCADE, um das Schema und alle zugehörigen Objekte zu löschen.
SCHEMA_NOT_FOUND
Das Schema <schemaName>
kann nicht gefunden werden. Überprüfen Sie die Schreibweise und Korrektheit des Schemas und des Katalogs.
Wenn Sie den Namen nicht mit einem Katalog qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen Katalog.
Verwenden Sie DROP SCHEMA IF EXISTS, um den Fehler beim Löschen zu tolerieren.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Das Schema aus der Schemaregistrierung konnte nicht initialisiert werden. <reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Das zweite Argument der <functionName>
-Funktion muss eine ganze Zahl sein.
SECRET_FUNCTION_INVALID_LOCATION
Der <commandType>
-Befehl mit einem oder mehreren nicht verschlüsselten Verweisen auf die SECRET-Funktion kann nicht ausgeführt werden. Bitte verschlüsseln Sie das Ergebnis jedes solchen Funktionsaufrufs mit AES_ENCRYPT, und versuchen Sie den Befehl erneut
SEED_EXPRESSION_IS_UNFOLDABLE
Der Seedausdruck <seedExpr>
des Ausdrucks <exprWithSeed>
muss faltbar sein.
SERVER_IS_BUSY
Der Server ist ausgelastet und konnte die Anforderung nicht verarbeiten. Warten Sie einen Moment, und versuchen Sie es noch mal.
SORT_BY_WITHOUT_BUCKETING
sortBy muss zusammen mit bucketBy verwendet werden.
SPARK_JOB_CANCELLED
Auftrag <jobId>
abgebrochen <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
CREATE TABLE ohne explizite Spaltenliste kann keine Bucketing-Informationen angeben.
Verwenden Sie die Form mit expliziter Spaltenliste, und geben Sie Bucketing-Informationen an.
Alternativ können Sie zulassen, dass die Bucketing-Informationen durch das Weglassen der Klausel abgeleitet werden.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
CLUSTER BY und CLUSTERED BY INTO BUCKETS können nicht zusammen angegeben werden.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
CLUSTER BY und PARTITIONED BY können nicht angegeben werden.
SPECIFY_PARTITION_IS_NOT_ALLOWED
CREATE TABLE ohne explizite Spaltenliste kann nicht PARTITIONED BY angeben.
Verwenden Sie die Form mit expliziter Spaltenliste, und geben Sie PARTITIONED BY an.
Alternativ können Sie zulassen, dass die Partitionierung durch das Weglassen der PARTITION BY-Klausel abgeleitet wird.
SQL_CONF_NOT_FOUND
Die SQL-Konfiguration <sqlConf>
kann nicht gefunden werden. Bitte überprüfen Sie, ob die Konfiguration vorhanden ist.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Vorübergehender Fehler beim Zugriff auf den Ziel-Stagingpfad <path>
, bitte versuchen Sie es in einigen Minuten erneut
STAR_GROUP_BY_POS
Die Sternvariable (*) ist in einer Auswahlliste nicht zulässig, wenn für GROUP BY eine Ordinalposition verwendet wird.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Fehler beim Ausführen eines zustandsbehafteten Prozessorvorgangs=<operationType>
mit ungültigem Handle-Zustand=<handleState>
.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Fehler beim Ausführen des zustandsbehafteten Prozessorvorgangs=<operationType>
mit ungültiger TimeMode=<timeMode>
STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY
Der Zustand für denselben Gruppierungsschlüssel kann während der anfänglichen Zustandsbehandlung für zustandsbehafteten Prozessor nicht erneut initialisiert werden. Ungültiger Gruppierungsschlüssel=<groupingKey>
. Überprüfen Sie den Anfangszustand, entfernen Sie doppelte Zeilen und starten Sie die Abfrage neu.
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
Die Statusvariable mit dem Namen <stateVarName>
wurde bereits im StatefulProcessor definiert.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
TTL kann nicht für "state=<stateName>
in timeMode=<timeMode>
" verwendet werden. Verwenden Sie stattdessen "TimeMode.ProcessingTime()".
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
Die TTL-Dauer muss größer als 0 für den Zustandsspeichervorgang=<operationType>
für "state=<stateName>
" sein.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Unbekannter Zeitmodus <timeMode>
. Akzeptierte TimeMode-Modi sind 'none', 'processingTime', 'eventTime'
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Fehler beim Erstellen einer Spaltenfamilie mit nicht unterstütztem Anfangszeichen und Name=<colFamilyName>
.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Fehler beim Ausführen des Spaltenfamilienvorgangs=<operationName>
mit ungültiger Name=<colFamilyName>
. Spaltenfamilienname darf nicht leer sein oder führende/nachfolgende Leerzeichen enthalten oder das reservierte Schlüsselwort=Standard verwenden
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Inkompatible Schematransformation mit column family=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
STATE_STORE_HANDLE_NOT_INITIALIZED
Das Handle wurde für diesen StatefulProcessor nicht initialisiert.
Verwenden Sie den StatefulProcessor nur im Operator transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Falsche Anzahl von Ordnungszahlen=<numOrderingCols>
für Bereichsscan-Encoder. Die Anzahl der Ordnungszahlen darf nicht null oder größer als die Anzahl der Schemaspalten sein.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Falsche Anzahl von Präfixspalten=<numPrefixCols>
für Präfixscan-Encoder. Präfixspalten dürfen nicht null oder größer oder gleich der Anzahl der Schemaspalten sein.
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Zwischen Neustarts kann nicht geändert <oldConfig>
<newConfig>
werden<configName>
. Bitte legen Sie den <configName>
<oldConfig>
Prüfpunkt auf oder starten Sie es mit einem neuen Prüfpunktverzeichnis neu.
STATE_STORE_INVALID_PROVIDER
Der angegebene Status-Speicheranbieter <inputClass>
erweitert nicht org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Zwischen Abfrageneustarts kann nicht geändert werden <stateVarName>
<newType>
. Bitte legen Sie den <stateVarName>
<oldType>
Prüfpunkt auf oder starten Sie es mit einem neuen Prüfpunktverzeichnis neu.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
Nulltyp-Sortierspalte mit name=<fieldName>
bei index=<index>
wird für Bereichsscan-Encoder nicht unterstützt.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
Der angegebene Status-Speicheranbieter <inputClass>
erweitert nicht org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Daher wird die Option "snapshotStartBatchId" oder "readChangeFeed" in der Statusdatenquelle nicht unterstützt.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Zustandsspeichervorgang=<operationType>
wird für fehlende Spaltenfamilie=<colFamilyName>
nicht unterstützt.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Die Sortierspalte variabler Größe mit name=<fieldName>
bei index=<index>
wird für Bereichsscan-Encoder nicht unterstützt.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
Die statische Partitionsspalte <staticName>
wird auch in der Spaltenliste angegeben.
STDS_COMMITTED_BATCH_UNAVAILABLE
Es wurde kein committeter Batch gefunden, Prüfpunktspeicherort: <checkpointLocation>
. Stellen Sie sicher, dass die Abfrage ausgeführt und alle Mikrobatches vor dem Beenden committet wurden.
STDS_CONFLICT_OPTIONS
Die Optionen <options>
können nicht zusammen angegeben werden. Geben Sie eine an.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Fehler beim Lesen der Operatormetadaten für checkpointLocation=<checkpointLocation>
und batchId=<batchId>
.
Die Datei ist entweder nicht vorhanden oder beschädigt.
Führen Sie die Streamingabfrage erneut aus, um die Operatormetadaten zu erstellen, und melden Sie die entsprechenden Communitys oder Anbieter, wenn der Fehler weiterhin besteht.
STDS_FAILED_TO_READ_STATE_SCHEMA
Fehler beim Lesen des Statusschemas. Die Datei ist entweder nicht vorhanden oder beschädigt. Optionen: <sourceOptions>
.
Führen Sie die Streamingabfrage erneut aus, um das Statusschema zu erstellen, und melden Sie den Fehler den entsprechenden Communitys oder Anbietern, falls er weiterhin auftritt.
STDS_INVALID_OPTION_VALUE
Ungültiger Wert für die Quelloption „<optionName>
“:
Weitere Details finden Sie unter STDS_INVALID_OPTION_VALUE.
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
Der Zustand besitzt keine Partition. Überprüfen Sie, ob die Abfrage auf den gültigen Zustand verweist. Optionen: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
Das Offsetprotokoll für <batchId>
ist nicht vorhanden, Prüfpunktspeicherort: <checkpointLocation>
.
Geben Sie die Batch-ID an, die für Abfragen verfügbar ist. Sie können die verfügbaren Batch-IDs mithilfe der Datenquelle für Zustandsmetadaten abfragen.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Für das Offsetprotokoll für <batchId>
sind keine Metadaten vorhanden, Prüfpunktspeicherort: <checkpointLocation>
.
Der Prüfpunkt wird möglicherweise nur mit älteren Spark-Versionen ausgeführt. Führen Sie die Streamingabfrage mit der aktuellen Spark-Version aus, damit Spark die Zustandsmetadaten erstellen kann.
STDS_REQUIRED_OPTION_UNSPECIFIED
„<optionName>
“ muss angegeben werden.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Die Ausführung adaptiver Abfragen wird für zustandsbehaftete Operatoren im strukturierten Streaming nicht unterstützt.
STREAMING_FROM_MATERIALIZED_VIEW
Aus materialisierter Ansicht <viewName>
kann nicht gestreamt werden. Das Streamen von materialisierten Ansichten wird nicht unterstützt.
STREAMING_OUTPUT_MODE
Ungültiger Streamingausgabemodus: <outputMode>
.
Weitere Informationen finden Sie unter STREAMING_OUTPUT_MODE
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
Der Name des Streamingstatusoperators stimmt nicht mit dem Operator in Zustandsmetadaten überein. Dies geschieht wahrscheinlich, wenn der Benutzer den zustandsbehafteten Operator einer vorhandenen Streamingabfrage hinzufügt/entfernt/ändert.
Zustandsbehaftete Operatoren in den Metadaten: [<OpsInMetadataSeq>
]; Zustandsbehaftete Operatoren im aktuellen Batch: [<OpsInCurBatchSeq>
].
STREAMING_TABLE_NEEDS_REFRESH
Die Streamingtabelle <tableName>
muss aktualisiert werden, damit sie ausgeführt <operation>
wird. Bitte führen Sie CREATE OR REFRESH STREAMING TABLE <tableName>
AS aus, um die Tabelle zu aktualisieren.
STREAMING_TABLE_NOT_SUPPORTED
Streamingtabellen können nur in Delta Live Tables und Databricks SQL Warehouses erstellt und aktualisiert werden.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
Der Vorgang <operation>
ist nicht zulässig:
Weitere Informationen finden Sie unter STREAMING_TABLE_OPERATION_NOT_ALLOWED.
STREAMING_TABLE_QUERY_INVALID
Die Streamingtabelle <tableName>
kann nur aus einer Streamingabfrage erstellt werden. Fügen Sie der FROM-Klausel das STREAM-Schlüsselwort hinzu, um diese Beziehung in eine Streamingabfrage umzuwandeln.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Kinesis-Stream <streamName>
in <region>
wurde nicht gefunden.
Starten Sie eine neue Abfrage, die auf den richtigen Streamnamen verweist.
STRUCT_ARRAY_LENGTH_MISMATCH
Die Eingabezeile hat nicht die erwartete Anzahl von Werten, die für das Schema erforderlich sind. <expected>
Felder sind erforderlich, während <actual>
Werte bereitgestellt werden.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
Die Summe der LIMIT-Klausel und der OFFSET-Klausel darf den maximalen ganzzahligen 32-Bit-Wert (2.147.483.647) nicht überschreiten. Gefunden: Limit = <limit>
, Offset = <offset>
.
SYNC_METADATA_DELTA_ONLY
Der Befehl zum Reparieren der Metadaten für die Tabellensynchronisierung wird nur für Delta-Tabellen unterstützt.
SYNC_METADATA_NOT_SUPPORTED
Der Befehl zum Reparieren der Metadaten für die Tabellensynchronisierung wird nur für Unity Catalog-Tabellen unterstützt.
SYNC_SRC_TARGET_TBL_NOT_SAME
Der Quelltabellenname <srcTable>
muss mit dem Namen der Zieltabelle <destTable>
identisch sein.
SYNTAX_DISCONTINUED
Unterstützung der Klausel oder des Schlüsselworts: <clause>
wurde in diesem Kontext nicht mehr unterstützt.
Weitere Informationen finden Sie unter SYNTAX_DISCONTINUED
TABLE_OR_VIEW_ALREADY_EXISTS
Eine Tabelle oder Ansicht <relationName>
kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, löschen Sie das vorhandene Objekt, fügen Sie die IF NOT EXISTS-Klausel hinzu, um bereits vorhandene Objekte zu tolerieren, die OR REPLACE-Klausel hinzuzufügen, um die vorhandene materialisierte Ansicht zu ersetzen, oder fügen Sie die OR REFRESH-Klausel hinzu, um die vorhandene Streamingtabelle zu aktualisieren.
TABLE_OR_VIEW_NOT_FOUND
Die Tabelle oder Ansicht <relationName>
kann nicht gefunden werden. Überprüfen Sie die Schreibweise und Korrektheit des Schemas und des Katalogs.
Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Verwenden Sie DROP VIEW IF EXISTS oder DROP TABLE IF EXISTS, um den Fehler beim Löschen zu tolerieren.
Weitere Details finden Sie unter TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Die Aktion <action>
ist für die benutzerdefinierte SQL-Funktion <functionName>
mit TABLE-Argumenten nicht möglich, weil diese Funktionalität noch nicht implementiert ist.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Fehler beim Analysieren der benutzerdefinierten Python-Tabellenfunktion: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Fehler beim Auswerten der Tabellenfunktion <functionName>
, da die Tabellenmetadaten <requestedMetadata>
sind, aber der Funktionsaufruf <invalidFunctionCallProperty>
.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Fehler beim Auswerten der Tabellenfunktion <functionName>
, da die Tabellenmetadaten ungültig waren; <reason>
.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Es liegen zu viele Tabellenargumente für die Tabellenwertfunktion vor.
Ein Tabellenargument ist zulässig, sie enthielt jedoch Folgendes: <num>
.
Wenn Sie dies zulassen möchten, legen Sie „spark.sql.allowMultipleTableArguments.enabled“ auf TRUE fest.
TABLE_WITH_ID_NOT_FOUND
Die Tabelle mit der ID <tableId>
kann nicht gefunden werden. Überprüfen Sie die Richtigkeit der UUID.
TASK_WRITE_FAILED
Aufgabenfehler beim Schreiben von Zeilen in <path>
.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Die temporäre Ansicht <relationName>
kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, löschen oder ersetzen Sie die vorhandene Ansicht, oder fügen Sie die IF NOT EXISTS-Klausel hinzu, um bereits vorhandene Ansichten zu tolerieren.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW oder die entsprechenden Dataset-APIs akzeptieren nur einteilige Ansichtsnamen, enthalten aber: <actualName>
.
UC_BUCKETED_TABLES
In Unity Catalog werden keine Buckettabellen unterstützt.
UC_CATALOG_NAME_NOT_PROVIDED
Geben Sie für Unity Catalog den Katalognamen explizit an. Beispiel: SHOW GRANT your.address@email.com
ON CATALOG main.
UC_COMMAND_NOT_SUPPORTED
In Unity Catalog werden folgende Befehle nicht unterstützt: <commandName>
.
Weitere Details finden Sie unter UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Die Befehle: <commandName>
werden für Unity-Katalogcluster im Modus für den freigegebenen Zugriff nicht unterstützt. Verwenden Sie stattdessen den Einzelbenutzer-Zugriffsmodus.
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Die angegebene Anmeldeinformationsart wird nicht unterstützt.
UC_DATASOURCE_NOT_SUPPORTED
Das Datenquellenformat <dataSourceFormatName>
wird in Unity Catalog nicht unterstützt.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Datenquellenoptionen werden in Unity Catalog nicht unterstützt.
UC_EXTERNAL_VOLUME_MISSING_LOCATION
DIE LOCATION-Klausel muss für ein externes Volume vorhanden sein. Bitte überprüfen Sie die Syntax „CREATE EXTERNAL VOLUME … LOCATION …“ zum Erstellen eines externen Volumes.
UC_FAILED_PROVISIONING_STATE
Fehler bei der Abfrage, weil versucht wurde, auf die Tabelle <tableName>
zu verweisen, dies konnte jedoch nicht ausgeführt werden: <failureReason>
. Aktualisieren Sie die Tabelle <tableName>
, um sicherzustellen, dass sie sich in einem aktiven Bereitstellungsstatus befindet, und wiederholen Sie dann die Abfrage erneut.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Das Erstellen einer Tabelle in Unity Catalog mit dem Dateischema <schemeName>
wird nicht unterstützt.
Erstellen Sie stattdessen mithilfe des Befehls CREATE CONNECTION eine Verbunddatenquellen-Verbindung für denselben Tabellenanbieter, und erstellen Sie dann basierend auf der Verbindung einen Katalog mit einem CREATE FOREIGN CATALOG-Befehl, um auf die darin enthaltenen Tabellen zu verweisen.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Die Struktur-Metastore-Verbundansicht unterstützt keine Abhängigkeiten über mehrere Kataloge hinweg. Die Ansicht <view>
im Hive-Metastore-Verbundkatalog muss Abhängigkeiten aus hive_metastore oder spark_catalog Katalog verwenden, ihre Abhängigkeit <dependency>
befindet sich jedoch in einem anderen Katalog <referencedCatalog>
. Aktualisieren Sie die Abhängigkeiten, um diese Einschränkung zu erfüllen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Der Hive-Metastore-Verbund ist in diesem Cluster nicht aktiviert.
Der Zugriff auf den Katalog <catalogName>
wird in diesem Cluster nicht unterstützt.
UC_INVALID_DEPENDENCIES
Abhängigkeiten von <viewName>
werden als <storedDeps>
aufgezeichnet, während sie als <parsedDeps>
geparst werden. Dies ist wahrscheinlich durch unsachgemäße Verwendung einer Nicht-SQL-API aufgetreten. Sie können Abhängigkeiten in Databricks Runtime reparieren, indem Sie ALTER VIEW <viewName>
AS <viewText>
ausführen.
UC_INVALID_NAMESPACE
Geschachtelte oder leere Namespaces werden in Unity Catalog nicht unterstützt.
UC_INVALID_REFERENCE
Auf ein Objekt <name>
, das nicht aus Unity Catalog stammt, kann nicht in Unity Catalog-Objekten verwiesen werden.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Unity Catalog Lakehouse Federation-Schreibunterstützung ist für den Anbieter <provider>
in diesem Cluster nicht aktiviert.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Das verwaltete Volume akzeptiert keine LOCATION-Klausel. Bitte überprüfen Sie die Syntax „CREATE VOLUME …“ zum Erstellen eines verwalteten Volumes.
UC_NOT_ENABLED
Unity Catalog ist auf diesem Cluster nicht aktiviert.
UC_QUERY_FEDERATION_NOT_ENABLED
Der Unity Catalog-Abfrageverbund ist in diesem Cluster nicht aktiviert.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
Dienstanmeldeinformationen sind für diesen Cluster nicht aktiviert.
UC_VOLUMES_NOT_ENABLED
Die Unterstützung für Unity Catalog-Volumes ist auf dieser Instanz nicht aktiviert.
UC_VOLUMES_SHARING_NOT_ENABLED
Die Unterstützung für die Volumefreigabe ist für diese Instanz nicht aktiviert.
UC_VOLUME_NOT_FOUND
Das Volume <name>
ist nicht vorhanden. Bitte verwenden Sie „SHOW VOLUMES“, um verfügbare Volumes aufzulisten.
UDF_ERROR
SQLSTATE: keiner zugewiesen
Fehler bei der Ausführung der <fn>
-Funktion.
Weitere Informationen finden Sie unter UDF_ERROR.
UDF_LIMITS
Mindestens ein UDF-Grenzwert wurde verletzt.
Weitere Informationen finden Sie unter UDF_LIMITS.
UDF_MAX_COUNT_EXCEEDED
Der abfrageweite UDF-Grenzwert von <maxNumUdfs>
UDFs wurde überschritten (während der öffentlichen Vorschau beschränkt). Es wurde <numUdfs>
gefunden. Die UDFs waren: <udfNames>
.
UDF_PYSPARK_ERROR
Python-Worker wurde unerwartet beendet
Weitere Details finden Sie unter UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark-UDF <udf>
(<eval-type>
) wird auf Clustern im Modus für geteilten Zugriff nicht unterstützt.
UDF_PYSPARK_USER_CODE_ERROR
Fehler bei der Ausführung.
Weitere Informationen finden Sie unter UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Der Parameterstandardwert wird für die benutzerdefinierte <functionType>
-Funktionen nicht unterstützt.
UDF_USER_CODE_ERROR
Fehler bei der Ausführung der Funktion <fn>
.
Weitere Details finden Sie unter UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
Die Anzahl von Aliasen, die in der AS-Klausel angegeben werden, stimmt nicht mit der Anzahl der von der UDTF ausgegebenen Spalten überein.
Es wurden <aliasesSize>
Aliase erwartet, aber <aliasesNames>
erhalten.
Stellen Sie sicher, dass die Anzahl der bereitgestellten Aliase mit der Anzahl der Spalten übereinstimmt, die von der UDTF ausgegeben werden.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die analyze-Methode eine angeforderte OrderingColumn zurückgegeben hat, deren Spaltennameausdruck den unnötigen Alias <aliasName>
enthielt. Entfernen Sie diesen Alias, und versuchen Sie es dann erneut.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die 'analyze'-Methode einen angeforderten 'select'-Ausdruck (<expression>
) zurückgegeben hat, der keinen entsprechenden Alias enthält. Aktualisieren Sie die UDTF, um dort einen Alias anzugeben, und versuchen Sie es dann erneut.
UNABLE_TO_ACQUIRE_MEMORY
Fehler beim Abrufen von <requestedBytes>
Bytes aus dem Arbeitsspeicher, empfangen <receivedBytes>
.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Der SQL-Typ <toType>
kann nicht in den Protobuf-Typ <protobufType>
konvertiert werden.
UNABLE_TO_FETCH_HIVE_TABLES
Tabellen der Hive-Datenbank: <dbName>
können nicht abgerufen werden. Fehlerklassenname: <className>
.
UNABLE_TO_INFER_SCHEMA
Schema für <format>
kann nicht abgeleitet werden. Es muss manuell angegeben werden.
UNAUTHORIZED_ACCESS
Nicht autorisierter Zugriff:
<report>
UNBOUND_SQL_PARAMETER
Der folgende ungebundene Parameter wurde gefunden: <name>
. Beheben Sie args
, und geben Sie eine Zuordnung des Parameters entweder zu einem SQL-Literal oder zu Sammlungskonstruktorfunktionen wie z. B.map()
, array()
, struct()
an.
UNCLOSED_BRACKETED_COMMENT
Es wurde ein nicht eingeschlossener Kommentar in Klammern gefunden. Fügen Sie */ am Ende des Kommentars an.
UNEXPECTED_INPUT_TYPE
Der Parameter <paramIndex>
der Funktion <functionName>
erfordert den <requiredType>
-Typ, <inputSql>
weist jedoch den Typ <inputType>
auf .
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Unerwarteter Operator <op>
in der CREATE VIEW-Anweisung als Streamingquelle.
Eine Streamingansichtsabfrage darf nur aus SELECT-, WHERE- und UNION ALL-Vorgängen bestehen.
UNEXPECTED_POSITIONAL_ARGUMENT
Die Funktion <functionName>
kann nicht aufgerufen werden, weil sie positionelle Argumente enthält, die dem benannten Argument folgen, das <parameterName>
zugewiesen ist. Ordnen Sie sie neu an, sodass die positionellen Argumente am Anfang stehen, und wiederholen Sie dann die Abfrage.
UNEXPECTED_SERIALIZER_FOR_CLASS
Die <className>
-Klasse weist einen unerwarteten Ausdrucksserialisierer auf. Erwartet wurde „STRUCT
“ oder „IF“ (gibt „STRUCT
“ zurück), gefunden wurde aber <expr>
.
UNKNOWN_FIELD_EXCEPTION
Unbekannte Felder während dem Parsen von <unknownFieldBlob>
, was durch eine automatische Wiederholung behoben werden kann: <isRetryable>
Weitere Details finden Sie unter UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
Der Aufruf der Funktion <functionName>
enthält ein unbekanntes positionelles Argument <sqlExpr>
an der Position <pos>
. Dies ist ungültig.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Unbekannter Grundtyp mit ID <id>
wurde in einem Variant-Wert gefunden.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Es wurde versucht, <descriptorName>
als Nachricht zu behandeln, es war jedoch <containingType>
.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT erfordert, dass alle angegebenen <given>
-Ausdrücke Spalten sind, wenn keine <empty>
-Ausdrücke angegeben werden. Dies sind keine Spalten: [<expressions>
].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Für UNPIVOT muss mindestens eine Wertspalte angegeben werden, alle anderen Spalten sind als IDs angegeben.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
UNPIVOT-Wertspalten müssen mindestens einen allgemeinen Typ teilen, dies ist für einige Typen nicht der Fall: [<types>
].
UNPIVOT_VALUE_SIZE_MISMATCH
Alle UNPIVOT-Wertspalten müssen dieselbe Größe aufweisen wie Wertspaltennamen (<names>
).
UNRECOGNIZED_PARAMETER_NAME
Die Funktion <functionName>
kann nicht aufgerufen werden, weil der Funktionsaufruf einen benannten Argumentverweis für das Argument namens <argumentName>
enthielt. Diese Funktion umfasst jedoch keine Signatur, die ein Argument mit diesem Namen enthält. Meinten Sie Folgendes? [<proposal>
].
UNRECOGNIZED_SQL_TYPE
Nicht erkannter SQL-Typ – Name: <typeName>
, ID: <jdbcType>
.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
<name>
konnte nicht in eine Tabellenwertfunktion aufgelöst werden.
Stellen Sie sicher, dass <name>
als Tabellenwertfunktion definiert ist und dass alle erforderlichen Parameter ordnungsgemäß bereitgestellt werden.
Wenn <name>
nicht definiert ist, erstellen Sie die Tabellenwertfunktion, bevor Sie sie verwenden.
Weitere Informationen zum Definieren von Tabellenwertfunktionen finden Sie in der Apache Spark-Dokumentation.
UNRESOLVED_ALL_IN_GROUP_BY
Gruppierungsspalten für GROUP BY ALL können nicht basierend auf der SELECT-Klausel abgeleitet werden. Geben Sie die Gruppierungsspalten explizit an.
UNRESOLVED_COLUMN
Eine Spalte, eine Variable oder ein Funktionsparameter namens <objectName>
kann nicht aufgelöst werden.
Weitere Informationen finden Sie unter UNRESOLVED_COLUMN.
UNRESOLVED_FIELD
Ein Feld mit Name <fieldName>
kann nicht mit der Strukturtypspalte <columnPath>
aufgelöst werden.
Weitere Informationen finden Sie unter UNRESOLVED_FIELD.
UNRESOLVED_MAP_KEY
Die Spalte <objectName>
kann nicht als Zuordnungsschlüssel aufgelöst werden. Wenn der Schlüssel ein Zeichenfolgenliteral ist, schließen Sie ihn in einzelne Anführungszeichen (“)ein.
Weitere Informationen finden Sie unter UNRESOLVED_MAP_KEY.
UNRESOLVED_ROUTINE
Die Routine <routineName>
im Suchpfad <searchPath>
kann nicht aufgelöst werden.
Weitere Details finden Sie unter UNRESOLVED_FIELD
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING-Spalte <colName>
kann nicht auf der <side>
-Seite des Join aufgelöst werden. Die <side>
-seitigen Spalten: [<suggestion>
].
UNRESOLVED_VARIABLE
Die Variable <variableName>
im Suchpfad <searchPath>
kann nicht aufgelöst werden.
UNSUPPORTED_ADD_FILE
Das Hinzufügen von Dateien wird nicht unterstützt.
Weitere Informationen finden Sie unter UNSUPPORTED_ADD_FILE.
UNSUPPORTED_ARROWTYPE
Nicht unterstützter Pfeiltyp <typeName>
.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
Die Funktion <funcName>
unterstützt keine Batchabfragen.
UNSUPPORTED_CALL
Die Methode "<methodName>
" der Klasse "<className>
" kann nicht aufgerufen werden.
Weitere Informationen finden Sie unter UNSUPPORTED_CALL.
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
Der Typ char/varchar kann nicht im Tabellenschema verwendet werden.
Wenn Sie möchten, dass Spark diesen Datentyp als Zeichenfolgentyp wie Spark 3.0 und früher behandelt, legen Sie „spark.sql.legacy.charVarcharAsString“ auf „true“ fest.
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause>
wird für <operation>
nicht unterstützt.
UNSUPPORTED_COLLATION
Die <collationName>
-Sortierung wird nicht unterstützt für:
Weitere Informationen finden Sie unter UNSUPPORTED_COLLATION.
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
Der gemeinsame Vorgänger von Quellpfad und sourceArchiveDir muss bei UC registriert werden.
Wenn diese Fehlermeldung angezeigt wird, registrieren Sie den Quellpfad und sourceArchiveDir möglicherweise an verschiedenen externen Speicherorten.
Platzieren Sie sie in einem einzigen externen Speicherort.
UNSUPPORTED_CONSTRAINT_CLAUSES
Die Einschränkungsklauseln <clauses>
werden nicht unterstützt.
UNSUPPORTED_CONSTRAINT_TYPE
Der Einschränkungstyp wird nicht unterstützt. Nur <supportedConstraintTypes>
werden unterstützt
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Nicht unterstützter Datenquellentyp für direkte Abfragen von Dateien: <dataSourceType>
UNSUPPORTED_DATATYPE
Nicht unterstützter Datentyp <typeName>
.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
Die Datenquelle „<source>
“ kann nicht im <createMode>
-Modus geschrieben werden. Verwenden Sie stattdessen den Modus „Anfügen“ oder „Überschreiben“.
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
Die <format>
-Datenquelle unterstützt die Spalte <columnName>
vom Typ <columnType>
nicht.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Encoder für <dataType>
kann nicht erstellt werden. Verwenden Sie einen anderen Ausgabedatentyp für Ihre UDF oder DataFrame.
UNSUPPORTED_DEFAULT_VALUE
DEFAULT-Spaltenwerte werden nicht unterstützt.
Weitere Informationen finden Sie unter UNSUPPORTED_DEFAULT_VALUE.
UNSUPPORTED_DESERIALIZER
Der Deserializer wird nicht unterstützt:
Weitere Informationen finden Sie unter UNSUPPORTED_DESERIALIZER.
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Die generierte Spalte <fieldName>
mit Generierungsausdruck <expressionStr>
kann nicht erstellt werden, da <reason>
.
UNSUPPORTED_EXPR_FOR_OPERATOR
Ein Abfrageoperator enthält mindestens einen nicht unterstützten Ausdruck.
Erwägen Sie, die Abfrage erneut zu generieren, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE-Klausel zu vermeiden.
Ungültige Ausdrücke: [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
Ein Abfrageparameter enthält einen nicht unterstützten Ausdruck.
Parameter können Variablen oder Literale sein.
Ungültiger Ausdruck: [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
Der Ausdruck <sqlExpr>
wird innerhalb einer Fensterfunktion nicht unterstützt.
UNSUPPORTED_FEATURE
Das Feature wird nicht unterstützt:
Weitere Informationen finden Sie unter UNSUPPORTED_FEATURE.
UNSUPPORTED_FN_TYPE
Nicht unterstützter benutzerdefinierter Funktionstyp: <language>
UNSUPPORTED_GENERATOR
Der Generator wird nicht unterstützt:
Weitere Informationen finden Sie unter UNSUPPORTED_GENERATOR.
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() kann nur mit GroupingSets/Cube/Rollup verwendet werden.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger>
mit der initialen Position <initialPosition>
wird mit der Kinesis-Quelle nicht unterstützt
UNSUPPORTED_INSERT
Das Einfügen in das Ziel ist nicht möglich.
Weitere Informationen finden Sie unter UNSUPPORTED_INSERT.
UNSUPPORTED_JOIN_TYPE
Nicht unterstützter Verknüpfungstyp '<typ>
'. Unterstützte Verknüpfungstypen sind: <supported>
.
UNSUPPORTED_MANAGED_TABLE_CREATION
Das Erstellen der verwalteten Tabelle <tableName>
mithilfe der Datenquelle <dataSource>
wird nicht unterstützt. Sie müssen DELTA für die Datenquelle verwenden oder eine externe Tabelle erstellen mit CREATE EXTERNAL TABLE <tableName>
… USING <dataSource>
…
UNSUPPORTED_MERGE_CONDITION
Der MERGE-Vorgang enthält eine nicht unterstützte <condName>
-Bedingung.
Weitere Informationen finden Sie unter UNSUPPORTED_MERGE_CONDITION.
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
Die Tabelle <tableName>
verfügt über eine Sicherheitsrichtlinie auf Zeilenebene oder eine Spaltenmaske, die indirekt auf eine andere Tabelle mit einer Sicherheitsrichtlinie auf Zeilenebene oder einer Spaltenmaske verweist. Dies wird nicht unterstützt. Aufrufsequenz: <callSequence>
UNSUPPORTED_OVERWRITE
Das Ziel, aus dem ebenfalls gelesen wird, kann nicht überschrieben werden.
Weitere Details finden Sie unter UNSUPPORTED_OVERWRITE
UNSUPPORTED_SAVE_MODE
Der Speichermodus <saveMode>
wird für Folgendes nicht unterstützt:
Weitere Informationen finden Sie unter UNSUPPORTED_SAVE_MODE.
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
Der Ausgabemodus wird für <statefulOperator>
das Streamen von DataFrames/DataSets ohne Wasserzeichen nicht unterstützt.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Nicht unterstützt für das Streamen einer Ansicht. Ursache:
Weitere Informationen finden Sie unter UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Die Streamingoptionen <options>
werden für eine Datenquelle <source>
in einem freigegebenen Cluster nicht unterstützt. Vergewissern Sie sich, dass die Optionen richtig angegeben und richtig geschrieben sind, und überprüfen Sie aufhttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode Einschränkungen.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
Die Datenquelle <sink>
wird nicht als Streamingsenke in einem freigegebenen Cluster unterstützt.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Die Datenquelle <source>
wird nicht als Streamingquelle in einem freigegebenen Cluster unterstützt.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
Die Funktion <funcName>
unterstützt kein Streaming. Entfernen Sie das STREAM-Schlüsselwort.
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
wird mit der Kinesis-Quelle nicht unterstützt
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Nicht unterstützter Unterabfrageausdruck:
Weitere Informationen finden Sie unter UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY.
UNSUPPORTED_TIMESERIES_COLUMNS
Das Erstellen eines Primärschlüssels mit Zeitreihenspalten wird nicht unterstützt.
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Das Erstellen eines Primärschlüssels mit mehreren <colSeq>
-Zeitreihenspalten wird nicht unterstützt.
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
wird mit der Kinesis-Quelle nicht unterstützt
UNSUPPORTED_TYPED_LITERAL
Literale des Typs <unsupportedType>
werden nicht unterstützt. Folgende Typen werden unterstützt: <supportedTypes>
.
UNTYPED_SCALA_UDF
Sie verwenden eine nicht typisierte Scala-UDF, die keine Informationen zum Eingabetyp enthält.
Spark kann ohne Tests NULL an den Scala-Funktionsabschluss über ein Argument mit einem primitiven Typ übergeben, und der Funktionsabschluss erkennt den Standardwert des Java-Typs für das NULL-Argument, z. B. udf((x: Int) => x, IntegerType)
, das Ergebnis ist für NULL-Eingaben 0. Um diesen Fehler zu beseitigen, gehen Sie wie folgt vor:
- Verwenden Sie typisierte Scala-UDF-APIs (ohne Rückgabetypparameter), z. B.
udf((x: Int) => x)
. - Verwenden Sie Java-UDF-APIs, z. B.
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, wenn alle Eingabetypen nicht primitive Typen sind. - Legen Sie „spark.sql.legacy.allowUntypedScalaUDF“ auf WAHR fest, und verwenden Sie diese API mit Vorsicht.
UPGRADE_NOT_SUPPORTED
Tabelle ist nicht berechtigt für ein Upgrade von Hive-Metastore auf Unity Catalog. Ursache:
Weitere Informationen finden Sie unter UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
Die benutzerdefinierte Funktion ist ungültig:
Weitere Informationen finden Sie unter USER_DEFINED_FUNCTIONS.
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
Die Funktion raise_error()
wurde für das Auslösen der Fehlerklasse: <errorClass>
verwendet, die die Parameter: <expectedParms>
erwartet.
Die bereitgestellten Parameter <providedParms>
stimmen nicht mit den erwarteten Parametern überein.
Stellen Sie sicher, dass alle erwarteten Parameter bereitgestellt werden.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
Die Funktion raise_error()
wurde für das Auslösen einer unbekannten Fehlerklasse: <errorClass>
verwendet
VARIABLE_ALREADY_EXISTS
Die Variable <variableName>
kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen, oder löschen oder ersetzen Sie die vorhandene Variable.
VARIABLE_NOT_FOUND
Die Variable <variableName>
wurde nicht gefunden. Überprüfen Sie die Schreibweise und Korrektheit des Schemas und des Katalogs.
Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Verwenden Sie DROP VIEW IF EXISTS, um den Fehler beim Löschen zu tolerieren.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Es kann kein Variant-Wert erstellt werden, der größer als 16 MiB ist. Die maximal zulässige Größe eines Variant-Werts beträgt 16 MiB.
VARIANT_DUPLICATE_KEY
Fehler beim Erstellen der Variante aufgrund eines doppelten Objektschlüssels <key>
.
VARIANT_SIZE_LIMIT
Die Variante kann nicht größer als <sizeLimit>
in <functionName>
sein.
Vermeiden Sie große Eingabezeichenfolgen für diesen Ausdruck (z. B. Fügen Sie Funktionsaufrufe hinzu, um die Größe des Ausdrucks zu überprüfen und sie zuerst in NULL zu konvertieren, wenn sie zu groß ist).
VIEW_ALREADY_EXISTS
Die Ansicht <relationName>
kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, löschen oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS-Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.
VIEW_EXCEED_MAX_NESTED_DEPTH
Die Tiefe der Ansicht <viewName>
überschreitet die maximale Auflösungstiefe (<maxNestedDepth>
).
Die Analyse wird abgebrochen, um Fehler zu vermeiden. Wenn Sie dies umgehen möchten, versuchen Sie, den Wert von „spark.sql.view.maxNestedViewDepth“ zu erhöhen.
VIEW_NOT_FOUND
Die Ansicht <relationName>
kann nicht gefunden werden. Überprüfen Sie die Schreibweise und Korrektheit des Schemas und des Katalogs.
Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Verwenden Sie DROP VIEW IF EXISTS, um den Fehler beim Löschen zu tolerieren.
VOLUME_ALREADY_EXISTS
Das Volume <relationName>
kann nicht erstellt werden, da es bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, löschen oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS-Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.
WINDOW_FUNCTION_AND_FRAME_MISMATCH
Die Funktion <funcName>
kann nur in einem sortierten zeilenbasierten Fensterrahmen mit einem einzigen Offset ausgewertet werden: <windowExpr>
.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Für die WINDOW-Funktion <funcName>
ist eine OVER-Klausel erforderlich.
WITH_CREDENTIAL
WITH CREDENTIAL-Syntax wird für <type>
nicht unterstützt.
WRITE_STREAM_NOT_ALLOWED
writeStream
kann nur im Dataset/DataFrame für das Streaming aufgerufen werden.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Fehler beim Ausführen des Befehls, da Standardwerte beim Hinzufügen neuer
Spalten zu bereits vorhandenen Delta-Tabellen nicht unterstützt werden. Fügen Sie die Spalte zunächst ohne Standardwert hinzu,
und führen Sie dann stattdessen einen zweiten ALTER TABLE ALTER COLUMN SET DEFAULT-Befehl aus, um
an zukünftige eingefügte Zeilen anzufügen.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Fehler beim Ausführen des Befehls <commandType>
, da ihm ein Spaltenstandardwert zugewiesen wurde,
die entsprechende Tabellenfunktion jedoch nicht aktiviert war. Wiederholen Sie den Befehl,
nachdem Sie ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported') ausgeführt haben.
WRONG_COMMAND_FOR_OBJECT_TYPE
Für den Vorgang <operation>
ist ein <requiredType>
erforderlich. Aber <objectName>
ist ein <foundType>
. Verwenden Sie stattdessen <alternative>
.
WRONG_NUM_ARGS
Der <functionName>
erfordert <expectedNum>
Parameter, aber die tatsächliche Anzahl ist <actualNum>
.
Weitere Informationen finden Sie unter WRONG_NUM_ARGS.
XML_ROW_TAG_MISSING
Die Option <rowTag>
ist zum Lesen von Dateien im XML-Format erforderlich.
XML_UNSUPPORTED_NESTED_TYPES
XML unterstützt <innerDataType>
nicht als inneren Typ von <dataType>
. Umschließen Sie den <innerDataType>
innerhalb eines StructType-Felds, wenn Sie ihn in <dataType>
verwenden.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Wiederhergestellte Daten und Platzhalterspalten können nicht gleichzeitig aktiviert werden. Entfernen Sie die wildcardColumnName-Option.
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy-Spalte <columnName>
ist nicht vorhanden.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Aktive Spark-Sitzung nicht gefunden
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Neue Transaktion kann nicht als aktiv festgelegt werden, wenn bereits eine aktiv ist
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Fehler beim Hinzufügen der Spalte <colName>
, da der Name reserviert ist.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
Beim aktuellen Vorgang wurde versucht, einen Löschvektor zu einer Tabelle hinzuzufügen, welche die Erstellung neuer Löschvektoren nicht zulässt. Bitte reichen Sie einen Fehlerbericht ein.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Alle Vorgänge, die Löschvektoren hinzufügen, sollten die tightBounds-Spalte in Statistiken auf FALSCH festlegen. Bitte reichen Sie einen Fehlerbericht ein.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
Der Index <columnIndex>
zum Hinzufügen der Spalte <columnName>
ist kleiner als 0
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
<columnName>
kann nicht hinzugefügt werden, da das übergeordnete Element kein StructType ist. Es wurde <other>
gefunden
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Struktur wurde an der Position <position>
nicht gefunden
DELTA_ADD_CONSTRAINTS
Verwenden Sie ALTER TABLE ADD CONSTRAINT, um CHECK-Einschränkungen hinzuzufügen.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Es wurde <sqlExpr>
gefunden. Eine generierte Spalte kann keinen Aggregatausdruck verwenden.
DELTA_AGGREGATION_NOT_SUPPORTED
Aggregatfunktionen werden in der <operation>
<predicate>
nicht unterstütz.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Fehler beim Ändern der Sortierung der Spalte <column>
, da sie über einen Bloom-Filterindex verfügt. Bitte behalten Sie entweder die vorhandene Sortierung bei, oder legen Sie den Bloom-Filterindex ab und wiederholen Sie den Befehl, um die Sortierung zu ändern.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Fehler beim Ändern der Sortierung der Spalte <column>
, da es sich um eine Cluster-Spalte handelt. Bitte behalten Sie entweder die vorhandene Sortierung bei, oder ändern Sie die Spalte in eine Spalte ohne Clustering mit einem ALTER TABLE-Befehl, und wiederholen Sie dann den Befehl erneut, um die Sortierung zu ändern.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN wird für das Ändern der Spalte <currentType>
nach <newType>
nicht unterstützt
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY wird für eine Delta-Tabelle mit Liquid Clustering unterstützt.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY kann nicht auf eine partitionierte Tabelle angewandt werden.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Vorgang nicht zulässig: ALTER TABLE RENAME TO ist für verwaltete Delta-Tabellen in S3 nicht zulässig, da die letztliche Konsistenz in S3 das Delta-Transaktionsprotokoll beschädigen kann. Wenn Sie den Vorgang unbedingt durchführen möchten und sicher sind, dass es bisher keine Delta-Tabelle mit dem neuen Namen <newName>
gab, können Sie diese ermöglichen, indem Sie die Einstellung <key>
auf WAHR festlegen.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Das <tableFeature>
Tabellenfeature kann nicht mit ALTER TABLE SET TBLPROPERTIES aktiviert werden. Verwenden Sie CREATE OR REPLACE TABLE CLUSTER BY, um eine Delta-Tabelle mit Clustering zu erstellen.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Der Datentyp von <column>
kann nicht von <from>
in <to>
geändert werden. Diese Änderung beinhaltet das Entfernen und Hinzufügen von Spalten und ist daher mehrdeutig. Bitte nehmen Sie diese Änderungen einzeln mit ALTER TABLE [ADD | DROP | RENAME] COLUMN vor.
DELTA_AMBIGUOUS_PARTITION_COLUMN
Die mehrdeutige Partitionsspalte <column>
kann <colMatches>
sein.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE enthält zwei verschiedene Speicherorte: <identifier>
und <location>
.
Sie können die LOCATION-Klausel aus der CREATE TABLE-Anweisung entfernen oder
<config>
auf TRUE festlegen, um diese Überprüfung zu überspringen.
DELTA_ARCHIVED_FILES_IN_LIMIT
Die Tabelle <table>
enthält nicht genügend Datensätze in nicht archivierten Dateien, um das angegebene LIMIT von <limit>
Datensätzen zu erfüllen.
DELTA_ARCHIVED_FILES_IN_SCAN
Es wurden <numArchivedFiles>
potenziell archivierte Dateien in der Tabelle <table>
gefunden, die im Rahmen dieser Abfrage gescannt werden müssen.
Auf archivierte Dateien kann nicht zugegriffen werden. Die aktuelle Zeit bis zur Archivierung ist als <archivalTime>
konfiguriert.
Bitte passen Sie Ihre Abfragefilter an, um alle archivierte Dateien auszuschließen.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
Der Vorgang „<opName>
“ ist nicht zulässig, wenn die Tabelle den Änderungsdatenfeed (Change Data Feed, CDF) aktiviert hat und Schemaänderungen mithilfe von DROP COLUMN oder RENAME COLUMN vorgenommen wurden.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Bloomfilterindizes für die folgenden nicht vorhandenen Spalten können nicht gelöscht werden: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
Beim Schreiben von Bloom-Filterindizes für die folgende(n) Spalte(n) ist ein OutOfMemoryError-Fehler aufgetreten: <columnsWithBloomFilterIndices>
.
Sie können den Arbeitsspeicherbedarf von Bloom-Filterindizes reduzieren, indem Sie einen kleineren Wert für die Option „numItems“ oder einen größeren Wert für die Option „fpp“ auswählen oder weniger Spalten indizieren.
DELTA_CANNOT_CHANGE_DATA_TYPE
Datentyp <dataType>
kann nicht geändert werden
DELTA_CANNOT_CHANGE_LOCATION
Die Position (location) der Delta-Tabelle kann nicht mithilfe von SET TBLPROPERTIES geändert werden. Verwenden Sie stattdessen ALTER TABLE SET LOCATION.
DELTA_CANNOT_CHANGE_PROVIDER
Der Anbieter (provider) ist eine reservierte Tabelleneigenschaft und kann nicht geändert werden.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Bloomfilterindizes für die folgenden nicht vorhandenen Spalten können nicht erstellt werden: <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
<path>
kann nicht erstellt werden
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Der Verlauf einer Sicht kann nicht beschrieben werden.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Der Bloomfilterindex kann in einer nicht indizierten Spalte nicht entfernt werden: <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Kann die Tabellenfunktion CHECK-Einschränkung nicht weglassen.
Die folgenden Einschränkungen müssen zuerst gelöscht werden: <constraints>
.
DELTA_CANNOT_EVALUATE_EXPRESSION
Der Ausdruck <expression>
kann nicht ausgewertet werden
DELTA_CANNOT_FIND_BUCKET_SPEC
Es wird eine Delta-Buckettabelle erwartet, aber die Bucketspezifikation kann in der Tabelle nicht gefunden werden.
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Code für Ausdruck <expression>
kann nicht generiert werden
DELTA_CANNOT_MODIFY_APPEND_ONLY
Diese Tabelle ist so konfiguriert, dass nur Anfügungen zulässig sind. Wenn Sie Updates oder Löschungen erlauben möchten, verwenden Sie „ALTER TABLE <table_name> SET TBLPROPERTIES (<config>
=false)“.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
Die Eigenschaften der In-Commit-Zeitstempeltabelle können nicht überschreiben oder nicht festgelegt werden, da koordinierte Commits in dieser Tabelle aktiviert sind und von diesen abhängig sind. Entfernen Sie sie ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Die Delta-Tabellenkonfiguration <prop>
kann nicht vom Benutzer angegeben werden
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
Koordinierte Commitkonfigurationen für eine vorhandene Zieltabelle können nicht außer Kraft setzen. Entfernen Sie sie ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Im Transaktionsprotokoll wurde ein URI (<uri>
) gefunden, der nicht in einen relativen Pfad umgewandelt werden kann.
DELTA_CANNOT_RELATIVIZE_PATH
Ein Pfad (<path>
), der nicht mit der aktuellen Eingabe relativiert werden kann, wurde gefunden im
Transaktionsprotokoll gefunden. Wiederholen Sie die Ausführung mit:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<userPath>
”, true)
Führen Sie dann auch Folgendes aus:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<path>
”)
DELTA_CANNOT_RENAME_PATH
<currentPath>
kann nicht in <newPath>
umbenennt werden
DELTA_CANNOT_REPLACE_MISSING_TABLE
Die Tabelle <tableName>
kann nicht ersetzt werden, da sie nicht vorhanden ist. Verwenden Sie CREATE OR REPLACE TABLE, um die Tabelle zu erstellen.
DELTA_CANNOT_RESOLVE_COLUMN
Die Spalte <columnName>
kann nicht in <schema>
aufgelöst werden
DELTA_CANNOT_RESTORE_TABLE_VERSION
Tabelle kann nicht auf Version <version>
wiederhergestellt werden. Verfügbare Versionen: [<startVersion>
, <endVersion>
].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Tabelle kann nicht auf Zeitstempel (<requestedTimestamp>
) wie vor der frühesten verfügbaren Version wiederhergestellt werden. Bitte verwenden Sie einen Zeitstempel nach (<earliestTimestamp>
)
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Die Tabelle kann nicht zum Zeitstempel (<requestedTimestamp>
) wiederhergestellt werden, da dieser nach der neuesten Version liegt. Bitte verwenden Sie einen Zeitstempel vor (<latestTimestamp>
)
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
Die In-Commit-Zeitstempeltabelleneigenschaften können nicht zusammen mit koordinierten Commits festgelegt werden, da letztere von dem früheren abhängig sind und die frühere intern festgelegt werden. Entfernen Sie sie ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Der Speicherort einer pfadbasierten Tabelle kann nicht geändert werden.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Delta.managedDataSkippingStatsColumns kann nicht für eine Nicht-DLT-Tabelle festgelegt werden.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER kann keine koordinierten Commitkonfigurationen aufheben. Wenn Sie eine Tabelle von koordinierten Commits herabstufen möchten, versuchen Sie es bitte erneut.ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Feld %1$s vom Typ %2$s kann nicht aktualisiert werden: Aktualisieren Sie das Element durch Aktualisieren von %2$s.element
DELTA_CANNOT_UPDATE_MAP_FIELD
Feld %1$s vom Typ %2$s kann nicht aktualisiert werden: Aktualisieren Sie die Zuordnung durch Aktualisieren von %2$s.key oder %2$s.value
DELTA_CANNOT_UPDATE_OTHER_FIELD
Das Feld <tableName>
vom Typ <typeName>
kann nicht aktualisiert werden
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Das Feld <tableName>
vom Typ <fieldName>
kann nicht aktualisiert werden: Aktualisieren Sie die Struktur durch Hinzufügen, Löschen oder Aktualisieren ihrer Felder
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Für Partitionsspalten können nicht alle Spalten verwendet werden.
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
ist eine Ansicht. Schreibvorgänge in eine Ansicht werden nicht unterstützt.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Fehler beim Schreiben eines Werts vom Typ <sourceType>
in die Spalte <columnName>
vom Typ <targetType>
aufgrund eines Überlaufs.
Verwenden Sie try_cast
für den Eingabewert, um einen Überlauf zu tolerieren, und geben Sie stattdessen NULL zurück.
Legen Sie <storeAssignmentPolicyFlag>
bei Bedarf auf LEGACY fest, um diesen Fehler zu umgehen, oder legen Sie <updateAndMergeCastingFollowsAnsiEnabledFlag>
auf TRUE fest, um zum alten Verhalten zurückzukehren und <ansiEnabledFlag>
in UPDATE und MERGE zu folgen.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
„Configuration delta.enableChangeDataFeed“ kann nicht festgelegt werden. Der Änderungsdatenfeed von Delta ist noch nicht verfügbar.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Das Abrufen von Tabellenänderungen zwischen Version <start>
und <end>
ist aufgrund eines inkompatiblen Datenschemas fehlgeschlagen.
Ihr Leseschema ist <readSchema>
bei Version <readVersion>
, wir haben jedoch ein inkompatibles Datenschema unter Version <incompatibleVersion>
gefunden.
Bitte rufen Sie nach Möglichkeit die Tabellenänderungen mithilfe des Schemas der Endversion ab, indem Sie <config>
auf endVersion
festlegen, oder wenden Sie sich an den Support.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Das Abrufen von Tabellenänderungen zwischen Version <start>
und <end>
ist aufgrund einer inkompatiblen Schemaänderung fehlgeschlagen.
Ihr Leseschema ist <readSchema>
bei Version <readVersion>
, wir haben jedoch eine inkompatible Schemaänderung bei Version <incompatibleVersion>
gefunden.
Bitte fragen Sie wenn möglich die Tabellenänderungen von Version <start>
auf <incompatibleVersion>
- 1 und von Version <incompatibleVersion>
auf <end>
separat ab.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Die Datei <filePath>
, auf die im Transaktionsprotokoll verwiesen wird, kann nicht gefunden werden. Dies kann geschehen, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt mithilfe der DELETE
-Anweisung der Tabelle. Diese Anforderung scheint sich auf den Änderungsdatenfeed zu beziehen. Wenn dies der Fall ist, kann dieser Fehler auftreten, wenn die Änderungsdatendatei außerhalb des Aufbewahrungszeitraums liegt und durch die VACUUM
-Anweisung gelöscht wurde. Weitere Informationen finden Sie unter <faqPath>
.
DELTA_CHANGE_TABLE_FEED_DISABLED
In die Tabelle kann nicht mit festgelegtem delta.enableChangeDataFeed geschrieben werden. Der Änderungsdatenfeed von Delta ist nicht verfügbar.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Eine nicht vorhandene Tabelle <path>
kann keine Überprüfung haben. Haben Sie Dateien im Verzeichnis „_delta_log“ manuell gelöscht?
DELTA_CLONE_AMBIGUOUS_TARGET
Es wurden zwei Pfade als CLONE-Ziel bereitgestellt, sodass nicht eindeutig ist, welcher verwendet werden soll. Ein externer
Speicherort für CLONE wurde bei <externalLocation>
gleichzeitig mit dem Pfad bereitgestellt
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
Die Datei (<fileName>
) wurde nicht vollständig kopiert. Erwartete Dateigröße: <expectedSize>
, gefunden: <actualSize>
. Wenn Sie den Vorgang fortsetzen möchten, indem Sie die Dateigrößenprüfung ignorieren, legen Sie <config>
auf FALSE fest.
DELTA_CLONE_UNSUPPORTED_SOURCE
Nicht unterstützte <mode>
-Klonquelle „<name>
“, deren Format <format>
ist.
Die unterstützten Formate sind „delta“, „iceberg“ und „parquet“.
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE wird für eine Delta-Tabelle mit Liquid Clustering für DBR Version < 14.0 nicht unterstützt.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY wird nicht unterstützt, da die folgenden Spalten nicht unterstützt werden: <columnsWithDataTypes>
Unterstützen Sie das Überspringen von Daten nicht.
DELTA_CLUSTERING_COLUMNS_MISMATCH
Die bereitgestellten Clustering-Spalten stimmen nicht mit denen der vorhandenen Tabelle überein.
- Bereitgestellt:
<providedClusteringColumns>
- Vorhanden:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Für Liquid Clustering müssen die Clusterspalten Statistiken erhalten. Es wurden keine Clusterspalten „<columns>
“ im Statistikschema gefunden:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Das Erstellen einer externen Tabelle ohne Liquid Clustering aus einem Tabellenverzeichnis mit Liquid Clustering ist nicht zulässig; Pfad: <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED
„<operation>
“ unterstützt kein Clustering.
DELTA_CLUSTERING_PHASE_OUT_FAILED
<phaseOutType>
konnte für die Tabelle mit der <tableFeatureToAdd>
-Tabellenfunktion nicht abgeschlossen werden (Grund: <reason>
). Wiederholen Sie den Vorgang mit dem OPTIMIZE-Befehl.
== Fehler ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
Das Ersetzen einer Delta-Tabelle mit Liquid Clustering durch eine partitionierte Tabelle ist mit REPLACE nicht zulässig.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE wird für eine Delta-Tabelle mit Liquid Clustering ohne Clusterspalten nicht unterstützt.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
Der Übergang einer Delta-Tabelle mit flüssigem Clustering zu einer partitionierten Tabelle ist für den Vorgang nicht zulässig: <operation>
wenn die vorhandene Tabelle nicht leere Clusterspalten enthält.
Führen Sie ALTER TABLE CLUSTER BY NONE aus, um die Clusterspalten zuerst zu entfernen.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Der Überschreibungsmodus für dynamische Partitionen ist für eine Delta-Tabelle mit Liquid Clustering nicht zulässig.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
Der OPTIMIZE-Befehl für eine Delta-Tabelle mit Liquid Clustering unterstützt keine Partitionsprädikate. Entfernen Sie die Prädikate: <predicates>
.
DELTA_CLUSTERING_WITH_ZORDER_BY
Der OPTIMIZE-Befehl für eine Delta-Tabelle mit Liquid Clustering kann ZORDER BY nicht angeben. Entfernen Sie ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY für Liquid-Clustering unterstützt bis zu <numColumnsLimit>
Clusteringspalten, aber die Tabelle enthält <actualNumColumns>
Clusteringspalten. Entfernen Sie die überzähligen Clusteringspalten.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Es ist nicht zulässig, CLUSTER BY anzugeben, wenn das Schema nicht definiert ist. Definieren Sie das Schema für die Tabelle <tableName>
.
DELTA_CLUSTER_BY_WITH_BUCKETING
Clustering und Bucketing können nicht gleichzeitig angegeben werden. Entfernen Sie CLUSTERED BY INTO BUCKETS/bucketBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Clustering und Partitionierung können nicht gleichzeitig angegeben werden. Entfernen Sie PARTITIONED BY/partitionBy/partitionedBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.
DELTA_COLLATIONS_NOT_SUPPORTED
Sortierungen werden im Delta Lake nicht unterstützt.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Das Überspringen von Daten wird für die Partitionsspalte <column>
nicht unterstützt.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Das Überspringen von Daten wird für die Spalte <column>
mit Typ <type>
nicht unterstützt.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
Die Eigenschaft „maximale Spalten-ID“ (<prop>
) wird nicht für eine Tabelle festgelegt, die für die Spaltenzuordnung aktiviert ist.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
Die Eigenschaft „maximale Spalten-ID“ (<prop>
) für eine Tabelle mit aktivierter Spaltenzuordnung ist <tableMax>
, was nicht kleiner als die maximale Spalten-ID für alle Felder (<fieldMax>
) sein darf.
DELTA_COLUMN_MISSING_DATA_TYPE
Der Datentyp der Spalte <colName>
wurde nicht bereitgestellt.
DELTA_COLUMN_NOT_FOUND
Die Spalte <columnName>
konnte mit der Angabe [<columnList>
] nicht gefunden werden
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Die Spalte „<targetCol>
“ der Zieltabelle konnte aus den INSERT-Spalten <colNames>
nicht gefunden werden. Die INSERT-Klausel muss einen Wert für alle Spalten der Zieltabelle angeben.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Die Spalte <columnName>
konnte nicht gefunden werden in:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Es wurde erwartet, dass <columnPath>
ein geschachtelten Datentyp sei, gefunden wurde jedoch <other>
. Es wurde nach dem
Index von <column>
in einem geschachtelten Feld.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
Strukturspalte <source>
kann nicht in ein <targetType>
-Feld <targetField>
in <targetTable>
eingefügt werden.
DELTA_COMPACTION_VALIDATION_FAILED
Die Validierung der Komprimierung des Pfads <compactedPath>
für <newPath>
ist fehlgeschlagen: Bitte reichen Sie einen Fehlerbericht ein.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Geschachtelter NullType in Spalte <columName>
vom Typ <dataType>
gefunden. Bei einem Delta wird das Schreiben von NullType in komplexen Typen nicht unterstützt.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Dateien wurden durch ein gleichzeitiges Update zu <partition>
hinzugefügt. <retryMsg>
<conflictingCommit>
Weitere Details finden Sie unter <docLink>
.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: Diese Transaktion hat versucht, eine oder mehrere Dateien zu löschen, die (z. B. <file>
) durch ein gleichzeitiges Update gelöscht wurden. Wiederholen Sie den Vorgang.<conflictingCommit>
Weitere Details finden Sie unter <docLink>
.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: Diese Transaktion hat versucht, eine oder mehrere Dateien zu lesen, die (z. B. <file>
) durch ein gleichzeitiges Update gelöscht wurden. Wiederholen Sie den Vorgang.<conflictingCommit>
Weitere Details finden Sie unter <docLink>
.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: Dieser Fehler tritt auf, wenn mehrere Streamingabfragen denselben Prüfpunkt verwenden, um in diese Tabelle zu schreiben. Haben Sie mehrere Instanzen derselben Streamingabfrage gleichzeitig ausgeführt?<conflictingCommit>
Weitere Details finden Sie unter <docLink>
.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: Eine gleichzeitige Transaktion hat neue Daten geschrieben, seit die aktuelle Transaktion die Tabelle liest. Wiederholen Sie den Vorgang.<conflictingCommit>
Weitere Details finden Sie unter <docLink>
.
DELTA_CONFLICT_SET_COLUMN
Es besteht ein Konflikt zwischen diesen SET-Spalten: <columnList>
.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Die Konfiguration "<configuration>
" kann während <command>
des Befehls nicht festgelegt werden. Entfernen Sie ihn aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Während <command>
der Konfiguration kann die Konfiguration "<configuration>
" nicht aus den SparkSession-Konfigurationen festgelegt werden. Deaktivieren Sie dies, indem spark.conf.unset("<configuration>")
Sie den Befehl ausführen, und wiederholen Sie dann den Befehl erneut.
DELTA_CONSTRAINT_ALREADY_EXISTS
Die Einschränkung „<constraintName>
“ ist bereits vorhanden. Löschen Sie zunächst die alte Einschränkung.
Alte Einschränkung:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
Spalte <columnName>
hat Datentyp <columnType>
und kann nicht auf den Datentyp <dataType>
geändert werden, da auf diese Spalte durch die folgenden Prüfeinschränkungen verwiesen wird:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Spalte <columnName>
kann nicht geändert werden, da auf diese Spalte durch die folgenden Checkeinschränkungen verwiesen wird:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Eine nicht vorhandene Einschränkung <constraintName>
kann nicht aus der Tabelle <tableName>
entfernt werden. Um das Auslösen eines Fehlers zu vermeiden, geben Sie den Parameter IF EXISTS an oder legen die SQL-Sitzungskonfiguration <config>
auf <confValue>
fest.
DELTA_CONVERSION_NO_PARTITION_FOUND
Es wurden keine Partitionsinformationen im Katalog für die Tabelle <tableName>
gefunden. Haben Sie „MSCK REPAIR TABLE“ für Ihre Tabelle ausgeführt, um Partitionen zu ermitteln?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Der Parketttisch mit sortierter Partitionsspalte <colName>
kann nicht in Delta konvertiert werden.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
Die Konfiguration „<config>
“ kann nicht auf <mode>
festgelegt werden, wenn CONVERT TO DELTA verwendet wird.
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA unterstützt nur Parquet-Tabellen. Sie versuchen jedoch, eine <sourceName>
-Quelle zu konvertieren: <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Die Zeilennachverfolgung kann nicht aktiviert werden, ohne Statistiken zu erfassen.
Wenn Sie die Zeilennachverfolgung aktivieren möchten, gehen Sie wie folgt vor:
Aktivieren Sie die Statistikerfassung, indem Sie folgenden Befehl ausführen:
SET
<statisticsCollectionPropertyKey>
= true- Führen Sie CONVERT TO DELTA ohne die NO STATISTICS-Option aus.
Wenn Sie keine Statistiken erfassen möchten, deaktivieren Sie die Zeilennachverfolgung:
Deaktivieren Sie die standardmäßige Aktivierung des Tabellenfeatures, indem Sie folgenden Befehl ausführen:
RESET
<rowTrackingTableFeatureDefaultKey>
Deaktivieren Sie die Tabelleneigenschaft standardmäßig, indem Sie Folgendes ausführen:
SET
<rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
Das COPY INTO-Ziel muss eine Delta-Tabelle sein.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Sie versuchen, eine externe Tabelle <tableName>
mit Delta aus <path>
zu erstellen, aber das Schema wird nicht angegeben, wenn der
Eingabepfad leer ist.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Sie versuchen, eine externe Tabelle <tableName>
mit Delta aus %2$s
zu erstellen, aber es gibt kein Transaktionsprotokoll in
%2$s/_delta_log
. Überprüfen Sie den Upstreamauftrag, um sicherzustellen, dass er mithilfe des
Formats („Delta“) schreibt und dass der Pfad der Stamm der Tabelle ist.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Das Erstellen einer pfadbasierten Delta-Tabelle mit einem anderen Speicherort wird nicht unterstützt. Bezeichner: <identifier>
, Speicherort: <location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
Der Tabellenname oder -speicherort muss angegeben werden.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Das angegebene Schema stimmt nicht mit dem vorhandenen Schema unter <path>
überein.
== Angegeben ==
<specifiedSchema>
== Vorhanden ==
<existingSchema>
== Unterschiede ==
<schemaDifferences>
Wenn Sie das vorhandene Schema beibehalten möchten, können Sie das
Schema im CREATE TABLE-Befehl weglassen. Stellen Sie andernfalls sicher, dass
das Schema übereinstimmt.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Das <tableFeature>
-Tabellenfeature kann nicht mit TBLPROPERTIES aktiviert werden. Verwenden Sie CREATE OR REPLACE TABLE CLUSTER BY, um eine Delta-Tabelle mit Clustering zu erstellen.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
Die angegebenen Clusterspalten stimmen nicht mit den vorhandenen Clusterspalten bei <path>
überein.
== Angegeben ==
<specifiedColumns>
== Vorhanden ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
Die angegebene Partitionierung stimmt nicht mit der vorhandenen Partitionierung unter <path>
überein.
== Angegeben ==
<specifiedColumns>
== Vorhanden ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
Die angegebenen Eigenschaften stimmen nicht mit den vorhandenen Eigenschaften unter <path>
überein.
== Angegeben ==
<specifiedProperties>
== Vorhanden ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Die Tabelle („<tableId>
“) kann nicht erstellt werden. Der zugeordnete Speichert („<tableLocation>
“) ist nicht leer und auch nicht eine Delta-Tabelle.
DELTA_DATA_CHANGE_FALSE
Tabellenmetadaten können nicht geändert werden, da die Option „dataChange“ auf „false“ festgelegt ist. Versuchter Vorgang: „<op>
“.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Die Datei <filePath>
, auf die im Transaktionsprotokoll verwiesen wird, kann nicht gefunden werden. Diese Parquet-Datei kann nach der Datenaufbewahrungsrichtlinie von Delta gelöscht werden.
Standarddauer für die Datenaufbewahrung von Delta: <logRetentionPeriod>
. Änderungszeit der Parquet-Datei: <modificationTime>
. Löschzeit der Parquet-Datei: <deletionTime>
. Gelöscht in Delta-Version: <deletionVersion>
.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Es ist ungültig, Dateien mit Löschvektoren zu committen, denen die numRecords-Statistik fehlt.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
DomainMetadata-Aktionen für Domänen <domainNames>
erkannt, aber DomainMetadataTableFeature ist nicht aktiviert.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
Index <columnIndex>
zum Löschen einer Spalte ist kleiner als 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Spalte kann nicht aus einem Schema mit einer einzelnen Spalte entfernt werden. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Der Dateivorgang „<actionType>
“ für den Pfad <path>
wurde mehrmals angegeben.
Dies steht in Konflikt mit <conflictingPath>
.
Es ist ungültig, wenn mehrere Dateivorgänge mit demselben Pfad in einem einzelnen Commit vorhanden sind.
DELTA_DUPLICATE_COLUMNS_FOUND
Es wurden doppelte Spalten <coltype>
gefunden: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
In der INSERT-Klausel sind doppelte Spaltennamen vorhanden.
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Entfernen Sie doppelte Spalten, bevor Sie Ihre Tabelle aktualisieren.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Doppelte Spalten für das Überspringen von Daten gefunden: <columns>
.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Interner Fehler: Zwei DomainMetadata-Aktionen innerhalb derselben Transaktion haben dieselbe Domäne <domainName>
.
DELTA_DV_HISTOGRAM_DESERIALIZATON
Das Histogramm für die Anzahl gelöschter Datensätze konnte während der Überprüfung der Tabellenintegrität nicht deserialisiert werden.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
Der Überschreibungsmodus für dynamische Partitionen wird durch Sitzungskonfigurations- oder Schreiboptionen angegeben, aber von spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
deaktiviert.
DELTA_EMPTY_DATA
Die Daten, die beim Erstellen der Delta-Tabelle verwendet werden, weisen keine Spalten auf.
DELTA_EMPTY_DIRECTORY
Im Verzeichnis <directory>
wurde keine Datei gefunden.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
Wert „<value>
“ überschreitet die Längenbegrenzung des Typs char/varchar. Fehlerhafte Prüfung: <expr>
.
DELTA_FAILED_CAST_PARTITION_VALUE
Fehler beim Umwandeln des Partitionswerts <value>
in <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
<newAttributeName>
konnte unter den vorhandenen Zielausgabe <targetOutputColumns>
nicht gefunden werden
DELTA_FAILED_INFER_SCHEMA
Fehler beim Ableiten des Schemas aus der angegebenen Dateiliste.
DELTA_FAILED_MERGE_SCHEMA_FILE
Fehler beim Zusammenführen des Schemas der Datei <file>
:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
Die Fußzeile der Datei <currentFile>
konnte nicht gelesen werden
DELTA_FAILED_RECOGNIZE_PREDICATE
Das Prädikat „<predicate>
“ wird nicht erkannt
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Es wurde ein vollständiger Scan der letzten Version der Delta-Quelle erwartet, aber es wurde eine historischer Scan der Version <historicalVersion>
gefunden
DELTA_FAILED_TO_MERGE_FIELDS
Fehler beim Zusammenführen der Felder „<currentField>
“ und „<updateField>
“.
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Diese Tabelle kann nicht ausgeführt werden, da die folgenden Tabellenfeatures in Metadaten aktiviert, aber nicht im Protokoll aufgeführt sind: <features>
.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Ihr Tabellenschema erfordert die manuelle Aktivierung der folgenden Tabellenfeatures: <unsupportedFeatures>
.
Führen Sie hierzu den folgenden Befehl für jedes der oben aufgeführten Features aus:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
Ersetzen Sie „table_name“ und „feature_name“ durch reale Werte.
Aktuell unterstützte(s) Feature(s): <supportedFeatures>
.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Das Feature kann nicht gelöscht werden, weil die Tabelle durch eine gleichzeitige Transaktion geändert wurde.
Wiederholen Sie den Vorgang.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Das Tabellenfeature <feature>
kann nicht entfernt werden, da einige andere Features (<dependentFeatures>
) in dieser Tabelle von <feature>
abhängen.
Erwägen Sie, sie zuerst zu löschen, bevor Sie dieses Feature ablegen.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
<feature>
kann aus dieser Tabelle nicht gelöscht werden, weil dieses Feature derzeit nicht im Protokoll der Tabelle vorhanden ist.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
<feature>
kann nicht gelöscht werden, weil das Delta-Protokoll Verlaufsversionen enthält, die das Feature verwenden.
Warten Sie, bis der Aufbewahrungszeitraum für den Verlauf (<logRetentionPeriodKey>
=<logRetentionPeriod>
)
seit der letzten Aktivierung des Features abgelaufen ist.
Alternativ können Sie warten, bis der Aufbewahrungszeitraum für TRUNCATE HISTORY abläuft (<truncateHistoryLogRetentionPeriod>
)
und führen daraufhin Folgendes aus:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
Für das jeweilige Feature ist keine Verlaufsabkürzung erforderlich.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
<feature>
kann nicht gelöscht werden, weil das Entfernen dieses Features nicht unterstützt wird.
Wenden Sie sich an den Databricks-Support.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
<feature>
kann nicht gelöscht werden, weil dieses Feature von dieser Databricks-Version nicht unterstützt wird.
Erwägen Sie die Verwendung von Databricks mit einer höheren Version.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
Das Löschen von <feature>
war teilweise erfolgreich.
Das Feature wird in der aktuellen Version der Tabelle nicht mehr verwendet. Das Feature ist allerdings
in historischen Versionen der Tabelle noch vorhanden. Das Tabellenfeature kann erst
aus dem Tabellenprotokoll gelöscht werden, nachdem diese Verlaufsversionen abgelaufen sind.
Um das Tabellenfeature aus dem Protokoll zu löschen, warten Sie, bis die Verlaufsversionen
ablaufen, und wiederholen Sie dann diesen Befehl. Der Aufbewahrungszeitraum für Verlaufsversionen ist
derzeit als <logRetentionPeriodKey>
=<logRetentionPeriod>
konfiguriert.
Alternativ können Sie warten, bis der Aufbewahrungszeitraum für TRUNCATE HISTORY abläuft (<truncateHistoryLogRetentionPeriod>
)
und führen daraufhin Folgendes aus:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Das Tabellenfeature <feature>
kann nicht aktiviert werden, da es eine höhere Leserprotokollversion (aktuell <current>
) erfordert. Führen Sie ein Upgrade der Leserprotokollversion der Tabelle auf <required>
oder auf eine Version durch, welche die Lesertabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>
.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Das Tabellenfeature <feature>
kann nicht aktiviert werden, da es eine höhere Schreiberprotokollversion (aktuell <current>
) erfordert. Führen Sie ein Upgrade der Schreiberprotokollversion der Tabelle auf <required>
oder auf eine Version durch, die Schreibertabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>
.
DELTA_FILE_ALREADY_EXISTS
Es ist bereits ein Dateipfad <path>
vorhanden
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Dateiliste und Musterzeichenfolge können nicht zusammen angegeben werden.
DELTA_FILE_NOT_FOUND
Dateipfad <path>
DELTA_FILE_NOT_FOUND_DETAILED
Die Datei <filePath>
, auf die im Transaktionsprotokoll verwiesen wird, kann nicht gefunden werden. Dies tritt auf, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt mithilfe der DELETE
-Anweisung der Tabelle. Weitere Informationen finden Sie unter <faqPath>
.
DELTA_FILE_OR_DIR_NOT_FOUND
Keine solche Datei oder kein solches Verzeichnis: <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Die neu zu schreibende Datei (<path>
) wurde nicht in den Kandidatendateien gefunden:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Eine MapType-Spalte wurde gefunden. Wenn Sie auf den Schlüssel oder Wert einer MapType-Spalte zugreifen möchten, geben Sie
eine der folgenden Möglichkeiten an:
<key>
oder
<value>
gefolgt von dem Namen der Spalte (nur wenn diese Spalte ein STRUCT-Typ ist).
Beispiel: mymap.key.mykey
Wenn es sich bei der Spalte um einen einfachen Typ handelt, ist mymap.key oder mymap.value ausreichend.
Schema:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
Die Spalte <columnName>
weist den Datentyp <columnType>
auf und kann nicht in den Datentyp <dataType>
geändert werden, da auf diese Spalte durch die folgenden generierten Spalten verwiesen wird:
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Spalte <columnName>
kann nicht geändert werden, da auf diese Spalte durch die folgenden generierten Spalten verwiesen wird:
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Der Ausdruckstyp der generierten Spalte <columnName>
lautet <expressionType>
, der Spaltentyp ist jedoch <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Die Spalte <currentName>
ist eine generierte Spalte oder eine Spalte, die von einer generierten Spalte verwendet wird. Der Datentyp lautet <currentDataType>
und kann nicht in den Datentyp <updateDataType>
konvertiert werden
DELTA_ICEBERG_COMPAT_VIOLATION
Bei der Validierung von IcebergCompatV<version>
ist ein Fehler aufgetreten.
Weitere Details finden Sie unter DELTA_ICEBERG_COMPAT_VIOLATION.
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN wird für IDENTITÄTsspalten nicht unterstützt.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY wird nur von Delta unterstützt.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY kann nicht für Nicht-IDENTITY-Spalten aufgerufen werden.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Das Bereitstellen von Werten für DIE Spalte <colName>
"GENERATED ALWAYS AS IDENTITY" wird nicht unterstützt.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
Der IDENTITY-Spaltenschritt darf nicht 0 sein.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY-Spalten werden nur von Delta unterstützt.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY-Spalte <colName>
wird nicht unterstützt.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS is not supported for table with IDENTITY columns.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
Datentyp <dataType>
wird für IDENTITY-Spalten nicht unterstützt.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE für IDENTITÄTsspalte <colName>
wird nicht unterstützt.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
Die IDENTITY-Spalte kann nicht mit einem generierten Spaltenausdruck angegeben werden.
DELTA_ILLEGAL_OPTION
Ungültiger Wert „<input>
“ für die Option „<name>
“, <explain>
DELTA_ILLEGAL_USAGE
Die Verwendung von <option>
ist nicht zulässig, wenn für eine Delta-Tabelle <operation>
ausgeführt wird.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec in Delta-Buckettabelle stimmt nicht mit BucketSpec aus den Metadaten überein. Erwartet: <expected>
. Aktuell: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) kann nicht auf unterschiedliche Werte festgelegt werden. Legen Sie nur einen dieser Werte fest, oder legen Sie sie auf denselben Wert fest.
DELTA_INCORRECT_ARRAY_ACCESS
Falscher Zugriff auf einen ArrayType. Verwenden Sie die Position „arrayname.element.elementname“ für das
Hinzufügen in einem Array.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Ein ArrayType wurde gefunden. Wenn Sie auf Elemente eines ArrayType zuzugreifen möchten, geben Sie
<rightName>
anstelle von <wrongName>
.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Verwenden Sie getConf()
anstelle von `conf.getConf().
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
Dieser Fehler tritt in der Regel auf, wenn die LogStore-Standardimplementierung,
HDFSLogStore, verwendet wird, um in eine Delta-Tabelle in einem Nicht-HDFS-Speichersystem zu schreiben.
Um die transaktionsrelevanten ACID-Garantien für Tabellenupdates zu erhalten, müssen Sie die
richtige Implementierung von LogStore für Ihr Speichersystem verwenden.
Details hierzu finden Sie unter <docLink>
.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Der Index <position>
zum Ablegen der Spalte ist gleich oder größer als die Strukturlänge: <length>
DELTA_INDEX_LARGER_THAN_STRUCT
Der Index <index>
zum Hinzufügen der Spalte <columnName>
ist größer als die Strukturlänge: <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Schreiben in „<tableName>
“, <columnName>
nicht möglich. Die Zieltabelle hat <numColumns>
Spalte(n), aber die eingefügten Daten umfassen <insertColumns>
Spalte(n)
DELTA_INSERT_COLUMN_MISMATCH
Die Spalte <columnName>
ist in INSERT nicht angegeben
DELTA_INVALID_AUTO_COMPACT_TYPE
Ungültiger automatisch komprimierter Typ: <value>
. Zulässige Werte sind: <allowed>
.
DELTA_INVALID_BUCKET_COUNT
Ungültige Bucketanzahl: <invalidBucketCount>
. Die Bucketanzahl sollte eine positive Zahl, eine Potenz von 2 und mindestens 8 sein. Sie können stattdessen <validBucketCount>
verwenden.
DELTA_INVALID_BUCKET_INDEX
Die Bucketspalte in den Partitionsspalten kann nicht gefunden werden.
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Das Intervall kann nicht NULL oder leer sein.
DELTA_INVALID_CDC_RANGE
Der CDC-Bereich von Anfang <start>
bis Ende <end>
war ungültig. Das Ende kann nicht vor dem Anfang liegen.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Der Attributname „<columnName>
“ enthält ungültige Zeichen zwischen ” ,;{}()\n\t=”. Verwenden Sie zum Umbenennen einen Alias.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Spaltennamen Ihres Schemas enthalten ungültige Zeichen ( ,;{}()nt=).
Ungültige Spaltennamen: <invalidColumnNames>
.
Verwenden Sie andere Zeichen, und versuchen Sie es noch einmal.
Alternativ können Sie die Spaltenzuordnung aktivieren, um diese Zeichen weiterhin zu verwenden.
DELTA_INVALID_CLONE_PATH
Der Zielspeicherort für CLONE muss ein absoluter Pfad oder ein Tabellenname sein. Verwenden Sie einen
absoluten Pfad anstelle von <path>
.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Spaltennamen Ihres Schemas enthalten ungültige Zeichen ( ,;{}()nt=).
Ungültige Spaltennamen: <invalidColumnNames>
.
Die Spaltenzuordnung kann nicht entfernt werden, wenn in den Spaltennamen ungültige Zeichen vorhanden sind.
Benennen Sie die Spalten um, um die ungültigen Zeichen zu entfernen, und führen Sie diesen Befehl erneut aus.
DELTA_INVALID_FORMAT
Inkompatibles Format erkannt.
Ein Transaktionsprotokoll für Delta wurde unter <deltaRootPath>
/_delta_log``gefunden,
aber Sie versuchen <operation>
<path>
mithilfe von format(“<format>
”). Sie müssen
„format(“delta”)“ beim Lesen und Schreiben in eine Delta-Tabelle verwenden.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Eine generierte Spalte kann keine nicht vorhandene Spalte oder eine andere generierte Spalte verwenden.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Ungültige Optionen für idempotente Dataframe-Schreibvorgänge: <reason>
DELTA_INVALID_INTERVAL
<interval>
Ist kein gültiges INTERVALL.
DELTA_INVALID_INVENTORY_SCHEMA
Das Schema für das angegebene INVENTAR enthält nicht alle erforderlichen Felder. Pflichtfelder sind: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
Ungültige Isolationsstufe „<isolationLevel>
“
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) und (<schemeConfig>
) können nicht gleichzeitig festgelegt werden. Legen Sie nur eine Gruppe davon fest.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Sie versuchen, eine verwaltete Tabelle <tableName>
mit Delta zu erstellen, aber das Schema wurde nicht angegeben.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
ist keine gültige Partitionsspalte in der Tabelle <tableName>
.
DELTA_INVALID_PARTITION_COLUMN_NAME
Partitionsspalten mit ungültigen Zeichen unter „ ,;{}()nt=“ gefunden. Ändern Sie den Namen in Ihre Partitionsspalten. Diese Überprüfung kann durch Festlegen von „spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false)“ deaktiviert werden. Dies wird jedoch nicht empfohlen, da andere Features von Delta möglicherweise nicht ordnungsgemäß funktionieren.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Die Verwendung der Spalte <name>
des Typs <dataType>
als Partitionsspalte wird nicht unterstützt.
DELTA_INVALID_PARTITION_PATH
Ein Partitionspfadfragment sollte das Format part1=foo/part2=bar
aufweisen. Der Partitionspfad: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
Die Protokollversion kann nicht von <oldProtocol>
auf <newProtocol>
herabgestuft werden
DELTA_INVALID_PROTOCOL_VERSION
Nicht unterstützte Delta-Protokollversion: Die Tabelle „<tableNameOrPath>
“ erfordert die Reader-Version „<readerRequired>
“ und die Writer-Version „<writerRequired>
“, aber diese Version von Databricks unterstützt die Reader-Versionen „<supportedReaders>
“ und die Schreiber-Versionen „<supportedWriters>
“. Führen Sie ein Upgrade auf ein neueres Release durch.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Die Funktion <function>
ist eine nicht unterstützte Tabellenwertfunktion für CDC-Lesevorgänge.
DELTA_INVALID_TIMESTAMP_FORMAT
Der angegebene Zeitstempel <timestamp>
stimmt nicht mit der erwarteten Syntax <format>
überein.
DELTA_LOG_ALREADY_EXISTS
Ein Delta-Protokoll ist bereits unter <path>
vorhanden
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Wenn Sie sie nie gelöscht haben, ist es wahrscheinlich, dass Ihre Abfrage hinterherhinkt. Löschen Sie den Prüfpunkt, um von Grund auf neu zu starten. Um dies zu vermeiden, können Sie die Aufbewahrungsrichtlinie Ihrer Delta-Tabelle aktualisieren.
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Materialisierter Spaltenname für <rowTrackingColumn>
fehlt für <tableName>
.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Verwenden Sie einen Grenzwert, der kleiner als „Int.MaxValue – 8“ ist.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Dieser Commit wurde mit einem Fehler beendet, da er <numAttempts>
Mal ohne Erfolg wiederholt wurde.
Dies kann dadurch verursacht werden, dass für die Delta-Tabelle kontinuierlich viele gleichzeitige
Commits ausgeführt werden.
Commit gestartet bei Version <startVersion>
Commit mit Fehler abgebrochen bei Version <failVersion>
Anzahl der Aktionen, die einen Commit versucht haben: <numActions>
Gesamtzeit für den Versuch dieses Commits: <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
Die Dateiliste darf höchstens <maxFileListSize>
Einträge haben, hatte aber <numFiles>
.
DELTA_MERGE_ADD_VOID_COLUMN
Spalte <newColumn>
mit dem Typ VOID kann nicht hinzugefügt werden. Geben Sie explizit einen Typ ohne void an.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Fehler beim Zusammenführen der inkompatiblen Datentypen <currentDataType>
und <updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Fehler beim Zusammenführen von Dezimaltypen mit inkompatiblen <decimalRanges>
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Die Quelle der MERGE-Anweisung materialisiert beizubehalten ist wiederholt fehlgeschlagen.
DELTA_MERGE_MISSING_WHEN
Es muss mindestens eine WHEN-Klausel in einer MERGE-Anweisung vorhanden sein.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Aufgelöste Attribute <missingAttributes>
fehlen in <input>
im <merge>
-Operator.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Unerwarteter Zuweisungsschlüssel: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
<sqlExpr>
kann in <clause>
mit <cols>
nicht aufgelöst werden.
DELTA_METADATA_CHANGED
MetadataChangedException: Die Metadaten der Delta-Tabelle wurden durch ein gleichzeitiges Update geändert. Wiederholen Sie den Vorgang.<conflictingCommit>
Weitere Details finden Sie unter <docLink>
.
DELTA_MISSING_CHANGE_DATA
Fehler beim Abrufen von Änderungsdaten für den Bereich [<startVersion>
, <endVersion>
], da Änderungsdaten
für Version [<version>
] nicht aufgezeichnet wurden. Wenn Sie den Änderungsdatenfeed in dieser Tabelle aktiviert haben,
verwenden Sie DESCRIBE HISTORY
, um den Zeitpunkt der ersten Aktivierung zu ermitteln.
Verwenden Sie andernfalls zum Starten der Aufzeichnung von Änderungsdaten „ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)`.
DELTA_MISSING_COLUMN
<columnName>
kann in den Tabellenspalten <columnList>
nicht gefunden werden
DELTA_MISSING_COMMIT_INFO
Diese Tabelle hat das Feature <featureName>
aktiviert, das das Vorhandensein der CommitInfo-Aktion in jedem Commit erfordert. Die CommitInfo-Aktion fehlt jedoch in der Commit-Version <version>
.
DELTA_MISSING_COMMIT_TIMESTAMP
Diese Tabelle hat das Feature <featureName>
aktiviert, das das Vorhandensein von commitTimestamp in der CommitInfo-Aktion erfordert. Dieses Feld wurde jedoch nicht in der Commit-Version <version>
festgelegt.
DELTA_MISSING_DELTA_TABLE
<tableName>
ist keine Delta-Tabelle.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Die Tabelle ist nicht vorhanden. Erstellen Sie zunächst eine leere Delta-Tabelle mithilfe von CREATE TABLE <tableName>
.
DELTA_MISSING_ICEBERG_CLASS
Die Iceberg-Klasse wurde nicht gefunden. Stellen Sie sicher, dass Delta Iceberg-Support installiert ist.
Weitere Details finden Sie unter <docLink>
.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
Die Spalte <columnName>
, die eine NOT NULL-Einschränkung aufweist, fehlt in den Daten, die in die Tabelle geschrieben werden.
DELTA_MISSING_PARTITION_COLUMN
Die Partitionsspalte <columnName>
wurde im Schema <columnList>
nicht gefunden
DELTA_MISSING_PART_FILES
Es konnten nicht alle Teildateien der Prüfpunktversion gefunden werden: <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA unterstützt nur Parquet-Tabellen. Schreiben Sie Ihr Ziel als „parquet.<path>
“ um, wenn es sich um ein Parquet-Verzeichnis handelt.
DELTA_MISSING_SET_COLUMN
SET-Spalte <columnName>
wurde in den angegebenen Spalten nicht gefunden: <columnList>
.
DELTA_MISSING_TRANSACTION_LOG
Inkompatibles Format erkannt.
Sie versuchen, <operation>
<path>
mit Delta auszuführen, aber es ist kein
Transaktionsprotokoll vorhanden. Überprüfen Sie den Upstreamauftrag, um sicherzustellen, dass er
„format("delta")“ verwendet und dass Sie versuchen, %1$s auf den Basispfad der Tabelle anzuwenden.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_MODE_NOT_SUPPORTED
Der angegebene Modus „<mode>
“ wird nicht unterstützt. Unterstützte Modi sind: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
Mehrere <startingOrEnding>
-Argumente für CDC-Lesevorgang bereitgestellt. Bitte geben Sie entweder einen <startingOrEnding>
Zeitstempel oder eine <startingOrEnding>
Version an.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Es wurden mehrere Bloom-Filterindexkonfigurationen an den Befehl für Spalte <columnName>
übergeben:
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Die Zusammenführung konnte nicht durchgeführt werden, da mehrere Quellzeilen übereinstimmen und dieselbe
Zielreihe in der Delta-Tabelle auf möglicherweise widersprüchliche Weise zu ändern versuchten. Gemäß der SQL-Semantik von „MERGE“
kann das Ergebnis mehrdeutig sein, wenn mehrere Quellzeilen mit derselben Zielzeile übereinstimmen,
da unklar ist, welche Quellzeile zum Aktualisieren oder Löschen der übereinstimmenden
Zielreihe verwendet werden soll. Sie können die Quelltabelle vorverarbeiten, um die Möglichkeit
mehrerer Übereinstimmungen auszuschließen. Informationen zu den nächsten Schritten finden Sie im Abschnitt
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Beide <command>
koordinierten Commits (delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") werden entweder im Befehl oder in keiner dieser Konfigurationen festgelegt. Fehlt: "<configuration>
". Geben Sie diese Konfiguration in der TBLPROPERTIES-Klausel an, oder entfernen Sie die andere Konfiguration, und wiederholen Sie dann den Befehl erneut.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Bei <command>
beiden koordinierten Commits werden konfigurationen ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") in den SparkSession-Konfigurationen oder keiner davon festgelegt. Fehlt: "<configuration>
". Legen Sie diese Konfiguration in der SparkSession fest, oder deaktivieren Sie die andere Konfiguration, und wiederholen Sie dann den Befehl erneut.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Die folgenden Spaltennamen sind nur für die interne Verwendung von Delta-Buckettabellen reserviert: <names>
DELTA_NESTED_FIELDS_NEED_RENAME
Das Eingabeschema enthält geschachtelte Felder, die anders großgeschrieben sind als die Zieltabelle.
Sie müssen umbenannt werden, um den Verlust von Daten in diesen Feldern beim Schreiben in Delta zu vermeiden.
Felder:
<fields>
.
Ursprüngliches Schema:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
Der <nestType>
-Typ des Felds <parent>
enthält eine NOT NULL-Einschränkung. Delta unterstützt keine NOT NULL-Einschränkungen, die in Arrays oder Zuordnungen geschachtelt sind. Legen Sie <configKey>
= WAHR fest, um diesen Fehler zu unterdrücken und die angegebenen Einschränkungen im Hintergrund zu ignorieren.
Geparster <nestType>
-Typ:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
Geschachtelte Unterabfragen werden in der <operation>
-Bedingung nicht unterstützt.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
Zeilen in <tableName>
verstoßen gegen die neue CHECK-Einschränkung (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
Zeilen in <tableName>
verstoßen gegen die neue NOT NULL-Einschränkung in <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK-Einschränkung „<name>
“ (<expr>
) sollte ein boolescher Ausdruck sein.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Es wurde <expr>
gefunden. Eine generierte Spalte kann keinen nicht deterministischen Ausdruck verwenden.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Nicht deterministische Funktionen werden nicht unterstützt in der <operation>
<expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Wenn eine MERGE-Anweisung mehr als eine MATCHED-Klausel enthält, kann nur die letzte MATCHED-Klausel die Bedingung auslassen.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Wenn eine MERGE-Anweisung mehrere NOT MATCHED BY SOURCE-Klauseln enthält, kann nur die letzte NOT MATCHED BY SOURCE-Klausel die Bedingung auslassen.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Wenn eine MERGE-Anweisung mehrere NOT MATCHED-Klauseln enthält, kann nur die letzte NOT MATCHED-Klausel die Bedingung auslassen.
DELTA_NON_PARSABLE_TAG
Das Tag <tag>
konnte nicht geparst werden.
Dateitags sind: <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
In Delta geschriebene Daten müssen mindestens eine nicht partitionierte Spalte enthalten.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Das Prädikat verweist auf die Nicht-Partitionsspalte „<columnName>
“. Nur die Partitionsspalten dürfen verwiesen werden: [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Nicht-Partitionierungsspalten <columnList>
sind angegeben, wenn nur Partitionierungsspalten erwartet werden: <fragment>
.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Der Delta-Katalog erfordert einen einteiligen Namespace, aber <identifier>
ist mehrteilig.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
ist keine Delta-Tabelle. Löschen Sie diese Tabelle zunächst, wenn Sie sie mit Databricks Delta erstellen möchten.
DELTA_NOT_A_DELTA_TABLE
<tableName>
ist keine Delta-Tabelle. Entfernen Sie diese Tabelle zunächst, wenn Sie sie mit Delta Lake neu erstellen möchten.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Eine Spalte, die keine Nullwerte zulässt, wurde in der Struktur gefunden: <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL-Einschränkung verletzt für Spalte: <columnName>
.
DELTA_NOT_NULL_NESTED_FIELD
Ein geschachteltes Feld, das keine Nullwerte zulässt, kann nicht zu einem übergeordneten Element hinzugefügt werden, dass Nullwerte zulässt. Legen Sie die NULL-Zulässigkeit der übergeordneten Spalte entsprechend fest.
DELTA_NO_COMMITS_FOUND
Keine Commits gefunden bei <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
Keine wiederherstellbaren Commits gefunden bei <logPath>
DELTA_NO_RELATION_TABLE
Tabelle <tableIdent>
konnte nicht gefunden werden
DELTA_NO_START_FOR_CDC_READ
Weder „startingVersion“ noch „startTimestamp“ für CDC-Lesezugriff bereitgestellt.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta akzeptiert keine NullTypes im Schema für Streamingschreibvorgänge.
DELTA_ONEOF_IN_TIMETRAVEL
Geben Sie entweder „timestampAsOf“ oder „versionAsOf“ für Zeitreisen an.
DELTA_ONLY_OPERATION
<operation>
wird nur für Delta-Tabellen unterstützt.
DELTA_OPERATION_MISSING_PATH
Bitte geben Sie den Pfad- oder Tabellenbezeichner für <operation>
an.
DELTA_OPERATION_NOT_ALLOWED
Vorgang nicht zulässig: <operation>
wird bei Delta-Tabellen nicht unterstützt.
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Vorgang nicht zulässig: <operation>
wird bei Delta-Tabellen nicht unterstützt: <tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
wird für Spalte <colName>
mit nicht standardmäßiger Sortierung <collation>
nicht unterstützt.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
wird für Ausdrücke <exprText>
nicht unterstützt, da sie nicht standardmäßige Sortierung verwendet.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
Der <operation>
-Befehl in einer temporären Ansicht, die auf eine Delta-Tabelle mit generierten Spalten verweist, wird nicht unterstützt. Bitte führen Sie den <operation>
-Befehl direkt in der Delta-Tabelle aus
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Vorgang nicht zulässig: <operation>
kann nicht auf einer Ansicht ausgeführt werden.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL wird nur für gruppierte Tabellen mit nicht leeren Clusterspalten unterstützt.
DELTA_OVERWRITE_MUST_BE_TRUE
Die Kopieroption „overwriteSchema“ kann nicht angegeben werden, ohne OVERWRITE = ‘true’ festzulegen.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
„overwriteSchema“ kann nicht im dynamischen Partitionsüberschreibungsmodus verwendet werden.
DELTA_PARTITION_COLUMN_CAST_FAILED
Fehler beim Umwandeln des Werts <value>
in <dataType>
für die Partitionsspalte <columnName>
DELTA_PARTITION_COLUMN_NOT_FOUND
Die Partitionsspalte <columnName>
wurde im Schema [<schemaMap>
] nicht gefunden
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Partitionsschema kann beim Konvertieren von Iceberg-Tabellen nicht angegeben werden. Es wird automatisch abgeleitet.
DELTA_PATH_DOES_NOT_EXIST
<path>
ist nicht vorhanden oder ist keine Delta-Tabelle.
DELTA_PATH_EXISTS
Es kann nicht in den bereits vorhandenen Pfad <path>
geschrieben werden, ohne OVERWRITE = ‘true’ festzulegen.
DELTA_POST_COMMIT_HOOK_FAILED
Das Committen in der Delta-Tabellenversion <version>
war erfolgreich, beim Ausführen des Hooks nach dem Commit ist jedoch ein Fehler aufgetreten <name>
<message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: Die Protokollversion der Delta-Tabelle wurde durch ein gleichzeitiges Update geändert. <additionalInfo>
<conflictingCommit>
Weitere Details finden Sie unter <docLink>
.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Die Protokolleigenschaft <key>
muss eine ganze Zahl sein. Es wurde <value>
gefunden
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Nur die Readerprotokollversion kann nicht aktualisiert werden, um Tabellenfeatures zu verwenden. Die Schreiberprotokollversion muss mindestens <writerVersion>
sein, um fortfahren zu können. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>
.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Sie versuchen, eine Delta-Tabelle <tableName>
zu lesen, die keine Spalten enthält.
Schreiben Sie einige neue Daten mit der Option mergeSchema = true
, um die Tabelle lesen zu können.
DELTA_REGEX_OPT_SYNTAX_ERROR
Überprüfen Sie Ihre Syntax für „<regExpOption>
“
DELTA_REPLACE_WHERE_IN_OVERWRITE
Sie können „replaceWhere“ nicht in Verbindung mit einer Überschreibung durch einen Filter verwenden.
DELTA_REPLACE_WHERE_MISMATCH
Die geschriebenen Daten entsprechen nicht der Bedingung zum Überschreiben der partiellen Tabelle oder der Einschränkung „<replaceWhere>
“.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Ein „replaceWhere“-Ausdruck und „partitionOverwriteMode’=’dynamic“ können nicht beide in den DataFrameWriter-Optionen festgelegt werden.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
„replaceWhere“ kann nicht mit den Datenfiltern verwendet werden, wenn „dataChange“ auf „False“ festgelegt ist. Filter: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Zeilen-IDs können ohne Zeilenanzahlstatistiken nicht zugewiesen werden.
Erfassen Sie Statistiken für die Tabelle, indem Sie den folgenden Code in einem Scala-Notebook ausführen, und wiederholen Sie den Vorgang:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
Schemaänderung erkannt:
Streamingquellschema: <readSchema>
Datendateischema: <dataSchema>
Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne
dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre
Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Schemaänderung in Version <version>
erkannt:
Streamingquellschema: <readSchema>
Datendateischema: <dataSchema>
Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne
dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre
Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten. Wenn das Problem weiterhin besteht,
nachdem Sie in ein neues Prüfpunktverzeichnis wechseln, müssen Sie möglicherweise die vorhandene
Option für „startingVersion“ oder „startingTimestamp“ ändern, um ab einer neueren Version als
<version>
mit einem neuen Prüfpunktverzeichnis zu beginnen.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Schemaänderung in Version <version>
erkannt:
Streamingquellschema: <readSchema>
Datendateischema: <dataSchema>
Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne
dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre
Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Das Schema Ihrer Delta-Tabelle hat sich auf inkompatible Weise geändert, seit Ihr DataFrame-
oder DeltaTable-Objekt erstellt wurde. Definieren Sie Ihr DataFrame- oder DeltaTable-Objekt neu.
Änderungen:
<schemaDiff>
<legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Das Tabellenschema ist nicht angegeben. Geben Sie das Schema (Spaltendefinition) der Tabelle an, wenn Sie die REPLACE-Tabelle verwenden. Es wird keine AS SELECT-Abfrage bereitgestellt.
DELTA_SCHEMA_NOT_SET
Das Tabellenschema ist nicht festgelegt. Schreiben Sie Daten hinein, oder verwenden Sie CREATE TABLE, um das Schema festzulegen.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Das Schema des neuen Delta-Speicherorts unterscheidet sich vom aktuellen Tabellenschema.
Ursprüngliches Schema:
<original>
Zielschema:
<destination>
Wenn dies eine beabsichtigte Änderung ist, können Sie diese Überprüfung deaktivieren, indem Sie Folgendes ausführen:
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Die Datei <filePath>
, auf die im Transaktionsprotokoll verwiesen wird, kann nicht gefunden werden. Dies kann geschehen, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt mithilfe der DELETE
-Anweisung der Tabelle. Diese Tabelle scheint ein flacher Klon zu sein. Wenn dies der Fall ist, kann dieser Fehler auftreten, wenn die ursprüngliche Tabelle, aus der diese Tabelle geklont wurde, eine Datei gelöscht hat, die der Klon immer noch verwendet. Wenn Klone unabhängig von der ursprünglichen Tabelle sein sollen, verwenden Sie stattdessen einen TIEFEN Klon.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Vordefinierte Eigenschaften, die beginnen, <prefix>
können nicht geändert werden.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Die Daten werden durch die Empfängereigenschaft <property>
eingeschränkt, die nicht für den aktuellen Empfänger in der Sitzung gilt.
Weitere Informationen finden Sie unter DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
kann nicht in Delta-Sharing-Ansichten verwendet werden, die kontoübergreifend freigegeben sind.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Ungültiger Authentifizierungstyp <authenticationType>
für Anbieter <provider>
.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Ungültiger Authentifizierungstyp <authenticationType>
für Empfänger <recipient>
.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Ungültiger Name, um auf eine <type>
Innerhalb einer Freigabe zu verweisen. Sie können entweder <type>
den Namen innerhalb der Freigabe verwenden, die dem Format von [schema].[<type>
] folgt, oder Sie können auch den ursprünglichen vollständigen Namen der Tabelle nach dem Format von [Katalog].[ schema]. [>typ>].
Wenn Sie nicht sicher sind, welchen Namen Sie verwenden sollen, können Sie "ALLE TEILEN [Teilen]" ausführen und den Namen der <type>
zu entfernenden Spalte finden: Spalte "Name" ist der <type>
Name innerhalb der Freigabe und Spalte "shared_object" ist der <type>
ursprüngliche vollständige Name.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
Es gibt mehr als zwei Token für den Empfänger <recipient>
.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Die Recipient-Eigenschaft <property>
ist nicht vorhanden.
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
Empfängertoken fehlen für empfänger <recipient>
.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Nicht partitionierende Spalten <badCols>
werden für SHOW PARTITIONS angegeben
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS ist in einer nicht partitionierten Tabelle nicht zulässig: <tableName>
DELTA_SOURCE_IGNORE_DELETE
Es wurden gelöschte Daten (z. B. <removedFile>
) in der Streamingquelle der Version <version>
erkannt. Dies wird derzeit nicht unterstützt. Wenn Sie Löschungen ignorieren möchten, legen Sie die Option „ignoreDeletes“ auf „True“ fest. Die Quelltabelle finden Sie unter Pfad <dataPath>
.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Es wurde eine Datenaktualisierung (z. B. <file>
) in der Quelltabelle der Version <version>
erkannt. Dies wird derzeit nicht unterstützt. Wenn dies regelmäßig vorkommt und Sie Änderungen überspringen können, setzen Sie die Option „skipChangeCommits“ auf „true“. Wenn die Datenaktualisierung wiedergegeben werden soll, starten Sie diese Abfrage mit einem neuen Prüfpunktverzeichnis neu, oder aktualisieren Sie eine vollständige Aktualisierung, wenn Sie DLT verwenden. Wenn Sie diese Änderungen bearbeiten müssen, wechseln Sie bitte zu MVs. Die Quelltabelle finden Sie unter Pfad <dataPath>
.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Geben Sie entweder „<version>
“ oder „<timestamp>
“ an
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
-Statistik für Spalte in Parquet-Metadaten <columnPath>
wurde nicht gefunden: .
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Wir haben mindestens eine nicht additive Schemaänderung (<opType>
) zwischen der Delta-Version <previousSchemaChangeVersion>
und <currentSchemaChangeVersion>
in der Delta-Streamingquelle erkannt.
Überprüfen Sie, ob Sie diese Schemaänderungen manuell an die Senkentabelle weitergeben möchten, bevor wir mit der Streamverarbeitung mithilfe des endgültigen Schemas unter <currentSchemaChangeVersion>
fortfahren.
Nachdem Sie das Schema der Senkentabelle korrigiert oder entschieden haben, dass keine Korrektur erforderlich ist, können Sie die folgenden SQL-Konfigurationen (eine davon) festlegen, um die Blockierung der nicht additiven Schemaänderungen aufzuheben und die Streamverarbeitung fortzusetzen.
Um die Blockierung für diesen bestimmten Stream nur für diese Reihe von Schemaänderungen aufzuheben: legen Sie <allowCkptVerKey>` = `<allowCkptVerValue>
fest.
Um die Blockierung für diesen bestimmten Stream aufzuheben: legen Sie <allowCkptKey>` = `<allowCkptValue>
fest
Um die Blockierung für alle Streams aufzuheben: legen Sie <allowAllKey>` = `<allowAllValue>
fest.
Alternativ können Sie, falls zutreffend, den <allowAllMode>
durch <opSpecificMode>
in der SQL-Konfiguration ersetzen, um die Blockierung des Streams nur für diesen Schemaänderungstyp aufzuheben.
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Fehler beim Abrufen einer Delta-Protokollmomentaufnahme für die Startversion, als Schemaänderungen der Spaltenzuordnung überprüft wurden. Bitte wählen Sie eine andere Startversion aus, oder erzwingen Sie das Aktivieren des Streaminglesevorgangs auf eigene Gefahr, indem Sie „<config>
“ auf „WAHR“ festlegen.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Streaminglesevorgänge werden für Tabellen mit leseinkompatiblen Schemaänderungen (z. B. Umbenennen, Löschen oder Datentypänderungen) nicht unterstützt.
Weitere Informationen und mögliche nächste Schritte zum Beheben dieses Problems finden Sie in der Dokumentation unter <docLink>
Leseschema: <readSchema>
. Inkompatibles Datenschema: <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Streaminglesevorgänge werden für Tabellen mit leseinkompatiblen Schemaänderungen (z. B. Umbenennen, Löschen oder Datentypänderungen) nicht unterstützt.
Geben Sie eine „schemaTrackingLocation“ an, um die nicht-additive Schemaentwicklung für die Delta-Streamverarbeitung zu ermöglichen.
Weitere Informationen finden Sie unter <docLink>
.
Leseschema: <readSchema>
. Inkompatibles Datenschema: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
Das Schema, die Tabellenkonfiguration oder das Protokoll Ihrer Delta-Tabelle hat sich während des Streamings geändert.
Das Schema- oder Metadaten-Nachverfolgungsprotokoll wurde aktualisiert.
Starten Sie den Stream neu, um die Verarbeitung mithilfe der aktualisierten Metadaten fortzusetzen.
Aktualisiertes Schema: <schema>
.
Aktualisierte Tabellenkonfigurationen: <config>
.
Aktualisiertes Tabellenprotokoll: <protocol>
.
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
Das Streaming aus der Quelltabelle <tableId>
mit Schemanachverfolgung unterstützt keine Zeilenfilter oder Spaltenmasken.
Entfernen Sie die Zeilenfilter oder Spaltenmasken, oder deaktivieren Sie die Schemanachverfolgung.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Es wurde ein Konflikt mit dem Schemaspeicherort „<loc>
“ beim Streaming aus der Tabelle oder der Tabelle unter „<table>
“ entdeckt.
Ein anderer Stream verwendet möglicherweise denselben Schemaspeicherort, was nicht zulässig ist.
Bitte geben Sie einen neuen eindeutigen schemaTrackingLocation
-Pfad oder streamingSourceTrackingId
als Leseroption für einen der Streams aus dieser Tabelle an.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Der Schemaspeicherort „<schemaTrackingLocation>
“ muss unter dem Prüfpunktspeicherort „<checkpointLocation>
“ platziert werden.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Unvollständige Protokolldatei im Schemaprotokoll der Delta-Streamingquelle bei „<location>
“.
Das Schemaprotokoll wurde möglicherweise beschädigt. Bitte wählen Sie einen neuen Schemaspeicherort aus.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Beim Lesen des Delta-Streams wurde eine inkompatible Delta-Tabellen-ID erkannt.
Persistente Tabellen-ID: <persistedId>
, Tabellen-ID: <tableId>
Das Schemaprotokoll wurde möglicherweise wiederverwendet. Bitte wählen Sie einen neuen Schemaspeicherort aus.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Beim Lesen des Delta-Streams wurde ein inkompatibles Partitionsschema erkannt.
Persistentes Schema: <persistedSchema>
, Delta-Partitionsschema: <partitionSchema>
Bitte wählen Sie einen neuen Schemaspeicherort aus, um das Schemaprotokoll neu zu initialisieren, wenn Sie das Partitionsschema der Tabelle kürzlich manuell geändert haben.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Wir konnten das Schemaprotokoll der Delta-Streamingquelle nicht initialisieren, weil
beim Bereitstellen eines Streamingbatches von der Tabellenversion <a>
zu <b>
eine inkompatible Schema- oder Protokolländerung erkannt wurde.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Fehler beim Parsen des Schemas aus dem Schemaprotokoll der Delta-Streamingquelle.
Das Schemaprotokoll wurde möglicherweise beschädigt. Bitte wählen Sie einen neuen Schemaspeicherort aus.
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Change Data Capture konnte in der Tabelle nicht aktiviert werden. Die Tabelle enthält bereits
reservierte Spalten <columnList>
, die
intern als Metadaten für den Änderungsdatenfeed der Tabelle verwendet werden. Um
den Änderungsdatenfeed in der Tabelle zu aktivieren, müssen Sie diese Spalten umbenennen/entfernen.
DELTA_TABLE_ALREADY_EXISTS
Die Tabelle <tableName>
ist bereits vorhanden.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
DeltaTable.forPath unterstützt derzeit nur Hadoop-Konfigurationsschlüssel ab <allowedPrefixes>
, verwendet aber <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
Die Delta-Tabelle unter <tableLocation>
wurde während der Verwendung der Tabelle durch diesen Befehl ersetzt.
Die Tabellen-ID lautete <oldId>
, aber lautet jetzt <newId>
.
Wiederholen Sie den aktuellen Befehl, um sicherzustellen, dass eine konsistente Ansicht der Tabelle gelesen wird.
DELTA_TABLE_LOCATION_MISMATCH
Der Speicherort der vorhandenen Tabelle <tableName>
ist <existingTableLocation>
. Er stimmt nicht mit dem angegebenen Speicherort <tableLocation>
überein.
DELTA_TABLE_NOT_FOUND
Die Delta-Tabelle <tableName>
ist nicht vorhanden.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
Tabelle wird in <operation>
nicht unterstützt. Verwenden Sie stattdessen einen Pfad.
DELTA_TABLE_ONLY_OPERATION
<tableName>
ist keine Delta-Tabelle. <operation>
wird nur für Delta-Tabellen unterstützt.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Das endgültige Schema der Zieltabelle ist leer.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
Der bereitgestellte Zeitstempel (<providedTimestamp>
) liegt nach der aktuellen Version, die verfügbar ist für diese
Tabelle (<tableName>
). Bitte verwenden Sie einen Zeitstempel bis einschließlich <maximumTimestamp>
.
DELTA_TIMESTAMP_INVALID
Der angegebene Zeitstempel (<expr>
) kann nicht in einen gültigen Zeitstempel konvertiert werden.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
muss ein gültiger Anfangswert sein.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: Der Zustand kann in der Version <version>
nicht rekonstruiert werden, da das Transaktionsprotokoll aufgrund der manuellen Löschung oder der Protokollaufbewahrungsrichtlinie (<logRetentionKey>
=<logRetention>
) und der Prüfpunktaufbewahrungsrichtlinie (<checkpointRetentionKey>
=<checkpointRetention>
) abgeschnitten wurde
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Vorgang nicht zulässig: TRUNCATE TABLE unterstützt in Delta-Tabellen keine Partitionsprädikate. Verwenden Sie DELETE, um bestimmte Partitionen oder Zeilen zu löschen.
DELTA_UDF_IN_GENERATED_COLUMN
Es wurde <udfExpr>
gefunden. Eine generierte Spalte kann keine benutzerdefinierte Funktion verwenden.
DELTA_UNEXPECTED_ACTION_EXPRESSION
Unerwarteter Aktionsausdruck <expression>
.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Es werden die <expectedColsSize>
-Partitionsspalten <expectedCols>
erwarten, es wurden jedoch <parsedColsSize>
-Partitionsspalten <parsedCols>
beim Parsen des Dateinamens <path>
gefunden
DELTA_UNEXPECTED_PARTIAL_SCAN
Es wurde ein vollständiger Scan der Delta-Quellen erwartet, aber nur ein Teilscan gefunden. Pfad: <path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Es wird die Partitionsspalte <expectedCol>
erwartet, es wurde jedoch die Partitionsspalte <parsedCol>
beim Parsen des Dateinamens <path>
gefunden
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA wurde mit einem Partitionsschema aufgerufen, das sich von dem aus dem Katalog abgeleiteten Partitionsschema unterscheidet. Vermeiden Sie es, das Schema anzugeben, sodass das Partitionsschema aus dem Katalog ausgewählt werden kann.
Katalogpartitionsschema:
<catalogPartitionSchema>
Bereitgestelltes Partitionsschema:
<userPartitionSchema>
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
"Eisberg mit Delta Uniform lesen" ist fehlgeschlagen.
Weitere Informationen finden Sie unter DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Das Erstellen oder Aktualisieren einer einheitlichen Eingangstabelle wird nicht unterstützt.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Das Format <fileFormat>
wird nicht unterstützt. Nur Eisberg als ursprüngliches Dateiformat wird unterstützt.
DELTA_UNIFORM_NOT_SUPPORTED
Das universelle Format wird nur für Unity Catalog-Tabellen unterstützt.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Fehler beim Konvertieren der Tabellenversion <version>
in das universelle Format <format>
. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Bei der Überprüfung des universellen Formats (<format>
) ist ein Fehler aufgetreten: <violation>
DELTA_UNKNOWN_CONFIGURATION
Eine unbekannte Konfiguration wurde angegeben: <config>
DELTA_UNKNOWN_PRIVILEGE
Unbekannte Berechtigung: <privilege>
DELTA_UNKNOWN_READ_LIMIT
Unbekanntes ReadLimit: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Nicht erkannte Spaltenänderung <otherClass>
. Möglicherweise wird eine veraltete Delta Lake-Version ausgeführt.
DELTA_UNRECOGNIZED_INVARIANT
Nicht erkannte Invariante. Aktualisieren Sie Ihre Spark-Version.
DELTA_UNRECOGNIZED_LOGFILE
Nicht erkannte Protokolldatei <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
Es wurde versucht, die nicht vorhandene Eigenschaft „<property>
“ in der Tabelle <tableName>
zu löschen
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
unterstützt das Hinzufügen von Dateien mit einem absoluten Pfad nicht
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN wird für das Ändern der Spalte <fieldPath>
von <oldField>
nach <newField>
nicht unterstützt
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Nicht unterstützter ALTER TABLE REPLACE COLUMNS-Vorgang. Grund: <details>
Fehler beim Ändern des Schemas von:
<oldSchema>
in:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Sie haben versucht, mit dem Vorgang REPLACE eine vorhandene Tabelle (<tableName>
) mit CLONE zu ersetzen. Dieser Vorgang wird
Nicht unterstützt. Probieren Sie ein anderes Ziel für CLONE aus, oder löschen Sie die Tabelle am aktuellen Ziel.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Das Ändern des Spaltenzuordnungsmodus von „<oldMode>
“ in „<newMode>
“ wird nicht unterstützt.
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Ihre aktuelle Tabellenprotokollversion unterstützt nicht das Ändern von Spaltenzuordnungsmodi
mittels <config>
.
Erforderliche Delta-Protokollversion für die Spaltenzuordnung:
<requiredVersion>
Aktuelle Delta-Protokollversion Ihrer Tabelle:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Schemaänderung erkannt:
Altes Schema:
<oldTableSchema>
Neues Schema:
<newTableSchema>
Schemaänderungen sind während der Änderung des Spaltenzuordnungsmodus nicht zulässig.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Das Schreiben von Daten mit dem Spaltenzuordnungsmodus wird nicht unterstützt.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Das Erstellen eines Bloomfilterindexes für eine Spalte vom Typ <dataType>
wird nicht unterstützt: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Ein Kommentar kann nicht zu <fieldPath>
hinzugefügt werden. Das Hinzufügen eines Kommentars zu einem Kartenschlüssel/Wert oder Arrayelement wird nicht unterstützt.
DELTA_UNSUPPORTED_DATA_TYPES
Es wurden Spalten mit nicht unterstützten Datentypen gefunden: <dataTypeList>
. Sie können „<config>
“ auf FALSCH festlegen, um die Typüberprüfung zu deaktivieren. Wenn Sie diese Typüberprüfung deaktivieren, können Benutzer*innen nicht unterstützte Delta-Tabellen erstellen, die nur verwendet werden sollten, um Legacytabellen zu lesen oder zu schreiben.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
kann nicht das Ergebnis einer generierten Spalte sein.
DELTA_UNSUPPORTED_DEEP_CLONE
Tiefe Klone werden für diese Delta-Version nicht unterstützt.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
ist eine Ansicht. DESCRIBE DETAIL wird nur für Tabellen unterstützt.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Das Ablegen von Clusteringspalten (<columnList>
) ist nicht zulässig.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN wird für Ihre Delta-Tabelle nicht unterstützt. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Geschachtelte Spalten können nur von StructType abgelegt werden. Es wurde <struct>
gefunden
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Das Ablegen von Partitionsspalten (<columnList>
) ist nicht zulässig.
DELTA_UNSUPPORTED_EXPRESSION
Nicht unterstützter Ausdruckstyp (<expType>
) für <causedBy>
. Die unterstützten Typen sind [<supportedTypes>
].
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
darf in einer generierten Spalte nicht verwendet werden
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Nicht unterstützte Delta-Lesefunktion: Tabelle „<tableNameOrPath>
“ erfordert Lesetabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>
. Weitere Informationen zur Kompatibilität von Delta Lake-Features finden Sie unter <link>
.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Nicht unterstützte Delta-Schreibfunktion: Tabelle „<tableNameOrPath>
“ erfordert Schreibtabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>
. Weitere Informationen zur Kompatibilität von Delta Lake-Features finden Sie unter <link>
.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Tabellenfeatures, die in den folgenden Spark-Konfigurationen oder Delta-Tabelleneigenschaften konfiguriert sind, werden von dieser Version von Databricks nicht erkannt: <configs>
.
DELTA_UNSUPPORTED_FEATURE_STATUS
Es wird erwartet, dass der Status für das Tabellenfeature <feature>
„unterstützt“ lautet, er lautet aber „<status>
“.
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
Das Aktualisieren geschachtelter Felder wird nur für StructType unterstützt, Sie versuchen aber, ein Feld von <columnName>
zu aktualisieren, das den Typ <dataType>
aufweist.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
Der Befehl „FSCK REPAIR TABLE“ wird für Tabellenversionen mit fehlenden Löschvektordateien nicht unterstützt.
Wenden Sie sich an den Support.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
Der Befehl „GENERATE symlink_format_manifest“ wird in Tabellenversionen mit Löschvektoren nicht unterstützt.
Um eine Version der Tabelle ohne Löschvektoren zu erstellen, führen Sie „REORG TABLE table APPLY (PURGE)“ aus. Führen Sie dann den Befehl „GENERATE“ erneut aus.
Stellen Sie sicher, dass gleichzeitige Transaktionen zwischen REORG und GENERATE nicht erneut Löschvektoren hinzufügen.
Wenn Sie regelmäßig Manifeste generieren müssen oder gleichzeitige Transaktionen nicht verhindern können, sollten Sie erwägen, die Löschvektoren in dieser Tabelle mithilfe von „ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)“ zu deaktivieren.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Invarianten werden für andere geschachtelte Felder als StructTypes nicht unterstützt.
DELTA_UNSUPPORTED_IN_SUBQUERY
Die IN-Unterabfrage wird in der <operation>
-Bedingung nicht unterstützt.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix nicht verfügbar
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
Die Manifestgenerierung wird für Tabellen, die die Spaltenzuordnung nutzen, nicht unterstützt, da externe Leser diese Delta-Tabellen nicht lesen können. Weitere Informationen finden Sie in der Dokumentation zu Delta.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO-Vorgänge mit Schemaentwicklung unterstützen derzeit nicht das Schreiben von CDC-Ausgaben.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Mehrspaltige IN-Prädikate werden in der <operation>
-Bedingung nicht unterstützt.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
Das Erstellen eines Bloomfilterindexes in einer geschachtelten Spalte wird derzeit nicht unterstützt: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Geschachteltes Feld wird in <operation>
(Feld = <fieldName>
) nicht unterstützt.
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
Die Klonzieltabelle ist nicht leer. Verwenden Sie TRUNCATE oder DELETE FROM für die Tabelle, bevor Sie CLONE ausführen.
DELTA_UNSUPPORTED_OUTPUT_MODE
Die Datenquelle <dataSource>
unterstützt den <mode>
-Ausgabemodus nicht
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Das Erstellen eines Bloomfilterindexes für eine Partitionierungsspalte wird nicht unterstützt: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
Spaltenumbenennung wird für Ihre Delta-Tabelle nicht unterstützt. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta unterstützt das Angeben des Schemas zur Lesezeit nicht.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY wird für Delta-Buckettabellen nicht unterstützt.
DELTA_UNSUPPORTED_SOURCE
Das <operation>
-Ziel unterstützt nur Delta-Quellen.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Das Angeben statischer Partitionen in der Partitionsspezifikation wird derzeit während der Einfügungen nicht unterstützt.
DELTA_UNSUPPORTED_STRATEGY_NAME
Nicht unterstützter Strategiename: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
Unterabfragen werden in der <operation>
(Bedingung = <cond>
) nicht unterstützt.
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Unterabfragen werden in Partitionsprädikaten nicht unterstützt.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Zeitreise kann nicht in mehreren Formaten angegeben werden.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Zeitreisen für Ansichten, Unterabfragen, Streams oder Änderungsdatenfeedabfragen sind nicht möglich.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Das Abschneiden von Beispieltabellen wird nicht unterstützt.
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Diese Tabelle kann nicht ausgeführt werden, da eine nicht unterstützte Typänderung angewendet wurde. Das Feld <fieldName>
wurde von <fromType>
zu <toType>
geändert.
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Bitte geben Sie den Basispfad (<baseDeltaPath>
) beim Vakuumieren von Delta-Tabellen an. Die Vakuumierung bestimmter Partitionen wird derzeit nicht unterstützt.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
Die Tabellenimplementierung unterstützt keine Schreibvorgänge: <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Sie versuchen, Schreibvorgänge für eine Tabelle durchzuführen, die beim Commit-Koordinator <coordinatorName>
registriert wurde. In der aktuellen Umgebung ist jedoch keine Implementierung dieses Koordinators verfügbar und Schreibvorgänge ohne Koordinatoren sind nicht zulässig.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Schreiben in Beispieltabellen wird nicht unterstützt
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
<fromCatalog>
kann nicht in <toCatalog>
umgewandelt werden. Alle geschachtelten Spalten müssen übereinstimmen.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VAKUUM für Datendateien war erfolgreich, aber COPY INTO State Garbage Collection ist fehlgeschlagen.
DELTA_VERSIONS_NOT_CONTIGUOUS
Versionen (<versionList>
) sind nicht zusammenhängend.
Weitere Informationen finden Sie unter DELTA_VERSIONS_NOT_CONTIGUOUS.
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
CHECK-Einschränkung <constraintName>
<expression>
verletzt durch Zeile mit Werten:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Die Validierung der Eigenschaften der Tabelle <table>
wurde verletzt:
Weitere Informationen finden Sie unter DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
ist eine Ansicht. Sie können keine Daten in eine Sicht schreiben.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Die Z-Sortierspalte <columnName>
ist im Datenschema nicht vorhanden.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Die Z-Sortierung auf <cols>
wird
nicht effektiv, da wir derzeit keine Statistiken für diese Spalten erfassen. Informationen zu den nächsten Schritten finden Sie im Abschnitt
<link>
weitere Informationen zum Überspringen von Daten und zur Z-Ordnung. Sie können
diese Überprüfung deaktivieren, indem Sie
„%%sql set <zorderColStatKey>
= false“ festlegen
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
ist eine Partitionsspalte. Die Z-Ordnung kann nur für Datenspalten durchgeführt werden.
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
Der Schemaentwicklungsmodus <addNewColumnsMode>
wird nicht unterstützt, wenn das Schema angegeben wurde. Um diesen Modus zu verwenden, können Sie das Schema stattdessen über cloudFiles.schemaHints
bereitstellen.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Es wurden Authentifizierungsoptionen für die Benachrichtigungseinrichtung für den (Standard-)Auflistungsmodus des
Verzeichnisses gefunden:
<options>
Wenn Sie den Dateibenachrichtigungsmodus verwenden möchten, legen Sie Folgendes explizit fest:
.option(“cloudFiles.<useNotificationsKey>
”, “true”)
Alternativ können Sie, um die Überprüfung Ihrer Optionen zu überspringen und diese
Authentifizierungsoptionen zu ignorieren, Folgendes festlegen:
.option(„cloudFiles.ValidateOptionsKey>“, „false“)
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Inkrementeller Auflistungsmodus (cloudFiles.<useIncrementalListingKey>
)
und Dateibenachrichtigung (cloudFiles.<useNotificationsKey>
)
wurden gleichzeitig aktiviert.
Stellen Sie sicher, dass nur eine Option ausgewählt wird.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
adlsBlobSuffix und adlsDfsSuffix sind für Azure erforderlich
CF_BUCKET_MISMATCH
Der <storeType>
im Dateiereignis <fileEvent>
entspricht nicht der Erwartung der Quelle: <source>
.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Das Schema kann nicht entwickelt werden, wenn das Schemaprotokoll leer ist. Schemaprotokollspeicherort: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Die folgende Nachricht in der Warteschlange kann nicht analysiert werden: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Der Containername kann nicht vom Pfad <path>
aufgelöst werden, aufgelöster URI: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Verzeichnisauflistung kann nicht ausgeführt werden, während ein asynchroner Abgleichsthread ausgeführt wird
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
cloudFiles.cleanSource und cloudFiles.allowOverwrites können nicht gleichzeitig aktiviert werden.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Der Autolader kann keine verarbeiteten Dateien löschen, da er über keine Schreibberechtigungen für das Quellverzeichnis verfügt.
<reason>
Um dies zu beheben, können Sie eines der Folgenden tun:
- Erteilen von Schreibberechtigungen für das Quellverzeichnis ODER
- Festlegen von cleanSource auf „OFF“
Sie können die Blockierung Ihres Streams auch aufheben, indem Sie SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors auf WAHR festlegen.
CF_DUPLICATE_COLUMN_IN_DATA
Beim Versuch, das Partitionsschema Ihrer Tabelle abzuleiten, ist ein Fehler aufgetreten. Dieselbe Spalte ist in Ihren Daten- und Partitionspfaden doppelt vorhanden. Um den Partitionswert zu ignorieren, geben Sie bitte Ihre Partitionsspalten explizit wie folgt an: .option(“cloudFiles.<partitionColumnsKey>
”, “{Komma-getrennte-Liste}”)
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Das Schema kann nicht angeleitet werden, wenn der Eingabepfad <path>
leer ist. Versuchen Sie, den Datenstrom zu starten, wenn Dateien im Eingabepfad vorhanden sind, oder geben Sie das Schema an.
CF_EVENT_GRID_AUTH_ERROR
Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Dienstprinzipal
über <permissionType>
-Event Grid-Abonnements verfügt. Weitere Informationen finden Sie unter:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Fehler beim Erstellen des Event Grid-Abonnements. Stellen Sie sicher, dass Microsoft.EventGrid als
Ressourcenanbieter in Ihrem Abonnement registriert ist. Weitere Informationen finden Sie unter:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Speicherkonto
(<storageAccount>
) sich in Ihrer Ressourcengruppe (<resourceGroup>
) befindet und dass
das Speicherkonto den Typ „StorageV2 (universell v2)“ aufweist. Weitere Informationen finden Sie unter:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Der Autolader-Modus für Ereignisbenachrichtigungen wird für <cloudStore>
nicht unterstützt.
CF_FAILED_TO_CHECK_STREAM_NEW
Fehler bei der Überprüfung, ob der Datenstrom neu ist
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Fehler beim Erstellen des Abonnements: <subscriptionName>
. Ein Abonnement mit diesem Namen ist bereits vorhanden und einem anderen Thema zugeordnet: <otherTopicName>
. Das gewünschte Thema ist <proposedTopicName>
. Löschen Sie entweder das vorhandene Abonnement, oder erstellen Sie ein Abonnement mit einem neuen Ressourcensuffix.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Fehler beim Erstellen von Thema <topicName>
. Es ist bereits ein Thema mit diesem Namen vorhanden.<reason>
Entfernen Sie das vorhandene Thema, oder versuchen Sie es erneut mit einem anderen Ressourcensuffix
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Fehler beim Löschen der Benachrichtigung mit der ID <notificationId>
im Bucket <bucketName>
für das Thema <topicName>
. Wiederholen Sie den Vorgang, oder entfernen Sie manuell die Benachrichtigung über die GCP-Konsole.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Fehler beim Deserialisieren des gespeicherten Schemas aus der Zeichenfolge: „<jsonSchema>
“
CF_FAILED_TO_EVOLVE_SCHEMA
Schema kann ohne Schemaprotokoll nicht entwickelt werden.
CF_FAILED_TO_FIND_PROVIDER
Fehler beim Suchen des Anbieters für <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Fehler beim Ableiten des Schemas für das Format <fileFormatInput>
aus vorhandenen Dateien im Eingabepfad <path>
.
Weitere Details finden Sie unter CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Fehler beim Schreiben in das Schemaprotokoll am Speicherort <path>
.
CF_FILE_FORMAT_REQUIRED
Die erforderliche Option konnte nicht gefunden werden: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Es wurden mehrere (<topicName>
) Abonnements mit dem Autolader-Präfix für das Thema <num>
gefunden:
<subscriptionList>
Es sollte nur ein Abonnement pro Thema vorhanden sein. Stellen Sie manuell sicher, dass Ihr Thema nicht über mehrere Abonnements verfügt.
CF_GCP_AUTHENTICATION
Bitte geben Sie entweder alle folgenden Informationen an: <clientEmail>
, <client>
,
<privateKey>
und <privateKeyId>
, oder stellen Sie keine davon bereit, um die Standardeinstellung
für die GCP-Anmeldeinformationenanbieterkette zur Authentifizierung bei GCP-Ressourcen zu verwenden.
CF_GCP_LABELS_COUNT_EXCEEDED
Es wurden zu viele Bezeichnungen (<num>
) für die GCP-Ressource empfangen. Die maximale Bezeichnungsanzahl pro Ressource ist <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Es wurden zu viele Ressourcentags (<num>
) für die GCP-Ressource empfangen. Die maximale Anzahl von Ressourcentags pro Ressource ist <maxNum>
, da Ressourcentags als GCP-Bezeichnungen in Ressourcen gespeichert werden und die Databricks-spezifischen Tags einen Teil dieses Bezeichnungskontingents verbrauchen.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Unvollständige Protokolldatei im Schemaprotokoll im Pfad <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Unvollständige Metadatendatei am Autoloader-Prüfpunkt
CF_INCORRECT_SQL_PARAMS
Die „cloud_files“-Methode akzeptiert zwei erforderliche Zeichenfolgenparameter: den Pfad, aus dem geladen werden soll, und das Dateiformat. Dateileseoptionen müssen in einer Zeichenfolgen-Schlüsselwertzuordnung bereitgestellt werden. Beispiel: cloud_files(“path”, “json”, map(“option1”, “value1”)). Empfangen: <params>
CF_INTERNAL_ERROR
Interner Fehler.
Weitere Informationen finden Sie unter CF_INTERNAL_ERROR
CF_INVALID_ARN
Ungültiger ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
Der private Schlüssel, der mit der Option cloudFiles.certificate bereitgestellt wird, kann nicht analysiert werden. Geben Sie einen gültigen öffentlichen Schlüssel im PEM-Format an.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
Der private Schlüssel, der mit der Option cloudFiles.certificatePrivateKey bereitgestellt wird, kann nicht analysiert werden. Geben Sie einen gültigen privaten Schlüssel im PEM-Format an.
CF_INVALID_CHECKPOINT
Dieser Prüfpunkt ist keine gültige CloudFiles-Quelle.
CF_INVALID_CLEAN_SOURCE_MODE
Ungültiger Modus für die Option <value>
mit bereinigter Quelle .
CF_INVALID_GCP_RESOURCE_TAG_KEY
Ungültiger Ressourcentagschlüssel für GCP-Ressource: <key>
. Schlüssel müssen mit einem Kleinbuchstaben beginnen, zwischen 1 und 63 Zeichen lang sein und dürfen nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Ungültiger Ressourcentagwert für GCP-Ressource: <value>
. Werte müssen zwischen 0 und 63 Zeichen lang sein und dürfen nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Auto Loader unterstützt bei Verwendung mit verwalteten Dateiereignissen die folgenden Optionen nicht:
<optionList>
Es wird empfohlen, diese Optionen zu entfernen und den Datenstrom danach neu zu starten.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Ungültige Antwort vom Dienst für verwaltete Dateiereignisse. Wenden Sie sich für Unterstützung an den Databricks-Support.
Weitere Informationen finden Sie unter CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
muss eines sein von {
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
Schemahinweise können eine bestimmte Spalte nur einmal angeben.
In diesem Fall wird die Spalte: <columnName>
mehrmals in Schemahinweisen neu definiert:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Schemahinweise können nicht verwendet werden, um die geschachtelten Typen von Zuordnungen und Arrays außer Kraft zu setzen.
In Konflikt stehende Spalte: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset sollte mit einem ReadLimit für diese Quelle aufgerufen werden.
CF_LOG_FILE_MALFORMED
Die Protokolldatei war nicht wohlgeformt: Fehler beim Lesen der korrekten Protokollversion aus <fileName>
.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Sie haben angefordert, dass Auto Loader die vorhandenen Dateien an Ihrem externen Speicherort ignoriert, indem Sie includeExistingFiles auf FALSE festlegen. Der Dienst für verwaltete Dateiereignisse findet weiterhin vorhandene Dateien an Ihrem externen Speicherort. Versuchen Sie es noch einmal, nachdem die verwalteten Datereignisse alle Dateien an Ihrem externen Speicherort gefunden haben.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Sie verwenden Auto Loader mit verwalteten Dateiereignissen, aber es scheint, dass der externe Speicherort für Ihren Eingabepfad „<path>
“ keine Dateiereignisse aktiviert hat, oder der Eingabepfad ist ungültig. Bitten Sie Ihren bzw. Ihre Databricks-Administrator*in, Dateiereignisse an dem externen Speicherort für Ihren Eingabepfad zu aktivieren.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Sie verwenden Auto Loader mit verwalteten Dateiereignissen, aber Sie haben keinen Zugriff auf den externen Speicherort oder das Volume für den Eingabepfad „<path>
“, oder der Eingabepfad ist ungültig. Bitten Sie Ihren bzw. Ihre Databricks-Administrator*in, Leseberechtigungen für den externen Speicherort oder das Volume zu gewähren, oder stellen Sie einen gültigen Eingabepfad innerhalb eines vorhandenen externen Speicherorts oder Volumes bereit.
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
Auto Loader mit verwalteten Dateiereignissen ist nur in Databricks Serverless verfügbar. Um fortzufahren, verschieben Sie die Workload zu Databricks Serverless oder deaktivieren Sie die Option „cloudFiles.useManagedFileEvents“.
CF_MAX_MUST_BE_POSITIVE
muss positiv sein
CF_METADATA_FILE_CONCURRENTLY_USED
Mehrere Streamingabfragen verwenden gleichzeitig <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
Die Metadatendatei im Prüfpunktverzeichnis der Streamingquelle fehlt. Diese Metadatendatei
enthält wichtige Standardoptionen für den Datenstrom, sodass der Datenstrom derzeit nicht neu gestartet
werden kann. Wenden Sie sich für Unterstützung an den Databricks-Support.
CF_MISSING_PARTITION_COLUMN_ERROR
Die Partitionsspalte <columnName>
ist im angegebenen Schema nicht enthalten:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Geben Sie mit .schema() ein Schema an, wenn im Dateibenachrichtigungsmodus kein Pfad für die CloudFiles-Quelle bereitgestellt wird. Alternativ können Sie das Schema auch von Autoloader ableiten lassen, indem Sie in .load() einen Basispfad angeben.
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Vorhandene Benachrichtigungen für das Thema <topicName>
im Bucket <bucketName>
gefunden:
Benachrichtigung,ID
<notificationList>
Um zu viele Benachrichtigungen an Abonnent*innen durch unbeabsichtigte Ereignisse zu vermeiden, löschen Sie die obigen Benachrichtigungen und versuchen es erneut.
CF_NEW_PARTITION_ERROR
Neue Partitionsspalten wurden aus Ihren Dateien abgeleitet: [<filesList>
]. Geben Sie alle Partitionsspalten in Ihrem Schema an, oder geben Sie wie folgt eine Liste der Partitionsspalten an, für die Sie Werte extrahieren möchten: .option(„cloudFiles.partitionColumns“, „{trennzeichen-liste|leere-zeichenfolge}“)
CF_PARTITON_INFERENCE_ERROR
Fehler beim Versuch, das Partitionsschema des aktuellen Dateibatches abzuleiten. Bitte geben Sie Ihre Partitionsspalten explizit wie folgt an: .option(“cloudFiles.<partitionColumnOption>
”, “{Komma-getrennte-Liste}”)
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Es können keine Dateien gelesen werden, wenn der Eingabepfad <path>
nicht vorhanden ist. Stellen Sie sicher, dass der Eingabepfad vorhanden ist, und versuchen Sie es erneut.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Periodische Abgleiche werden nicht unterstützt, wenn der asynchrone Abgleich deaktiviert ist. Sie können den asynchronen Abgleich/die Verzeichnisauflistung aktivieren, indem Sie spark.databricks.cloudFiles.asyncDirListing
auf TRUE festlegen.
CF_PREFIX_MISMATCH
Nicht übereinstimmendes Ereignis gefunden: Der Schlüssel <key>
verfügt nicht über das Präfix <prefix>
CF_PROTOCOL_MISMATCH
<message>
Wenn Sie keine anderen Änderungen an Ihrem Code vornehmen müssen, legen Sie die SQL-Konfiguration
„<sourceProtocolVersionKey>
= <value>
“ fest,
um Ihren Datenstrom fortzusetzen. Informationen hierzu finden Sie hier:
<docLink>
finden Sie weitere Informationen.
CF_REGION_NOT_FOUND_ERROR
Standard-AWS-Region konnte nicht abgerufen werden. Geben Sie mit der Option „cloudFiles.region“ eine Region an.
CF_RESOURCE_SUFFIX_EMPTY
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht leer sein.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nur alphanumerische Zeichen, Bindestriche (-) und Unterstriche (_) enthalten.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nur Kleinbuchstaben, Zahlen und Bindestriche (-) enthalten.
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nur alphanumerische Zeichen, Bindestriche (-), Unterstriche (_), Punkte (.), Tilden (~), Pluszeichen (+) und Prozentzeichen (<percentSign>
) enthalten.
CF_RESOURCE_SUFFIX_LIMIT
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht mehr als <limit>
Zeichen enthalten.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix muss zwischen <lowerLimit>
und <upperLimit>
Zeichen enthalten.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Tagschlüssel (<key>
) für eingeschränkte GCP-Ressource gefunden. Die folgenden GCP-Ressourcentagschlüssel sind für den Autolader eingeschränkt: [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration darf nicht größer als cloudFiles.maxFileAge sein.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Fehler beim Erstellen der Benachrichtigung für das Thema: <topic>
mit Präfix: <prefix>
. Es gibt bereits ein Thema mit demselben Namen und einem anderen Präfix: <oldPrefix>
. Versuchen Sie, ein anderes Ressourcensuffix einzurichten, oder löschen Sie das vorhandene Setup.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Geben Sie den Quellverzeichnispfad mit Option path
an.
CF_SOURCE_UNSUPPORTED
Die Clouddateiquelle unterstützt derzeit nur S3-, Azure Blob Storage- (wasb/wasbs), Azure Data Lake Gen1 (adl) und Gen2-Pfade (abfs/abfss). Pfad: „<path>
“, aufgelöster URI: „<uri>
“
CF_STATE_INCORRECT_SQL_PARAMS
Die cloud_files_state-Funktion akzeptiert einen Zeichenfolgenparameter, der das Prüfpunktverzeichnis eines cloudFiles-Datenstroms angibt, oder einen mehrteiligen tableName, der eine Streamingtabelle identifiziert. Außerdem wird optional ein zweiter ganzzahliger Parameter akzeptiert, der die Prüfpunktversion darstellt, für die der Zustand geladen werden soll. Der zweite Parameter kann auch „latest“ sein, um den neuesten Prüfpunkt zu lesen. Empfangen: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Der Eingabeprüfpunkt-Pfad <path>
ist ungültig. Entweder ist der Pfad nicht vorhanden, oder es wurden keine cloud_files-Quellen gefunden.
CF_STATE_INVALID_VERSION
Die angegebene Version <version>
ist nicht vorhanden oder wurde während der Analyse entfernt.
CF_THREAD_IS_DEAD
Der Thread <threadName>
ist inaktiv.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Der Prüfpunktspeicherort des Streams kann nicht aus dem Prüfpunktspeicherort der Quelle <checkPointLocation>
abgeleitet werden
CF_UNABLE_TO_DETECT_FILE_FORMAT
Das Quelldateiformat aus <fileSize>
-Stichprobendateien konnte nicht erkannt werden, es wurde <formats>
gefunden. Geben Sie das Format an.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Bucketinformationen können nicht extrahiert werden. Pfad: „<path>
“, aufgelöster URI: „<uri>
“.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Schlüsselinformationen können nicht extrahiert werden. Pfad: „<path>
“, aufgelöster URI: „<uri>
“.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Informationen zum Speicherkonto können nicht extrahiert werden. Pfad: „<path>
“, aufgelöster URI: „<uri>
“
CF_UNABLE_TO_LIST_EFFICIENTLY
Es wurde ein Ereignis zur Umbenennung für ein Verzeichnis unter dem Pfad <path>
empfangen, dieses Verzeichnis kann aber nicht effizient aufgelistet werden. Um den Datenstrom fortzusetzen, legen Sie die Option „cloudFiles.ignoreDirRenames“ auf TRUE fest, und erwägen Sie, reguläre Abgleiche mit cloudFiles.backfillInterval zu aktivieren, damit diese Daten verarbeitet werden.
CF_UNEXPECTED_READ_LIMIT
Unerwartetes ReadLimit: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Unbekannte Optionsschlüssel gefunden:
<optionList>
Stellen Sie sicher, dass alle bereitgestellten Optionsschlüssel korrekt sind. Wenn Sie die
Überprüfung Ihrer Optionen überspringen und diese unbekannten Optionen ignorieren möchten, können Sie Folgendes festlegen:
.option(“cloudFiles.<validateOptions>
”, “false”)
CF_UNKNOWN_READ_LIMIT
Unbekanntes ReadLimit: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
Die SQL-Funktion "cloud_files" zum Erstellen einer Streamingquelle für das automatische Laden wird nur in einer Delta Live Tables-Pipeline unterstützt. Weitere Informationen finden Sie unter:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Der Schemarückschluss wird für das Format <format>
nicht unterstützt: . Geben Sie das Schema an.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: Die maximal unterstützte Protokollversion ist v<maxVersion>``, but encountered v``<version>
. Die Protokolldatei wurde von einer neueren DBR-Version erstellt und kann von dieser Version nicht gelesen werden. Führen Sie ein Upgrade durch.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Der Schemaentwicklungsmodus <mode>
wird für das Format <format>
nicht unterstützt: . Bitte legen Sie den Schemaentwicklungsmodus auf „none“ fest.
CF_USE_DELTA_FORMAT
Das Lesen aus einer Delta-Tabelle wird mit dieser Syntax nicht unterstützt. Wenn Sie Daten aus Delta nutzen möchten, erhalten Sie weitere Informationen in der folgenden Dokumentation: „Lesen einer Delta-Tabelle (<deltaDocLink>
)“ oder „Lesen einer Delta-Tabelle als eine Streamingquelle (<streamDeltaDocLink>
)“. Die Streamingquelle von Delta ist bereits für die inkrementelle Datennutzung optimiert.
Geodaten
EWKB_PARSE_ERROR
Fehler beim Parsen von EWKB „<parseError>
“ an Position <pos>
GEOJSON_PARSE_ERROR
Fehler beim Parsen von GeoJSON <parseError>
bei Position <pos>
Weitere Details finden Sie unter GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
ist keine gültige H3-Zellen-ID
Weitere Details finden Sie unter H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
Der H3-Rasterabstand <k>
darf nicht negativ sein
Weitere Details finden Sie unter H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
Die H3-Auflösung <r>
muss zwischen <minR>
und <maxR>
liegen (inklusive)
Weitere Details finden Sie unter H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
ist deaktiviert oder wird nicht unterstützt. Erwägen Sie, Photon zu aktivieren oder zu einer Ebene zu wechseln, die H3-Ausdrücke unterstützt.
Weitere Details finden Sie unter H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
Beim Berechnen des Hexadezimalrings von <h3Cell>
wurde ein Fünfeck mit dem Rasterabstand <k>
gefunden
H3_UNDEFINED_GRID_DISTANCE
H3-Rasterabstand zwischen <h3Cell1>
und <h3Cell2>
ist nicht definiert.
ST_DIFFERENT_SRID_VALUES
Argumente für „<sqlFunction>
“ müssen über denselben SRID-Wert verfügen. SRID-Werte gefunden: <srid1>
, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>
": <reason>
ST_INVALID_ARGUMENT_TYPE
Das Argument für „<sqlFunction>
“ muss vom Typ „<validTypes>
“ sein
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: Ungültige oder nicht unterstützte CRS-Transformation von SRID <srcSrid>
in SRID <trgSrid>
ST_INVALID_ENDIANNESS_VALUE
Die Byte-Reihenfolge <e>
muss „NDR“ (little-endian) oder „XDR“ (big-endian) sein
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: Ungültiger Geohashwert: '<geohash>
'. Geohash-Werte müssen gültige base32-Zeichenfolgen in Kleinbuchstaben sein, wie in https://en.wikipedia.org/wiki/Geohash#Textual_representation beschrieben
ST_INVALID_PRECISION_VALUE
Die Genauigkeit <p>
muss zwischen <minP>
und <maxP>
liegen (inklusive)
ST_INVALID_SRID_VALUE
Ungültige oder nicht unterstützte SRID <srid>
ST_NOT_ENABLED
<stExpression>
ist deaktiviert oder nicht unterstützt. Erwägen Sie, Photon zu aktivieren oder zu einer Ebene zu wechseln, die ST-Ausdrücke unterstützt
ST_UNSUPPORTED_RETURN_TYPE
Die Datentypen GEOGRAPHY und GEOMETRY können nicht in Abfragen zurückgegeben werden. Verwenden Sie einen der folgenden SQL-Ausdrücke, um sie in standardmäßige Austauschformate zu konvertieren: <projectionExprs>
.
WKB_PARSE_ERROR
Fehler beim Analysieren von WKB: <parseError>
bei Position <pos>
Weitere Details finden Sie unter WKB_PARSE_ERROR
WKT_PARSE_ERROR
Fehler beim Analysieren von WKT <parseError>
bei Position <pos>
Weitere Details finden Sie unter WKT_PARSE_ERROR