Azure Databricks 中的錯誤類別
適用於: Databricks SQL Databricks Runtime 12.2 和更新版本
錯誤類別是錯誤條件中唯一的描述性、人類可讀取的字串。
您可以使用錯誤類別,以程式設計方式處理應用程式中的錯誤,而不需要剖析錯誤訊息。
這是 Azure Databricks 傳回的常見具名錯誤條件清單。
Databricks Runtime 和 Databricks SQL
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
不具決定性表達式 <sqlExpr>
不應該出現在聚合函數的自變數中。
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
無法剖析模型輸出,當轉換成指定的 returnType: “<dataType>
”,回應 JSON 為:“<responseString>
”。 請更新 returnType 以符合回應 JSON 表示的類型內容,然後再次重試查詢。
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
實際模型輸出有一個以上的數據行 “<responseString>
” 不過,指定的傳回類型[“”<dataType>
] 只有一個數據行。 請更新 returnType,以包含與模型輸出相同的數據行數目,然後再次重試查詢。
AI_FUNCTION_HTTP_REQUEST_ERROR
對函 <funcName>
式提出 HTTP 要求時發生錯誤: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
函式的 <funcName>
HTTP 回應無效: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
字數上限必須是非負整數,但取得 <maxWords>
。
AI_FUNCTION_INVALID_MODEL_PARAMETERS
提供的模型參數 (<modelParameters>
) 在提供端點 「<endpointName>
的AI_QUERY函式中無效。
如需詳細資訊,請參閱 AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_JSON_PARSE_ERROR
剖析函式的 <funcName>
JSON 回應時發生錯誤: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
無法剖析服務端點的架構 “<endpointName>
”: <errorMessage>
,回應 JSON 為:“<responseJson>
”。
returnType
在 AI_QUERY 函式中手動設定 參數,以覆寫架構解析。
AI_FUNCTION_UNSUPPORTED_ERROR
<funcName>
目前環境中不支援函式。 它僅適用於 Databricks SQL Pro 和無伺服器。
AI_FUNCTION_UNSUPPORTED_REQUEST
無法評估 SQL 函式 “<functionName>
”,因為 提供的 自變數 <invalidValue>
有 “<invalidDataType>
”,但只支援下列類型: <supportedDataTypes>
。 請更新函式呼叫以提供字串類型的自變數,然後再次重試查詢。
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
AI 函式:“<functionName>
” 不支援下列類型做為傳回類型:“<typeName>
”。 傳回型別必須是由 Catalyst 所瞭解且由 AI 函式支援的有效 SQL 類型。 目前支援的類型包括: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
自變數 “” 不支援提供的值 “<argValue>
<argName>
” 支援的值為: <supportedValues>
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
自變數 returnType 不支援提供的 “<sqlExpr>
”。
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
不支援內嵌數據行類型的 <embeddingColumnType>
向量搜尋。
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
不支援具有索引類型的 <indexType>
向量搜尋。
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
在要求編碼期間,無法將向量搜尋查詢從spark類型 <dataType>
具體化為純量原生物件,並出現錯誤: <errorMessage>
。
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
不支援num_results大於 <maxLimit>
的向量搜尋。 指定的限制為 <requestedLimit>
。 懇求再試一次, num_results <= <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
使用名稱參數化查詢需要命名所有參數。 參數缺少名稱: <exprs>
。
ALL_PARTITION_COLUMNS_NOT_ALLOWED
無法針對數據分割數據行使用所有數據行。
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type>
數據 <columnName>
行會指定描述元 「<optionName>
一次以上,這無效。
AMBIGUOUS_ALIAS_IN_NESTED_CTE
名稱 <name>
在巢狀 CTE 中模棱兩可。
請將 設定 <config>
為 「CORRECTED」,讓內部 CTE 中定義的名稱優先。 如果將其設定為 「LEGACY」 ,外部 CTE 定義會優先使用。
請參閱 https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine』。
AMBIGUOUS_COLUMN_OR_FIELD
數據行或欄位 <name>
模棱兩可,且具有 <n>
相符專案。
AMBIGUOUS_COLUMN_REFERENCE
數據行 <name>
模棱兩可。 這是因為您已將數個 DataFrame 聯結在一起,而其中一些 DataFrame 相同。
此數據行指向其中一個 DataFrame,但 Spark 無法找出哪一個數據框架。
在聯結數據框架之前,請先透過 以不同的名稱 DataFrame.alias
將 DataFrame 別名。
與使用限定名稱指定資料列,例如 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
。
AMBIGUOUS_CONSTRAINT
條件約束 <constraint>
的模棱兩可參考。
AMBIGUOUS_LATERAL_COLUMN_ALIAS
橫向數據行別名 <name>
模棱兩可且相符 <n>
。
AMBIGUOUS_REFERENCE
參考 <name>
模棱兩可,可能是: <referenceNames>
。
AMBIGUOUS_REFERENCE_TO_FIELDS
欄位 <field>
的模棱兩可參考。 它會出現 <count>
在架構中的時間。
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
不支援 ANALYZE 條件約束。
ANSI_CONFIG_CANNOT_BE_DISABLED
此產品中無法停用 ANSI SQL 組態 <config>
。
AQE_THREAD_INTERRUPTED
AQE 線程中斷,可能是因為使用者取消查詢。
ARGUMENT_NOT_CONSTANT
函式 <functionName>
包含 <parameterName>
位置 <pos>
需要常數自變數的參數。 請個別計算自變數 <sqlExpr>
,並以常數的形式傳遞結果。
ARITHMETIC_OVERFLOW
<message>
.<alternative>
如有必要,請將 設為 <config>
「false」 以略過此錯誤。
如需詳細資訊,請參閱 ARITHMETIC_OVERFLOW
ASSIGNMENT_ARITY_MISMATCH
指派或別名的數據行數或變數數目: <numTarget>
不符合來源表達式的數目: <numExpr>
。
AS_OF_JOIN
聯結時無效。
如需詳細資訊,請參閱 AS_OF_JOIN
AVRO_DEFAULT_VALUES_UNSUPPORTED
啟用時rescuedDataColumn
不支援使用預設值。 您可以藉由將 設定 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
為 false 來移除此檢查,但預設值將不會套用,而且仍會使用 Null 值。
AVRO_INCOMPATIBLE_READ_TYPE
無法將 Avro <avroPath>
轉換成 SQL <sqlPath>
,因為原始編碼數據類型為 <avroType>
,但您嘗試將欄位讀為 <sqlType>
,這會導致不正確的答案。
若要允許讀取此字段,請啟用 SQL 組態:「spark.sql.legacy.avro.allowIncompatibleSchema」。
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
啟用 或 failOnUnknownFields
時rescuedDataColumn
,不支援使用位置欄位比對。 拿掉這些選項以繼續進行。
BATCH_METADATA_NOT_FOUND
找不到批次 <batchMetadataFile>
。
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
BigQuery 連線認證必須使用 'GoogleServiceAccountKeyJson' 參數或所有 'projectId'、'OAuthServiceAcctEmail'、'OAuthPvtKey' 指定
BINARY_ARITHMETIC_OVERFLOW
<value1>
<symbol>
<value2>
造成溢位。
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
布爾語句 <invalidStatement>
無效。 必須是具有 型別值 BOOLEAN
的單一數據列,但取得空的數據列。
BUILT_IN_CATALOG
<operation>
不支援內建目錄。
CALL_ON_STREAMING_DATASET_UNSUPPORTED
無法在串流數據集/數據框架上呼叫 方法 <methodName>
。
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN 無法變更貯體數據行類型/子類型的定序,但在數據表<tableName>
中找到貯體數據行<columnName>
。
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|變更) 資料分割數據行不支援 COLUMN,但在數據表 <tableName>
中找到資料分割數據行<columnName>
。
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
必須定義浮水印以重新指派事件時間數據行。 在串流查詢中找不到水位線定義。
CANNOT_CAST_DATATYPE
無法轉換成 <sourceType>
<targetType>
。
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
無法將 Protobuf <protobufColumn>
轉換為 SQL <sqlColumn>
,因為架構不相容(protobufType = <protobufType>
,sqlType = <sqlType>
)。
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
無法將 Protobuf 轉換成 <protobufType>
SQL 類型 <toType>
。
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
無法將 SQL <sqlColumn>
轉換成 Protobuf <protobufColumn>
,因為架構不相容(protobufType = <protobufType>
,sqlType = <sqlType>
)。
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
無法將 SQL <sqlColumn>
轉換成 Protobuf <protobufColumn>
,因為 <data>
不在列舉的已定義值中: <enumString>
。
CANNOT_COPY_STATE
無法將目前資料庫和暫存檢視等目錄狀態從 Unity 目錄複製到舊版目錄。
CANNOT_CREATE_DATA_SOURCE_TABLE
無法建立資料來源資料表 <tableName>
:
如需詳細資訊,請參閱 CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
提供的 URL 無法譯碼: <url>
。 請確定 URL 的格式正確,然後再試一次。
CANNOT_DELETE_SYSTEM_OWNED
系統擁有 <resourceType>
無法刪除。
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
無法卸除具有 CHECK 條件約束所共用名稱 <constraintName>
的條件約束
和 PRIMARY KEY 或 FOREIGN KEY 條件約束。 您可以卸除 PRIMARY KEY 或
依查詢排序的 FOREIGN KEY 條件約束:
- ALTER TABLE .. DROP PRIMARY KEY 或
- ALTER TABLE .. DROP FOREIGN KEY ..
CANNOT_ESTABLISH_CONNECTION
無法建立與遠端 <jdbcDialectName>
資料庫的連線。 請檢查連線資訊和認證,例如主機、埠、用戶、密碼和資料庫選項。 ** 如果您認為資訊正確,請檢查工作區的網路設定,並確定它沒有主機的輸出限制。 此外,請檢查主機不會封鎖來自部署工作區 Spark 叢集之網路的輸入連線。 ** 詳細的錯誤訊息: <causeErrorMessage>
。
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
無法建立與遠端 <jdbcDialectName>
資料庫的連線。 請檢查連線資訊和認證,例如主機、埠、用戶、密碼和資料庫選項。 ** 如果您認為資訊正確,請允許從因特網到主機的輸入流量,因為您使用的是無伺服器計算。 如果您的網路原則不允許輸入因特網流量,請使用非無伺服器計算,或者您可以連絡 Databricks 代表,以了解無伺服器專用網。 ** 詳細的錯誤訊息: <causeErrorMessage>
。
CANNOT_INVOKE_IN_TRANSFORMATIONS
數據集轉換和動作只能由驅動程式叫用,而不是在其他數據集轉換內;例如,dataset1.map(x => dataset2.values.count() * x) 無效,因為無法在 dataset1.map 轉換內執行值轉換和計數動作。 如需詳細資訊,請參閱SPARK-28702。
CANNOT_LOAD_FUNCTION_CLASS
註冊函<functionName>
式時,無法載入類別<className>
,請確定其位於 classpath 上。
CANNOT_LOAD_PROTOBUF_CLASS
無法載入名稱為 <protobufClassName>
的 Protobuf 類別。 <explanation>
.
CANNOT_LOAD_STATE_STORE
載入狀態期間發生錯誤。
如需詳細資訊,請參閱 CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
無法合併不相容的資料類型 <left>
與 <right>
。 請檢查要合併之數據行的數據類型,並確定它們相容。 如有必要,請考慮在嘗試合併之前,將數據行轉換成相容的數據類型。
CANNOT_MERGE_SCHEMAS
合併架構失敗:
初始架構:
<left>
無法與初始架構合併的架構:
<right>
.
CANNOT_MODIFY_CONFIG
無法修改 Spark 組態的值: <key>
。
另 https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements請參閱 』。
CANNOT_PARSE_DECIMAL
無法剖析十進位。 請確定輸入是具有選擇性小數點或逗號分隔符的有效數位。
CANNOT_PARSE_INTERVAL
無法剖析 <intervalString>
。 請確定所提供的值格式有效,以定義間隔。 您可以參考正確格式的檔案。 如果問題持續發生,請仔細檢查輸入值不是 Null 或空白,然後再試一次。
CANNOT_PARSE_JSON_FIELD
無法剖析功能變數名稱<fieldName>
和 JSON 令牌類型的<jsonType>
值<fieldValue>
,以將 Spark 資料類型<dataType>
設為目標。
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
將描述元位元組剖析為 Protobuf FileDescriptorSet 時發生錯誤。
CANNOT_PARSE_TIMESTAMP
<message>
. 如有必要,請將 設為 <ansiConfig>
「false」 以略過此錯誤。
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
無法在初始化期間查詢MV/ST。
如需詳細資訊,請參閱 CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
無法讀取路徑 <path>
的檔案,因為它已封存。 請調整查詢篩選條件,以排除封存的檔案。
CANNOT_READ_FILE
無法讀取 <format>
路徑的檔案: <path>
。
如需詳細資訊,請參閱 CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
無法從安全提供者讀取敏感性密鑰 '<key>
'。
CANNOT_RECOGNIZE_HIVE_TYPE
無法辨識 Hive 類型字串: <fieldType>
、數據行: <fieldName>
。 Spark SQL 無法辨識欄位的指定資料類型。 請檢查指定欄位的數據類型,並確定它是有效的 Spark SQL 資料類型。 如需有效數據類型及其格式的清單,請參閱 Spark SQL 檔。 如果數據類型正確,請確定您使用的是支援的Spark SQL版本。
CANNOT_REFERENCE_UC_IN_HMS
無法在 Hive 中繼存放區物件中參考 Unity 目錄 <objType>
。
CANNOT_RENAME_ACROSS_CATALOG
不要允許跨目錄重新命名 <type>
。
CANNOT_RENAME_ACROSS_SCHEMA
不允許跨架構重新命名 <type>
。
CANNOT_RESOLVE_DATAFRAME_COLUMN
無法剖析資料框架資料列 <name>
。 這可能是因為類似的 df1.select(df2.col("a"))
非法參考。
CANNOT_RESOLVE_STAR_EXPAND
無法剖析 <targetString>
指定輸入資料列 <columns>
的 .* 。 請檢查指定的數據表或結構是否存在,而且可在輸入數據行中存取。
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
無法建立路徑 <path>
的權限設定回 <permission>
。
CANNOT_SAVE_VARIANT
無法將 Variant 資料類型儲存至外部記憶體。
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
無法跨 Unity 目錄和 Hive 中繼存放區淺層複製數據表。
CANNOT_SHALLOW_CLONE_NESTED
無法淺層複製已經是淺層複製的數據表 <table>
。
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
只有 MANAGED 資料表類型才支援淺層複製。 數據表 <table>
不是 MANAGED 資料表。
CANNOT_UPDATE_FIELD
無法更新 <table>
欄位 <fieldName>
型態:
如需詳細資訊,請參閱 CANNOT_UPDATE_FIELD
CANNOT_UP_CAST_DATATYPE
無法從 <sourceType>
<targetType>
轉換為 <expression>
。
<details>
CANNOT_VALIDATE_CONNECTION
不支援連線驗證 <jdbcDialectName>
。 請連絡 Databricks 支援以取得替代解決方案,或將 “spark.databricks.testConnectionBeforeCreation” 設定為 “false”,以在建立連接物件之前略過連線測試。
CANNOT_WRITE_STATE_STORE
寫入提供者 <providerClass>
的狀態存放區檔案時發生錯誤。
如需詳細資訊,請參閱 CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
型<sourceType>
別的值<expression>
無法轉換成 <targetType>
,因為它的格式不正確。 根據語法更正值,或變更其目標類型。 使用 try_cast
來容許格式不正確的輸入,並改為傳回 NULL。
如需詳細資訊,請參閱 CAST_INVALID_INPUT
CAST_OVERFLOW
因為溢位而無法轉換<targetType>
型<sourceType>
別的值<value>
。 使用 try_cast
來容許溢位並改為傳回 NULL。
CAST_OVERFLOW_IN_TABLE_INSERT
因為溢位而無法將 型別的值 <sourceType>
指派給 <targetType>
類型數據行或變數 <columnName>
。 在 try_cast
輸入值上使用 來容許溢位,並改為傳回NULL。
CATALOG_NOT_FOUND
找不到目錄 <catalogName>
。 請考慮將 SQL 元件 <config>
設定為目錄外掛程式。
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
找不到檢查點區塊 <rddBlockId>
!
原本檢查此分割區的執行程式已不再運作,或原始 RDD 未繼續執行。
如果此問題持續發生,您可能會考慮改用 rdd.checkpoint()
,這比本機檢查點慢,但更容錯。
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
必須覆寫 <method1>
或 <method2>
。
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
不支援類別 <cls>
作為產生的集合。
CLEANROOM_COMMANDS_NOT_SUPPORTED
不支援 Clean Room 命令
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
在清理室內參考 <type>
的無效名稱。 <type>
請遵循 [catalog].[ 格式,在乾淨的房間內使用 's 名稱。[schema]。[<type>
]。
如果您不確定要使用的名稱,您可以執行「顯示所有在 CLEANROOM [clean_room]」,並使用 “name” 資料行中的值。
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
已收到檔案的檔案通知: <filePath>
但檔案已不存在。 請確定檔案在處理之前不會刪除。 若要繼續串流,您可以將Spark SQL 組態 <config>
設定為 true。
CLOUD_PROVIDER_ERROR
雲端提供者錯誤: <message>
CLUSTERING_COLUMNS_MISMATCH
指定的叢集不符合現有資料表 <tableName>
的叢集。
指定的叢集數據行: [<specifiedClusteringString>
]。
現有的叢集數據行:[<existingClusteringString>
]。
CLUSTERING_NOT_SUPPORTED
'<operation>
' 不支援叢集。
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
請連絡您的 Databricks 代表,以啟用自動叢集功能。
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
請啟用 clusteringTable.enableClusteringTableFeature 以使用 CLUSTER BY AUTO。
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO 需要啟用預測優化。
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
只有 UC 受控數據表才支援 CLUSTER BY AUTO。
CODEC_NOT_AVAILABLE
<codecName>
編解碼器無法使用。
如需詳細資訊,請參閱 CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
找不到編解碼器 <codecName>
的簡短名稱。
COLLATION_INVALID_NAME
值 <collationName>
不代表正確的定序名稱。 建議的有效定序名稱: [<proposals>
]。
COLLATION_INVALID_PROVIDER
值 <provider>
不代表正確的定序提供者。 支援的提供者為:[<supportedProviders>
]。
COLLATION_MISMATCH
無法判斷字串函式和運算子要使用的定序。
如需詳細資訊,請參閱 COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
無法使用超過數位大小限制<maxRoundedArrayLength>
的專案來建立數位<numberOfElements>
。
如需詳細資訊,請參閱 COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
中 <op>
不允許數據行別名。
COLUMN_ALREADY_EXISTS
數據行 <columnName>
已經存在。 選擇其他名稱或重新命名現有的數據行。
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
不支援在具有數據行遮罩原則的數據表 <tableName>
上建立 CHECK 條件約束。
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
語句 <statementType>
嘗試將數據行遮罩原則指派給包含兩個或多個其他參考數據行的數據行,且名稱 <columnName>
相同,無效。
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
不支援 的數據 <tableName>
行遮罩原則:
如需詳細資訊,請參閱 COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
無法<statementType>
<columnName>
從數據表<tableName>
參考,因為它在數據<maskedColumn>
行的數據行遮罩原則中參考。 數據表擁有者必須先移除或變更此原則,才能繼續。
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
MERGE INTO 作業不支援源數據表 <tableName>
中的數據行遮罩原則。
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO 作業不支援使用數據行遮罩原則寫入數據表 <tableName>
。
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
此語句嘗試將數據行遮罩原則指派給具有多個名稱部分的數據行 <columnName>
,這無效。
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
此語句嘗試將數據行遮罩原則指派給數據行,而USING COLUMNS清單包含 <columnName>
名稱與多個名稱部分,無效。
COLUMN_MASKS_NOT_ENABLED
未啟用定義數據行遮罩的支援
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
只有 Unity 目錄中才支援數據行遮罩原則。
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
不支援從具有數據行遮罩原則的數據表 <tableName>
複製。
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
不支援使用數據行遮罩原則複製到數據表 <tableName>
。
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
不支援在數據行遮罩原則中使用常數做為參數。 請更新 SQL 命令,以從數據行遮罩定義中移除常數,然後再次重試命令。
COLUMN_MASKS_UNSUPPORTED_PROVIDER
無法執行 <statementType>
命令,因為使用數據表提供者的目標數據源不支援指派數據行遮罩原則:“<provider>
”。
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
無法針對數據表<tableName>
執行<operation>
,因為它包含一或多個具有子查詢表達式的數據行遮罩原則,但尚不受支援。 請連絡數據表的擁有者以更新數據行遮罩原則,以便繼續。
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
數據行 <columnName>
的名稱與目標數據行相同,無效;請從 USING COLUMNS 清單中移除資料行,然後重試命令。
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
數據行 <colName>
未定義於數據表 <tableName>
中,定義的數據表數據行為: <tableCols>
。
COLUMN_NOT_FOUND
找不到數據行 <colName>
。 根據 SQL 組態 <caseSensitiveConfig>
確認資料行名稱的拼字和正確性。
COMMA_PRECEDING_CONSTRAINT_ERROR
非預期的 ',' 在條件約束定義之前。 確定未定義數據行時,條件約束子句不會以逗號開頭。
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
COMMENT ON CONNECTION 命令尚未實作
COMPARATOR_RETURNS_NULL
比較子已傳回 NULL,以便與之間的<firstValue>
<secondValue>
比較。
它應該傳回 「大於」 的正整數,「equal」 為 0,而 「less than」 則傳回負整數。
若要還原為將 NULL 視為 0(等於)的已淘汰行為,您必須將 “spark.sql.legacy.allowNullComparisonResultInArraySort” 設定為 “true”。
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
無法處理表達式的輸入數據類型: <expression>
。
如需詳細資訊,請參閱 COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
此查詢的另一個實例 [id: <queryId>
] 剛由並行會話啟動 [現有的 runId: <existingQueryRunId>
新的 runId: <newQueryRunId>
]。
CONCURRENT_STREAM_LOG_UPDATE
記錄檔的並行更新。 針對 <batchId>
偵測到多個串流作業。
請確定一次只會在特定檢查點位置上執行一個串流作業。
CONFIG_NOT_AVAILABLE
無法使用組態 <config>
。
CONFLICTING_PARTITION_COLUMN_NAMES
偵測到的分割區資料列名稱衝突:
<distinctPartColLists>
針對數據分割數據表目錄,數據文件應該只存在於分葉目錄中。
而相同層級的目錄應該具有相同的數據分割數據行名稱。
請檢查下列目錄是否有非預期的檔案或不一致的分割區資料行名稱:
<suspiciousPaths>
CONFLICTING_PROVIDER
指定的提供者 <provider>
與現有的目錄提供者 <expectedProvider>
不一致。 請使用 'USING <expectedProvider>
' ,然後重試命令。
CONNECT
一般 Spark Connect 錯誤。
如需詳細資訊,請參閱 CONNECT
CONNECTION_ALREADY_EXISTS
無法建立連線 <connectionName>
,因為它已經存在。
選擇不同的名稱、卸除或取代現有的連線,或新增IF NOT EXISTS子句以容許既有連線。
CONNECTION_NAME_CANNOT_BE_EMPTY
無法執行此命令,因為連接名稱必須是非空白的。
CONNECTION_NOT_FOUND
無法執行此命令,因為找不到連線名稱 <connectionName>
。
CONNECTION_OPTION_NOT_SUPPORTED
類型為 『<connectionType>
' 的連接不支援下列選項: <optionsNotSupported>
。 支援的選項: <allowedOptions>
。
CONNECTION_TYPE_NOT_SUPPORTED
無法建立類型為 『<connectionType>
的連線。 支援的連線類型: <allowedTypes>
。
CONSTRAINTS_REQUIRE_UNITY_CATALOG
只有 Unity 目錄才支援資料表條件約束。
CONVERSION_INVALID_INPUT
值 <str>
(<fmt>
) 無法轉換成 <targetType>
,因為它的格式不正確。 根據語法更正值,或變更其格式。 使用 <suggestion>
來容許格式不正確的輸入,並改為傳回 NULL。
COPY_INTO_COLUMN_ARITY_MISMATCH
無法寫入 , <tableName>
原因為
如需詳細資訊,請參閱 COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
不合法的設定 <scheme>
。 COPY INTO 來源認證目前僅支援 s3/s3n/s3a/wasbs/abfss。
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO 來源認證必須指定 <keyList>
。
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
在並行 COPY INTO 作業中認可重複的檔案。 請稍後再試一次。
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
不合法的設定 <scheme>
。 COPY INTO 來源加密目前僅支援 s3/s3n/s3a/abfss。
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO 加密僅支援ADLS Gen2或 abfss:// 檔案配置
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO 來源加密必須指定 『<key>
』 。
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
不合法的加密選項 <requiredKey>
。 COPY INTO 來源加密必須指定 '<requiredKey>
' = ''<keyValue>
。
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
COPY INTO 功能'<feature>
' 與 '<incompatibleSetting>
' 不相容。
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
附加數據以外的 COPY INTO 不允許與其他交易同時執行。 請稍後再試一次。
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO 無法載入其狀態,超過重試次數上限。
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
在複製到 Delta 資料表時偵測到架構不符(資料表: <table>
)。
這可能表示傳入數據有問題,或者 Delta 資料表架構可以藉由設定來根據傳入數據自動進化:
COPY_OPTIONS ('mergeSchema' = 'true')
架構差異:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
來源檔案的格式必須是 CSV、JSON、AVRO、ORC、PARQUET、TEXT 或 BINARYFILE 的其中一個。 在 Delta 資料表上使用 COPY INTO,因為來源不受支援,因為 OPTIMIZE 作業之後可能會內嵌重複的數據。 您可以執行 SQL 命令 set spark.databricks.delta.copyInto.formatCheck.enabled = false
來關閉這項檢查。
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
來源目錄不包含任何類型的 <format>
可剖析檔案。 請檢查 『<source>
' 的內容。
將 '<config>
' 設定為 'false' 即可將錯誤靜音。
COPY_INTO_STATE_INTERNAL_ERROR
處理 COPY INTO 狀態時發生內部錯誤。
如需詳細資訊,請參閱 COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
無法剖析 COPY INTO 命令。
如需詳細資訊,請參閱 COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
不支援 COPY INTO 功能 '<feature>
'。
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
無法以 『<formatType>
' 格式卸除數據。 的支援格式 <connectionType>
為: <allowedFormats>
。
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
CREATE FOREIGN SCHEMA 命令尚未實作
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
CREATE FOREIGN TABLE 命令尚未實作
CREATE_OR_REFRESH_MV_ST_ASYNC
無法使用指定的 ASYNC 建立或重新整理具體化檢視或串流數據表。 請從 CREATE 或 REFRESH 語句中移除 ASYNC,或使用 REFRESH ASYNC 以異步方式重新整理現有的具體化檢視或串流數據表。
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
不允許建立永久檢視 <name>
,而不需明確指派表達式 <attr>
的別名。
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE 數據行 <columnName>
會指定一次以上的描述元 “<optionName>
”,這無效。
CREATE_VIEW_COLUMN_ARITY_MISMATCH
無法建立檢視 <viewName>
,原因是
如需詳細資訊,請參閱 CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
建立或更新外部位置時,請提供認證。
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
使用 rescuedDataColumn
或 failOnUnknownFields
時,無法設定 CSV 選項enforceSchema
,因為數據行是以名稱而非序數讀取。
CYCLIC_FUNCTION_REFERENCE
偵測到迴圈函數參考: <path>
。
DATABRICKS_DELTA_NOT_ENABLED
您的帳戶中未啟用 Databricks Delta。<hints>
DATATYPE_MISMATCH
因為資料類型不符而無法解析 <sqlExpr>
:
如需詳細資訊,請參閱 DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type>
需要長度參數,例如 <type>
(10)。 請指定長度。
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
寫入歷程失敗:缺少與CLM/RLS原則對應的關聯。
DATA_SOURCE_ALREADY_EXISTS
數據源 『<provider>
' 已經存在。 請選擇新資料來源的不同名稱。
DATA_SOURCE_EXTERNAL_ERROR
儲存至外部數據源時發生錯誤。
DATA_SOURCE_NOT_EXIST
找不到資料源 』<provider>
。 請確定數據源已註冊。
DATA_SOURCE_NOT_FOUND
找不到數據源: <provider>
。 請確定提供者名稱正確,且套件已正確註冊並與您的Spark版本相容。
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
選項 <option>
不能是空的,而且不應該包含無效的字元、查詢字串或參數。
DATA_SOURCE_OPTION_IS_REQUIRED
需要選項 <option>
。
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
數據源數據表的架構不符合預期的架構。 如果您使用 DataFrameReader.schema API 或建立數據表,請避免指定架構。
資料來源架構: <dsSchema>
預期的架構: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
數據源選項中不允許 JDBC URL,請改為指定 'host'、'port' 和 'database' 選項。
DATETIME_OVERFLOW
日期時間作業溢位: <operation>
。
DC_API_QUOTA_EXCEEDED
您已超過資料來源 <sourceName>
的 API 配額。
如需詳細資訊,請參閱 DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
無法與來源建立連線 <sourceName>
。 錯誤碼:<errorCode>
。
如需詳細資訊,請參閱 DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Dynamics API 呼叫中發生錯誤,errorCode: <errorCode>
。
如需詳細資訊,請參閱 DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Netsuite JDBC 呼叫中發生錯誤,errorCode: <errorCode>
。
如需詳細資訊,請參閱 DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE:未指派
來源數據表<tableName>
<sourceName>
中發生架構變更。
如需詳細資訊,請參閱 DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
ServiceNow API 呼叫中發生錯誤,errorCode: <errorCode>
。
如需詳細資訊,請參閱 DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
物件的 <objName>
擷取不完整,因為 Salesforce API 查詢作業花費的時間太長、失敗或手動取消。
若要再試一次,您可以重新執行整個管線,或重新整理此特定目的地數據表。 如果錯誤持續發生,請提出票證。 作業標識碼: <jobId>
。 作業狀態: <jobStatus>
。
DC_SHAREPOINT_API_ERROR
Sharepoint API 呼叫中發生錯誤,errorCode: <errorCode>
。
如需詳細資訊,請參閱 DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
API 呼叫中 <sourceName>
發生錯誤。 來源 API 類型: <apiType>
。 錯誤碼:<errorCode>
。
當您達到 <sourceName>
API 限制時,有時會發生這種情況。 如果您尚未超過 API 限制,請嘗試重新執行連接器。 如果問題持續發生,請提出票證。
DC_UNSUPPORTED_ERROR
數據源 <sourceName>
中發生不支援的錯誤。
如需詳細資訊,請參閱 DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Workday RAAS API 呼叫中發生錯誤,errorCode: <errorCode>
。
如需詳細資訊,請參閱 DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
十進位有效位數超過最大有效 <precision>
位數 <maxPrecision>
。
DEFAULT_DATABASE_NOT_EXISTS
預設資料庫 <defaultDatabase>
不存在,請先建立它,或將預設資料庫變更為 <defaultDatabase>
。
DEFAULT_FILE_NOT_FOUND
基礎檔案可能已更新。 您可以在 SQL 中執行 'REFRESH TABLE tableName' 命令,或重新建立相關的數據集/數據框架,以明確使 Spark 中的快取失效。 如果磁碟快取過時或基礎檔案已移除,您可以重新啟動叢集,手動使磁碟快取失效。
DEFAULT_PLACEMENT_INVALID
MERGE、INSERT、UPDATE 或 SET VARIABLE 命令中的 DEFAULT 關鍵詞無法直接指派給目標數據行,因為它是表達式的一部分。
例如: UPDATE SET c1 = DEFAULT
是允許的,但 UPDATE T SET c1 = DEFAULT + 1
不允許。
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
串流查詢是從非預期的 Delta 數據表讀取的(id = '<newTableId>
')。
它用來根據檢查點從另一個 Delta 數據表讀取(id = ''<oldTableId>
)。
當您將程式代碼變更為從新數據表讀取,或您刪除和時,可能會發生這種情況。
重新建立數據表。 請還原變更或刪除串流查詢檢查點
以從頭開始重新啟動。
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
不支援不同的視窗函式: <windowExpr>
。
DIVIDE_BY_ZERO
除數為零。 使用 try_divide
來容許 0 的除數,並改為傳回 NULL。 如有必要,請將 設為 <config>
「false」 以略過此錯誤。
如需詳細資訊,請參閱 DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
只有在 Delta Live Tables 管線內才支持預期。
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
只有 Delta Live Tables 管線才支援具有 CLUSTER BY 子句的 MATERIALIZED VIEW。
DLT_VIEW_LOCATION_NOT_SUPPORTED
只有 Delta Live Tables 管線才支援 MATERIALIZED VIEW 位置。
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
只有 Delta Live Tables 管線才支援具有指定類型的 MATERIALIZED VIEW 架構。
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
檢視中的 CONSTRAINT 子句僅支援 Delta Live Tables 管線。
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
不允許箭頭結構中的重複功能變數名稱,取得 <fieldNames>
。
DUPLICATED_MAP_KEY
找到重複的對應索引鍵 <key>
,請檢查輸入數據。
如果您想要移除重複的索引鍵,您可以將 設定 <mapKeyDedupPolicy>
為 「LAST_WIN」,讓最後插入的索引鍵優先。
DUPLICATED_METRICS_NAME
計量名稱不是唯一的: <metricName>
。 同名不能用於具有不同結果的計量。
不過,允許具有相同結果和名稱的多個計量實例(例如自我聯結)。
DUPLICATE_ASSIGNMENTS
數據行或變數 <nameList>
會多次顯示為指派目標。
DUPLICATE_CLAUSES
找到重複的子句: <clauseName>
。 請移除其中一個。
DUPLICATE_KEY
找到重複的索引鍵 <keyColumn>
。
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
對例程 <functionName>
的呼叫無效,因為它包含相同參數名稱 <parameterName>
的多個自變數指派。
如需詳細資訊,請參閱 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
在使用者定義例程 <routineName>
的參數清單中找到重複的名稱: <names>
。
DUPLICATE_ROUTINE_RETURNS_COLUMNS
在使用者定義的例程 <routineName>
的 RETURNS 子句數據行清單中找到重複的數據行: <columns>
。
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
先前的節點發出事件時間=<emittedRowEventTime>
的數據列早於 current_watermark_value=<currentWatermark>
這可能會導致執行管線下游的具狀態運算符發生正確性問題。
請更正運算子邏輯,以在目前的全域水位線值之後發出數據列。
EMPTY_JSON_FIELD_VALUE
無法剖析資料類型 <dataType>
的空字串。
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
暫存 <operation>
查詢中的空白本機檔案
ENCODER_NOT_FOUND
找不到類型為 Spark SQL 內部表示法的 <typeName>
編碼器。
請考慮將輸入類型變更為 『<docroot>
/sql-ref-datatypes.html』 支援的其中一種。
END_LABEL_WITHOUT_BEGIN_LABEL
沒有開始標籤,結束卷標 <endLabel>
就不能存在。
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Kafka 主題(s) 中的部分分割區會報告可用的位移,在使用 Trigger.AvailableNow 執行查詢期間,該位移小於結束位移。 此錯誤可能是暫時性的 - 重新啟動查詢,如果您仍然看到相同的問題,請回報。
latest offset: <latestOffset>
, end offset: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
針對具有 Trigger.AvailableNow 的 Kafka 數據源,每個主題數據分割的結束位移應該低於或等於預先擷取的位移。 此錯誤可能是暫時性的 - 重新啟動查詢,如果您仍然看到相同的問題,請回報。
預先擷取的位移: <prefetchedOffset>
、結束位移: <endOffset>
。
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
讀取 avro 數據時發生錯誤 - 遇到未知的指紋: <fingerprint>
,不確定要使用的架構。
如果您在啟動 Spark 內容之後註冊了其他架構,就可能會發生這種情況。
EVENT_LOG_REQUIRES_SHARED_COMPUTE
無法從指派或無隔離共用叢集查詢事件記錄檔,請改用共用叢集或 Databricks SQL 倉儲。
EVENT_LOG_UNAVAILABLE
沒有事件記錄檔可供 使用 <tableOrPipeline>
。 在產生事件之後,請稍後再試一次
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
的數據表型態 <tableIdentifier>
為 <tableType>
。
查詢事件記錄僅支持具體化檢視、串流數據表或 Delta 實時數據表管線
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
事件時間 <eventName>
的類型無效 <eventType>
,但必須是 “TIMESTAMP
” ”
EXCEED_LIMIT_LENGTH
超過 char/varchar 類型長度限制: <limit>
。
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT 資料行 <columnName>
已解析且預期為 StructType,但找到類型 <dataType>
。
EXCEPT_OVERLAPPING_COLUMNS
EXCEPT 清單中的數據行必須相異且不重疊,但取得 (<columns>
)。
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT 資料行 [<exceptColumns>
] 已解析,但與星號展開中的任何數據行 [<expandedColumns>
] 不相符。
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
無法解析 EXCEPT 子句中的數據行/功能變數名稱 <objectName>
。 您是否表示下列其中一項: [<objectList>
]?
注意:在結構展開期間,EXCEPT 子句中的巢狀數據行不得包含限定符(數據表名稱、父結構數據行名稱等)。如果限定符與巢狀數據行搭配使用,請嘗試移除限定符。
EXECUTOR_BROADCAST_JOIN_OOM
記憶體不足,無法建置廣播關聯 <relationClassName>
。 關聯大小 = <relationSize>
。 這個工作所使用的記憶體總計 = <taskMemoryUsage>
。 執行程式記憶體管理員計量:onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
。 [sparkPlanId: <sparkPlanId>
]
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
這個 EXECUTE IMMEDIATE 命令的 USING 子句包含多個具有相同別名的自變數 (<aliases>
),這無效;請更新命令以指定唯一別名,然後再試一次。
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>
' 預期會有永久檢視,但 <viewName>
為暫存檢視。
EXPECT_TABLE_NOT_VIEW
'<operation>
' 預期數據表,但 <viewName>
為檢視。
如需詳細資訊,請參閱 EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
資料表 <tableName>
不支援 <operation>
。
如需詳細資訊,請參閱 EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
無法將數據列譯碼為表達式的值: <expressions>
。
EXPRESSION_ENCODING_FAILED
無法將表達式 <expressions>
的值編碼為數據列。
EXPRESSION_TYPE_IS_NOT_ORDERABLE
無法排序數據行表示式 <expr>
,因為其類型 <exprType>
無法排序。
EXTERNAL_TABLE_INVALID_SCHEME
外部數據表不支援配置 <scheme>
。
FABRIC_REFRESH_INVALID_SCOPE
執行 'REFRESH FOREIGN <scope>
<name>
' 時發生錯誤。 無法直接重新整理網狀架構 <scope>
,請改用「重新整理外部目錄 <catalogName>
」來重新整理網狀架構目錄。
FAILED_EXECUTE_UDF
用戶定義函數 (: (<functionName>
<signature>
) =><result>
) 失敗,因為:<reason>
。
FAILED_FUNCTION_CALL
無法準備 <funcName>
函式以進行呼叫。 請仔細檢查函式的自變數。
FAILED_JDBC
工作上的 JDBC <url>
失敗:
如需詳細資訊,請參閱 FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
剖析結構失敗: <raw>
。
FAILED_READ_FILE
讀取檔案 <path>
時發生錯誤。
如需詳細資訊,請參閱 FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
無法向 Kryo 註冊類別。
FAILED_RENAME_PATH
無法重新命名 <sourcePath>
為 <targetPath>
目的地已經存在。
FAILED_RENAME_TEMP_FILE
無法將暫存盤重新 <srcPath>
命名為 <dstPath>
FileSystem.rename 傳回 false。
FAILED_ROW_TO_JSON
無法以 JSON 格式將 類別<class>
的數據列值<value>
轉換成目標 SQL 類型<sqlType>
。
FAILED_TO_PARSE_TOO_COMPLEX
語句,包括潛在的 SQL 函式和參考的檢視,太複雜,無法剖析。
若要減輕此錯誤,請將 語句分成多個較不複雜的區塊。
FEATURE_NOT_ENABLED
<featureName>
此功能未啟用。 請考慮將 組態 <configKey>
設定為 <configValue>
以啟用這項功能。
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
傳統 SQL 倉儲不支援。 若要使用這項功能,請使用 Pro 或無伺服器 SQL 倉儲。 若要深入瞭解倉儲類型,請參閱 <docLink>
FEATURE_REQUIRES_UC
<feature>
不支援沒有 Unity 目錄。 若要使用此功能,請啟用 Unity 目錄。 若要深入瞭解 Unity 目錄,請參閱 <docLink>
FEATURE_UNAVAILABLE
<feature>
在您的環境中不受支援。 若要使用此功能,請連絡 Databricks 支援。
FIELD_ALREADY_EXISTS
無法 <op>
數據行,因為 <fieldNames>
已存在於 <struct>
中。
FIELD_NOT_FOUND
中<fields>
沒有這類結構欄位<fieldName>
。
FILE_IN_STAGING_PATH_ALREADY_EXISTS
暫存路徑 <path>
中的檔案已經存在,但未設定 OVERWRITE
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
flatMapGroupsWithState 中使用者提供的函式發生錯誤。 原因: <reason>
FORBIDDEN_OPERATION
不允許在 上<objectType>
執行此工作<statement>
: <objectName>
。
FOREACH_BATCH_USER_FUNCTION_ERROR
foreach 批次接收中使用者提供的函式發生錯誤。 原因: <reason>
FOREACH_USER_FUNCTION_ERROR
foreach 接收中使用者提供的函式發生錯誤。 原因: <reason>
FOREIGN_KEY_MISMATCH
外鍵父 <parentColumns>
資料列不符合主鍵子資料列 <childColumns>
。
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
無法執行此命令,因為外部 <objectType>
名稱必須是非空白的。
FOUND_MULTIPLE_DATA_SOURCES
偵測到名稱為 『<provider>
' 的多個數據源。 請檢查數據源未同時註冊並位於 classpath 中。
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json推斷在下列情況發生衝突的架構更新: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json找到 columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) present
在 JSON 物件中,無法再繼續。 請為 設定不同的值
選項 'columnNameOfCorruptRecord'。
FROM_JSON_CORRUPT_SCHEMA
from_json推斷無法讀取儲存在: <location>
FROM_JSON_INFERENCE_FAILED
from_json無法推斷架構。 請改為提供一個。
FROM_JSON_INFERENCE_NOT_SUPPORTED
只有在定義串流數據表時,才支援from_json推斷
FROM_JSON_INVALID_CONFIGURATION
from_json組態無效:
如需詳細資訊,請參閱 FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json無法從 <old>
進化到 <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
函式 <function>
需要具名參數。 參數缺少名稱: <exprs>
。 請更新函式呼叫以新增所有參數的名稱,例如 <function>
(param_name => ...)。
GENERATED_COLUMN_WITH_DEFAULT_VALUE
數據行不能同時有預設值和產生表達式,但數據<colName>
行具有預設值:() 和產生表達式:(<defaultValue>
<genExpr>
)。
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 和較低版本不支援 getTablesByType。 請使用Hive 2.3或更高版本。
GET_WARMUP_TRACING_FAILED
無法取得熱身追蹤。 原因: <cause>
。
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
不允許函式get_warmup_tracing()。
GRAPHITE_SINK_INVALID_PROTOCOL
無效的 Graphite 通訊協定: <protocol>
。
GRAPHITE_SINK_PROPERTY_MISSING
Graphite 接收需要 '<property>
' 屬性。
GROUPING_COLUMN_MISMATCH
在群組<groupingColumns>
數據列 中找不到群組數據行 (<grouping>
) 的數據行。
GROUPING_ID_COLUMN_MISMATCH
grouping_id (<groupingIdColumn>
) 的數據行與群組數據行 (<groupByColumns>
) 不符。
GROUPING_SIZE_LIMIT_EXCEEDED
叢組集大小不能大於 <maxSize>
。
GROUP_BY_AGGREGATE
GROUP BY 中不允許聚合函數,但找到 <sqlExpr>
。
如需詳細資訊,請參閱 GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
是指包含聚合函數的表達式 <aggExpr>
。 GROUP BY 中不允許聚合函數。
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY 位置 <index>
不在選取清單中(有效範圍是 [1, <size>
])。
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
表達式 <sqlExpr>
無法當做群組表達式使用,因為其數據類型 <dataType>
不是可排序的數據類型。
HDFS_HTTP_ERROR
嘗試從 HDFS 讀取時,HTTP 要求失敗。
如需詳細資訊,請參閱 HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
對 無效的 <function>
呼叫;僅支援有效的 HLL 草圖緩衝區做為輸入(例如函式所產生的 hll_sketch_agg
輸入)。
HLL_INVALID_LG_K
對<function>
的呼叫無效;值lgConfigK
必須介於 和 <max>
之間<min>
,內含:<value>
。
HLL_UNION_DIFFERENT_LG_K
素描有不同的 lgConfigK
值: <left>
和 <right>
。 將 allowDifferentLgConfigK
參數設定為 true,以使用不同的lgConfigK
值呼叫<function>
。
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
不是有效的標識碼,因為它有超過 2 個名稱部分。
ILLEGAL_STATE_STORE_VALUE
提供給狀態存放區的不合法值
如需詳細資訊,請參閱 ILLEGAL_STATE_STORE_VALUE
INCOMPARABLE_PIVOT_COLUMN
不合法的樞紐資料列 <columnName>
。 樞紐數據行必須是可比較的。
INCOMPATIBLE_COLUMN_TYPE
<operator>
只能在具有相容數據行類型的數據表上執行。 數據表<columnOrdinalNumber>
的數據行類型<dataType1>
與第一個 table<hint>
的相同數據行不相容<dataType2>
<tableOrdinalNumber>
。
INCOMPATIBLE_DATASOURCE_REGISTER
偵測到不相容的DataSourceRegister。 請從 classpath 移除不相容的連結庫,或將其升級。 錯誤: <message>
INCOMPATIBLE_DATA_FOR_TABLE
無法寫入資料表 <tableName>
的不相容資料:
如需詳細資訊,請參閱 INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
聯結類型 <joinType1>
與 <joinType2>
不相容。
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
檢視 <viewName>
的 SQL 查詢具有不相容的架構變更,且無法解析數據行 <colName>
。 名為 但取得 的預期<expectedNum>
數據行<colName>
<actualCols>
。
請執行 下列命令,嘗試重新建立檢視: <suggestion>
。
INCOMPLETE_TYPE_DEFINITION
不完整的複雜類型:
如需詳細資訊,請參閱 INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
由於升級至 ,您可能會收到不同的結果
如需詳細資訊,請參閱 INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
, <functionName>
至少 <minArgs>
需要自變數和最多 <maxArgs>
自變數。
INCORRECT_RAMP_UP_RATE
具有 <rowsPerSecond>
rowsPerSecond 的最大位移為 <maxSeconds>
,但 'rampUpTimeSeconds' 為 <rampUpTimeSeconds>
。
INDETERMINATE_COLLATION
呼叫的函式需要知道應該套用的定序,但找不到不確定的定序。 使用 COLLATE 函式明確設定定序。
INDEX_ALREADY_EXISTS
無法在數據表<tableName>
上建立索引<indexName>
,因為它已經存在。
INDEX_NOT_FOUND
在數據表 <tableName>
上找不到索引<indexName>
。
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
此叢集類型 <trigger>
不支援觸發程序類型。
使用不同的觸發程式類型,例如 AvailableNow、Once。
INSERT_COLUMN_ARITY_MISMATCH
無法寫入 , <tableName>
原因為
如需詳細資訊,請參閱 INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
無法寫入 '<tableName>
', <reason>
:
數據表數據行: <tableColumns>
。
使用靜態值分割數據行: <staticPartCols>
。
數據行: <dataColumns>
。
INSUFFICIENT_PERMISSIONS
權限不足:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
用戶 <user>
對於外部位置 <location>
的許可權不足。
INSUFFICIENT_PERMISSIONS_NO_OWNER
沒有的 <securableName>
擁有者。 要求系統管理員設定擁有者。
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
使用者不擁有 <securableName>
。
INSUFFICIENT_PERMISSIONS_SECURABLE
用戶沒有的許可權<action>
<securableName>
。
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
的 <securableName>
擁有者與的 <parentSecurableName>
擁有者不同。
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
記憶體認證 <credentialName>
的許可權不足。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
用戶無法 <action>
開啟 <securableName>
,因為基礎安全性實體的許可權。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
使用者無法 <action>
開啟 <securableName>
,因為基礎安全性實體的許可權:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
<message>
.<alternative>
INTERVAL_DIVIDED_BY_ZERO
除數為零。 使用 try_divide
來容許 0 的除數,並改為傳回 NULL。
INVALID_AGGREGATE_FILTER
聚合函數中的 FILTER 表達式 <filterExpr>
無效。
如需詳細資訊,請參閱 INVALID_AGGREGATE_FILTER
INVALID_ARRAY_INDEX
索引 <indexValue>
超出界限。 陣列具有 <arraySize>
元素。 使用 SQL 函式 get()
來容許存取位於無效索引的專案,並改為傳回 NULL。 如有必要,請將 設為 <ansiConfig>
「false」 以略過此錯誤。
如需詳細資訊,請參閱 INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
索引 <indexValue>
超出界限。 陣列具有 <arraySize>
元素。 使用 try_element_at
來容許存取無效索引的專案,並改為傳回NULL。 如有必要,請將 設為 <ansiConfig>
「false」 以略過此錯誤。
如需詳細資訊,請參閱 INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_BITMAP_POSITION
0 索引的位陣圖位置 <bitPosition>
超出界限。 點陣圖具有 <bitmapNumBits>
位 (<bitmapNumBytes>
位元元元)。
INVALID_BOOLEAN_STATEMENT
布爾值語句預期在 條件中,但 <invalidStatement>
已找到。
INVALID_BOUNDARY
界限 <boundary>
無效: <invalidValue>
。
如需詳細資訊,請參閱 INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
<type>
無法用於貯體數據行。 貯體不支援定序數據類型。
INVALID_BUCKET_FILE
無效的貯體檔案: <path>
。
INVALID_BYTE_STRING
預期的格式為 ByteString,但 為 <unsupported>
(<class>
)。
INVALID_COLUMN_NAME_AS_PATH
數據源 <datasource>
無法儲存數據行 <columnName>
,因為它的名稱包含檔案路徑中不允許的一些字元。 請使用別名來重新命名它。
INVALID_COLUMN_OR_FIELD_DATA_TYPE
資料列或欄位 <name>
的類型 <type>
為 ,但必須是 <expectedType>
。
INVALID_CONF_VALUE
設定 「<confName>
中的值」<confValue>
無效。
如需詳細資訊,請參閱 INVALID_CONF_VALUE
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient
函式只能在語句或 ALTER VIEW
語句中使用CREATE VIEW
,以在 Unity 目錄中定義僅限共享檢視。
INVALID_CURSOR
數據指標無效。
如需詳細資訊,請參閱 INVALID_CURSOR
INVALID_DATETIME_PATTERN
無法辨識的日期時間模式: <pattern>
。
如需詳細資訊,請參閱 INVALID_DATETIME_PATTERN
INVALID_DEFAULT_VALUE
無法執行 <statement>
命令,因為目的地資料行或變數 <colName>
具有 DEFAULT 值 <defaultValue>
、
如需詳細資訊,請參閱 INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
分隔符的值無效。
如需詳細資訊,請參閱 INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
SYNC 命令的目的地目錄必須位於 Unity 目錄內。 找到 <catalog>
。
INVALID_DRIVER_MEMORY
系統記憶體 <systemMemory>
至少 <minSystemMemory>
必須是 。
請使用 Spark 組態中的 –driver-memory 選項或 “<config>
” 來增加堆積大小。
INVALID_DYNAMIC_OPTIONS
外部數據表<>table_name禁止傳遞<option_list>的選項。
INVALID_EMPTY_LOCATION
位置名稱不能是空字串,但 <location>
已指定。
INVALID_ESC
找到無效的逸出字串: <invalidEscape>
。 逸出字串必須只包含一個字元。
INVALID_ESCAPE_CHAR
EscapeChar
應該是長度一的字串常值,但取得 <sqlExpr>
。
INVALID_EXECUTOR_MEMORY
執行程式記憶體 <executorMemory>
至少 <minSystemMemory>
必須是 。
請使用 Spark 組態中的 –executor-memory 選項或 “<config>
” 來增加執行程式記憶體。
INVALID_EXPRESSION_ENCODER
找到無效的表達式編碼器。 預期 ExpressionEncoder 的實例,但取得 <encoderType>
。 如需詳細資訊,請參閱 '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html'。
INVALID_EXTRACT_BASE_FIELD_TYPE
無法從 <base>
擷取值。 需要複雜類型 [STRUCT
, , ARRAY
MAP
] 但已取得 <other>
。
INVALID_EXTRACT_FIELD
無法從擷取 <field>
。<expr>
INVALID_EXTRACT_FIELD_TYPE
功能變數名稱應該是非 Null 字串常值,但它是 <extraction>
。
INVALID_FIELD_NAME
<fieldName>
功能變數名稱無效:<path>
不是結構。
INVALID_FORMAT
格式無效: <format>
。
如需詳細資訊,請參閱 INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
秒的分數必須是零。 有效範圍為 [0, 60]。 如有必要,請將 設為 <ansiConfig>
「false」 以略過此錯誤。
INVALID_HANDLE
句柄 <handle>
無效。
如需詳細資訊,請參閱 INVALID_HANDLE
INVALID_IDENTIFIER
未加上引號的標識碼 <ident>
無效,且必須加上引號: <ident>
。
未加上批注的識別碼只能包含 ASCII 字母 ('a' - 'z'、 'A' - 'Z')、數位 ('0' - '9'),以及底線底線 ('_') 。
未加上批注的標識碼也不得以數字開頭。
不同的數據源和中繼存放區可能會對有效的標識符施加額外的限制。
INVALID_INDEX_OF_ZERO
索引 0 無效。 索引應為 < 0 或 > 0(第一個專案具有索引 1)。
INVALID_INLINE_TABLE
無效的內嵌數據表。
如需詳細資訊,請參閱 INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
將『<input>
『 剖析為間隔時發生錯誤。 請確定所提供的值格式有效,以定義間隔。 您可以參考正確格式的檔案。
如需詳細資訊,請參閱 INVALID_INTERVAL_FORMAT
INVALID_INVERSE_DISTRIBUTION_FUNCTION
不合法的反向分配函式 <funcName>
。
如需詳細資訊,請參閱 INVALID_INVERSE_DISTRIBUTION_FUNCTION
INVALID_JOIN_TYPE_FOR_JOINWITH
joinWith 中的聯結類型無效: <joinType>
。
INVALID_JSON_DATA_TYPE
無法將 JSON 字串'<invalidType>
' 轉換成資料類型。 請輸入有效的數據類型。
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
定序只能套用至字串類型,但 JSON 資料類型為 <jsonType>
。
INVALID_JSON_ROOT_FIELD
無法將 JSON 根欄位轉換為目標 Spark 類型。
INVALID_JSON_SCHEMA_MAP_TYPE
輸入架構 <jsonSchema>
只能包含 STRING
做為的 MAP
索引鍵類型。
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
設定 “<bufferSizeConfKey>
” 的值必須小於 2048 MiB,但取得 <bufferSizeConfValue>
MiB。
INVALID_LABEL_USAGE
<labelName>
標籤的使用方式無效。
如需詳細資訊,請參閱 INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
無效的 Lambda 函數調用。
如需詳細資訊,請參閱 INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
<joinType>
不允許具有 LATERAL 相互關聯的 JOIN,因為 OUTER 子查詢無法與其聯結夥伴相互關聯。 請移除 LATERAL 相互關聯,或使用 INNER JOIN 或 LEFT OUTER JOIN。
INVALID_LIMIT_LIKE_EXPRESSION
表達式之類的 <expr>
限制無效。
如需詳細資訊,請參閱 INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOCATION
位置名稱不能是無效的 URI,但 <location>
已指定。
INVALID_NON_ABSOLUTE_PATH
提供的非絕對路徑 <path>
無法限定。 請將路徑更新為有效的 dbfs 掛接位置。
INVALID_NON_DETERMINISTIC_EXPRESSIONS
運算子預期有決定性運算式,但實際運算式為 <sqlExprs>
。
INVALID_NUMERIC_LITERAL_RANGE
數值常值 <rawStrippedQualifier>
超出的有效範圍 <typeName>
,其最小值 <minValue>
為 ,最大值為 <maxValue>
。 請據以調整值。
INVALID_OBSERVED_METRICS
觀察到的計量無效。
如需詳細資訊,請參閱 INVALID_OBSERVED_METRICS
INVALID_OPTIONS
不合法的選項:
如需詳細資訊,請參閱 INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
群組匯總 pandas UDF <functionList>
無法與其他非 pandas 聚合函數一起叫用。
INVALID_PARAMETER_MARKER_VALUE
提供無效的參數對應:
如需詳細資訊,請參閱 INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
中的 <functionName>
parameter(s) <parameter>
值無效:
如需詳細資訊,請參閱 INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
無法用於 <type>
數據分割數據行。
INVALID_PARTITION_OPERATION
數據分割命令無效。
如需詳細資訊,請參閱 INVALID_PARTITION_OPERATION
INVALID_PIPELINE_ID
管線標識碼 <pipelineId>
無效。
管線標識符應該是格式為 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxx' 的 UUID
INVALID_PRIVILEGE
許可權 <privilege>
對 <securable>
無效。
INVALID_PROPERTY_KEY
<key>
是無效的屬性索引鍵,請使用引號,例如 SET <key>
=<value>
。
INVALID_PROPERTY_VALUE
<value>
是無效的屬性值,請使用引號,例如SET <key>
=<value>
INVALID_QUERY_MIXED_QUERY_PARAMETERS
參數化查詢必須使用位置或具名參數,但不能同時使用兩者。
INVALID_S3_COPY_CREDENTIALS
COPY INTO 認證必須包含AWS_ACCESS_KEY、AWS_SECRET_KEY和AWS_SESSION_TOKEN。
INVALID_SAVE_MODE
指定的儲存模式 <mode>
無效。 有效的儲存模式包括 “append”、“overwrite”、“ignore”、“error”、“errorifexists” 和 “default”。
INVALID_SCHEMA
輸入架構 <inputSchema>
不是有效的架構字串。
如需詳細資訊,請參閱 INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name>
不是數據表/架構的有效名稱。 有效名稱只能包含字母字元、數字和 _。
INVALID_SCHEME
Unity 目錄不支援 <name>
作為預設檔案配置。
INVALID_SECRET_LOOKUP
無效的秘密查閱:
如需詳細資訊,請參閱 INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
預期的格式為 『SET』、『SET key』或 『SET key=value』。 如果您要在索引鍵中包含特殊字元,或將分號包含在值中,請使用backquotes,例如 SET key
=value
。
INVALID_SHARED_ALIAS_NAME
<sharedObjectType>
別名名稱的格式必須是 「schema.name」。
INVALID_SINGLE_VARIANT_COLUMN
singleVariantColumn
如果有使用者指定的架構,則無法使用 選項。
INVALID_SOURCE_CATALOG
來源目錄不得位於 SYNC 命令的 Unity 目錄內。 找到 <catalog>
。
INVALID_SQL_ARG
的 sql()
自變數<name>
無效。 請考慮將它取代為 SQL 常值或集合建構函式,例如 map()
、、 array()
struct()
。
INVALID_SQL_SYNTAX
無效的 SQL 語法:
如需詳細資訊,請參閱 INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
暫存查詢中的暫存 <operation>
路徑無效: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
EXECUTE IMMEDIATE 的 INTO 子句只適用於查詢,但指定的語句不是查詢: <sqlString>
。
INVALID_STATEMENT_OR_CLAUSE
語句或子句無效 <operation>
。
INVALID_SUBQUERY_EXPRESSION
不合法的子查詢:
如需詳細資訊,請參閱 INVALID_SUBQUERY_EXPRESSION
INVALID_TEMP_OBJ_REFERENCE
無法建立型<obj>
別的永續性對象<objName>
,因為它參考型<tempObj>
別 的暫存物件<tempObjName>
。 請讓暫存對象 <tempObjName>
持續存在,或讓永續性物件 <objName>
暫存。
INVALID_TIMESTAMP_FORMAT
提供的時間戳 <timestamp>
不符合預期的語法 <format>
。
INVALID_TIME_TRAVEL_SPEC
無法指定當時間前往資料表時的版本和時間戳。
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
時間移動時間戳表達式 <expr>
無效。
如需詳細資訊,請參閱 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
具型別常值 <valueType>
的值無效: <value>
。
INVALID_UDF_IMPLEMENTATION
函式 <funcName>
不會實作 ScalarFunction 或 AggregateFunction。
INVALID_UPGRADE_SYNTAX
<command>
<supportedOrNot>
源數據表位於Hive中繼存放區中,而目的地數據表位於 Unity 目錄中。
INVALID_URL
URL 無效: <url>
。 如有必要,請將 設為 <ansiConfig>
「false」 以略過此錯誤。
INVALID_USAGE_OF_STAR_OR_REGEX
中的<prettyName>
使用<elem>
方式無效。
INVALID_UTF8_STRING
字串中找到的UTF8位元組序列無效: <str>
。
INVALID_UUID
輸入 <uuidInput>
不是有效的 UUID。
UUID 的格式應該是 'xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'
請檢查 UUID 的格式。
INVALID_VARIABLE_DECLARATION
無效的變數宣告。
如需詳細資訊,請參閱 INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
變數類型必須是字串類型,但取得 <varType>
。
INVALID_VARIANT_CAST
變數值 <value>
無法轉換成 <dataType>
。 請改用 try_variant_get
。
INVALID_VARIANT_FROM_PARQUET
無效的變體。
如需詳細資訊,請參閱 INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
路徑 <path>
不是 中的 <functionName>
有效變體擷取路徑。
有效的路徑應該以 $
開頭,後面接著零個或多個區段,例如 [123]
、 .name
、 ['name']
或 ["name"]
。
INVALID_WHERE_CONDITION
WHERE 條件 <condition>
包含無效的運算式: <expressionList>
。
重寫查詢,以避免 WHERE 子句中的視窗函式、聚合函數和產生器函式。
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
無法指定 ORDER BY 或的 <aggFunc>
視窗框架。
INVALID_WRITER_COMMIT_MESSAGE
數據源寫入器已產生無效的認可訊息數目。 預期每個工作只有一個寫入器認可訊息,但收到 <detail>
。
INVALID_WRITE_DISTRIBUTION
要求的寫入散發套件無效。
如需詳細資訊,請參閱 INVALID_WRITE_DISTRIBUTION
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
聯結條件 <joinCondition>
的類型無效 <conditionType>
,必須是 “BOOLEAN
” ”
KAFKA_DATA_LOSS
有些數據可能已經遺失,因為它們無法再在 Kafka 中使用;
數據已由 Kafka 淘汰,或主題可能已在 中的所有資料之前刪除
已處理主題。
如果您不希望串流查詢在這類情況下失敗,請將source選項failOnDataLoss設定為 false。
原因:
如需詳細資訊,請參閱 KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
在中分區<shardId>
所需的序號<endSeqNum>
之前,無法讀取
具有取用者模式 <consumerMode>
的 kinesis 數據流<stream>
。 查詢將會因為
潛在的數據遺失。 最後一筆讀取記錄的序號 <lastSeqNum>
為 。
如果 endSeqNum 的數據已過時,或 Kinesis 數據流已過時,就會發生這種情況
已以相同名稱刪除並重新建構。 可以覆寫失敗行為
在spark組態中將spark.databricks.kinesis.failOnDataLoss設定為 false。
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
從 Kinesis 擷取的最小 shardId (<fetchedShardId>
)
小於最小追蹤的shardId(<trackedShardId>
)。
這是非預期的情況,而且會在以相同名稱刪除並重新建立 Kinesis 數據流時發生。
和使用此 Kinesis 資料流的串流查詢會使用現有的檢查點位置重新啟動。
使用新的檢查點位置重新啟動串流查詢,或使用新的名稱建立數據流。
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
針對分區 <shard>
,先前擷取中從 Kinesis 讀取的最後一筆記錄具有序號 <lastSeqNum>
、
大於目前擷取中具有序號 <recordSeqNum>
的記錄讀取。
這是非預期的,而且可能會在重試或下一個擷取的開始位置未正確初始化時發生,而且可能會導致下游重複的記錄。
KRYO_BUFFER_OVERFLOW
Kryo 串行化失敗: <exceptionMsg>
。 若要避免這種情況,請增加 “<bufferSizeConfKey>
” 值。
LABELS_MISMATCH
開始標籤 <beginLabel>
不符合結束標籤 <endLabel>
。
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA 輸入路徑不存在: <path>
。
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL 必須與的 file
架構搭配使用,但取得: <actualSchema>
。
LOCATION_ALREADY_EXISTS
無法將Managed數據表命名為 <identifier>
,因為其相關聯的位置 <location>
已經存在。 請挑選不同的數據表名稱,或先移除現有的位置。
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Kafka 主題中的部分分割區在使用 Trigger.AvailableNow 執行查詢期間已遺失。 此錯誤可能是暫時性的 - 重新啟動查詢,如果您仍然看到相同的問題,請回報。
適用於最新位移的 topic-partitions: <tpsForLatestOffset>
,end offset 的 topic-partitions: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
在訊息還原串行化中偵測到格式不正確的 Avro 訊息。 剖析模式: <mode>
。 若要將格式錯誤的 Avro 訊息視為 Null 結果,請嘗試將選項 'mode' 設定為 'PERMISSIVE'。
MALFORMED_CHARACTER_CODING
使用 執行 <function>
時發現的值無效 <charset>
MALFORMED_CSV_RECORD
格式不正確的 CSV 記錄: <badRecord>
MALFORMED_RECORD_IN_PARSING
在記錄剖析中偵測到格式不正確的記錄: <badRecord>
。
剖析模式: <failFastMode>
。 若要以 Null 結果處理格式不正確的記錄,請嘗試將選項 'mode' 設定為 'PERMISSIVE'。
如需詳細資訊,請參閱 MALFORMED_RECORD_IN_PARSING
MALFORMED_VARIANT
Variant binary 格式不正確。 請檢查數據源是否有效。
MANAGED_TABLE_WITH_CRED
不支援使用記憶體認證建立受控數據表。
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
無法 <refreshType>
具體化檢視,因為它會預先具有 pipelineId。 若要啟用 <refreshType>
,請卸除並重新建立具體化檢視。
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
不允許具體化檢視作業 <operation>
:
如需詳細資訊,請參閱 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
具體化檢視中的輸出表達式 <expression>
必須明確為別名。
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
使用串流查詢無法建立具體化檢視 <name>
。 請使用 CREATE [OR REFRESH] STREAMING TABLE,或移除 FROM 子句的 STREAM 關鍵詞,改為將此關聯轉換成批次查詢。
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
此版本的具體化檢視不支持作業 <operation>
。
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
無法建立新的變數,因為會話中的變數 <variableName>
數目超過允許的數目上限 (<maxNumVariables>
)。
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch 必須是小於或等於的正整數 <kinesisRecordLimit>
MERGE_CARDINALITY_VIOLATION
MERGE 語句的 ON 搜尋條件會比對目標數據表中的單一數據列與源數據表的多個數據列。
這可能會導致使用更新或刪除作業多次操作目標數據列,而且不允許。
METRIC_CONSTRAINT_NOT_SUPPORTED
計量條件約束未啟用。
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE table 函式的自變數 “” 不支援提供的值 “<argValue>
<argName>
”。
如需詳細資訊,請參閱 METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
計量存放區函 <functionName>
式目前在此環境中已停用。
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Trigger.AvailableNow 中的 Kafka 數據源應該在每個 microbatch 的預先擷取位移中提供相同的主題分割區,以結束位移。 此錯誤可能是暫時性的 - 重新啟動查詢,如果您仍然看到相同的問題,請回報。
預先擷取位移的 topic-partitions: <tpsForPrefetched>
、end offset 的 topic-partitions: <tpsForEndOffset>
。
MISSING_AGGREGATION
非匯總表達式 <expression>
是以未參與 GROUP BY 子句的數據行為基礎。
將資料行或表示式新增至 GROUP BY、匯總運算式,或如果您不在意群組內傳回哪些值,請使用 <expressionAnyValue>
。
如需詳細資訊,請參閱 MISSING_AGGREGATION
MISSING_CONNECTION_OPTION
類型為 『<connectionType>
' 的連接必須包含下列選項: <requiredOptions>
。
MISSING_GROUP_BY
查詢不包含 GROUP BY 子句。 使用 OVER 子句新增 GROUP BY 或將其轉換成視窗函式。
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK 條件約束必須具有名稱。
MISSING_PARAMETER_FOR_KAFKA
Kafka 需要參數 <parameterName>
,但未在 中 <functionName>
指定。
MISSING_PARAMETER_FOR_ROUTINE
參數 <parameterName>
為必要參數,但未在 中 <functionName>
指定。
MISSING_WINDOW_SPECIFICATION
窗口規格未在的 <windowName>
WINDOW 子句中定義。 如需 WINDOW 子句的詳細資訊,請參閱 『<docroot>
/sql-ref-syntax-qry-select-window.html』。
MODIFY_BUILTIN_CATALOG
不支援修改內建目錄 <catalogName>
。
MULTIPLE_LOAD_PATH
Databricks Delta 不支援載入 API 中的多個輸入路徑。
路徑: <pathList>
。 若要藉由載入來建置單一 DataFrame
來自相同 Delta 資料表的多個路徑,請載入 的根路徑
具有對應數據分割篩選的 Delta 數據表。 如果多個路徑
來自不同的差異數據表,請使用數據集的 union()/unionByName() API
表示合併由個別load() API 呼叫所產生的DataFrame。
MULTIPLE_MATCHING_CONSTRAINTS
找到至少兩個符合指定條件的條件約束。
MULTIPLE_TIME_TRAVEL_SPEC
無法在時間移動子句和選項中指定時間移動。
MULTIPLE_XML_DATA_SOURCE
偵測到名稱為 (<sourceNames>
) 的<provider>
多個數據源。 請指定完整類別名稱,或從 classpath 中移除 <externalSource>
。
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
表達式 <expr>
不支援多個來源。
MULTI_UDF_INTERFACE_ERROR
不允許實作多個 UDF 介面,UDF 類別 <className>
。
MUTUALLY_EXCLUSIVE_CLAUSES
互斥子句或選項 <clauses>
。 請移除其中一個子句。
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
輸入查詢需要 <expectedType>
,但基礎表是 <givenType>
。
NAMED_PARAMETERS_NOT_SUPPORTED
函式不支援 <functionName>
具名參數;請改用位置自變數來重試查詢函式呼叫。
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
無法呼叫函式 <functionName>
,因為不支援具名自變數參考。 在這裡情況下,具名自變數參考為 <argument>
。
NAMED_PARAMETER_SUPPORT_DISABLED
無法呼叫函式 <functionName>
,因為此處未啟用具名自變數參考。
在這裡情況下,具名自變數參考為 <argument>
。
將 「spark.sql.allowNamedFunctionArguments」 設定為 「true」 以開啟功能。
NAMESPACE_ALREADY_EXISTS
無法建立命名空間 <nameSpaceName>
,因為它已經存在。
選擇不同的名稱、卸除現有的命名空間,或新增 IF NOT EXISTS 子句來容許預先存在的命名空間。
NAMESPACE_NOT_EMPTY
無法卸載命名空間 <nameSpaceNameName>
,因為它包含物件。
使用 DROP NAMESPACE ... CASCADE 可卸除命名空間及其所有物件。
NAMESPACE_NOT_FOUND
找不到命名空間 <nameSpaceName>
。 確認命名空間的拼字和正確性。
如果您未將名稱限定為 ,請確認current_schema() 輸出,或以正確限定名稱。
若要容許卸除時發生錯誤,請使用DROP NAMESPACE IF EXISTS。
NATIVE_IO_ERROR
原生要求失敗。 requestId:、cloud:<requestId>
、operation: <cloud>
<operation>
request: [https: <https>
, method = <method>
, path = <path>
, params <params>
= , host = <host>
, headers = , bodyLen = <bodyLen>
<headers>
],
錯誤: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
此叢集中未啟用原生 XML 數據源。
NESTED_AGGREGATE_FUNCTION
不允許在另一個聚合函數的自變數中使用聚合函數。 請在子查詢中使用內部聚合函數。
NESTED_EXECUTE_IMMEDIATE
不允許巢狀EXECUTE IMMEDIATE命令。 請確定提供的 SQL 查詢 (<sqlString>
) 不包含另一個 EXECUTE IMMEDIATE 命令。
NONEXISTENT_FIELD_NAME_IN_LIST
欄位(s) <nonExistFields>
do(es) 不存在。 可用的欄位: <fieldNames>
NON_FOLDABLE_ARGUMENT
<funcName>
函式需要 參數<paramName>
是型<paramType>
別的可折疊表達式,但實際自變數是不可折疊的。
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
當 MERGE 語句中有多個 MATCHED 子句時,只有最後一個 MATCHED 子句可以省略條件。
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
在 MERGE 語句中有多個 NOT MATCHED BY SOURCE 子句時,只有最後一個 NOT MATCHED BY SOURCE 子句可以省略條件。
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
在 MERGE 語句中有多個 NOT MATCHED [BY TARGET] 子句時,只有最後一個 NOT MATCHED [BY TARGET] 子句可以省略條件。
NON_LITERAL_PIVOT_VALUES
找到 <expression>
樞紐值所需的常值表達式。
NON_PARTITION_COLUMN
PARTITION 子句不能包含非數據分割數據行: <columnName>
。
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
串流數據框架/數據集上的 <windowFunc>
[視窗] 函式不支援 (as column <columnName>
)。
結構化串流僅支援使用 WINDOW 函式的時間範圍匯總。 (視窗規格: <windowSpec>
)
NOT_ALLOWED_IN_FROM
FROM 子句中不允許:
如需詳細資訊,請參閱 NOT_ALLOWED_IN_FROM
NOT_A_CONSTANT_STRING
用於例程或子句的表達式<expr>
必須是非 NULL 的常數STRING
。<name>
如需詳細資訊,請參閱 NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
不允許作業 <operation>
, <tableIdentWithDB>
因為它不是數據分割數據表。
NOT_A_SCALAR_FUNCTION
<functionName>
這裡會顯示為純量表示式,但函式已定義為數據表函式。 請更新查詢以將函式呼叫移至FROM子句,或改為重新定義 <functionName>
為純量函式。
NOT_A_TABLE_FUNCTION
<functionName>
這裡會顯示為數據表函式,但函式已定義為純量函式。 請更新查詢以將函式呼叫移至FROM子句之外,或改為重新定義 <functionName>
為數據表函式。
NOT_NULL_ASSERT_VIOLATION
NULL 值出現在不可為 Null 的欄位中: <walkedTypePath>
如果架構是從 Scala Tuple/case 類別推斷,或 Java bean,請嘗試使用 scala。Option[_] 或其他可為 Null 的類型(例如 java.lang.Integer,而不是 int/scala。Int)。
NOT_NULL_CONSTRAINT_VIOLATION
此處不允許指派 NULL。
如需詳細資訊,請參閱 NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
不支援將 類型<originType>
為 的 資料行<originName>
變更<table>
為 <newName>
,<newType>
不支援 ALTER TABLE ALTER/CHANGE COLUMN。
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
v2 數據表不支援。
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
不支援,如果您想要啟用,請將 「spark.sql.catalogImplementation」 設定為 “hive”。
NOT_SUPPORTED_IN_JDBC_CATALOG
JDBC 目錄中不支援的命令:
如需詳細資訊,請參閱 NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>
SQL <endpoint>
不支援 。
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
不支援無伺服器計算。
NOT_UNRESOLVED_ENCODER
預期無法解析的編碼器,但 <attr>
已找到。
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
無法判斷的預設值 <colName>
,因為它不可為 Null,而且沒有預設值。
NO_HANDLER_FOR_UDAF
沒有UDAF'<functionName>
' 的處理程式。 請改用 sparkSession.udf.register(...) 。
NO_MERGE_ACTION_SPECIFIED
df.mergeInto 必須接著至少一個 whenMatched/whenNotMatched/whenNotMatchedBySource。
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE:未指派
找不到路徑 『<path>
' 的父外部位置。 請在其中一個父路徑上建立外部位置,然後再次重試查詢或命令。
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
在 Protobuf 架構中找不到 <catalystFieldPath>
。
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE:未指派
產生數據表認證時,找不到資料表'<tableId>
' 的儲存位置。 請確認數據表類型和數據表位置 URL,然後再次重試查詢或命令。
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE:未指派
找不到目錄 『<catalog>
。 請確認目錄名稱,然後再次重試查詢或命令。
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE:未指派
乾淨的房間 『<cleanroom>
不存在。 請確認清理室名稱拼字正確,並符合有效現有清理室的名稱,然後再次重試查詢或命令。
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE:未指派
外部位置 『<externalLocation>
不存在。 請確認外部位置名稱正確,然後再次重試查詢或命令。
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE:未指派
找不到中繼存放區。 請要求您的帳戶管理員將中繼存放區指派給目前的工作區,然後再次重試查詢或命令。
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE:未指派
共用提供者 『<providerName>
』 不存在。 請確認共用提供者名稱拼字正確,並符合有效現有提供者名稱的名稱,然後再次重試查詢或命令。
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE:未指派
收件者 『<recipient>
』 不存在。 請確認收件者名稱拼字正確,且符合有效現有收件者的名稱,然後再重試查詢或命令。
NO_SUCH_SHARE_EXCEPTION
SQLSTATE:未指派
共用 『<share>
不存在』 不存在。 請確認共用名稱拼字正確,並符合有效現有共享的名稱,然後再重試查詢或命令。
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE:未指派
記憶體認證 『<storageCredential>
』 不存在。 請確認記憶體認證名稱拼字正確,並符合有效現有記憶體認證的名稱,然後再次重試查詢或命令。
NO_SUCH_USER_EXCEPTION
SQLSTATE:未指派
使用者 『<userName>
不存在』 不存在。 請確認您授與許可權或變更擁有權的使用者拼寫正確,並符合有效現有使用者的名稱,然後再次重試查詢或命令。
NO_UDF_INTERFACE
UDF 類別 <className>
不會實作任何 UDF 介面。
NULLABLE_COLUMN_OR_FIELD
數據行或欄位 <name>
是可為 Null 的,但必須是不可為 Null 的。
NULLABLE_ROW_ID_ATTRIBUTES
數據列標識碼屬性不可為 Null: <nullableRowIdAttrs>
。
NULL_DATA_SOURCE_OPTION
數據源讀取/寫入選項 <option>
不能有 Null 值。
NULL_MAP_KEY
無法使用 null 做為對應索引鍵。
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
立即執行需要非 Null 變數做為查詢字串,但提供的變數 <varName>
為 null。
NUMERIC_OUT_OF_SUPPORTED_RANGE
值 <value>
無法解譯為數值,因為它有超過38位數。
NUMERIC_VALUE_OUT_OF_RANGE
如需詳細資訊,請參閱 NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator>
只能在具有相同數據行數目的輸入上執行,但第一個輸入具有 <firstNumColumns>
數據行,而 <invalidOrdinalNum>
輸入具有 <invalidNumColumns>
數據行。
NUM_TABLE_VALUE_ALIASES_MISMATCH
指定的別名數目不符合輸出資料行的數目。
函式名稱: <funcName>
;別名數目: <aliasesNum>
;輸出數據行數目: <outColsNum>
。
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
未提供任何自定義身分識別宣告。
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
此 <location>
不支援呼叫函<functionName>
式;<supportedFunctions>
這裏支援。
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
只有具有 Unity 目錄支援的 Databricks SQL 連接器才支援 SQL 作業 <operation>
。
OPERATION_CANCELED
作業已取消。
OPERATION_REQUIRES_UNITY_CATALOG
作業 <operation>
需要啟用 Unity 目錄。
OP_NOT_SUPPORTED_READ_ONLY
<plan>
唯讀工作階段模式不支援 。
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY 位置 <index>
不在選取清單中(有效範圍是 [1, <size>
])。
PARQUET_CONVERSION_FAILURE
無法為 Parquet 類型為 <parquetType>
的數據類型<dataType>
建立 Parquet 轉換器。
如需詳細資訊,請參閱 PARQUET_CONVERSION_FAILURE
PARSE_EMPTY_STATEMENT
語法錯誤,非預期的空白語句。
PARSE_SYNTAX_ERROR
或附近發生<error>
<hint>
語法錯誤。
PARTITIONS_ALREADY_EXIST
無法新增或重新命名數據表<tableName>
中的分割區,<partitionList>
因為它們已經存在。
選擇不同的名稱、卸除現有的分割區,或新增 IF NOT EXISTS 子句來容許預先存在的分割區。
PARTITIONS_NOT_FOUND
在數據表 <tableName>
中找不到數據分割。<partitionList>
。
確認數據分割規格和數據表名稱。
若要容許卸除時的錯誤,請使用 ALTER TABLE ... DROP IF EXISTS PARTITION。
PARTITION_LOCATION_ALREADY_EXISTS
數據分割位置 <locationPath>
已存在於數據表 <tableName>
中。
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
無法執行 ALTER TABLE SET PARTITION LOCATION 語句,因為
數據分割位置 <location>
不在數據表目錄 <table>
底下。
若要修正此問題,請將分割區的位置設定為 的 <table>
子目錄。
PARTITION_METADATA
<action>
不允許在數據表 <tableName>
上,因為 Unity 目錄不支援儲存分割區元數據。
PATH_ALREADY_EXISTS
路徑 <outputPath>
已經存在。 將模式設定為 「覆寫」,以覆寫現有的路徑。
PATH_NOT_FOUND
路徑不存在: <path>
。
PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION
使用管道運算子時不允許聚合函數 <expr>
|> SELECT 子句;請使用管道運算子 |> 請改用 AGGREGATE 子句
PIVOT_VALUE_DATA_TYPE_MISMATCH
無效的樞紐值 『<value>
:實值數據類型 <valueType>
與樞紐數據行數據類型 <pivotType>
不符。
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
程式 <procedureName>
需要 <expected>
自變數,但 <actual>
已提供。
PROCEDURE_CREATION_EMPTY_ROUTINE
不允許使用空白例程定義的 CREATE PROCEDURE。
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
參數 <parameterName>
是以參數模式 <parameterMode>
定義。 叫用例程時,無法省略 OUT 和 INOUT 參數,因此不支援 DEFAULT 表達式。 若要繼續,請移除 DEFAULT 子句,或將參數模式變更為 IN。
PROCEDURE_NOT_SUPPORTED
不支援預存程式
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Hive 中繼存放區不支援預存程式。 請改用 Unity 目錄。
PROTOBUF_DEPENDENCY_NOT_FOUND
找不到相依性: <dependencyName>
。
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
在路徑讀取 Protobuf 描述元檔案時發生錯誤: <filePath>
。
PROTOBUF_FIELD_MISSING
在 Protobuf 架構<protobufSchema>
中搜尋<field>
提供<matchSize>
相符專案。 候選專案: <matches>
。
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
在 <field>
Protobuf 架構中找到,但 SQL 架構中沒有相符專案。
PROTOBUF_FIELD_TYPE_MISMATCH
欄位所遇到的類型不符: <field>
。
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
不支援 <protobufFunction>
Java類別。 請連絡 Databricks 支援服務以取得替代選項。
PROTOBUF_MESSAGE_NOT_FOUND
在描述元中找不到訊息 <messageName>
。
PROTOBUF_TYPE_NOT_SUPPORT
尚未支援 Protobuf 類型: <protobufType>
。
PS_FETCH_RETRY_EXCEPTION
無法重試 pubsub 擷取階段中的工作。 階段中的數據分割<partitionInfo>
,TID <taskId>
。<stageInfo>
PS_INVALID_EMPTY_OPTION
<key>
不可以是空字串。
PS_INVALID_KEY_TYPE
PubSub dedup 的索引鍵類型無效: <key>
。
PS_INVALID_OPTION
PubSub 不支援此選項 <key>
。 它只能用於測試。
PS_INVALID_OPTION_TYPE
無效的類型 <key>
。 必須是 型 <key>
別的 型別 <type>
。
PS_INVALID_READ_LIMIT
PubSub 數據流的讀取限制無效: <limit>
。
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
將 UnsafeRow 譯碼為 PubSubMessageMetadata 無效,所需的 Proto 架構為: <protoSchema>
。 輸入 UnsafeRow 可能已損毀: <unsafeRow>
。
PS_MISSING_AUTH_INFO
找不到完整的 PubSub 驗證資訊。
PS_MISSING_REQUIRED_OPTION
找不到必要的選項: <key>
。
PS_MOVING_CHECKPOINT_FAILURE
無法將原始數據檢查點檔案從 <src>
移至目的地目錄: <dest>
。
PS_MULTIPLE_FAILED_EPOCHS
無法啟動 PubSub 數據流,因為有多個失敗的擷取: <failedEpochs>
。
PS_OPTION_NOT_IN_BOUNDS
<key>
必須位於下列界限內 (<min>
, <max>
) 的兩個界限。
PS_PROVIDE_CREDENTIALS_WITH_OPTION
共用叢集不支援使用實例配置檔進行驗證。 使用 .option() 直接將認證提供給數據流。
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub 來源連接器僅適用於已停用的 spark.speculation
叢集中。
PS_UNABLE_TO_CREATE_SUBSCRIPTION
嘗試在主題 <topicId>
上建立訂<subId>
用帳戶時發生錯誤。 請檢查有足夠的許可權可建立訂用帳戶,然後再試一次。
PS_UNABLE_TO_PARSE_PROTO
無法剖析串行化位元組以產生 Proto。
PS_UNSUPPORTED_GET_OFFSET_CALL
未提供限制,不支援 getOffset。
PYTHON_DATA_SOURCE_ERROR
無法連線到 <action>
Python 資料來源 <type>
: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Python 串流資料源執行 <action>
時失敗: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
無法存取參考的數據表,因為先前指派的數據行遮罩目前與數據表架構不相容;若要繼續,請連絡數據表的擁有者以更新原則:
如需詳細資訊,請參閱 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
無法存取參考的數據表,因為先前指派的數據列層級安全策略目前與數據表架構不相容;若要繼續,請連絡數據表的擁有者以更新原則:
如需詳細資訊,請參閱 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
READ_CURRENT_FILE_NOT_FOUND
<message>
基礎檔案可能已更新。 您可以在 SQL 中執行 'REFRESH TABLE tableName' 命令,或重新建立相關的數據集/數據框架,以明確使 Spark 中的快取失效。
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
函式的 <functionName>
調用具有 <parameterName>
並 <alternativeName>
設定,也就是彼此的別名。 請只設定其中一個。
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
<functionName>
函式必要參數<parameterName>
必須指派在位置<expectedPos>
,而不指定名稱。
RECIPIENT_EXPIRATION_NOT_SUPPORTED
收件者到期時間戳僅 TIMESTAMP
支援 /TIMESTAMP_LTZ/TIMESTAMP_NTZ 類型。
RECURSIVE_PROTOBUF_SCHEMA
在 Protobuf 架構中找到遞歸參考,此參考預設無法由 Spark 處理: <fieldDescriptor>
。 請嘗試將選項 recursive.fields.max.depth
1 設定為 10。 不允許超過10個遞歸層級。
RECURSIVE_VIEW
偵測到遞歸檢視 <viewIdent>
(迴圈: <newPath>
)。
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
PARTITION 子句中不允許 DEFAULT 資料行值的參考。
RELATION_LARGER_THAN_8G
無法建置 <relationName>
大於 8G 的 。
REMOTE_FUNCTION_HTTP_FAILED_ERROR
遠端 HTTP 要求失敗,並出現代碼 <errorCode>
和錯誤訊息 <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
無法評估 <functionName>
SQL 函式,因為無法從遠端 HTTP 回應剖析 JSON 結果;錯誤訊息為 <errorMessage>
。 檢查 API 檔: <docUrl>
。 請修正錯誤訊息中指出的問題,然後再次重試查詢。
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
無法評估 <functionName>
SQL 函式,因為無法處理非預期的遠端 HTTP 回應;錯誤訊息為 <errorMessage>
。 檢查 API 檔: <docUrl>
。 請修正錯誤訊息中指出的問題,然後再次重試查詢。
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
重試 <N>
時間之後,遠端要求失敗;最後一個失敗的 HTTP 錯誤碼是 <errorCode>
,而訊息為 <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
無法評估 SQL 函式, <functionName>
因為 <errorMessage>
。 在中 <docUrl>
檢查需求。 請修正錯誤訊息中指出的問題,然後再次重試查詢。
RENAME_SRC_PATH_NOT_FOUND
無法將 重新命名為 <sourcePath>
找不到。
REPEATED_CLAUSE
子 <clause>
句最多可以使用一次每個 <operation>
作業。
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
<functionName>
函式必要參數<parameterName>
已指派到位置<positionalIndex>
,但沒有名稱。
請更新函式呼叫,以使用 <parameterName>
移除此參數的具名自變數,或移除位置
自變數位於 <positionalIndex>
,然後再試一次查詢。
REQUIRED_PARAMETER_NOT_FOUND
無法叫用函式 <functionName>
,因為需要名為 <parameterName>
的參數,但函數調用未提供值。 請更新函式呼叫,以提供自變數值(位置在索引 <index>
或名稱上),然後再次重試查詢。
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
需要單一部分命名空間,但取得 <namespace>
。
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
'rescuedDataColumn' DataFrame API 讀取器選項與 'singleVariantColumn' DataFrame API 選項互斥。
請移除其中一個,然後再次重試 DataFrame 作業。
RESERVED_CDC_COLUMNS_ON_WRITE
寫入包含使用的保留數據行<columnList>
內部作為變更數據摘要的元數據。 若要寫入數據表,請重新命名/卸除
這些數據行或藉由設定來停用數據表上的異動數據摘要
<config>
為 false。
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
此選項 <option>
在來源的共用叢集 <source>
上具有限制值。
如需詳細資訊,請參閱 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
因為此名稱已經存在,所以<existingRoutineType>
無法建立<newRoutineType>
<routineName>
選擇不同的名稱、卸除或取代現有的 <existingRoutineType>
,或新增 IF NOT EXISTS 子句以容許既有 <newRoutineType>
的 。
ROUTINE_NOT_FOUND
找不到例程 <routineName>
。 確認架構和目錄的拼字和正確性。
如果您未使用架構和目錄來限定名稱,請確認current_schema() 輸出,或使用正確的架構和目錄來限定名稱。
若要容許卸除時的錯誤,請使用DROP ... IF EXISTS。
ROUTINE_PARAMETER_NOT_FOUND
函式<functionName>
不支援在 位置<pos>
指定的參數<parameterName>
。<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
無法建立函式 <routineName>
,因為指定的 classname '<className>
' 保留供系統使用。 請重新命名 類別,然後再試一次。
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
不支援在具有數據列層級安全策略的數據表 <tableName>
上建立 CHECK 條件約束。
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
語句 <statementType>
嘗試將數據列層級安全策略指派給數據表,但兩個或多個參考的數據行具有相同的名稱 <columnName>
,這無效。
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
不支援的數據 <tableName>
列層級安全策略:
如需詳細資訊,請參閱 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
無法<statementType>
<columnName>
從數據表<tableName>
參考,因為它在數據列層級安全策略中參考。 數據表擁有者必須先移除或變更此原則,才能繼續。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO 作業不支援源數據表 <tableName>
中的數據列層級安全策略。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO 作業不支援使用資料列層級安全策略寫入數據表 <tableName>
。
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
此語句嘗試將數據列層級安全策略指派給數據表,但參考的數據行 <columnName>
有多個名稱部分,這無效。
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
只有 Unity 目錄才支援資料列層級安全策略。
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
不支援從具有數據列層級安全策略的數據表 <tableName>
複製。
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
不支援將數據列層級安全策略複製到數據表 <tableName>
。
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
不支援使用常數做為數據列層級安全策略中的參數。 請更新 SQL 命令,以從資料列篩選定義中移除常數,然後再次重試命令。
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
無法執行 <statementType>
命令,因為使用數據表提供者的目標數據源不支援指派數據列層級安全策略:“<provider>
”。
ROW_SUBQUERY_TOO_MANY_ROWS
子查詢傳回的多個數據列,用來作為數據列。
ROW_VALUE_IS_NULL
在索引 <index>
的數據列中找到NULL,必須是非 NULL 值。
RULE_ID_NOT_FOUND
找不到規則名稱 「<ruleName>
的識別碼」。 如果您要新增規則,請修改 RuleIdCollection.scala。
SAMPLE_TABLE_PERMISSIONS
範例資料庫/數據表不支持許可權。
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
相互關聯的純量子查詢 『<sqlExpr>
既不存在於 GROUP BY 中,也不是在聚合函數中。
如果您不在乎取得的值,請使用序數位置將其新增至 GROUP BY,或將其包裝在 first()
(或 first_value
) 中。
SCALAR_SUBQUERY_TOO_MANY_ROWS
子查詢傳回的多個數據列,用來做為表達式。
SCHEDULE_PERIOD_INVALID
的排程期間 <timeUnit>
必須是介於 1 和 <upperBound>
(含) 之間的整數值。 已收到: <actual>
。
SCHEMA_ALREADY_EXISTS
無法建立架構 <schemaName>
,因為它已經存在。
選擇不同的名稱、卸除現有的架構,或新增 IF NOT EXISTS 子句以容許預先存在的架構。
SCHEMA_NOT_EMPTY
無法卸除架構 <schemaName>
,因為它包含物件。
使用 DROP SCHEMA ... CASCADE 可卸除架構及其所有物件。
SCHEMA_NOT_FOUND
找不到架構 <schemaName>
。 確認架構和目錄的拼字和正確性。
如果您未將名稱限定為目錄,請確認current_schema() 輸出,或使用正確的目錄限定名稱。
若要容許卸除時發生錯誤,請使用DROP SCHEMA IF EXISTS。
SCHEMA_REGISTRY_CONFIGURATION_ERROR
無法初始化架構登錄中的架構。 <reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
函式的第 <functionName>
二個自變數必須是整數。
SECRET_FUNCTION_INVALID_LOCATION
無法使用對 SECRET 函式的一或多個非加密參考來執行 <commandType>
命令;請使用 AES_ENCRYPT 加密每個這類函式呼叫的結果,然後再試一次命令
SEED_EXPRESSION_IS_UNFOLDABLE
表達式<exprWithSeed>
的種子表達式<seedExpr>
必須可折疊。
SERVER_IS_BUSY
伺服器忙碌中,無法處理要求。 請稍候,然後再試一次。
SORT_BY_WITHOUT_BUCKETING
sortBy 必須與 bucketBy 搭配使用。
SPARK_JOB_CANCELLED
作業 <jobId>
已取消 <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
沒有明確數據行清單的 CREATE TABLE 無法指定貯體資訊。
請使用具有明確數據行清單的表單,並指定貯體資訊。
或者,允許省略 子句來推斷貯體資訊。
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
無法同時將 CLUSTER BY 和 CLUSTERED BY 指定為 BUCKETS。
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
無法同時指定 CLUSTER BY 和 PARTITIONED BY。
SPECIFY_PARTITION_IS_NOT_ALLOWED
沒有明確數據行清單的 CREATE TABLE 無法指定 PARTITIONED BY。
請使用具有明確數據行清單的表單,並指定 PARTITIONED BY。
或者,允許藉由省略 PARTITION BY 子句來推斷數據分割。
SQL_CONF_NOT_FOUND
找不到 SQL 組態 <sqlConf>
。 請確認組態存在。
STAGING_PATH_CURRENTLY_INACCESSIBLE
存取目標預備路徑 <path>
時發生暫時性錯誤,請在幾分鐘內嘗試
STAR_GROUP_BY_POS
使用 GROUP BY 序數位置時,不允許在選取清單中使用 Star \ 。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
無法執行具有無效句柄狀態= 的具狀態處理器作業=<operationType>
<handleState>
。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
無法執行具有無效 timeMode= 的具狀態處理器作業=<operationType>
<timeMode>
STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY
在具狀態處理器的初始狀態處理期間,無法在相同群組索引鍵上重新初始化狀態。 群組索引鍵=<groupingKey>
無效。 請檢查您的初始狀態、移除重複的數據列,然後重新啟動查詢。
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
具名稱 <stateVarName>
的狀態變數已在 StatefulProcessor 中定義。
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
無法在 timeMode=中使用 TTL for state=<stateName>
<timeMode>
,請改用 TimeMode.ProcessingTime()。
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
狀態存放區作業= state=<operationType>
<stateName>
的 TTL 持續時間必須大於零。
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
未知的時間模式 <timeMode>
。 接受的 timeMode 模式為 'none'、'processingTime'、'eventTime'
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
無法建立具有不支援起始字元和 name=<colFamilyName>
的數據行系列。
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
無法執行資料列系列作業=<operationName>
名稱無效。<colFamilyName>
數據行系列名稱不可空白,或包含前置/尾端空格,或使用保留關鍵詞=default
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
數據行系列=<colFamilyName>
、oldSchema=、newSchema=<oldSchema>
<newSchema>
的不相容架構轉換。
STATE_STORE_HANDLE_NOT_INITIALIZED
此 StatefulProcessor 的句柄尚未初始化。
請只在 transformWithState 運算符內使用 StatefulProcessor。
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
範圍掃描編碼器的排序序數字數不正確<numOrderingCols>
。 排序序數不能是零或大於架構數據行的數目。
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
前置詞掃描編碼器的前置詞數據行數目不正確<numPrefixCols>
。 前置詞數據行不能為零或大於或等於架構數據行的數值。
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
無法在重新啟動之間從 變更<configName>
<oldConfig>
為 <newConfig>
。 請將 設定 <configName>
為 <oldConfig>
,或使用新的檢查點目錄重新啟動。
STATE_STORE_INVALID_PROVIDER
指定的狀態存放區提供者 <inputClass>
不會擴充 org.apache.spark.sql.execution.streaming.state.StateStoreProvider。
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
查詢重新啟動之間無法變更 <stateVarName>
為 <newType>
。 請將 設定 <stateVarName>
為 <oldType>
,或使用新的檢查點目錄重新啟動。
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
範圍掃描編碼器不支援名稱=<fieldName>
at index=<index>
的 Null 類型排序數據行。
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
指定的狀態存放區提供者 <inputClass>
不會擴充 org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay。
因此,它不支持在狀態數據源中使用 snapshotStartBatchId 或 readChangeFeed 選項。
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
遺漏資料列系列=不支援狀態存放區作業=<operationType>
<colFamilyName>
。
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
範圍掃描編碼器不支援名稱=<fieldName>
at index=<index>
的變數大小排序數據行。
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
靜態數據分割數據行 <staticName>
也會在數據行清單中指定。
STDS_COMMITTED_BATCH_UNAVAILABLE
找不到認可的批次,檢查點位置: <checkpointLocation>
。 請確定查詢已在停止之前執行並認可任何 microbatch。
STDS_CONFLICT_OPTIONS
<options>
選項不能一起指定。 請指定一個。
STDS_FAILED_TO_READ_OPERATOR_METADATA
無法讀取 checkpointLocation=<checkpointLocation>
和 batchId=<batchId>
的運算符元數據。
檔案不存在,或檔案已損毀。
重新執行串流查詢以建構操作員元數據,並在錯誤持續發生時向對應的社群或廠商報告。
STDS_FAILED_TO_READ_STATE_SCHEMA
無法讀取狀態架構。 檔案不存在,或檔案已損毀。 選項: <sourceOptions>
。
重新執行串流查詢以建構狀態架構,並在錯誤持續發生時向對應的社群或廠商報告。
STDS_INVALID_OPTION_VALUE
來源選項 '<optionName>
'的值無效:
如需詳細資訊,請參閱 STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
狀態沒有任何數據分割。 請仔細檢查查詢是否指向有效狀態。 選項: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
的位移記錄 <batchId>
不存在,檢查點位置: <checkpointLocation>
。
請指定可供查詢的批次識別碼 - 您可以使用狀態元數據資料來源來查詢可用的批次識別碼。
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
的位移記錄 <batchId>
檔無法使用元數據,檢查點位置: <checkpointLocation>
。
檢查點似乎只會與舊版Spark一起執行。 使用最新的 Spark 版本執行串流查詢,讓 Spark 建構狀態元數據。
STDS_REQUIRED_OPTION_UNSPECIFIED
必須指定『<optionName>
。
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
結構化串流中的具狀態運算符不支援調適型查詢執行。
STREAMING_FROM_MATERIALIZED_VIEW
無法從具體化檢視 <viewName>
進行數據流處理。 不支援從具體化檢視串流。
STREAMING_OUTPUT_MODE
無效的串流輸出模式: <outputMode>
。
如需詳細資訊,請參閱 STREAMING_OUTPUT_MODE
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
串流具狀態運算符名稱與狀態元數據中的運算符不符。 當使用者新增/移除/變更現有串流查詢的具狀態運算符時,可能會發生這種情況。
元數據中的具狀態運算符: [<OpsInMetadataSeq>
];目前批次中的具狀態運算符: [<OpsInCurBatchSeq>
]。
STREAMING_TABLE_NEEDS_REFRESH
串流資料表 <tableName>
必須重新整理才能執行 <operation>
。 請執行 CREATE 或 REFRESH 串流數據表 <tableName>
AS 來更新資料表。
STREAMING_TABLE_NOT_SUPPORTED
串流數據表只能在 Delta 實時數據表和 Databricks SQL 倉儲中建立和重新整理。
STREAMING_TABLE_OPERATION_NOT_ALLOWED
不允許此工作 <operation>
:
如需詳細資訊,請參閱 STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
串流數據表 <tableName>
只能從串流查詢建立。 請將 STREAM 關鍵詞新增至 FROM 子句,以將此關聯轉換成串流查詢。
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
找不到中的 <region>
Kinesis 數據流<streamName>
。
請啟動指向正確數據流名稱的新查詢。
STRUCT_ARRAY_LENGTH_MISMATCH
輸入數據列沒有架構所需的預期值數目。 <expected>
提供值時 <actual>
,需要欄位。
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
LIMIT 子句和 OFFSET 子句的總和不能大於最大 32 位整數值(2,147,483,647),但發現 limit = ,offset = <limit>
<offset>
。
SYNC_METADATA_DELTA_ONLY
只有差異數據表支援修復數據表同步元數據命令。
SYNC_METADATA_NOT_SUPPORTED
只有 Unity 目錄資料表支援修復資料表同步元數據命令。
SYNC_SRC_TARGET_TBL_NOT_SAME
源數據表名稱 <srcTable>
必須與目的地數據表名稱 <destTable>
相同。
SYNTAX_DISCONTINUED
子句或關鍵詞的支援已 <clause>
在此內容中中止。
如需詳細資訊,請參閱 SYNTAX_DISCONTINUED
TABLE_OR_VIEW_ALREADY_EXISTS
無法建立數據表或檢視 <relationName>
,因為它已經存在。
選擇不同的名稱、卸除現有的物件、新增 IF NOT EXISTS 子句以容許既有的物件、新增 OR REPLACE 子句來取代現有的具體化檢視,或新增 OR REFRESH 子句以重新整理現有的串流數據表。
TABLE_OR_VIEW_NOT_FOUND
找不到數據表或檢視表 <relationName>
。 確認架構和目錄的拼字和正確性。
如果您未使用架構限定名稱,請確認current_schema() 輸出,或使用正確的架構和目錄來限定名稱。
若要容許卸除時的錯誤,請使用DROP VIEW IF EXISTS 或DROP TABLE IF EXISTS。
如需詳細資訊,請參閱 TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
無法使用 <action>
TABLE 自變數來 SQL 使用者定義函數 <functionName>
,因為這項功能尚未實作。
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
無法分析 Python 使用者定義資料表函式: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
無法評估資料表函 <functionName>
式,因為其資料表元資料 <requestedMetadata>
,但函式會呼叫 <invalidFunctionCallProperty>
。
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
無法評估數據表函 <functionName>
式,因為其數據表元數據無效; <reason>
。
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
數據表值函式的數據表自變數太多。
它允許一個數據表自變數,但有: <num>
。
如果您想要允許,請將 “spark.sql.allowMultipleTableArguments.enabled” 設定為 “true”
TABLE_WITH_ID_NOT_FOUND
找不到標識碼為的 <tableId>
數據表。 確認 UUID 的正確性。
TASK_WRITE_FAILED
將數據列寫入至 <path>
時,工作失敗。
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
無法建立暫存檢視 <relationName>
,因為它已經存在。
選擇不同的名稱、卸除或取代現有的檢視,或新增 IF NOT EXISTS 子句以容許既有檢視。
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW 或對應的數據集 API 只接受單一部分檢視名稱,但取得: <actualName>
。
UC_BUCKETED_TABLES
Unity 目錄中不支援貯體數據表。
UC_CATALOG_NAME_NOT_PROVIDED
針對 Unity 目錄,請明確指定目錄名稱。 例如,在目錄主要上顯示 GRANT your.address@email.com
。
UC_COMMAND_NOT_SUPPORTED
Unity 目錄不支援命令。。 <commandName>
如需詳細資訊,請參閱 UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
命令(s): <commandName>
在共用存取模式中不支援 Unity 目錄叢集。 請改用單一使用者存取模式。
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
不支援指定的認證種類。
UC_DATASOURCE_NOT_SUPPORTED
Unity 目錄中不支援數據來源格式 <dataSourceFormatName>
。
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Unity 目錄中不支援數據源選項。
UC_EXTERNAL_VOLUME_MISSING_LOCATION
LOCATION 子句必須存在外部磁碟區。 請檢查語法 'CREATE EXTERNAL VOLUME ... 位置...' 用於建立外部磁碟區。
UC_FAILED_PROVISIONING_STATE
查詢失敗,因為它嘗試參考數據表 <tableName>
,但無法這麼做: <failureReason>
。 請更新數據表 <tableName>
,以確保它處於作用中布建狀態,然後再次重試查詢。
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
不支援在具有檔案配置的 <schemeName>
Unity 目錄中建立數據表。
相反地,請使用相同數據表提供者的 CREATE CONNECTION 命令建立同盟數據源連線,然後根據使用 CREATE FOREIGN CATALOG 命令的連線建立目錄,以參考該處的數據表。
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Hive 中繼存放區同盟檢視不支援跨多個目錄的相依性。 Hive 中繼存放區同盟目錄中的檢視 <view>
必須使用來自hive_metastore或spark_catalog目錄的相依性,但其相 <dependency>
依性位於另一個目錄中 <referencedCatalog>
。 請更新相依性以滿足此條件約束,然後再次重試您的查詢或命令。
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
此叢集上未啟用Hive中繼存放區同盟。
此叢集不支援存取目錄<catalogName>
UC_INVALID_DEPENDENCIES
相 <viewName>
依性會在剖析為 <storedDeps>
時記錄為 <parsedDeps>
。 這可能是透過不當使用非 SQL API 所發生。 您可以執行 ALTER VIEW <viewName>
AS <viewText>
來修復 Databricks Runtime 中的相依性。
UC_INVALID_NAMESPACE
Unity 目錄中不支援巢狀或空白命名空間。
UC_INVALID_REFERENCE
無法在 Unity Catalog 對象中參考非 Unity-Catalog 物件 <name>
。
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
此叢集上的提供者 <provider>
未啟用 Unity Catalog Lakehouse 同盟寫入支援。
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
受控磁碟區不接受 LOCATION 子句。 請檢查語法 'CREATE VOLUME ...' 用於建立受控磁碟區。
UC_NOT_ENABLED
此叢集上未啟用 Unity 目錄。
UC_QUERY_FEDERATION_NOT_ENABLED
此叢集上未啟用 Unity 目錄查詢同盟。
UC_SERVICE_CREDENTIALS_NOT_ENABLED
此叢集上未啟用服務認證。
UC_VOLUMES_NOT_ENABLED
此實例上未啟用 Unity 目錄磁碟區的支援。
UC_VOLUMES_SHARING_NOT_ENABLED
此實例上未啟用磁碟區共享的支援。
UC_VOLUME_NOT_FOUND
磁碟 <name>
區不存在。 請使用 「顯示磁碟區」來列出可用的磁碟區。
UDF_ERROR
SQLSTATE:未指派
函式執行 <fn>
失敗
如需詳細資訊,請參閱 UDF_ERROR
UDF_LIMITS
違反一或多個 UDF 限制。
如需詳細資訊,請參閱 UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
超過整個查詢 UDF 的 <maxNumUdfs>
UDF 限制(在公開預覽期間有限)。 找到 <numUdfs>
。 UDF 為: <udfNames>
。
UDF_PYSPARK_ERROR
Python 背景工作角色意外結束
如需詳細資訊,請參閱 UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
共用存取模式中的叢集不支援 PySpark UDF <udf>
(<eval-type>
)。
UDF_PYSPARK_USER_CODE_ERROR
執行失敗。
如需詳細資訊,請參閱 UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
用戶定義 <functionType>
函數不支持參數預設值。
UDF_USER_CODE_ERROR
函式的執行 <fn>
失敗。
如需詳細資訊,請參閱 UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
AS 子句中提供的別名數目不符合 UDTF 輸出的數據行數目。
預期的 <aliasesSize>
別名,但已取得 <aliasesNames>
。
請確定提供的別名數目符合UDTF輸出的數據行數目。
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
無法評估使用者定義數據表函式,因為其 'analyze' 方法傳回要求的 OrderingColumn,其數據行名稱表達式包含不必要的別名;請移除此別名 <aliasName>
,然後再試一次查詢。
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
無法評估使用者定義數據表函式,因為其 'analyze' 方法傳回要求的 'select' 表達式 (<expression>
) 不包含對應的別名;請更新 UDTF 以指定該處的別名,然後再試一次查詢。
UNABLE_TO_ACQUIRE_MEMORY
無法取得 <requestedBytes>
記憶體的位元組,取得 <receivedBytes>
。
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
無法將 SQL 類型 <toType>
轉換為 Protobuf 類型 <protobufType>
。
UNABLE_TO_FETCH_HIVE_TABLES
無法擷取Hive資料庫的數據表: <dbName>
。 錯誤類別名稱: <className>
。
UNABLE_TO_INFER_SCHEMA
無法推斷的 <format>
架構。 必須手動指定。
UNAUTHORIZED_ACCESS
未經授權的存取:
<report>
UNBOUND_SQL_PARAMETER
找到未系結的參數: <name>
。 請修正 args
並提供 參數與 SQL 常值或集合建構函式的對應,例如 map()
、 array()
struct()
。
UNCLOSED_BRACKETED_COMMENT
找到未封閉的括號批注。 請在註尾附加 */ 。
UNEXPECTED_INPUT_TYPE
函式的參數<paramIndex>
需要 <requiredType>
型別,但是<inputSql>
具有 型別 <inputType>
。<functionName>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
CREATE VIEW 語句中的非預期運算符 <op>
做為串流來源。
串流檢視查詢只能包含 SELECT、WHERE 和 UNION ALL 作業。
UNEXPECTED_POSITIONAL_ARGUMENT
無法叫用函式 <functionName>
,因為它包含指派給 <parameterName>
的具名自變數之後的位置自變數;請重新排列它們,讓位置自變數先進行,然後再重試查詢。
UNEXPECTED_SERIALIZER_FOR_CLASS
<className>
類別具有非預期的表達式串行化程式。 預期會傳回 「STRUCT
STRUCT
或」IF 但找到 <expr>
。
UNKNOWN_FIELD_EXCEPTION
剖析期間遇到未知的欄位:,可透過自動重試來修正: <unknownFieldBlob>
<isRetryable>
如需詳細資訊,請參閱 UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
函式的<functionName>
調用包含位於 位置<pos>
的未知位置自變數<sqlExpr>
。 這無效。
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
在 Variant 值中找到標識碼 <id>
未知的基本類型。
UNKNOWN_PROTOBUF_MESSAGE_TYPE
試著將 視為 <descriptorName>
訊息,但它是 <containingType>
。
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT 要求所有指定的 <given>
表達式在未 <empty>
指定表示式時成為數據行。 這些不是數據行:[<expressions>
]。
UNPIVOT_REQUIRES_VALUE_COLUMNS
至少必須針對 UNPIVOT 指定一個值數據行,所有指定為 id 的數據行。
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
取消樞紐值數據行必須共用最不常見的類型,某些類型不會: [<types>
]。
UNPIVOT_VALUE_SIZE_MISMATCH
所有未樞紐值數據行的大小都必須與有值數據行名稱 (<names>
) 相同。
UNRECOGNIZED_PARAMETER_NAME
無法叫用函式 <functionName>
,因為函式呼叫包含名為 之自變數的具名 <argumentName>
自變數參考,但此函式不包含包含具有此名稱之自變數的任何簽章。 您的意思是下列其中一項嗎? [<proposal>
]。
UNRECOGNIZED_SQL_TYPE
無法辨識的 SQL 類型 - 名稱: <typeName>
、識別碼: <jdbcType>
。
UNRESOLVABLE_TABLE_VALUED_FUNCTION
無法解析 <name>
為數據表值函式。
請確定 <name>
已定義為數據表值函式,並且已正確提供所有必要的參數。
如果未 <name>
定義,請先建立數據表值函式,再使用它。
如需定義數據表值函式的詳細資訊,請參閱 Apache Spark 檔。
UNRESOLVED_ALL_IN_GROUP_BY
無法根據 select 子句推斷 GROUP BY ALL 的群組數據行。 請明確指定群組數據行。
UNRESOLVED_COLUMN
無法解析具有名稱 <objectName>
的數據行、變數或函式參數。
如需詳細資訊,請參閱 UNRESOLVED_COLUMN
UNRESOLVED_FIELD
名稱為 <fieldName>
的欄位無法使用結構類型數據行 <columnPath>
解析。
如需詳細資訊,請參閱 UNRESOLVED_FIELD
UNRESOLVED_MAP_KEY
無法將數據行 <objectName>
解析為對應索引鍵。 如果索引鍵是字串常值,請新增其周圍的單引號 ''。
如需詳細資訊,請參閱 UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
無法解析搜尋路徑 <searchPath>
上的例程<routineName>
。
如需詳細資訊,請參閱 UNRESOLVED_ROUTINE
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING 資料行 <colName>
無法在聯結的一邊解析 <side>
。 -side 數據 <side>
行: [<suggestion>
]。
UNRESOLVED_VARIABLE
無法解析搜尋路徑 <searchPath>
上的變數<variableName>
。
UNSUPPORTED_ADD_FILE
不支援新增檔案。
如需詳細資訊,請參閱 UNSUPPORTED_ADD_FILE
UNSUPPORTED_ARROWTYPE
不支援的箭號類型 <typeName>
。
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
函式 <funcName>
不支援批次查詢。
UNSUPPORTED_CALL
無法呼叫 類別 “” 的 方法 “<methodName>
<className>
”。
如需詳細資訊,請參閱 UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
無法在數據表架構中使用char/varchar類型。
如果您想要將 Spark 視為與 Spark 3.0 和更早版本的字串類型相同,請將 “spark.sql.legacy.charVarcharAsString” 設定為 “true”。
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause>
不支援 <operation>
。
UNSUPPORTED_COLLATION
下列項目不支援定序 <collationName>
:
如需詳細資訊,請參閱 UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
來源路徑和 sourceArchiveDir 的通用上階應該向 UC 註冊。
如果您看到此錯誤訊息,您可能會在不同的外部位置註冊來源路徑和sourceArchiveDir。
請將它們放入單一外部位置。
UNSUPPORTED_CONSTRAINT_CLAUSES
不支持條件約束子句 <clauses>
。
UNSUPPORTED_CONSTRAINT_TYPE
不支援的條件約束類型。 僅 <supportedConstraintTypes>
支援
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
不支援直接查詢檔案的資料來源型態: <dataSourceType>
UNSUPPORTED_DATATYPE
不支援的資料類型 <typeName>
。
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
資料來源 「<source>
無法以 <createMode>
模式寫入」。 請改用 「附加」或「覆寫」模式。
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
<format>
數據源不支援 類型<columnType>
的數據行<columnName>
。
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
無法建立的 <dataType>
編碼器。 請針對 UDF 或 DataFrame 使用不同的輸出資料類型。
UNSUPPORTED_DEFAULT_VALUE
不支援 DEFAULT 資料行值。
如需詳細資訊,請參閱 UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
不支援還原串行化程式:
如需詳細資訊,請參閱 UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
無法建立產生表達式的數據行<fieldName>
,因為 <reason>
。<expressionStr>
UNSUPPORTED_EXPR_FOR_OPERATOR
查詢運算子包含一或多個不支援的表達式。
請考慮重寫它,以避免 WHERE 子句中的視窗函式、聚合函數和產生器函式。
不合法的表示式: [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
查詢參數包含不支持的表達式。
參數可以是變數或常值。
不合法的表示式: [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
視窗函式內不支援表達式 <sqlExpr>
。
UNSUPPORTED_FEATURE
不支援此功能:
如需詳細資訊,請參閱 UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
不支援的使用者定義函式型態: <language>
UNSUPPORTED_GENERATOR
不支援產生器:
如需詳細資訊,請參閱 UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() 只能與 GroupingSets/Cube/Rollup 搭配使用。
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger>
Kinesis 來源不支援具有初始位置<initialPosition>
UNSUPPORTED_INSERT
無法插入目標。
如需詳細資訊,請參閱 UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
不支援的聯結類型 』<typ>
。 支援的聯結類型包括: <supported>
。
UNSUPPORTED_MANAGED_TABLE_CREATION
不支援使用數據源<dataSource>
建立受控數據表<tableName>
。 您必須使用數據源 DELTA,或使用 CREATE EXTERNAL TABLE 建立外部數據表 <tableName>
... USING <dataSource>
...
UNSUPPORTED_MERGE_CONDITION
MERGE 作業包含不支持 <condName>
的條件。
如需詳細資訊,請參閱 UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
數據表 <tableName>
具有數據列層級安全策略或數據行掩碼,間接參考具有數據列層級安全策略或數據行掩碼的另一個數據表;這不支援。 呼叫順序: <callSequence>
UNSUPPORTED_OVERWRITE
無法覆寫也正在讀取的目標。
如需詳細資訊,請參閱 UNSUPPORTED_OVERWRITE
UNSUPPORTED_SAVE_MODE
不支援儲存模式 <saveMode>
:
如需詳細資訊,請參閱 UNSUPPORTED_SAVE_MODE
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
串流數據框架/資料集上不支持 <statefulOperator>
輸出模式,沒有浮浮
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
不支援串流檢視。 原因:
如需詳細資訊,請參閱 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
共用叢集上的數據源<source>
不支援串流選項<options>
。 請確認選項已指定並正確拼字,並檢查https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode 是否有限制。
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
共用叢集上的數據流接收不支持數據源 <sink>
。
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
共用叢集上的數據流來源不支持數據源 <source>
。
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
函式 <funcName>
不支援串流。 請移除 STREAM 關鍵詞
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
不支援 Kinesis 來源
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
不支援的子查詢表示式:
如需詳細資訊,請參閱 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TIMESERIES_COLUMNS
不支援使用時間器數據行建立主鍵
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
不支援使用多個次次數據行 <colSeq>
建立主鍵
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
不支援 Kinesis 來源
UNSUPPORTED_TYPED_LITERAL
不支援類型的 <unsupportedType>
常值。 支援的類型為 <supportedTypes>
。
UNTYPED_SCALA_UDF
您使用的是不具類型的 Scala UDF,其沒有輸入類型資訊。
Spark 可能會盲目地使用基本類型自變數將 Null 傳遞至 Scala 關閉,而關閉將會看到 Null 自變數的 Java 類型預設值,例如 udf((x: Int) => x, IntegerType)
,結果為 Null 輸入為 0。 若要擺脫此錯誤,您可以:
- 使用具類型的 Scala UDF API(不含傳回型別參數),例如
udf((x: Int) => x)
。 - 如果輸入類型都是非基本類型,請使用 Java UDF API, 例如
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
。 - 將 「spark.sql.legacy.allowUntypedScalaUDF」 設定為 “true”,並謹慎使用此 API。
UPGRADE_NOT_SUPPORTED
數據表不符合從Hive中繼存放區升級至 Unity 目錄的資格。 原因:
如需詳細資訊,請參閱 UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
使用者定義函數無效:
如需詳細資訊,請參閱 USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
函 raise_error()
式是用來引發錯誤類別: <errorClass>
預期參數: <expectedParms>
。
所提供的參數 <providedParms>
不符合預期的參數。
請務必提供所有預期的參數。
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
函 raise_error()
式用來引發未知的錯誤類別: <errorClass>
VARIABLE_ALREADY_EXISTS
無法建立變數 <variableName>
,因為它已經存在。
選擇不同的名稱,或卸除或取代現有的變數。
VARIABLE_NOT_FOUND
找不到變數 <variableName>
。 確認架構和目錄的拼字和正確性。
如果您未使用架構和目錄來限定名稱,請確認current_schema() 輸出,或使用正確的架構和目錄來限定名稱。
若要容許卸除時的錯誤,請使用DROP VARIABLE IF EXISTS。
VARIANT_CONSTRUCTOR_SIZE_LIMIT
無法建構大於 16 MiB 的 Variant。 Variant 值允許的大小上限為 16 MiB。
VARIANT_DUPLICATE_KEY
因為物件索引鍵 <key>
重複,無法建置變體。
VARIANT_SIZE_LIMIT
無法建置大於 <sizeLimit>
中的 <functionName>
變體。
請避免此表達式的大型輸入字串(例如,新增函數調用(s)來檢查表達式大小,並在太大時先轉換為 NULL。
VIEW_ALREADY_EXISTS
無法建立檢視 <relationName>
,因為它已經存在。
選擇不同的名稱、卸除或取代現有的物件,或新增IF NOT EXISTS 子句以容許既有的物件。
VIEW_EXCEED_MAX_NESTED_DEPTH
檢視深度超過最大檢視 <viewName>
解析度深度 (<maxNestedDepth>
)。
分析已中止以避免錯誤。 如果您想要解決此問題,請嘗試增加 「spark.sql.view.maxNestedViewDepth」 的值。
VIEW_NOT_FOUND
找不到檢視 <relationName>
。 確認架構和目錄的拼字和正確性。
如果您未使用架構限定名稱,請確認current_schema() 輸出,或使用正確的架構和目錄來限定名稱。
若要容許卸除時的錯誤,請使用DROP VIEW IF EXISTS。
VOLUME_ALREADY_EXISTS
無法建立磁碟區 <relationName>
,因為它已經存在。
選擇不同的名稱、卸除或取代現有的物件,或新增IF NOT EXISTS 子句以容許既有的物件。
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName>
函式只能在具有單一位移的已排序數據列式視窗框架中進行評估: <windowExpr>
。
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Window 函式 <funcName>
需要 OVER 子句。
WITH_CREDENTIAL
不支援 <type>
WITH CREDENTIAL語法。
WRITE_STREAM_NOT_ALLOWED
writeStream
只能在串流數據集/數據框架上呼叫。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
無法執行命令,因為新增時不支援 DEFAULT 值
先前現有 Delta 資料表的數據行;請新增沒有預設值的數據行
首先,然後執行第二個 ALTER TABLE ALTER COLUMN SET DEFAULT 命令以套用
改為針對未來的插入數據列。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
無法執行 <commandType>
命令,因為它已指派數據行 DEFAULT 值,
但未啟用對應的數據表功能。 請再次重試命令
執行 ALTER TABLE tableName SET 之後
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported')。
WRONG_COMMAND_FOR_OBJECT_TYPE
工作 <operation>
需要 <requiredType>
。 但 <objectName>
是 <foundType>
。 請改用 <alternative>
。
WRONG_NUM_ARGS
<functionName>
需要<expectedNum>
參數,但實際數位為 <actualNum>
。
如需詳細資訊,請參閱 WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag>
讀取 XML 格式的檔案需要選項。
XML_UNSUPPORTED_NESTED_TYPES
XML 不支援 <innerDataType>
做為 的內部 <dataType>
類型。 請在內部<dataType>
使用它時,將 包裝<innerDataType>
在 StructType 欄位中。
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
無法同時啟用已獲救的數據和通配符數據行。 拿掉通配符ColumnName 選項。
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy 數據行 <columnName>
不存在。
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
找不到使用中的SparkSession
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
當新的 txn 已在使用中時,無法將新的 txn 設定為作用中
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
無法新增資料行 <colName>
,因為名稱已保留。
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
目前作業嘗試將刪除向量新增至不允許建立新刪除向量的數據表。 請提出錯誤報告。
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
新增刪除向量的所有作業都應該將統計數據中的 tightBounds 數據行設定為 false。 請提出錯誤報告。
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
要加入數據行<columnName>
的索引<columnIndex>
低於 0
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
無法新增 <columnName>
,因為其父代不是 StructType。 發現 <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
在位置上找不到結構 <position>
DELTA_ADD_CONSTRAINTS
請使用 ALTER TABLE ADD CONSTRAINT 來新增 CHECK 條件約束。
DELTA_AGGREGATE_IN_GENERATED_COLUMN
找到 <sqlExpr>
。 產生的數據行無法使用匯總表達式
DELTA_AGGREGATION_NOT_SUPPORTED
中<operation>
<predicate>
不支援聚合函數。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
無法變更數據 <column>
行的定序,因為它具有 bloom 篩選索引。 請保留現有的定序,或卸除開花篩選索引,然後再次重試命令以變更定序。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
無法變更數據行的 <column>
定序,因為它是叢集數據行。 請保留現有的定序,或使用 ALTER TABLE 命令將資料行變更為非叢集數據行,然後再重試命令以變更定序。
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
變更數據行不支援將數據行 <currentType>
變更為 <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
只有具有 Liquid 叢集的 Delta 數據表才支援 ALTER TABLE CLUSTER BY。
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY 無法套用至數據分割數據表。
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
不允許作業:S3 上的 Managed Delta 數據表不允許 ALTER TABLE RENAME TO,因為 S3 上的最終一致性可能會損毀差異事務歷史記錄。 如果您堅持這樣做,並確定之前從未有過具有新名稱 <newName>
的 Delta 數據表,您可以藉由將 設定 <key>
為 true 來啟用此功能。
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
無法使用 ALTER TABLE SET TBLPROPERTIES 來啟用 <tableFeature>
資料表功能。 請使用 CREATE OR REPLACE TABLE CLUSTER BY 來建立具有叢集的 Delta 數據表。
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
無法將的 <column>
資料類型從 <from>
變更為 <to>
。 這項變更包含數據行移除和新增專案,因此它們模棱兩可。 請使用 ALTER TABLE 個別進行這些變更 [ADD |DROP |RENAME] 資料行。
DELTA_AMBIGUOUS_PARTITION_COLUMN
模棱兩可的數據分割資料列 <column>
可以是 <colMatches>
。
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE 包含兩個不同的位置: <identifier>
和 <location>
。
您可以從 CREATE TABLE 語句移除 LOCATION 子句,或設定
<config>
若要略過此檢查,則為 true。
DELTA_ARCHIVED_FILES_IN_LIMIT
數據表 <table>
未在未封存的檔案中包含足夠的記錄,無法滿足指定的記錄 LIMIT <limit>
。
DELTA_ARCHIVED_FILES_IN_SCAN
在需要在此查詢中掃描的數據表<table>
中,找到<numArchivedFiles>
可能封存的檔案。
無法存取封存盤案。 封存設定為 <archivalTime>
的目前時間。
請調整查詢篩選條件,以排除任何封存的檔案。
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
當數據表已啟用變更數據摘要 (CDF) 並使用DROP COLUMN 或 RENAME COLUMN 進行架構變更時,不允許作業 “<opName>
”
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
無法卸除下列不存在資料行的 bloom 篩選索引: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError 是在撰寫下列數據行的 bloom 篩選索引時發生: <columnsWithBloomFilterIndices>
。
您可以為 'numItems' 選項選擇較小的值、為 'fpp' 選項指定較大的值,或為較少的數據行編製索引,以減少 bloom 篩選索引的記憶體使用量。
DELTA_CANNOT_CHANGE_DATA_TYPE
無法變更資料類型: <dataType>
DELTA_CANNOT_CHANGE_LOCATION
無法使用 SET TBLPROPERTIES 變更 Delta 數據表的 'location'。 請改用 ALTER TABLE SET LOCATION。
DELTA_CANNOT_CHANGE_PROVIDER
'provider' 是保留的數據表屬性,而且無法改變。
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
無法為下列不存在的數據行建立 bloom 篩選索引: <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
無法建立 <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
無法描述檢視的歷程記錄。
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
無法在非索引資料行上卸除 bloom 篩選索引: <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
無法卸除 CHECK 條件約束數據表功能。
必須先卸除下列條件約束: <constraints>
。
DELTA_CANNOT_EVALUATE_EXPRESSION
無法評估表示式: <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
預期貯體差異數據表,但找不到數據表中的貯體規格
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
無法產生表示式的程式代碼: <expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
此資料表設定為只允許附加。 如果您想要允許更新或刪除,請使用 『ALTER TABLE <table_name> SET TBLPROPERTIES (<config>
=false)』。
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
無法覆寫或取消設定認可中的時間戳數據表屬性,因為此數據表中已啟用協調認可,並相依於它們。 請從 TBLPROPERTIES 子句中移除它們 (“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然後再次重試命令。
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
用戶無法指定 Delta 資料表組態<prop>
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
無法覆寫現有目標數據表的協調認可組態。 請從 TBLPROPERTIES 子句中移除它們 (“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.tableConf-preview ”)、“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.commitCoordinator-preview”,然後再次重試命令。
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
在事務歷史記錄中找到無法轉換成相對路徑的 URI (<uri>
)。
DELTA_CANNOT_RELATIVIZE_PATH
路徑 (<path>
) 無法與 中找到的目前輸入相對化
事務歷史記錄檔。 請以下欄方式重新執行:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“”<userPath>
,true)
然後也會執行:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“”<path>
)
DELTA_CANNOT_RENAME_PATH
無法重新命名 <currentPath>
為 <newPath>
DELTA_CANNOT_REPLACE_MISSING_TABLE
無法取代數據表 <tableName>
,因為它不存在。 使用 CREATE OR REPLACE TABLE 來建立數據表。
DELTA_CANNOT_RESOLVE_COLUMN
無法解析 中的數據行<columnName>
<schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
無法將資料表還原至版本 <version>
。 可用的版本:[<startVersion>
, <endVersion>
]。
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
無法將數據表還原為時間戳(<requestedTimestamp>
),因為它在最早的版本可用之前。 請使用 (<earliestTimestamp>
) 之後的時間戳。
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
無法將數據表還原為時間戳 (<requestedTimestamp>
) ,因為它位於最新版本可用之後。 請使用時間戳之前 (<latestTimestamp>
)
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
無法設定認可內時間戳數據表屬性與協調認可,因為後者相依於前者,並在內部設定前者。 請從 TBLPROPERTIES 子句中移除它們 (“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然後再次重試命令。
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
無法變更路徑型數據表的位置。
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
無法在非 DLT 數據表上設定 delta.managedDataSkippingStatsColumns
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER 無法取消設定協調的認可組態。 若要從協調認可降級數據表,請使用 再試一次 ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
。
DELTA_CANNOT_UPDATE_ARRAY_FIELD
無法更新 %1$s 字段 %2$s 類型:藉由更新 %2$s.element 來更新元素
DELTA_CANNOT_UPDATE_MAP_FIELD
無法更新 %1$s 字段 %2$s 類型:藉由更新%2$s.key或 %2$s.value 來更新對應
DELTA_CANNOT_UPDATE_OTHER_FIELD
無法更新 <tableName>
類型的欄位 <typeName>
DELTA_CANNOT_UPDATE_STRUCT_FIELD
無法更新 <tableName>
欄位 <fieldName>
類型:藉由新增、刪除或更新其欄位來更新結構
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
無法針對數據分割數據行使用所有數據行
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
是檢視。 不支援寫入檢視。
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
因為溢位而無法將 類型的<targetType>
值<sourceType>
寫入類型<columnName>
數據行。
在 try_cast
輸入值上使用 來容許溢位,並改為傳回NULL。
如有必要,請將 設定 <storeAssignmentPolicyFlag>
為 「LEGACY」 以略過此錯誤,或設定 <updateAndMergeCastingFollowsAnsiEnabledFlag>
為 true 以還原為舊行為,並在 UPDATE 和 MERGE 中追蹤 <ansiEnabledFlag>
。
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
無法設定 Configuration delta.enableChangeDataFeed。 尚未提供從 Delta 變更數據摘要。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
因為數據架構不相容,在版本 <start>
之間擷取數據表變更而 <end>
失敗。
您的讀取架構位於 <readSchema>
版本 <readVersion>
,但我們在 版本 <incompatibleVersion>
中找到不相容的數據架構。
可能的話,請將 設定 <config>
為 endVersion
,或連絡支持人員,以使用結束版本的架構擷取數據表變更。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
擷取版本 <start>
之間的數據表變更,因為 <end>
架構變更不相容而失敗。
您的讀取架構位於 <readSchema>
版本 <readVersion>
,但我們發現 版本 <incompatibleVersion>
發生不相容的架構變更。
可能的話,請查詢資料表會分別從版本 <start>
變更為 <incompatibleVersion>
- 1,以及從版本 <incompatibleVersion>
變更為 <end>
。
DELTA_CHANGE_DATA_FILE_NOT_FOUND
找不到事務歷史記錄中所參考的檔案 <filePath>
。 當數據已從文件系統手動刪除,而不是使用 table DELETE
語句時,就會發生這種情況。 此要求似乎以變更資料摘要為目標,如果是這種情況,當變更數據檔超過保留期間且已由 VACUUM
語句刪除時,就會發生此錯誤。 如需詳細資訊,請參閱 <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
無法寫入具有 delta.enableChangeDataFeed 集合的數據表。 無法從 Delta 變更數據摘要。
DELTA_CHECKPOINT_NON_EXIST_TABLE
無法檢查非現有資料表 <path>
。 您是否手動刪除_delta_log目錄中的檔案?
DELTA_CLONE_AMBIGUOUS_TARGET
已提供兩個路徑做為CLONE目標,因此使用這個路徑模棱兩可。 外部
CLONE 的位置與路徑同時提供<externalLocation>
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
檔案 (<fileName>
) 未完全複製。 預期的檔案大小: <expectedSize>
,找到: <actualSize>
。 若要繼續作業,請忽略設定 <config>
為 false 的檔案大小檢查。
DELTA_CLONE_UNSUPPORTED_SOURCE
不支援的 <mode>
複製來源'<name>
,其格式為 <format>
。
支援的格式為 『delta』、'iceberg' 和 'parquet'。
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
DBR 14.0 版 < 的 Liquid 叢集不支援 DELTA 資料表的 CLONE。
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
不支援CLUSTER BY,因為下列資料行不支援 <columnsWithDataTypes>
略過數據。
DELTA_CLUSTERING_COLUMNS_MISMATCH
提供的叢集數據行不符合現有的數據表。
- 提供:
<providedClusteringColumns>
- 現存:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Liquid clustering 需要叢集數據行具有統計數據。在統計資料架構中找不到叢集資料列 '<columns>
' :
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
不允許從具有液體叢集的數據表目錄建立外部數據表,而不需進行液體叢集;路徑: <path>
。
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>
' 不支援叢集。
DELTA_CLUSTERING_PHASE_OUT_FAILED
無法使用資料表功能完成 <phaseOutType>
資料表 <tableFeatureToAdd>
的 (原因: <reason>
。 請再次嘗試 OPTIMIZE 命令。
== 錯誤 ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
不允許使用數據分割數據表取代使用 Liquid 叢集的 Delta 資料表。
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
沒有任何叢集數據行的情況下,使用 Liquid 叢集的 Delta 資料表不支援 SHOW CREATE TABLE。
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
當現有數據表具有非空白的叢集數據行時,不允許將具有液體群集的 Delta 資料表轉換為數據分割數據表: <operation>
。
請先執行 ALTER TABLE CLUSTER BY NONE 來移除叢集數據行。
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
使用 Liquid 叢集的 Delta 資料表不允許動態分割覆寫模式。
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
具有 Liquid 叢集之 Delta 資料表的 OPTIMIZE 命令不支持數據分割述詞。 請移除述詞: <predicates>
。
DELTA_CLUSTERING_WITH_ZORDER_BY
具有 Liquid 叢集之 Delta 資料表的 OPTIMIZE 命令無法指定 ZORDER BY。 請移除 ZORDER BY (<zOrderBy>
)。
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
Liquid 叢集的 CLUSTER BY 最多可 <numColumnsLimit>
支援叢集數據行,但數據表具有 <actualNumColumns>
叢集數據行。 請移除額外的叢集數據行。
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
當架構未定義時,不允許指定CLUSTER BY。 請定義資料表 <tableName>
的架構。
DELTA_CLUSTER_BY_WITH_BUCKETING
無法同時指定叢集和貯體。 如果您想要建立具有叢集的 Delta 數據表,請將 CLUSTERED BY 移除至 BUCKETS / bucketBy。
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
無法同時指定叢集和數據分割。 如果您想要建立具有叢集的 Delta 數據表,請移除 PARTITIONED BY / partitionBy / partitionedBy。
DELTA_COLLATIONS_NOT_SUPPORTED
Delta Lake 不支援定序。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
數據分割資料行 『<column>
' 不支援略過數據。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
類型<type>
的數據行 『<column>
' 不支援資料略過。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
開啟資料列對應的資料列對應資料表上未設定 max 資料行識別元屬性 (<prop>
) 。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
啟用數據行對應之數據表上的最大數據行標識元屬性 (<prop>
) 為 <tableMax>
,不能小於所有欄位的最大數據行識別碼 (<fieldMax>
)。
DELTA_COLUMN_MISSING_DATA_TYPE
未提供數據行 <colName>
的數據類型。
DELTA_COLUMN_NOT_FOUND
找不到指定的資料列 <columnName>
[<columnList>
]
DELTA_COLUMN_NOT_FOUND_IN_MERGE
無法從 INSERT 資料行中尋找目標數據表的數據行 『<targetCol>
': <colNames>
。 INSERT 子句必須指定目標數據表所有數據行的值。
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
在下列項目中找不到資料列 <columnName>
:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
必須是 <columnPath>
巢狀資料類型,但找到 <other>
。 正在尋找
巢狀欄位中 的 <column>
索引。
結構描述:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
結構數據行<source>
無法插入 中的<targetType>
<targetTable>
欄位<targetField>
。
DELTA_COMPACTION_VALIDATION_FAILED
驗證路徑<compactedPath>
<newPath>
壓縮失敗:請提出錯誤報告。
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
在 資料列 <columName>
中找到巢狀 NullType,其為 <dataType>
。 Delta 不支援在複雜類型中撰寫 NullType。
DELTA_CONCURRENT_APPEND
ConcurrentAppendException:檔案已由並行更新新增至 <partition>
。 <retryMsg>
<conflictingCommit>
如需詳細資訊, <docLink>
請參閱 。
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException:此交易嘗試刪除並行更新已刪除的一或多個檔案。例如 <file>
, 請再試一次作業。<conflictingCommit>
如需詳細資訊, <docLink>
請參閱 。
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException:此交易嘗試讀取並行更新所刪除的一或多個檔案(例如 <file>
)。 請再試一次作業。<conflictingCommit>
如需詳細資訊, <docLink>
請參閱 。
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException:當多個串流查詢使用相同的檢查點寫入此數據表時,就會發生此錯誤。 您是否同時執行相同串流查詢的多個實例?<conflictingCommit>
如需詳細資訊, <docLink>
請參閱 。
DELTA_CONCURRENT_WRITE
ConcurrentWriteException:自目前交易讀取數據表以來,並行交易已寫入新數據。 請再試一次作業。<conflictingCommit>
如需詳細資訊, <docLink>
請參閱 。
DELTA_CONFLICT_SET_COLUMN
這些 SET 資料行發生衝突: <columnList>
。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
在 期間 <command>
,無法從 命令設定 “<configuration>
” 請從 TBLPROPERTIES 子句中移除它,然後再次重試命令。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
在 期間<command>
,無法從SparkSession設定設定”<configuration>
請執行 spark.conf.unset("<configuration>")
來取消設定它,然後再次重試命令。
DELTA_CONSTRAINT_ALREADY_EXISTS
條件約束 『<constraintName>
' 已經存在。 請先刪除舊的條件約束。
舊條件約束:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
數據 <columnName>
行具有數據類型 <columnType>
,而且無法變更為數據類型 <dataType>
,因為下列檢查條件約束會參考此數據行:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
無法改變資料列 <columnName>
,因為下列檢查條件約束會參考此資料列:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
無法從數據表 <tableName>
卸除不存在的條件約束<constraintName>
。 若要避免擲回錯誤,請提供 IF EXISTS 參數,或將 SQL 工作階段組態 <config>
設定設定為 <confValue>
。
DELTA_CONVERSION_NO_PARTITION_FOUND
在數據表 <tableName>
的目錄中找不到任何數據分割資訊。 您是否在資料表上執行 「MSCK REPAIR TABLE」 來探索分割區?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
無法將具有定序數據分割數據行 <colName>
的 Parquet 資料表轉換成 Delta。
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
使用 CONVERT TO DELTA 時,無法將組態'<config>
' 設定為 <mode>
。
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA 僅支援 parquet 數據表,但您嘗試轉換 <sourceName>
來源: <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
無法在不收集統計數據的情況下啟用數據列追蹤。
如果您要啟用資料列追蹤,請執行下列動作:
執行 命令來啟用統計數據收集
SET
<statisticsCollectionPropertyKey>
= true- 在沒有 NO STATISTICS 選項的情況下執行 CONVERT TO DELTA。
如果您不想收集統計數據,請停用數據列追蹤:
執行 命令,預設停用啟用資料表功能:
重置
<rowTrackingTableFeatureDefaultKey>
依預設,執行下列動作來停用數據表屬性:
SET
<rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO 目標必須是 Delta 資料表。
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
您嘗試建立外部資料表 <tableName>
從 <path>
使用 Delta,但在 時未指定架構
輸入路徑是空的。
若要深入瞭解 Delta,請參閱 <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
您嘗試建立外部資料表 <tableName>
使用 %2$s
Delta,但不存在事務歷史記錄
%2$s/_delta_log
. 檢查上游作業,以確定其正在使用 撰寫
format(“delta”) 和路徑是數據表的根目錄。
若要深入瞭解 Delta,請參閱 <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
不支援建立具有不同位置的路徑差異數據表。 識別碼: <identifier>
、位置: <location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
必須指定數據表名稱或位置。
DELTA_CREATE_TABLE_SCHEME_MISMATCH
指定的架構與 上的現有架構 <path>
不符。
== 指定 ==
<specifiedSchema>
== 現有 ==
<existingSchema>
== 差異 ==
<schemaDifferences>
如果您打算保留現有的架構,您可以省略
來自 create table 命令的架構。 否則,請確定
架構相符。
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
無法使用 TBLPROPERTIES 啟用 <tableFeature>
資料表功能。 請使用 CREATE OR REPLACE TABLE CLUSTER BY 來建立具有叢集的 Delta 數據表。
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
指定的叢集數據行不符合 位於 <path>
的現有叢集數據行。
== 指定 ==
<specifiedColumns>
== 現有 ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
指定的數據分割與 位於 <path>
的現有數據分割不符。
== 指定 ==
<specifiedColumns>
== 現有 ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
指定的屬性不符合 位於 <path>
的現有屬性。
== 指定 ==
<specifiedProperties>
== 現有 ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
無法建立數據表 (''<tableId>
)。 相關聯的位置 (''<tableLocation>
) 不是空的,也不是 Delta 數據表。
DELTA_DATA_CHANGE_FALSE
無法變更數據表元數據,因為 『dataChange』 選項設定為 false。 嘗試的作業: '<op>
'。
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
找不到事務歷史記錄中所參考的檔案 <filePath>
。 此 parquet 檔案可能會在 Delta 的數據保留原則下刪除。
默認差異數據保留持續時間: <logRetentionPeriod>
。 parquet 檔案的修改時間: <modificationTime>
。 parquet 檔案的刪除時間: <deletionTime>
。 在差異版本上刪除: <deletionVersion>
。
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
使用遺漏 numRecords 統計數據的刪除向量認可檔案是無效的。
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
偵測到網域 <domainNames>
的 DomainMetadata 動作,但未啟用 DomainMetadataTableFeature。
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
要卸除數據行的索引 <columnIndex>
低於 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
無法從具有單一數據行的架構卸除數據行。 結構描述:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
已指定路徑<path>
的檔案作業 『<actionType>
數次。
它與衝突 <conflictingPath>
。
單一認可中存在相同路徑的多個檔案作業無效。
DELTA_DUPLICATE_COLUMNS_FOUND
找到重複的資料列(s) <coltype>
: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
INSERT 子句中的重複資料行名稱
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
更新數據表之前,請先移除重複的數據行。
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
找到重複的數據略過數據行: <columns>
。
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
內部錯誤:相同交易內的兩個 DomainMetadata 動作具有相同網域 <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
無法在數據表完整性驗證期間還原串行化已刪除的記錄計數直方圖。
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
動態分割覆寫模式是由會話組態或寫入選項所指定,但 由 spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
停用。
DELTA_EMPTY_DATA
建立 Delta 資料表時所使用的數據沒有任何數據行。
DELTA_EMPTY_DIRECTORY
目錄中找不到檔案: <directory>
。
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
值 「<value>
超過 char/varchar 類型長度限制。 失敗檢查: <expr>
。
DELTA_FAILED_CAST_PARTITION_VALUE
無法將分割區值 <value>
轉換成 <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
在現有的目標輸出中找不到<newAttributeName>
<targetOutputColumns>
DELTA_FAILED_INFER_SCHEMA
無法從指定的檔案清單中推斷架構。
DELTA_FAILED_MERGE_SCHEMA_FILE
無法合併檔案 <file>
的架構:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
無法讀取檔案的頁尾: <currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
無法辨識述詞 '<predicate>
'
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
預期完整掃描最新版的差異來源,但發現版本的歷史掃描 <historicalVersion>
DELTA_FAILED_TO_MERGE_FIELDS
無法合併欄位'<currentField>
' 和 '<updateField>
'
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
無法在此數據表上運作,因為下表功能是在元數據中啟用,但未列在通訊協定中: <features>
。
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
您的數據表架構需要手動啟用下表功能: <unsupportedFeatures>
。
若要這樣做,請針對上面所列的每個功能執行下列命令:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
將 「table_name」 和 「feature_name」 取代為實際值。
目前支援的功能: <supportedFeatures>
。
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
無法卸除功能,因為並行交易已修改數據表。
請再試一次作業。
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
無法卸除資料表功能 <feature>
,因為此資料表中的一些其他功能 (<dependentFeatures>
) 相依於 <feature>
。
請先考慮先卸除這些功能,再卸除此功能。
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
無法從這個數據表卸除 <feature>
,因為它目前不存在於數據表的通訊協定中。
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
無法卸除 <feature>
,因為 Delta 記錄檔包含使用此功能的歷史版本。
請等到歷程記錄保留期間 (<logRetentionPeriodKey>
=<logRetentionPeriod>
)
自功能上次作用中以來已通過。
或者,請等候 TRUNCATE HISTORY 保留期限到期 (<truncateHistoryLogRetentionPeriod>
)
然後執行:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
特定功能不需要歷程記錄截斷。
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
無法卸除 <feature>
,因為不支援卸除此功能。
請連絡 Databricks 支持人員。
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
無法卸除 <feature>
,因為此 Databricks 版本不支援它。
請考慮搭配較高版本使用 Databricks。
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
卸 <feature>
除部分成功。
功能現在不再用於數據表的目前版本。 不過,此功能
數據表的歷程記錄版本仍然存在。 無法卸除數據表功能
從數據表通訊協定到這些歷程記錄版本到期為止。
若要從通訊協定卸除數據表功能,請等候歷程記錄版本
到期,然後重複此命令。 歷程記錄版本的保留期間為
目前設定為 <logRetentionPeriodKey>
=<logRetentionPeriod>
。
或者,請等候 TRUNCATE HISTORY 保留期限到期 (<truncateHistoryLogRetentionPeriod>
)
然後執行:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
無法啟用數據表功能 <feature>
,因為它需要較高的讀取器通訊協定版本(目前的 <current>
)。 請考慮將數據表的讀取器通訊協定版本升級為 <required>
,或升級為支援讀取器數據表功能的版本。 <docLink>
如需資料表通訊協定版本的詳細資訊,請參閱 。
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
無法啟用數據表功能 <feature>
,因為它需要較高的寫入器通訊協定版本(目前的 <current>
)。 請考慮將數據表的寫入器通訊協定版本升級為 <required>
,或升級至支援寫入器數據表功能的版本。 <docLink>
如需資料表通訊協定版本的詳細資訊,請參閱 。
DELTA_FILE_ALREADY_EXISTS
現有的檔案路徑 <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
無法同時指定檔案清單和模式字串。
DELTA_FILE_NOT_FOUND
檔案路徑 <path>
DELTA_FILE_NOT_FOUND_DETAILED
找不到事務歷史記錄中所參考的檔案 <filePath>
。 當從檔案系統手動刪除數據,而不是使用 table DELETE
語句時,就會發生這種情況。 如需詳細資訊,請參閱 <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
沒有這類檔案或目錄: <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
要重寫的檔案 (<path>
) 在候選檔案中找不到:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
找到 MapType。 若要存取 MapType 的索引鍵或值,請指定一個
之:
<key>
或
<value>
後面接著數據行的名稱(只有當該數據行是結構類型時)。
例如 mymap.key.mykey
如果數據行是基本類型,mymap.key或 mymap.value 就已足夠。
結構描述:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
資料 <columnName>
行具有數據類型 <columnType>
,而且無法變更為數據類型 <dataType>
,因為下列產生的數據行會參考此數據行:
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
無法改變資料列 <columnName>
,因為下列產生的資料列會參考此資料列:
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
所 <columnName>
產生數據行的表示式類型為 <expressionType>
,但數據行類型為 <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
數據 <currentName>
行是產生的數據行或產生的數據行。 數據類型為 <currentDataType>
且無法轉換成數據類型 <updateDataType>
DELTA_ICEBERG_COMPAT_VIOLATION
IcebergCompatV<version>
的驗證失敗。
如需詳細資訊,請參閱 DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
IDENTITY 資料行不支援 ALTER TABLE ALTER COLUMN。
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
只有 Delta 才支援 ALTER TABLE ALTER COLUMN SYNC IDENTITY。
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
無法在非 IDENTITY 數據行上呼叫 ALTER TABLE ALTER COLUMN SYNC IDENTITY。
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
不支援提供 GENERATED ALWAYS AS IDENTITY 資料行 <colName>
的值。
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY 數據行步驟不能是 0。
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
只有 Delta 才支援 IDENTITY 資料行。
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
不支援 PARTITIONED BY IDENTITY 資料行 <colName>
。
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
具有 IDENTITY 資料行的數據表不支援 ALTER TABLE REPLACE COLUMNS。
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
IDENTITY 資料行不支援 DataType <dataType>
。
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
不支援 IDENTITY 資料行 <colName>
上的 UPDATE。
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
IDENTITY 資料行無法使用產生的數據行運算式來指定。
DELTA_ILLEGAL_OPTION
選項 '' 的值 『<input>
<name>
' 無效,<explain>
DELTA_ILLEGAL_USAGE
Delta 資料表時<operation>
不允許使用 <option>
的 。
DELTA_INCONSISTENT_BUCKET_SPEC
Delta 貯體數據表上的 BucketSpec 與元數據中的 BucketSpec 不符。預期: <expected>
。 實際: <actual>
。
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) 不能設定為不同的值。 請只設定其中一個,或將它們設定為相同的值。
DELTA_INCORRECT_ARRAY_ACCESS
無法正確存取ArrayType。 使用 arrayname.element.elementname 位置來設定
新增至陣列。
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
找到 ArrayType。 若要存取 ArrayType 的專案,請指定
以 <rightName>
取代 <wrongName>
。
結構描述:
<schema>
DELTA_INCORRECT_GET_CONF
使用 getConf()
而不是 'conf.getConf()
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
錯誤通常會在預設的 LogStore 實作時發生,
是,HDFSLogStore 是用來寫入非 HDFS 記憶體系統上的 Delta 資料表。
若要取得數據表更新的交易 ACID 保證,您必須使用
適用於您記憶體系統的 LogStore 正確實作。
如需詳細資訊,請參閱 <docLink>
。
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
要卸除數據行的索引 <position>
等於 或 大於結構長度: <length>
DELTA_INDEX_LARGER_THAN_STRUCT
要加入資料行<columnName>
的索引<index>
大於結構長度:<length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
無法寫入 『<tableName>
; <columnName>
目標數據表有 <numColumns>
column(s),但插入的數據有 <insertColumns>
column(s)
DELTA_INSERT_COLUMN_MISMATCH
INSERT 中未指定數據行<columnName>
DELTA_INVALID_AUTO_COMPACT_TYPE
無效的自動壓縮類型: <value>
。 允許值為:<allowed>
。
DELTA_INVALID_BUCKET_COUNT
無效的貯體計數: <invalidBucketCount>
。 貯體計數應該是乘冪為 2 和至少 8 的正數。 您可以改用 <validBucketCount>
。
DELTA_INVALID_BUCKET_INDEX
在數據分割數據行中找不到貯體數據行
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
間隔不能是 Null 或空白。
DELTA_INVALID_CDC_RANGE
從開始 <start>
到結尾 <end>
的 CDC 範圍無效。 結束不能在開始之前。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
屬性名稱 「<columnName>
在 」 之間包含無效的字元;;{}()\n\t=“。 請使用別名將它重新命名。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
在 ' 中找到無效的字元;;{}()nt=' 在架構的數據行名稱中。
無效的數據行名稱: <invalidColumnNames>
。
請使用其他字元,然後再試一次。
或者,啟用數據行對應以繼續使用這些字元。
DELTA_INVALID_CLONE_PATH
CLONE 的目標位置必須是絕對路徑或數據表名稱。 使用
絕對路徑, <path>
而不是 。
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
在 ' 中找到無效的字元;;{}()nt=' 在架構的數據行名稱中。
無效的數據行名稱: <invalidColumnNames>
。
當資料行名稱中有無效字元時,無法移除資料行對應。
請重新命名數據行以移除無效的字元,然後再次執行此命令。
DELTA_INVALID_FORMAT
偵測到不相容的格式。
在 /_delta_log''' 找到 <deltaRootPath>
Delta 的事務歷史記錄
但您正嘗試<operation>
<path>
使用 format(“)。<format>
您必須使用
讀取和寫入差異數據表時,'format(“delta”)'。
若要深入瞭解 Delta,請參閱 <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
產生的數據行無法使用不存在的數據行或其他產生的數據行
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
無效的等冪資料框架寫入選項: <reason>
DELTA_INVALID_INTERVAL
<interval>
不是有效的 INTERVAL。
DELTA_INVALID_INVENTORY_SCHEMA
指定 INVENTORY 的架構不包含所有必要的欄位。 必要欄位為: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
無效的隔離等級 '<isolationLevel>
'
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) 和 (<schemeConfig>
) 不能同時設定。 請只設定其中一個群組。
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
您嘗試建立受控數據表 <tableName>
使用 Delta,但未指定架構。
若要深入瞭解 Delta,請參閱 <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
不是數據表 <tableName>
中有效的數據分割數據行。
DELTA_INVALID_PARTITION_COLUMN_NAME
找到在 「 中具有無效字元的數據分割數據行;{}()nt=“。 請將名稱變更為資料分割資料行。 這項檢查可以藉由設定 spark.conf.set(“spark.databricks.delta.partitionColumnValidity.enabled”, false) 關閉,但不建議這樣做,因為 Delta 的其他功能可能無法正常運作。
DELTA_INVALID_PARTITION_COLUMN_TYPE
<name>
不支援使用類型<dataType>
為數據分割數據行的數據行。
DELTA_INVALID_PARTITION_PATH
分割區路徑片段應該是類似 part1=foo/part2=bar
的形式。 資料分割路徑: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
通訊協定版本無法從 <oldProtocol>
降級為 <newProtocol>
DELTA_INVALID_PROTOCOL_VERSION
不支援的差異通訊協定版本:數據表 「<tableNameOrPath>
需要讀取器版本 <readerRequired>
和寫入器版本 <writerRequired>
,但此版本的 Databricks 支援讀取器版本 <supportedReaders>
和寫入器版本 <supportedWriters>
。 請升級至較新的版本。
DELTA_INVALID_TABLE_VALUE_FUNCTION
函 <function>
式是 CDC 讀取不支援的數據表值函式。
DELTA_INVALID_TIMESTAMP_FORMAT
提供的時間戳 <timestamp>
不符合預期的語法 <format>
。
DELTA_LOG_ALREADY_EXISTS
差異記錄已經存在 <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
如果您從未刪除過,您的查詢可能會落後。 請從頭刪除其檢查點以重新啟動。 若要避免這種情況再次發生,您可以更新 Delta 數據表的保留原則
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
遺漏<tableName>
的具體化數據<rowTrackingColumn>
行名稱。
DELTA_MAX_ARRAY_SIZE_EXCEEDED
請使用小於 Int.MaxValue - 8 的限制。
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
此認可失敗,因為已嘗試 <numAttempts>
過但未成功。
這可能會由許多並行認可 Delta 數據表所造成
提交。
認可開始於版本: <startVersion>
在版本認可失敗: <failVersion>
嘗試認可的動作數目: <numActions>
嘗試此認可所花費的總時間: <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
檔案清單最多 <maxFileListSize>
必須有 專案,具有 <numFiles>
。
DELTA_MERGE_ADD_VOID_COLUMN
無法新增類型為 VOID 的數據行 <newColumn>
。 請明確指定非 void 類型。
DELTA_MERGE_INCOMPATIBLE_DATATYPE
無法合併不相容的數據類型 <currentDataType>
和 <updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
無法合併不相容的十進位類型 <decimalRanges>
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
保留 MERGE 語句具體化的來源已重複失敗。
DELTA_MERGE_MISSING_WHEN
MERGE 語句中必須至少有一個 WHEN 子句。
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
運算子中遺漏<input>
的已解析屬性 <missingAttributes>
<merge>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
非預期的指派索引鍵: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
無法在指定的 <cols>
中<clause>
解析<sqlExpr>
。
DELTA_METADATA_CHANGED
MetadataChangedException:Delta 數據表的元數據已由並行更新變更。 請再試一次作業。<conflictingCommit>
如需詳細資訊, <docLink>
請參閱 。
DELTA_MISSING_CHANGE_DATA
取得範圍[<startVersion>
變更 <endVersion>
資料時發生錯誤, 因為變更資料不是
記錄為版本 [<version>
]。 如果您已啟用此資料表上的變更數據摘要,
用來 DESCRIBE HISTORY
查看第一次啟用時。
否則,若要開始錄製變更數據,請使用 『ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)'。
DELTA_MISSING_COLUMN
在資料表資料列中找不到 <columnName>
: <columnList>
DELTA_MISSING_COMMIT_INFO
此數據表已啟用此功能 <featureName>
,因此需要在每次認可中出現 CommitInfo 動作。 不過,認可版本 <version>
遺漏 CommitInfo 動作。
DELTA_MISSING_COMMIT_TIMESTAMP
此數據表已啟用此功能 <featureName>
,這需要在 CommitInfo 動作中存在 commitTimestamp。 不過,此欄位尚未在認可版本 <version>
中設定。
DELTA_MISSING_DELTA_TABLE
<tableName>
不是 Delta 數據表。
DELTA_MISSING_DELTA_TABLE_COPY_INTO
數據表不存在。 先使用 CREATE TABLE 建立空的 Delta 數據表 <tableName>
。
DELTA_MISSING_ICEBERG_CLASS
找不到冰山班。 請確定已安裝 Delta Iceberg 支援。
如需詳細資訊, <docLink>
請參閱 。
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
<columnName>
數據行,其具有NOT NULL條件約束,從寫入數據表的數據中遺漏。
DELTA_MISSING_PARTITION_COLUMN
架構中找不到數據分割數據行<columnName>
<columnList>
DELTA_MISSING_PART_FILES
找不到檢查點版本的所有元件檔案: <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA 僅支援 parquet 數據表。 請將您的目標重寫為 parquet。<path>
如果它是 parquet 目錄,則為 。
DELTA_MISSING_SET_COLUMN
找不到指定資料行的 SET 資料列 <columnName>
: <columnList>
。
DELTA_MISSING_TRANSACTION_LOG
偵測到不相容的格式。
您嘗試<operation>
<path>
使用 Delta,但沒有
事務歷史記錄存在。 檢查上游作業以確定其正在寫入
使用 format(“delta”) 並嘗試 %1$s 資料表基底路徑。
若要深入瞭解 Delta,請參閱 <docLink>
DELTA_MODE_NOT_SUPPORTED
不支援指定的模式 』<mode>
。 支援的模式如下: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
為 CDC 讀取提供的多個 <startingOrEnding>
自變數。 請提供其中一個 <startingOrEnding>
時間戳或 <startingOrEnding>
版本。
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
傳遞至資料列命令的多個 bloom 篩選索引組態: <columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
無法以符合的多個來源數據列執行合併,並嘗試修改相同的數據列
Delta 數據表中的目標數據列可能衝突的方式。 依合併的 SQL 語意,
當相同目標數據列上的多個源數據列相符時,結果可能會模棱兩可
目前還不清楚應該使用哪個來源數據列來更新或刪除比對
目標數據列。 您可以預先處理源數據表,以消除的可能性
多個相符專案。 請參閱「建議的文件」所提供連結中的
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
在 期間 <command>
,這兩個協調認可組態(“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.commitCoordinatorConf-preview”)都會在命令中設定,或兩者皆未設定。 遺漏:“<configuration>
”。 請在 TBLPROPERTIES 子句中指定此組態,或移除其他組態,然後再次重試命令。
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
在 期間 <command>
,這兩個協調認可組態 (“coordinatedCommits.commitCoordinator-preview”, “coordinatedCommits.commitCoordinatorConf-preview”) 都會在 SparkSession 組態中設定,或兩者都未設定。 遺漏:“<configuration>
”。 請在SparkSession 中設定此組態,或取消設定其他組態,然後再次重試命令。
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
下列資料行名稱僅保留給 Delta 貯體資料表內部使用量: <names>
DELTA_NESTED_FIELDS_NEED_RENAME
輸入架構包含大小寫與目標數據表不同的巢狀欄位。
它們必須重新命名,以避免在寫入 Delta 時遺失這些欄位中的數據。
欄位:
<fields>
.
原始架構:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
欄位<nestType>
<parent>
的類型包含 NOT NULL 條件約束。 Delta 不支援巢狀於數位或對應內的 NOT NULL 條件約束。 若要隱藏此錯誤,並以無訊息方式忽略指定的條件約束,請將 set <configKey>
= true。
剖析 <nestType>
的類型:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
條件中 <operation>
不支援巢狀子查詢。
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
中的數據 <tableName>
列違反新的 CHECK 條件約束 (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
中的數據 <tableName>
列違反 上新的NOT NULL條件約束 <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK 條件約束 '<name>
' (<expr>
) 應該是布爾表達式。
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
找到 <expr>
。 產生的數據行無法使用非決定性表達式。
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
中不支援不具決定性的<operation>
函式 <expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
當 MERGE 語句中有多個 MATCHED 子句時,只有最後一個 MATCHED 子句可以省略條件。
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
在 MERGE 語句中有多個 NOT MATCHED BY SOURCE 子句時,只有最後一個 NOT MATCHED BY SOURCE 子句可以省略條件。
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
在 MERGE 語句中有多個 NOT MATCHED 子句時,只有最後一個 NOT MATCHED 子句可以省略條件
DELTA_NON_PARSABLE_TAG
無法剖析標記 <tag>
。
檔案標籤如下: <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
寫入 Delta 的數據必須至少包含一個非數據分割的數據行。<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
述詞參考非數據分割數據行 』<columnName>
' 只能參考資料分割資料列: [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
指定非數據分割數據行, <columnList>
只預期只有數據分割數據行: <fragment>
。
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Delta 目錄需要單一部分命名空間,但 <identifier>
為多部分。
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
不是 Delta 數據表。 如果您想要使用 Databricks Delta 建立數據表,請先卸除此數據表。
DELTA_NOT_A_DELTA_TABLE
<tableName>
不是 Delta 數據表。 如果您想要使用 Delta Lake 重新建立數據表,請先卸除此數據表。
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
結構中找不到不可為 Null 的數據行: <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
數據行違反 NOT NULL 條件約束: <columnName>
。
DELTA_NOT_NULL_NESTED_FIELD
不可為 Null 的巢狀字段無法新增至可為 Null 的父代。 請據以設定父數據行的 Null 屬性。
DELTA_NO_COMMITS_FOUND
找不到在 <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
找不到可重新建立的認可 <logPath>
DELTA_NO_RELATION_TABLE
找不到數據表<tableIdent>
DELTA_NO_START_FOR_CDC_READ
沒有針對 CDC 讀取提供的 startingVersion 或 startingTimestamp。
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta 不接受數據流寫入架構中的 NullType。
DELTA_ONEOF_IN_TIMETRAVEL
請提供時間旅行的 『timestampAsOf』 或 'versionAsOf'。
DELTA_ONLY_OPERATION
<operation>
僅支援 Delta 資料表。
DELTA_OPERATION_MISSING_PATH
請提供的路徑或資料表識別碼 <operation>
。
DELTA_OPERATION_NOT_ALLOWED
不允許作業: <operation>
差異數據表不支援
DELTA_OPERATION_NOT_ALLOWED_DETAIL
不允許工作:差異資料表不支援: <operation>
<tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
<colName>
不支援具有非預設定序的數據行<collation>
。
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
表達式不支援 <exprText>
,因為它使用非預設定序。
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation>
不支援在臨時檢視上參考包含所產生數據行之 Delta 數據表的命令。 請直接在 Delta 資料表上執行 <operation>
命令
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
不允許作業: <operation>
無法在檢視上執行。
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
只有具有非空白叢集數據行的叢集數據表才支援 OPTIMIZE FULL。
DELTA_OVERWRITE_MUST_BE_TRUE
若未設定 OVERWRITE = 'true',就無法指定 Copy 選項 overwriteSchema。
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' 不能用於動態分割覆寫模式。
DELTA_PARTITION_COLUMN_CAST_FAILED
無法將數據分割數據行的值<value>
<dataType>
轉換成<columnName>
DELTA_PARTITION_COLUMN_NOT_FOUND
在架構中找不到資料分割資料行 <columnName>
[<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
轉換 Iceberg 資料表時,無法指定分割區架構。 它會自動推斷。
DELTA_PATH_DOES_NOT_EXIST
<path>
不存在,或不是 Delta 數據表。
DELTA_PATH_EXISTS
若未設定 OVERWRITE = 'true',就無法寫入已經存在的路徑 <path>
。
DELTA_POST_COMMIT_HOOK_FAILED
認可至 Delta 數據表版本<version>
成功,但在執行認可后攔截<name>
時發生錯誤 <message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException:Delta 數據表的通訊協定版本已由並行更新變更。 <additionalInfo>
<conflictingCommit>
如需詳細資訊, <docLink>
請參閱 。
DELTA_PROTOCOL_PROPERTY_NOT_INT
Protocol 屬性 <key>
必須是整數。 發現 <value>
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
無法只升級讀取器通訊協定版本以使用數據表功能。 寫入器通訊協定版本至少 <writerVersion>
必須繼續進行。 <docLink>
如需資料表通訊協定版本的詳細資訊,請參閱 。
DELTA_READ_TABLE_WITHOUT_COLUMNS
您嘗試讀取沒有任何數據行的 Delta 資料表 <tableName>
。
使用 選項 mergeSchema = true
寫入一些新數據,以便讀取數據表。
DELTA_REGEX_OPT_SYNTAX_ERROR
請重新檢查 '' 的<regExpOption>
語法
DELTA_REPLACE_WHERE_IN_OVERWRITE
您無法使用 replaceWhere 搭配篩選條件覆寫
DELTA_REPLACE_WHERE_MISMATCH
寫入的數據不符合部分數據表覆寫條件或條件約束 『<replaceWhere>
』。
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
DataFrameWriter 選項中不能同時設定 'replaceWhere' 表達式和 'partitionOverwriteMode'='dynamic'。
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
當 'dataChange' 設定為 false 時,'replaceWhere' 無法與數據篩選搭配使用。 過濾器: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
無法指派沒有數據列計數統計數據的數據列標識碼。
在 Scala 筆記本中執行下列程式代碼來收集資料表的統計數據,然後重試:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
偵測到的架構變更:
串流來源架構: <readSchema>
資料檔案架構: <dataSchema>
請嘗試重新啟動查詢。 如果此問題會在查詢重新啟動時重複,而不需要
進行中,您已進行不相容的架構變更,且需要啟動您的
使用新的檢查點目錄從頭查詢。
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
偵測到版本 <version>
中的架構變更:
串流來源架構: <readSchema>
資料檔案架構: <dataSchema>
請嘗試重新啟動查詢。 如果此問題會在查詢重新啟動時重複,而不需要
進行中,您已進行不相容的架構變更,且需要啟動您的
使用新的檢查點目錄從頭查詢。 如果問題持續發生之後
變更為新的檢查點目錄,您可能需要變更現有的
'startingVersion' 或 'startingTimestamp' 選項,從比 更新的版本啟動
<version>
具有新的檢查點目錄。
DELTA_SCHEMA_CHANGED_WITH_VERSION
偵測到版本 <version>
中的架構變更:
串流來源架構: <readSchema>
資料檔案架構: <dataSchema>
請嘗試重新啟動查詢。 如果此問題會在查詢重新啟動時重複,而不需要
進行中,您已進行不相容的架構變更,且需要啟動您的
使用新的檢查點目錄從頭查詢。
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
自從 DataFrame 以來,Delta 數據表的架構已以不相容的方式變更
或 DeltaTable 物件已建立。 請重新定義 DataFrame 或 DeltaTable 物件。
變化:
<schemaDiff>
<legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
未提供數據表架構。 在使用 REPLACE 資料表和未提供 AS SELECT 查詢時,請提供資料表的架構(資料行定義)。
DELTA_SCHEMA_NOT_SET
未設定數據表架構。 將數據寫入其中,或使用 CREATE TABLE 來設定架構。
DELTA_SET_LOCATION_SCHEMA_MISMATCH
新 Delta 位置的架構與目前的數據表架構不同。
原始架構:
<original>
目的地架構:
<destination>
如果這是預期的變更,您可以執行下列命令來關閉此檢查:
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
找不到事務歷史記錄中所參考的檔案 <filePath>
。 當數據已從文件系統手動刪除,而不是使用 table DELETE
語句時,就會發生這種情況。 此資料表似乎是淺層複製品,如果是這種情況,當複製此數據表的原始數據表已刪除複製仍在使用的檔案時,就會發生此錯誤。 如果您想要讓任何複製與原始數據表無關,請改用 DEEP 複製。
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
開頭為的預先定義屬性 <prefix>
無法修改。
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
數據受限於未套用至會話中目前收件者之收件者屬性 <property>
。
如需詳細資訊,請參閱 DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
無法在跨帳戶共用的 Delta 共用檢視中使用。
DELTA_SHARING_INVALID_PROVIDER_AUTH
提供者 <provider>
的非法驗證類型<authenticationType>
。
DELTA_SHARING_INVALID_RECIPIENT_AUTH
收件者的<recipient>
非法驗證類型<authenticationType>
。
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
在 Share 內參考 <type>
的無效名稱。 您可以遵循 [schema].[<type>
]的格式,在共用內使用 <type>
's name,或者您也可以使用數據表的原始完整名稱,格式為 [catalog].[schema]。[>type>]。
如果您不確定要使用的名稱,您可以執行“SHOW ALL IN SHARE [share]”,並尋找要移除的 <type>
名稱:數據行 “name” 是 <type>
共用內的 's 名稱,而數據行 “shared_object” 是 <type>
's 原始的完整名稱。
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
收件者 <recipient>
有兩個以上的令牌。
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Recipient 屬性 <property>
不存在。
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
收件者令牌遺失給收件者 <recipient>
。
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
針對 SHOW PARTITIONS 指定非資料分割資料列 <badCols>
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
在未分割的數據表上不允許 SHOW PARTITIONS: <tableName>
DELTA_SOURCE_IGNORE_DELETE
偵測到版本 上的串流來源<version>
已刪除的數據(例如 <removedFile>
)。 目前不支援。 如果您想要忽略刪除,請將選項 'ignoreDeletes' 設定為 'true'。 您可以在路徑 <dataPath>
中找到來源資料表。
DELTA_SOURCE_TABLE_IGNORE_CHANGES
在版本 <version>
上偵測到源數據表中的數據更新(例如 <file>
)。 目前不支援。 如果這會定期發生,而且您可以略過變更,請將選項 'skipChangeCommits' 設定為 'true'。 如果您想要反映數據更新,請使用全新的檢查點目錄重新啟動此查詢,或使用 DLT 執行完整重新整理。 如果您需要處理這些變更,請切換至MV。 您可以在路徑 <dataPath>
中找到來源資料表。
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
請提供 '<version>
' 或 '<timestamp>
'
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
在 Parquet 元數據中找不到數據行的統計數據: <columnPath>
。
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
我們已偵測到差異版本<previousSchemaChangeVersion>
與<currentSchemaChangeVersion>
差異串流來源中的一或多個非加總架構變更。<opType>
請先檢查您是否要手動將架構變更傳播至接收數據表,然後再使用 上的完成架構 <currentSchemaChangeVersion>
繼續進行串流處理。
修正接收數據表的架構或決定不需要修正之後,您可以設定下列其中一個 SQL 組態來解除封鎖非加總架構變更,並繼續串流處理。
若要解除封鎖此特定資料流,請只針對這個系列的架構變更:設定 <allowCkptVerKey>` = `<allowCkptVerValue>
。
若要解除封鎖此特定數據流:set <allowCkptKey>` = `<allowCkptValue>
若要解除封鎖所有資料流:設定 <allowAllKey>` = `<allowAllValue>
。
或者,如果適用,您可以在 SQL conf 中將 取代<allowAllMode>
<opSpecificMode>
為 ,只解除封鎖此架構變更類型的數據流。
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
檢查數據行對應架構變更時,無法取得起始版本的差異記錄快照集。 請選擇不同的開始版本,或強制將 '' 設定為 『<config>
true』 以自行風險啟用串流讀取。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
具有讀取不相容架構變更的數據表不支援串流讀取(例如重新命名或卸除或數據類型變更)。
如需解決此問題的進一步資訊和可能後續步驟,請檢閱下列檔: <docLink>
讀取架構: <readSchema>
。 不相容的數據架構: <incompatibleSchema>
。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
具有讀取不相容架構變更的數據表不支援串流讀取(例如重新命名或卸除或數據類型變更)。
請提供 'schemaTrackingLocation',以啟用差異串流處理的非加總架構演進。
如需詳細資訊,請參閱 <docLink>
。
讀取架構: <readSchema>
。 不相容的數據架構: <incompatibleSchema>
。
DELTA_STREAMING_METADATA_EVOLUTION
差異數據表的架構、數據表組態或通訊協定在串流期間已變更。
架構或元數據追蹤記錄已更新。
請重新啟動數據流,以繼續使用更新的元數據進行處理。
更新的架構: <schema>
。
更新的數據表組態: <config>
。
更新的數據表通訊協定: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
使用架構追蹤從源數據表 <tableId>
串流不支援數據列篩選或數據行遮罩。
請卸除數據列篩選或數據行遮罩,或停用架構追蹤。
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
偵測到從位於 '' 的數據表或數據表串流時發生衝突的架構位置<loc>
'<table>
'。
另一個數據流可能會重複使用相同的架構位置,這是不允許的。
請提供新的唯 schemaTrackingLocation
一路徑,或 streamingSourceTrackingId
作為此數據表中其中一個數據流的讀取器選項。
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
架構位置 『<schemaTrackingLocation>
' 必須放在檢查點位置 『<checkpointLocation>
』 之下。
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
差異串流來源架構記錄檔 '' 中不完整的記錄<location>
檔。
架構記錄檔可能已損毀。 請挑選新的架構位置。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
嘗試讀取 Delta 數據流時偵測到不相容的 Delta 數據表標識碼。
儲存的資料表識別碼: <persistedId>
、資料表識別碼: <tableId>
架構記錄檔可能已重複使用。 請挑選新的架構位置。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
嘗試讀取 Delta 數據流時偵測到不相容的數據分割架構。
儲存架構: <persistedSchema>
差異分割區架構: <partitionSchema>
如果您最近手動變更數據表的數據分割架構,請挑選新的架構位置來重新初始化架構記錄檔。
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
我們無法初始化 Delta 串流來源架構記錄,因為
我們在將串流批次從數據表版本<a>
<b>
提供至 時偵測到不相容的架構或通訊協議變更。
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
無法從 Delta 串流來源架構記錄剖析架構。
架構記錄檔可能已損毀。 請挑選新的架構位置。
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
無法在數據表上啟用異動數據擷取。 數據表已包含
將保留的數據行<columnList>
在內部作為數據表變更數據摘要的元數據使用。 若要為
變更數據表上的數據摘要重新命名/卸除這些數據行。
DELTA_TABLE_ALREADY_EXISTS
數據表 <tableName>
已經存在。
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
目前 DeltaTable.forPath 僅支援從 開始 <allowedPrefixes>
但取得的 hadoop 設定密鑰 <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
當此命令使用 數據表時,已取代 位於 <tableLocation>
的 Delta 資料表。
資料表識別碼是 <oldId>
,但現在為 <newId>
。
請重試目前的命令,以確保它會讀取數據表的一致檢視。
DELTA_TABLE_LOCATION_MISMATCH
現有資料表 <tableName>
的位置為 <existingTableLocation>
。 它不符合指定的位置 <tableLocation>
。
DELTA_TABLE_NOT_FOUND
差異數據表 <tableName>
不存在。
DELTA_TABLE_NOT_SUPPORTED_IN_OP
不支援 <operation>
數據表。 請改用路徑。
DELTA_TABLE_ONLY_OPERATION
<tableName>
不是 Delta 數據表。 <operation>
僅支援 Delta 資料表。
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
目標數據表最終架構是空的。
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
提供的時間戳 (<providedTimestamp>
) 是在最新版本可供使用之後
table (<tableName>
)。 請在 或 <maximumTimestamp>
之前使用時間戳。
DELTA_TIMESTAMP_INVALID
提供的時間戳 (<expr>
) 無法轉換為有效的時間戳。
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
必須是有效的開始值。
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
:由於手動刪除或記錄保留原則 () 和檢查點保留原則 ,==<checkpointRetention>
<checkpointRetentionKey>
<logRetentionKey>
<logRetention>
所以無法在版本<version>
重新建構狀態,因為事務歷史記錄已遭到截斷
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
不允許作業:Delta 數據表上的 TRUNCATE TABLE 不支援分割區述詞;使用 DELETE 刪除特定的分割區或資料列。
DELTA_UDF_IN_GENERATED_COLUMN
找到 <udfExpr>
。 產生的數據行無法使用使用者定義的函數
DELTA_UNEXPECTED_ACTION_EXPRESSION
非預期的動作表示式 <expression>
。
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
<expectedColsSize>
預期數據分割資料列:<expectedCols>
,但找到<parsedColsSize>
資料分割資料列:<parsedCols>
剖析檔名:<path>
DELTA_UNEXPECTED_PARTIAL_SCAN
預期會完整掃描差異來源,但發現部分掃描。 路徑:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
預期資料分割資料列 <expectedCol>
,但已找到剖析檔案名的數據分割資料列 <parsedCol>
: <path>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
已呼叫 CONVERT TO DELTA,其分割區架構與從目錄推斷的數據分割架構不同,請避免提供架構,以便從目錄選擇分割區架構。
目錄資料分割架構:
<catalogPartitionSchema>
提供的分割區架構:
<userPartitionSchema>
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
讀取 Iceberg 與 Delta Uniform 失敗。
如需詳細資訊,請參閱 DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
不支援建立或重新整理統一輸入數據表。
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
不支援格式 <fileFormat>
。 僅支援冰山作為源檔格式。
DELTA_UNIFORM_NOT_SUPPORTED
只有 Unity 目錄資料表支援通用格式。
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
無法將數據表版本 <version>
轉換成通用格式 <format>
。 <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
通用格式 (<format>
) 的驗證失敗: <violation>
DELTA_UNKNOWN_CONFIGURATION
指定了未知的組態: <config>
DELTA_UNKNOWN_PRIVILEGE
未知的權限: <privilege>
DELTA_UNKNOWN_READ_LIMIT
未知的 ReadLimit: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
無法辨識的資料行變更 <otherClass>
。 您可能正在執行過時的 Delta Lake 版本。
DELTA_UNRECOGNIZED_INVARIANT
無法辨識的不變。 請升級您的Spark版本。
DELTA_UNRECOGNIZED_LOGFILE
無法辨識的記錄檔 <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
嘗試在數據表中取消設定不存在的屬性 '<property>
' <tableName>
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
不支援新增具有絕對路徑的檔案
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
將數據行 <fieldPath>
從 <oldField>
變更為 不支援 ALTER TABLE CHANGE COLUMN <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
不支援的 ALTER TABLE REPLACE COLUMNS 作業。 原因: <details>
無法從:
<oldSchema>
變更為:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
您嘗試以 CLONE 取代現有的數據表 (<tableName>
)。 此作業為
支援。 針對 CLONE 嘗試不同的目標,或刪除目前目標上的資料表。
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
不支援將數據行對應模式從 『<oldMode>
' 變更為 『<newMode>
』。
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
您目前的數據表通訊協定版本不支援變更資料行對應模式
使用 <config>
。
資料行對應所需的差異通訊協定版本:
<requiredVersion>
您資料表目前的 Delta 通訊協定版本:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
偵測到架構變更:
舊架構:
<oldTableSchema>
新架構:
<newTableSchema>
在數據行對應模式變更期間,不允許進行架構變更。
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
不支援使用數據行對應模式寫入數據。
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
不支援在類型 <dataType>
為的數據行上建立 bloom 篩選索引: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
無法將批註新增至 <fieldPath>
。 不支援將批註新增至對應索引鍵/值或陣列專案。
DELTA_UNSUPPORTED_DATA_TYPES
找到使用不支持數據類型的數據行: <dataTypeList>
。 您可以將 '<config>
' 設定為 'false',以停用類型檢查。 停用此類型檢查可讓使用者建立不支援的 Delta 數據表,而且只有在嘗試讀取/寫入舊版數據表時才應該使用。
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
不能是產生之數據行的結果
DELTA_UNSUPPORTED_DEEP_CLONE
此差異版本不支援深層複製。
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
是檢視。 僅支持數據表的 DESCRIBE DETAIL。
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
不允許卸除叢集資料列 (<columnList>
) 。
DELTA_UNSUPPORTED_DROP_COLUMN
Delta 數據表不支援DROP COLUMN。 <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
只能從 StructType 卸除巢狀數據行。 發現 <struct>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
不允許卸除資料分割資料列 (<columnList>
) 。
DELTA_UNSUPPORTED_EXPRESSION
不支援的表達式類型(<expType>
) 。<causedBy>
支援的型別為 [<supportedTypes>
]。
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
無法在產生的數據行中使用
DELTA_UNSUPPORTED_FEATURES_FOR_READ
不支援的差異讀取功能:數據表 “<tableNameOrPath>
” 需要此 Databricks 版本不支援的讀取器數據表功能: <unsupported>
。 如需 Delta Lake 功能相容性的詳細資訊,請參閱 <link>
。
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
不支援的差異寫入功能:數據表 “<tableNameOrPath>
” 需要這個版本的 Databricks 不支援的寫入器數據表功能: <unsupported>
。 如需 Delta Lake 功能相容性的詳細資訊,請參閱 <link>
。
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
此版本的 Databricks 無法辨識下列 Spark 設定或 Delta 資料表屬性中所設定的數據表功能: <configs>
。
DELTA_UNSUPPORTED_FEATURE_STATUS
預期數據表功能 <feature>
的狀態為「支援」,但取得 「<status>
」。
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
StructType 僅支援更新巢狀字段,但您嘗試更新 的 <columnName>
字段,其類型為: <dataType>
。
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
缺少刪除向量檔案的數據表版本不支援 『FSCK REPAIR TABLE』 命令。
請連絡支援人員。
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
具有刪除向量的數據表版本不支援 『GENERATE symlink_format_manifest』 命令。
若要產生不含刪除向量的數據表版本,請執行 『REORG TABLE table APPLY (PURGE)』。 然後重新執行 『GENERATE』 命令。
請確定 REORG 與 GENERATE 之間沒有並行交易會再次新增刪除向量。
如果您需要定期產生指令清單,或無法防止並行交易,請考慮使用 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false) 停用此數據表上的刪除向量。
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
不支援 StructTypes 以外的巢狀字段上的非變異值。
DELTA_UNSUPPORTED_IN_SUBQUERY
條件不支援在子查詢中 <operation>
。
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix 無法使用
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
使用數據行對應的數據表不支援產生指令清單,因為外部讀取器無法讀取這些 Delta 數據表。 如需詳細資訊,請參閱 Delta 檔。
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
具有架構演進的 MERGE INTO 作業目前不支援撰寫 CDC 輸出。
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
條件中不支援 <operation>
多欄 In 述詞。
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
目前不支援在巢狀數據行上建立 bloom filer 索引: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
在 (field = <fieldName>
) 中<operation>
不支援巢狀欄位。
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
複製目的地數據表不是空的。 請在執行 CLONE 之前,先從數據表進行 TRUNCATE 或 DELETE。
DELTA_UNSUPPORTED_OUTPUT_MODE
數據源 <dataSource>
不支持 <mode>
輸出模式
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
不支援在資料分割數據行上建立 bloom 篩選索引: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
Delta 資料表不支援數據行重新命名。 <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta 不支援在讀取時指定架構。
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
差異貯體數據表不支援 SORTED BY
DELTA_UNSUPPORTED_SOURCE
<operation>
destination 僅支援 Delta 來源。
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
插入期間目前不支援在分割區規格中指定靜態分割區
DELTA_UNSUPPORTED_STRATEGY_NAME
不支援的原則名稱: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
(condition = <cond>
) 中不支持<operation>
子查詢。
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
數據分割述詞不支持子查詢。
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
無法以多種格式指定時間移動。
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
無法時間移動檢視、子查詢、串流或變更數據摘要查詢。
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
不支援截斷範例數據表
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
無法在此數據表上運作,因為已套用不支援的類型變更。 欄位 <fieldName>
已從 <fromType>
變更為 <toType>
。
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
在清理差異數據表時,請提供基底路徑 (<baseDeltaPath>
)。 目前不支援清理特定分割區。
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
資料表實作不支援寫入: <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
您正嘗試在已向認可協調器 <coordinatorName>
註冊的數據表上執行寫入。 不過,目前環境中沒有此協調器實作,不允許在沒有協調器的情況下寫入。
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
不支援寫入範例數據表
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
無法轉換成 <fromCatalog>
<toCatalog>
。 所有巢狀數據行都必須相符。
DELTA_VACUUM_COPY_INTO_STATE_FAILED
數據檔上的 VACUUM 成功,但 COPY INTO 狀態垃圾收集失敗。
DELTA_VERSIONS_NOT_CONTIGUOUS
版本 (<versionList>
) 不是連續的。
如需詳細資訊,請參閱 DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
具有值的數據列違反 CHECK 條件約束<constraintName>
<expression>
:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
已違反資料表 <table>
屬性的驗證:
如需詳細資訊,請參閱 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
是檢視。 您可能不會將數據寫入檢視中。
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Z 排序數據行 <columnName>
不存在於數據架構中。
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z 排序 <cols>
將會是
無效,因為我們目前不會收集這些數據行的統計數據。 請參閱「建議的文件」所提供連結中的
<link>
如需有關數據略過和迭置順序的詳細資訊。 您可以停用
藉由設定此檢查
'%%sql set <zorderColStatKey>
= false'
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
是數據分割數據行。 Z 排序只能在數據行上執行
自動載入器
CF_ADD_NEW_NOT_SUPPORTED
指定架構時,不支援架構演進模式 <addNewColumnsMode>
。 若要使用此模式,您可以改為提供架構 cloudFiles.schemaHints
。
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
找到 (預設) 目錄的通知設定驗證選項
清單模式:
<options>
如果您想要使用檔案通知模式,請明確設定:
.option(“cloudFiles.<useNotificationsKey>
”, “true”)
或者,如果您想要略過選項的驗證,並忽略這些驗證
驗證選項,您可以設定:
.option(“cloudFiles.ValidateOptionsKey>”, “false”)
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
累加式清單模式 (cloudFiles.<useIncrementalListingKey>
)
和檔案通知 (cloudFiles.<useNotificationsKey>
)
已同時啟用。
請確定您只選取一個。
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
需要適用於 Azure 的 adlsBlobSuffix 和 adlsDfsSuffix
CF_BUCKET_MISMATCH
檔案事件中的 與<storeType>
來源的預期不同:<source>
。<fileEvent>
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
當架構記錄是空的時,無法演進架構。 架構記錄檔位置: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
無法剖析下列佇列訊息: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
無法從路徑解析容器名稱: <path>
、已解析的 URI: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
執行異步回填線程時,無法執行目錄清單
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
無法同時開啟 cloudFiles.cleanSource 和 cloudFiles.allowOverwrites。
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
自動載入器無法刪除已處理的檔案,因為它沒有來源目錄的寫入許可權。
<reason>
若要修正,您可以:
- 將寫入許可權授與來源目錄 OR
- 將 cleanSource 設定為 'OFF'
您也可以將 SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors 設定為 'true' 來解除封鎖串流。
CF_DUPLICATE_COLUMN_IN_DATA
嘗試推斷數據表的數據分割架構時發生錯誤。 您的數據和資料分割路徑中有相同的數據行重複。 若要忽略分割區值,請使用:.option(“cloudFiles.<partitionColumnsKey>
”, “{comma-separated-list}”) 明確提供分割區數據行。
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
當輸入路徑 <path>
是空的時,無法推斷架構。 請在輸入路徑中有檔案,或指定架構時,嘗試啟動數據流。
CF_EVENT_GRID_AUTH_ERROR
無法建立事件方格訂用帳戶。 請確定您的服務
主體具有事件方格訂用 <permissionType>
帳戶。 如需詳細資訊,請參閱:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
無法建立事件方格訂用帳戶。 請確定 Microsoft.EventGrid 為
在訂用帳戶中註冊為資源提供者。 如需詳細資訊,請參閱:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
無法建立事件方格訂用帳戶。 請確定您的記憶體
帳戶 (<storageAccount>
) 位於您的資源群組下 (<resourceGroup>
) 且
記憶體帳戶是“StorageV2(一般用途 v2)” 帳戶。 如需詳細資訊,請參閱:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
不支援 <cloudStore>
自動載入器事件通知模式。
CF_FAILED_TO_CHECK_STREAM_NEW
無法檢查數據流是否為新的
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
無法建立訂用帳戶: <subscriptionName>
。 具有相同名稱的訂用帳戶已經存在,且與另一個主題相關聯: <otherTopicName>
。 所需的主題為 <proposedTopicName>
。 刪除現有的訂用帳戶,或使用新的資源後綴建立訂用帳戶。
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
無法建立主題: <topicName>
。 具有相同名稱的主題已經存在。<reason>
拿掉現有的主題,或使用另一個資源後綴再試一次
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
無法在主題<topicName>
的貯<bucketName>
體上刪除標識碼為 <notificationId>
的通知。 請重試或手動透過 GCP 控制台移除通知。
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
無法從字串還原串行化儲存的架構: '<jsonSchema>
'
CF_FAILED_TO_EVOLVE_SCHEMA
在沒有架構記錄檔的情況下,無法演進架構。
CF_FAILED_TO_FIND_PROVIDER
找不到的提供者 <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
無法從輸入路徑 <path>
中的現有檔案推斷格式<fileFormatInput>
的架構。
如需詳細資訊,請參閱 CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
無法寫入位置 <path>
的架構記錄檔。
CF_FILE_FORMAT_REQUIRED
找不到必要的選項:cloudFiles.format。
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
找到多個訂<num>
用帳戶,其中包含主題的自動載入器前置詞 <topicName>
:
<subscriptionList>
每個主題應該只有一個訂用帳戶。 請手動確定您的主題沒有多個訂用帳戶。
CF_GCP_AUTHENTICATION
請提供下列所有專案:<clientEmail>
、、 <client>
<privateKey>
、 和 <privateKeyId>
或 提供其中任何專案,以使用預設值
用於向 GCP 資源進行驗證的 GCP 認證提供者鏈結。
CF_GCP_LABELS_COUNT_EXCEEDED
收到太多標籤 (<num>
) 用於 GCP 資源。 每個資源的標籤計數上限為 <maxNum>
。
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
收到太多 GCP 資源的資源標籤 (<num>
)。 每個資源的資源標籤計數上限為 <maxNum>
,因為資源標籤會儲存為資源上的 GCP 標籤,而 Databricks 特定標籤會耗用此標籤配額的一些。
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
路徑的架構記錄檔中不完整的記錄檔 <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
自動載入器檢查點中不完整的元數據檔案
CF_INCORRECT_SQL_PARAMS
cloud_files方法接受兩個必要的字串參數:要載入的路徑,以及檔案格式。 檔案讀取器選項必須在字串索引鍵/值對應中提供。 例如cloud_files(“path”, “json”, map(“option1”, “value1”))。 收到: <params>
CF_INTERNAL_ERROR
內部錯誤。
如需詳細資訊,請參閱 CF_INTERNAL_ERROR
CF_INVALID_ARN
無效的 ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
無法剖析 cloudFiles.certificate 選項所提供的私鑰。 請以 PEM 格式提供有效的公鑰。
CF_INVALID_AZURE_CERT_PRIVATE_KEY
無法剖析 cloudFiles.certificatePrivateKey 選項所提供的私鑰。 請以 PEM 格式提供有效的私鑰。
CF_INVALID_CHECKPOINT
此檢查點不是有效的 CloudFiles 來源
CF_INVALID_CLEAN_SOURCE_MODE
清除來源選項 <value>
的模式無效。
CF_INVALID_GCP_RESOURCE_TAG_KEY
GCP 資源的資源標記索引鍵無效: <key>
。 索引鍵的開頭必須是小寫字母、長度為 1 到 63 個字元,且只包含小寫字母、數位、底線 (_) 和連字元 (-)。
CF_INVALID_GCP_RESOURCE_TAG_VALUE
GCP 資源的資源標籤無效: <value>
。 值長度必須介於 0 到 63 個字元以內,而且必須只包含小寫字母、數位、底線 (_) 和連字元 (-)。
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
自動載入器在搭配 Managed 檔案事件使用時不支援下列選項:
<optionList>
建議您移除這些選項,然後重新啟動數據流。
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Managed 檔案事件服務的回應無效。 請連絡 Databricks 支援以尋求協助。
如需詳細資訊,請參閱 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles。<schemaEvolutionModeKey>
必須是 { 的其中一個
“<addNewColumns>
”
“<failOnNewColumns>
”
“<rescue>
”
“<noEvolution>
”}
CF_INVALID_SCHEMA_HINTS_OPTION
架構提示只能指定特定數據行一次。
在此情況下,重新定義資料列: <columnName>
schemaHints 中的多次:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
架構提示無法用來覆寫對應和數位的巢狀類型。
衝突的資料列: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset 應該在此來源上使用 ReadLimit 呼叫。
CF_LOG_FILE_MALFORMED
記錄檔格式不正確:無法從 <fileName>
讀取正確的記錄版本。
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
您已要求自動載入器將 includeExistingFiles 設定為 false,以忽略外部位置的現有檔案。 不過,受控檔案事件服務仍在探索外部位置中的現有檔案。 在 Managed 檔案事件完成探索外部位置中的所有檔案之後,請再試一次。
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
您使用自動載入器搭配Managed檔案事件,但您的輸入路徑'<path>
' 的外部位置似乎未啟用檔案事件,或輸入路徑無效。 請要求 Databricks 系統管理員在您的輸入路徑的外部位置啟用檔案事件。
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
您正使用自動載入器搭配 Managed 檔案事件,但無法存取輸入路徑 '<path>
' 的外部位置或磁碟區,或輸入路徑無效。 請要求 Databricks 系統管理員授與外部位置或磁碟區的讀取許可權,或提供現有外部位置或磁碟區內的有效輸入路徑。
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
具有 Managed 檔案事件的自動載入器僅適用於 Databricks 無伺服器。 若要繼續,請將此工作負載移至 Databricks 無伺服器或關閉 cloudFiles.useManagedFileEvents 選項。
CF_MAX_MUST_BE_POSITIVE
max 必須是正數
CF_METADATA_FILE_CONCURRENTLY_USED
多個串流查詢會同時使用 <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
串流來源檢查點目錄中的元數據檔案遺失。 此元數據
檔案包含數據流的重要預設選項,因此無法重新啟動數據流
[發行]。 請連絡 Databricks 支援以尋求協助。
CF_MISSING_PARTITION_COLUMN_ERROR
資料分割資料列 <columnName>
不存在於提供的架構中:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
如果使用檔案通知模式時未提供 CloudFiles 來源的路徑,請使用 .schema() 指定架構。 或者,若要讓自動載入器推斷架構,請在 .load() 中提供基底路徑。
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
在貯<bucketName>
體上找到主題<topicName>
的現有通知:
notification,id
<notificationList>
若要避免對訂閱者造成意外事件的污染,請刪除上述通知並重試。
CF_NEW_PARTITION_ERROR
從您的檔案推斷出新的分割區數據行: [<filesList>
]。 請提供架構中的所有數據分割數據行,或提供您想要使用下列方法擷取值的數據分割數據行清單:.option(“cloudFiles.partitionColumns”, “{comma-separated-list|empty-string}”)
CF_PARTITON_INFERENCE_ERROR
嘗試推斷目前檔案批次的數據分割架構時發生錯誤。 請使用:.option(“cloudFiles.<partitionColumnOption>
”, “{comma-separated-list}”) 明確提供分割區數據行。
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
輸入路徑 <path>
不存在時,無法讀取檔案。 請確定輸入路徑存在並重新嘗試。
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
如果停用異步回填,則不支援定期回填。 您可以將 設定 spark.databricks.cloudFiles.asyncDirListing
為 true,以啟用異步回填/目錄清單
CF_PREFIX_MISMATCH
發現不相符的事件:索引鍵 <key>
沒有前置詞: <prefix>
CF_PROTOCOL_MISMATCH
<message>
如果您不需要對程式代碼進行任何其他變更,請設定 SQL
組態: '<sourceProtocolVersionKey>
= <value>
'
以繼續串流。 請參閱:
<docLink>
以取得詳細資料。
CF_REGION_NOT_FOUND_ERROR
無法取得預設 AWS 區域。 請使用 cloudFiles.region 選項指定區域。
CF_RESOURCE_SUFFIX_EMPTY
無法建立通知服務:資源後綴不能是空的。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
無法建立通知服務:資源後綴只能有英數位元、連字元 (-) 和底線 (_)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
無法建立通知服務:資源後綴只能有小寫字母、數位和破折號(-)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
無法建立通知服務:資源後綴只能有英數位元、連字元 (-)、底線 (_)、句號 (.)、底線 (~) 加號 (+) 和百分比符號 (<percentSign>
)。
CF_RESOURCE_SUFFIX_LIMIT
無法建立通知服務:資源後綴不能超過 <limit>
字元。
CF_RESOURCE_SUFFIX_LIMIT_GCP
無法建立通知服務:資源後綴必須介於 和 <upperLimit>
字元之間<lowerLimit>
。
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
找到受限制的 GCP 資源標籤索引鍵 (<key>
)。 自動載入器限制下列 GCP 資源標籤索引鍵: [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration 不能大於 cloudFiles.maxFileAge。
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
無法建立主題的通知: <topic>
前置詞: <prefix>
。 已經有一個具有相同名稱的主題與另一個前置詞: <oldPrefix>
。 請嘗試使用不同的資源後綴進行設定或刪除現有的安裝程式。
CF_SOURCE_DIRECTORY_PATH_REQUIRED
請使用 選項提供來源目錄路徑 path
CF_SOURCE_UNSUPPORTED
雲端檔案來源目前僅支援 S3、Azure Blob 儲存體 (wasb/wasbs) 和 Azure Data Lake Gen1 (adl) 和 Gen2 (abfs/abfss) 路徑。 path: '<path>
', resolved uri: '<uri>
'
CF_STATE_INCORRECT_SQL_PARAMS
cloud_files_state函式接受字串參數,代表 cloudFiles 數據流的檢查點目錄或識別串流數據表的多部分 tableName,以及代表載入狀態之檢查點版本的選擇性第二個整數參數。 第二個參數也可能是「最新」,可讀取最新的檢查點。 收到: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
輸入檢查點路徑 <path>
無效。 路徑不存在,或找不到cloud_files來源。
CF_STATE_INVALID_VERSION
指定的版本 <version>
不存在,或是在分析期間移除。
CF_THREAD_IS_DEAD
<threadName>
線程已失效。
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
無法從來源檢查點位置衍生資料流檢查點位置: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
無法從 <fileSize>
取樣的檔案偵測來源檔案格式,找到 <formats>
。 請指定格式。
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
無法擷取貯體資訊。 路徑:『<path>
,已解析的 uri: 』<uri>
』 。
CF_UNABLE_TO_EXTRACT_KEY_INFO
無法擷取金鑰資訊。 路徑:『<path>
,已解析的 uri: 』<uri>
』 。
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
無法擷取記憶體帳戶資訊;path: '<path>
', resolved uri: '<uri>
'
CF_UNABLE_TO_LIST_EFFICIENTLY
收到路徑 <path>
的目錄重新命名事件,但我們無法有效率地列出此目錄。 為了讓數據流繼續,請將 'cloudFiles.ignoreDirRenames' 選項設定為 true,並考慮啟用 cloudFiles.backfillInterval 的一般回填,以便處理此數據。
CF_UNEXPECTED_READ_LIMIT
非預期的 ReadLimit: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
找到未知的選項索引鍵:
<optionList>
請確定所有提供的選項金鑰都正確無誤。 如果您想要略過
驗證您的選項並忽略這些未知的選項,您可以設定:
.option(“cloudFiles.<validateOptions>
”, “false”)
CF_UNKNOWN_READ_LIMIT
未知的 ReadLimit: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
只有 Delta Live Tables 管線才支援建立自動載入器串流來源的 SQL 函式 'cloud_files'。 如需詳細資訊,請參閱:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
不支援格式的架構推斷: <format>
。 請指定架構。
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion:支持的記錄版本上限為 v<maxVersion>``, but encountered v``<version>
。 記錄檔是由較新版本的 DBR 所產生,無法由這個版本讀取。 請升級。
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
格式不支援架構演進模式 <mode>
: <format>
。 請將架構演進模式設定為 「無」。
CF_USE_DELTA_FORMAT
此語法不支援從 Delta 資料表讀取。 如果您想要從 Delta 取用數據,請參閱檔:讀取 Delta 資料表 (<deltaDocLink>
),或將 Delta 數據表讀取為數據流來源 (<streamDeltaDocLink>
)。 Delta 的串流來源已針對增量取用數據進行優化。
地理空間
EWKB_PARSE_ERROR
剖析 EWKB 時發生錯誤: <parseError>
位置 <pos>
GEOJSON_PARSE_ERROR
剖析 GeoJSON 時發生錯誤: <parseError>
位置 <pos>
如需詳細資訊,請參閱 GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
不是有效的 H3 單元格標識碼
如需詳細資訊,請參閱 H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
H3 網格線距離 <k>
必須是非負數
如需詳細資訊,請參閱 H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
H3 解決方案<r>
必須介於和 <maxR>
之間<minR>
,且包含
如需詳細資訊,請參閱 H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
已停用或不支援。 請考慮啟用 Photon 或切換至支援 H3 表達式的階層
如需詳細資訊,請參閱 H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
使用網格距離計算 的 <h3Cell>
十六進位環時,遇到五角大樓 <k>
H3_UNDEFINED_GRID_DISTANCE
和 <h3Cell2>
之間的 <h3Cell1>
H3 網格線距離未定義
ST_DIFFERENT_SRID_VALUES
“<sqlFunction>
” 的自變數必須具有相同的 SRID 值。 找到 SRID 值: <srid1>
、 <srid2>
ST_INVALID_ARGUMENT
“<sqlFunction>
”: <reason>
ST_INVALID_ARGUMENT_TYPE
“” 的<sqlFunction>
自變數必須是 類型 <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
:從 SRID 轉換成 SRID <srcSrid>
無效或不支援的 CRS 轉換 <trgSrid>
ST_INVALID_ENDIANNESS_VALUE
Endianness <e>
必須是 'NDR' (little-endian) 或 'XDR' (big-endian)
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
:無效的地理ash 值: '<geohash>
'。 Geohash 值必須是有效的小寫 base32 字串,如中所述https://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_PRECISION_VALUE
有效位數<p>
必須介於和 <maxP>
之間<minP>
、內含
ST_INVALID_SRID_VALUE
無效或不支援的 SRID <srid>
ST_NOT_ENABLED
<stExpression>
已停用或不支援。 請考慮啟用 Photon 或切換至支援 ST 表達式的階層
ST_UNSUPPORTED_RETURN_TYPE
GEOGRAPHY 和 GEOMETRY 數據類型無法在查詢中傳回。 使用下列其中一個 SQL 運算式,將它們轉換成標準交換格式: <projectionExprs>
。
WKB_PARSE_ERROR
剖析 WKB 時發生錯誤: <parseError>
位置 <pos>
如需詳細資訊,請參閱 WKB_PARSE_ERROR
WKT_PARSE_ERROR
剖析 WKT 時發生錯誤: <parseError>
位置 <pos>
如需詳細資訊,請參閱 WKT_PARSE_ERROR