Azure Databricks のエラー クラス
適用対象: Databricks SQL Databricks Runtime 12.2 以上
エラー クラスは、わかりやすく、人間が判読でき、エラー条件に一意の文字列です。
エラー クラスを使用すると、エラー メッセージを解析しなくても、アプリケーション内のエラーをプログラムで処理できます。
これは、Azure Databricks によって返される一般的な名前付きエラー条件のリストです。
Databricks Runtime と Databricks SQL
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
集合関数に非決定的な式 <sqlExpr>
を含めることはできません。
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
指定された returnType “<dataType>
” にキャストするときに、モデルの出力を解析できませんでした。応答の JSON は “<responseString>
” でした。 応答 JSON で表される型の内容と一致するように returnType を更新してから、クエリをもう一度やり直してください。
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
実際のモデル出力には、複数の列 “<responseString>
” があります。 一方、指定された戻り値の型 [“<dataType>
”] には列が 1 つだけ含まれます。 モデル出力と同じ数の列を含むように returnType を更新してから、クエリをもう一度やり直してください。
AI_FUNCTION_HTTP_REQUEST_ERROR
関数 <funcName>
に対して HTTP 要求を行っている間にエラーが発生しました: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
関数 <funcName>
に対する HTTP 応答が無効です: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
単語の最大数は負ではない整数である必要がありますが、<maxWords>
を受け取りました。
AI_FUNCTION_INVALID_MODEL_PARAMETERS
指定されたモデル パラメーター (<modelParameters>
) は、エンドポイント "<endpointName>
" を提供するためのAI_QUERY関数では無効です。
詳細については、 AI_FUNCTION_INVALID_MODEL_PARAMETERSを参照してください。
AI_FUNCTION_JSON_PARSE_ERROR
関数 <funcName>
に対する JSON 応答の解析中にエラーが発生しました: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
サービス エンドポイント "<endpointName>
" のスキーマを解析できませんでした。<errorMessage>
、応答 JSON は "<responseJson>
" でした。
スキーマ解決をオーバーライドするには、AI_QUERY 関数で returnType
パラメーターを手動設定します。
AI_FUNCTION_UNSUPPORTED_ERROR
関数 <funcName>
は、現在の環境ではサポートされていません。 Databricks SQL Pro とサーバーレスでのみ利用できます。
AI_FUNCTION_UNSUPPORTED_REQUEST
SQL 関数 “<functionName>
” を評価できませんでした。これは、<invalidValue>
の指定された引数は “<invalidDataType>
” を持っていますが、サポートされているのは以下の型のみであるためです: <supportedDataTypes>
。 文字列型の引数を指定するように関数呼び出しを更新し、クエリを再試行してください。
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
AI 関数 “<functionName>
” は、戻り値の型として “<typeName>
” をサポートしていません。 戻り値の型は、Catalyst で認識され、AI 関数でサポートされる有効な SQL 型である必要があります。 現在サポートされている型には、次のものが含まれます: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
指定された値 “<argValue>
” は引数 “<argName>
” ではサポートされていません。 サポートされる値は、次のとおりです: <supportedValues>
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
指定された “<sqlExpr>
” は引数 returnType でサポートされていません。
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
埋め込み列の種類 <embeddingColumnType>
を使用したベクトル検索はサポートされていません。
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
インデックスの種類 <indexType>
を使用したベクトル検索はサポートされていません。
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
要求エンコード中に spark 型の <dataType>
から scala ネイティブ オブジェクトにベクター検索クエリを具体化できませんでした。エラー: <errorMessage>
。
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
num_results が <maxLimit>
より大きいベクトル検索はサポートされていません。 指定された制限は <requestedLimit>
でした。 num_results <= <maxLimit>
を使用してもう一度お試しください
ALL_PARAMETERS_MUST_BE_NAMED
名前パラメーター化クエリを使用するには、すべてのパラメータに名前を付ける必要があります。 パラメータに名前がありません: <exprs>
。
ALL_PARTITION_COLUMNS_NOT_ALLOWED
パーティション列にすべての列を使用することはできません。
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type>
列 <columnName>
は記述子 “<optionName>
” を複数回指定しますが、これは無効です。
AMBIGUOUS_ALIAS_IN_NESTED_CTE
名前 <name>
は、入れ子になった CTE ではあいまいです。
内部 CTE で定義されている名前が優先されるように <config>
を "CORRECTED" に設定してください。 "LEGACY" に設定すると、外部 CTE 定義が優先されます。
https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine をご覧ください。
AMBIGUOUS_COLUMN_OR_FIELD
列またはフィールド <name>
があいまいで、<n>
件の一致があります。
AMBIGUOUS_COLUMN_REFERENCE
列 <name>
があいまいです。 これは、複数の DataFrame を結合し、それらの DataFrame の一部が同じであるためです。
この列は DataFrames の 1 つを指していますが、Spark はどれを指しているのかわかりません。
DataFrame.alias
を使用して異なる名前を DataFrame に付けてから、それらを結合してください。
また、修飾名を使用して列を指定してください (例: df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
)。
AMBIGUOUS_CONSTRAINT
制約 <constraint>
へのあいまいな参照。
AMBIGUOUS_LATERAL_COLUMN_ALIAS
横列の別名 <name>
があいまいで、<n>
件の一致があります。
AMBIGUOUS_REFERENCE
参照 <name>
があいまいで、次のようになります: <referenceNames>
。
AMBIGUOUS_REFERENCE_TO_FIELDS
フィールド <field>
へのあいまいな参照。 スキーマに <count>
回現れます。
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS はサポートされていません。
ANSI_CONFIG_CANNOT_BE_DISABLED
ANSI SQL の構成 <config>
は、この製品では無効にできません。
AQE_THREAD_INTERRUPTED
ユーザーによるクエリの取り消しが原因で、AQE スレッドが中断される可能性があります。
ARGUMENT_NOT_CONSTANT
関数 <functionName>
には、定数引数を必要とする位置 <pos>
にパラメーター <parameterName>
が含まれています。 引数 <sqlExpr>
を個別に計算し、結果を定数として渡してください。
ARITHMETIC_OVERFLOW
<message>
.<alternative>
必要であれば、<config>
を "false" に設定してこのエラーを回避します。
詳細については、「ARITHMETIC_OVERFLOW」をご覧ください
ASSIGNMENT_ARITY_MISMATCH
割り当てられたか、別名が付けられた列または変数の数: <numTarget>
は、ソース式の数 <numExpr>
と一致しません。
AS_OF_JOIN
AS OF 結合が無効です。
詳細については、「AS_OF_JOIN」をご覧ください
AVRO_DEFAULT_VALUES_UNSUPPORTED
rescuedDataColumn
が有効になっている場合、既定値の使用はサポートされません。 このチェックは spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
を false に設定することで削除できますが、既定値は適用されず、null 値が引き続き使用されます。
AVRO_INCOMPATIBLE_READ_TYPE
元のエンコードされたデータ型が <avroType>
であるため、Avro <avroPath>
を SQL <sqlPath>
に変換できません。ただし、フィールドを <sqlType>
として読み取ろうとしているため、正しくない答えの原因となります。
このフィールドの読み取りを許可するには、SQL 構成の "spark.sql.legacy.avro.allowIncompatibleSchema" を有効にします。
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
位置指定フィールド マッチングの使用は、rescuedDataColumn
または failOnUnknownFields
が有効になっている場合はサポートされません。 続行するには、これらのオプションを削除してください。
BATCH_METADATA_NOT_FOUND
バッチ <batchMetadataFile>
が見つかりません。
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
BigQuery 接続資格情報は、'GoogleServiceAccountKeyJson' パラメーターまたは 'projectId'、'OAuthServiceAcctEmail'、'OAuthPvtKey' のすべてで指定する必要があります
BINARY_ARITHMETIC_OVERFLOW
<value1>
<symbol>
<value2>
によってオーバーフローが発生しました。
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
ブール型のステートメント <invalidStatement>
が無効です。 BOOLEAN
型の値を持つ 1 行が必要ですが、空の行が取得されました。
BUILT_IN_CATALOG
<operation>
は組み込みカタログをサポートしていません。
CALL_ON_STREAMING_DATASET_UNSUPPORTED
メソッド <methodName>
をストリーミング データセット/DataFrame で呼び出すことができません。
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN はバケット列の型/サブの型の照合順序を変更できませんが、テーブル <tableName>
にバケット列 <columnName>
が見つかりました。
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN はパーティション列ではサポートされていませんが、テーブル <tableName>
のパーティション列 <columnName>
にあります。
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
イベント時間列を再割り当てするには、ウォーターマークを定義する必要があります。 ストリーミング クエリの中にウォーターマークの定義を見つけられませんでした。
CANNOT_CAST_DATATYPE
<sourceType>
を <targetType>
にキャストできません。
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
スキーマに互換性がないため、Protobuf <protobufColumn>
を SQL <sqlColumn>
に変換できません (protobufType = <protobufType>
、sqlType = <sqlType>
)。
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Protobuf の <protobufType>
を SQL 型 <toType>
に変換できません。
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
スキーマに互換性がないため、Protobuf <protobufColumn>
を SQL <sqlColumn>
に変換できません (protobufType = <protobufType>
、sqlType = <sqlType>
)。
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
<data>
が列挙型 <enumString>
の定義された値にないため、SQL <sqlColumn>
を Protobuf <protobufColumn>
に変換できません。
CANNOT_COPY_STATE
現在のデータベースや一時ビューなどのカタログ状態を Unity Catalog からレガシ カタログにコピーすることはできません。
CANNOT_CREATE_DATA_SOURCE_TABLE
データ ソース テーブル <tableName>
の作成に失敗しました:
詳細については、「CANNOT_CREATE_DATA_SOURCE_TABLE」をご覧ください
CANNOT_DECODE_URL
指定された URL をデコードできませんでした: <url>
。 URL の形式が正しいことを確認してから、もう一度お試しください。
CANNOT_DELETE_SYSTEM_OWNED
システム所有の <resourceType>
を削除することはできません。
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
CHECK 制約と PRIMARY KEY または FOREIGN KEY 制約で共有される名前 <constraintName>
を持つ制約
を削除することができません。 PRIMARY KEY または
FOREIGN KEY 制約は以下のクエリで削除できます:
- ALTER TABLE .. DROP PRIMARY KEY または
- ALTER TABLE .. DROP FOREIGN KEY ..
CANNOT_ESTABLISH_CONNECTION
リモート <jdbcDialectName>
データベースへの接続を確立できません。 接続情報と資格情報 (ホスト、ポート、ユーザー、パスワードとデータベースのオプションなど) をご確認ください。 ** 情報が正しいと思われる場合、ワークスペースのネットワーク設定を確認し、ホストへの送信制限がないことをご確認ください。 また、ワークスペースの Spark クラスターがデプロイされているネットワークからの受信接続をホストがブロックしないことをご確認ください。 ** 詳細なエラー メッセージ: <causeErrorMessage>
。
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
リモート <jdbcDialectName>
データベースへの接続を確立できません。 接続情報と資格情報 (ホスト、ポート、ユーザー、パスワードとデータベースのオプションなど) をご確認ください。 ** お客様はサーバーレス コンピューティングを使用しているため、情報が正しいと思われる場合、インターネットからホストへの受信トラフィックを許可してください。 ネットワーク ポリシーで受信インターネット トラフィックが許可されていない場合は、サーバーレス コンピューティング以外を使用するか、Databricks 担当者に連絡してサーバーレス プライベート ネットワークについてご確認ください。 ** 詳細なエラー メッセージ: <causeErrorMessage>
。
CANNOT_INVOKE_IN_TRANSFORMATIONS
データセットの変換とアクションはドライバーによってのみ呼び出せます。他のデータセット変換の中からは呼び出せません。たとえば、dataset1.map(x => dataset2.values.count() * x) は、dataset1.map 変換の中で値の変換やカウント アクションを実行できないため、無効です。 詳細については、SPARK-28702 に関するページを参照してください。
CANNOT_LOAD_FUNCTION_CLASS
関数 <functionName>
を登録するときにクラス <className>
を読み込めません。クラスパス上にあることを確認してください。
CANNOT_LOAD_PROTOBUF_CLASS
<protobufClassName>
という名前の Protobuf クラスを読み込めませんでした。 <explanation>
.
CANNOT_LOAD_STATE_STORE
読み込み中にエラーが発生しました。
詳細については、「CANNOT_LOAD_STATE_STORE」を参照してください
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
互換性のないデータ型 <left>
と <right>
の結合に失敗しました。 マージする列のデータ型を確認し、互換性があることをご確認ください。 必要に応じて、マージを試みる前に、列を互換性のあるデータ型にキャストすることをご検討ください。
CANNOT_MERGE_SCHEMAS
スキーマのマージに失敗しました:
初期スキーマ:
<left>
初期スキーマとマージできないスキーマ:
<right>
.
CANNOT_MODIFY_CONFIG
Spark 構成の値を変更できません: <key>
。
関連項目: https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements。
CANNOT_PARSE_DECIMAL
10 進数を解析できません。 入力が、小数点またはコンマ区切り記号 (省略可能) を含む有効な数値であることをご確認ください。
CANNOT_PARSE_INTERVAL
<intervalString>
を解析できません。 指定された値が、間隔を定義するための有効な形式であることをご確認ください。 正しい形式については、ドキュメントを参照できます。 問題が解決しない場合は、入力値が null または空ではないことをもう一度確認してから、もう一度お試しください。
CANNOT_PARSE_JSON_FIELD
Spark データ型 <dataType>
をターゲットにするよう JSON トークン型 <jsonType>
のフィールド名 <fieldName>
と値 <fieldValue>
をパースできません。
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
記述子バイトの Protobuf FileDescriptorSet への解析で発生するエラー。
CANNOT_PARSE_TIMESTAMP
<message>
. 必要であれば、<ansiConfig>
を "false" に設定してこのエラーを回避します。
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
初期化中は MV/ST のクエリを実行できません。
詳細については、「CANNOT_QUERY_TABLE_DURING_INITIALIZATION」を参照してください
CANNOT_READ_ARCHIVED_FILE
パス <path>
にあるファイルがアーカイブされているため、読み込むことができません。 アーカイブされたファイルを除外するようにクエリ フィルターを調整してください。
CANNOT_READ_FILE
次のパスにある <format>
ファイルを読み込むことができません: <path>
。
詳細については、「CANNOT_READ_FILE」をご覧ください
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
セキュリティで保護されたプロバイダーから機密キー '<key>
' を読み取ることができません。
CANNOT_RECOGNIZE_HIVE_TYPE
Hive 型の文字列 <fieldType>
、列 <fieldName>
を認識できません。 フィールドに指定されたデータ型を Spark SQL で認識できません。 指定したフィールドのデータ型を確認し、有効な Spark SQL データ型であることをご確認ください。 有効なデータ型とその形式の一覧については、Spark SQL のドキュメントをご覧ください。 データ型が正しい場合、サポートされているバージョンの Spark SQL を使用していることをご確認ください。
CANNOT_REFERENCE_UC_IN_HMS
Hive メタストア オブジェクトで Unity Catalog <objType>
を参照できません。
CANNOT_RENAME_ACROSS_CATALOG
カタログ間で <type>
の名前を変更することはできません。
CANNOT_RENAME_ACROSS_SCHEMA
スキーマ間で <type>
の名前を変更することはできません。
CANNOT_RESOLVE_DATAFRAME_COLUMN
データフレーム列 <name>
を解決できません。 これはおそらく、df1.select(df2.col("a"))
のような正しくない参照があるためです。
CANNOT_RESOLVE_STAR_EXPAND
<targetString>
を解決できませんでした。* 指定された入力列は <columns>
です。 指定したテーブルまたは構造体が存在し、入力列でアクセス可能であることをご確認ください。
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
作成されたパス <path>
に対するアクセス許可の設定を <permission>
に戻すことができませんでした。
CANNOT_SAVE_VARIANT
バリアント データ型を外部ストレージに保存できません。
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Unity Catalog と Hive Metastore 間でテーブルをシャロー クローンできません。
CANNOT_SHALLOW_CLONE_NESTED
既にシャロー クローンであるテーブル <table>
をシャロー クローンすることはできません。
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
シャロー クローンは、MANAGED テーブル型でのみサポートされます。 テーブル <table>
は MANAGED テーブルではありません。
CANNOT_UPDATE_FIELD
<table>
フィールド <fieldName>
型を更新できない:
詳細については、「CANNOT_UPDATE_FIELD」を参照してください
CANNOT_UP_CAST_DATATYPE
<expression>
を <sourceType>
から <targetType>
にアップキャストできません。
<details>
CANNOT_VALIDATE_CONNECTION
<jdbcDialectName>
接続の検証はサポートされていません。 代替ソリューションについて Databricks サポートに問い合わせるか、“spark.databricks.testConnectionBeforeCreation” を “false” に設定して、接続オブジェクトを作成する前の接続テストをスキップしてください。
CANNOT_WRITE_STATE_STORE
プロバイダー <providerClass>
の状態ストア ファイルの書き込み中にエラーが発生しました。
詳細については、「CANNOT_WRITE_STATE_STORE」を参照してください
CAST_INVALID_INPUT
型 <sourceType>
の値 <expression>
は、不正なため <targetType>
にキャストできません。 構文に従って値を修正するか、ターゲットの型を変更します。 try_cast
を使用して形式が正しくない入力を許容し、代わりに NULL を返します。
詳細については、「CAST_INVALID_INPUT」をご覧ください
CAST_OVERFLOW
型 <sourceType>
の値 <value>
はオーバーフローにより <targetType>
にキャストできません。 try_cast
を使用してオーバーフローを許容し、代わりに NULL を返します。
CAST_OVERFLOW_IN_TABLE_INSERT
オーバーフローに起因して <sourceType>
型の値を <targetType>
型の列または変数 <columnName>
に割り当てられません。 オーバーフローを許容し、代わりに NULL を返すようにするには、入力値に try_cast
を使用します。
CATALOG_NOT_FOUND
カタログ <catalogName>
が見つかりません。 SQL コンフィグ <config>
をカタログ プラグインに設定することを検討してください。
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
チェックポイント ブロック <rddBlockId>
が見つかりませんでした!
このパーティションを最初にチェックポイント処理した Executor が有効でなくなったか、元の RDD が維持されていません。
この問題が解決しない場合は、代わりに rdd.checkpoint()
を使用することを検討してください。これは、ローカル チェックポイント処理よりも低速ですが、よりフォールト トレラントです。
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
は <method1>
または <method2>
をオーバーライドする必要があります。
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
は、結果のコレクションとしてクラス <cls>
をサポートしていません。
CLEANROOM_COMMANDS_NOT_SUPPORTED
クリーン ルーム コマンドはサポートされていません
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
クリーン ルーム内の <type>
を参照する名前が無効です。 [catalog]の形式に従って、クリーン ルーム内の <type>
’名を使用します。[schema]。[<type>
]。
使用する名前がわからない場合は、“SHOW ALL IN CLEANROOM <クリーン ルーム>” を実行して、“name” 列の値を使用できます。
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
ファイル <filePath>
に対するファイル通知が受信されましたが、もう存在しません。 ファイルが処理される前に削除されていないことをご確認ください。 ストリームを続行するには、Spark SQL 構成 <config>
を true に設定します。
CLOUD_PROVIDER_ERROR
クラウド プロバイダー エラー: <message>
CLUSTERING_COLUMNS_MISMATCH
指定されたクラスタリングは、既存のテーブル <tableName>
のクラスタリングと一致しません。
指定されたクラスタリング列: [<specifiedClusteringString>
]。
既存のクラスタリング列: [<existingClusteringString>
]。
CLUSTERING_NOT_SUPPORTED
'<operation>
' はクラスタリングをサポートしていません。
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
CLUSTER BY AUTO 機能を有効にするには、Databricks 担当者にお問い合わせください。
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
CLUSTER BY AUTO を使用するには、clusteringTable.enableClusteringTableFeature を有効にしてください。
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO を有効にするには、予測最適化が必要です。
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO は、UC マネージド テーブルでのみサポートされます。
CODEC_NOT_AVAILABLE
コーデック <codecName>
を使用できません。
詳細については、「CODEC_NOT_AVAILABLE」を参照してください
CODEC_SHORT_NAME_NOT_FOUND
コーデック <codecName>
の短い名前が見つかりません。
COLLATION_INVALID_NAME
値 <collationName>
が正しい照合順序名を表していません。 推奨される有効な照合名: [<proposals>
]。
COLLATION_INVALID_PROVIDER
値 <provider>
が正しい照合順序プロバイダーを表していません。 サポートされているプロバイダー: [<supportedProviders>
]。
COLLATION_MISMATCH
文字列関数と演算子に使用する照合順序を決定できませんでした。
詳細については、「COLLATION_MISMATCH」を参照してください
COLLECTION_SIZE_LIMIT_EXCEEDED
配列サイズの上限 <maxRoundedArrayLength>
を超える要素 <numberOfElements>
を含む配列は作成できません。
詳細については、「COLLECTION_SIZE_LIMIT_EXCEEDED」をご覧ください
COLUMN_ALIASES_NOT_ALLOWED
列の別名は <op>
では使用できません。
COLUMN_ALREADY_EXISTS
列 <columnName>
は既に存在します。 別の名前を選ぶか、既存の列の名前を変更してください。
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
列マスク ポリシーを持つテーブル <tableName>
に対する CHECK 制約の作成はサポートされていません。
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
<statementType>
ステートメントが、USING COLUMNS リスト内に同じ名前 <columnName>
を持つ 2 つ以上の参照列が含まれる列に列マスク ポリシーを割り当てようとしました。これは無効です。
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
<tableName>
の列マスク ポリシーはサポートされていません。
詳細については、「COLUMN_MASKS_FEATURE_NOT_SUPPORTED」をご覧ください
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
テーブル <tableName>
から <statementType>
<columnName>
できません。これは、列 <maskedColumn>
の列マスク ポリシーで参照されているためです。 先に進む前に、テーブル所有者はこのポリシーを削除または変更する必要があります。
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
MERGE INTO 操作では、ソース テーブル <tableName>
で列マスク ポリシーがサポートされていません。
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO 操作では、列マスク ポリシーを使用したテーブル <tableName>
への書き込みがサポートされていません。
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
このステートメントは、複数の名前部分を持つ列 <columnName>
に列マスク ポリシーを割り当てようとしました。これは無効です。
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
このステートメントは、列に列マスク ポリシーを割り当てようとし、USING COLUMNS リストには複数の名前部分を含む名前 <columnName>
が含まれていました。これは無効です。
COLUMN_MASKS_NOT_ENABLED
列マスクの定義のサポートが有効になっていません
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
列マスク ポリシーは、Unity Catalog でのみサポートされています。
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
列マスク ポリシーを持つテーブル <tableName>
からの <mode>
複製はサポートされていません。
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
列マスク ポリシーを持つテーブル <tableName>
への <mode>
複製はサポートされていません。
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
列マスク ポリシーのパラメータとして定数を使うことはサポートされていません。 SQL コマンドを更新し、列マスク定義から定数を削除してから、コマンドをもう一度試してください。
COLUMN_MASKS_UNSUPPORTED_PROVIDER
テーブル プロバイダー “<provider>
” を使用したターゲット データ ソースでは列マスク ポリシーの割り当てがサポートされていないため、<statementType>
コマンドの実行に失敗しました。
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
テーブル <tableName>
には、まだサポートされていない入れ子になったクエリ式を含む列マスク ポリシーが 1 つ以上含まれているため、<operation>
を実行できません。 続行するには、テーブルの所有者に問い合わせて、列マスク ポリシーを更新してください。
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
列 <columnName>
の名前がターゲット列と同じです。これは無効です。USING COLUMNS リストから列を削除し、コマンドを再試行してください。
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
の列 <colName>
はテーブル <tableName>
で定義されていません。定義済みのテーブル列は <tableCols>
です。
COLUMN_NOT_FOUND
列 <colName>
が見つかりません。 SQL 構成 <caseSensitiveConfig>
に従って、列名のスペルと正確さを確認してください。
COMMA_PRECEDING_CONSTRAINT_ERROR
制約定義の前の予期しない ‘,’。 列 (および期待値) が定義されていない場合は、CONSTRAINT 句をコンマで始めないでください。
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
COMMENT ON CONNECTION コマンドはまだ実装されていません
COMPARATOR_RETURNS_NULL
比較子は、<firstValue>
と <secondValue>
の比較で NULL を返しました。
“より大きい” には正の整数、“等しい” には 0、“より小さい” には負の整数を返す必要があります。
NULL が 0 (等しい) として扱われる非推奨の動作に戻すには、“spark.sql.legacy.allowNullComparisonResultInArraySort” を “true” に設定する必要があります。
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
式の入力データ型を処理できません: <expression>
。
詳細については、「COMPLEX_EXPRESSION_UNSUPPORTED_INPUT」を参照してください
CONCURRENT_QUERY
このクエリ [id: <queryId>
] の別のインスタンスが同時実行セッション [既存の runId: <existingQueryRunId>
新しい runId: <newQueryRunId>
] によって開始されました。
CONCURRENT_STREAM_LOG_UPDATE
ログへの同時更新。 <batchId>
に対して複数のストリーミング ジョブが検出されました。
特定のチェックポイントの場所で一度に実行されるストリーミング ジョブが 1 つだけであるようにしてください。
CONFIG_NOT_AVAILABLE
構成 <config>
は使用できません。
CONFLICTING_PARTITION_COLUMN_NAMES
パーティション列名の競合が検出されました:
<distinctPartColLists>
パーティション テーブル ディレクトリの場合、データ ファイルはリーフ ディレクトリにのみ格納する必要があります。
また、同じレベルのディレクトリには、同じパーティション列名が必要です。
次のディレクトリで、予期しないファイルや一貫性のないパーティション列名がないか確認してください。
<suspiciousPaths>
CONFLICTING_PROVIDER
指定されたプロバイダー <provider>
が、既存のカタログ プロバイダー <expectedProvider>
と一致しません。 ‘USING <expectedProvider>
’ を使って、コマンドをもう一度試してください。
CONNECT
Spark の一般的な Connect エラーです。
詳細については、CONNECT を参照してください。
CONNECTION_ALREADY_EXISTS
接続 <connectionName>
は既に存在するため、作成できません。
別の名前を選択するか、既存の接続を削除または置換するか、既存の接続を許容するために IF NOT EXISTS 句を追加します。
CONNECTION_NAME_CANNOT_BE_EMPTY
接続名は空でない必要があるため、このコマンドを実行できません。
CONNECTION_NOT_FOUND
接続名 <connectionName>
が見つからなかったため、このコマンドを実行できません。
CONNECTION_OPTION_NOT_SUPPORTED
型 '<connectionType>
' の接続では、次のオプションはサポートされていません: <optionsNotSupported>
。 サポートされているオプション: <allowedOptions>
。
CONNECTION_TYPE_NOT_SUPPORTED
型 '<connectionType>
' の接続を作成できません。 サポートされる接続の種類: <allowedTypes>
。
CONSTRAINTS_REQUIRE_UNITY_CATALOG
テーブル制約は Unity Catalog でのみサポートされます。
CONVERSION_INVALID_INPUT
値 <str>
(<fmt>
) は形式に誤りがあるため、<targetType>
に変換できません。 構文に従って値を修正するか、形式を変更します。 <suggestion>
を使用して形式が正しくない入力を許容し、代わりに NULL を返します。
COPY_INTO_COLUMN_ARITY_MISMATCH
<tableName>
に書き込めません。理由:
詳細については、「COPY_INTO_COLUMN_ARITY_MISMATCH」を参照してください
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
スキームが無効です: <scheme>
。 COPY INTO ソース資格情報は現在、s3/s3n/s3a/wasbs/abfss のみがサポートされています。
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO ソース資格情報で <keyList>
を指定する必要があります。
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
重複したファイルが、同時 COPY INTO 操作でコミットされました。 後でもう一度やり直してください。
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
スキームが無効です: <scheme>
。 COPY INTO ソース暗号化では現在、s3/s3n/s3a/wasbs/abfss のみがサポートされています。
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO 暗号化では、ADLS Gen2 または abfss:// ファイル スキームのみがサポートされます
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO ソース暗号化では ‘<key>
’ を指定する必要があります。
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
暗号化オプション <requiredKey>
が無効です。 COPY INTO ソース暗号化では ‘<requiredKey>
’ = ‘<keyValue>
’ を指定する必要があります。
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
COPY INTO 機能 ‘<feature>
’ は、‘<incompatibleSetting>
’ と互換性がありません。
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
データの追加以外の COPY INTO は、他のトランザクションと同時に実行することはできません。 後でもう一度やり直してください。
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO は状態の読み込みに失敗し、最大再試行回数を超えました。
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Delta テーブル (テーブル:<table>
) へのコピー中にスキーマの不一致が検出されました。
これは、受信データに問題があることを示している場合があります。または、次のように設定することで、受信データに従って Delta テーブル スキーマを自動的に進化させることができます:
COPY_OPTIONS (‘mergeSchema’ = ‘true’)
スキーマの違い:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
ソース ファイルの形式は、CSV、JSON、AVRO、ORC、PARQUET、TEXT、BINARYFILE のいずれかである必要があります。 Delta テーブルでソースとして COPY INTO を使用することはサポートされていません。OPTIMIZE 操作後に重複するデータが取り込まれる可能性があるためです。 このチェックをオフにするには、SQL コマンド set spark.databricks.delta.copyInto.formatCheck.enabled = false
を実行します。
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
ソース ディレクトリに、型 <format>
の解析可能なファイルが含まれていませんでした。 ‘<source>
’ の内容をチェックしてください。
エラーは、'<config>
' を 'false' に設定することで消去できます。
COPY_INTO_STATE_INTERNAL_ERROR
COPY INTO 状態の処理中に内部エラーが発生しました。
詳細については、「COPY_INTO_STATE_INTERNAL_ERROR」を参照してください
COPY_INTO_SYNTAX_ERROR
COPY INTO コマンドを解析できませんでした。
詳細については、「COPY_INTO_SYNTAX_ERROR」をご覧ください
COPY_INTO_UNSUPPORTED_FEATURE
COPY INTO機能 ‘<feature>
’はサポートされていません。
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
'<formatType>
' 形式のデータをアンロードできません。 <connectionType>
でサポートされている形式は、<allowedFormats>
です。
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
CREATE FOREIGN SCHEMA コマンドはまだ実装されていません
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
CREATE FOREIGN TABLE コマンドはまだ実装されていません
CREATE_OR_REFRESH_MV_ST_ASYNC
ASYNC が指定された具体化されたビューまたはストリーミング テーブルを作成または更新することはできません。 CREATE または REFRESH ステートメントから ASYNC を削除するか、REFRESH ASYNC を使用して既存の具体化されたビューまたはストリーミング テーブルを非同期的に更新してください。
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
式 <name>
の別名を明示的に割り当てずに永続的ビュー <attr>
を作成することはできません。
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE 列 <columnName>
は、記述子 "<optionName>
" を複数回指定しています。これは無効です。
CREATE_VIEW_COLUMN_ARITY_MISMATCH
ビュー <viewName>
を作成できません。その理由は
詳細については、「INSERT_COLUMN_ARITY_MISMATCH」を参照してください
CREDENTIAL_MISSING
外部の場所を作成または更新する場合は、資格情報を入力してください。
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
列は序数ではなく名前で読み取られるので、rescuedDataColumn
または failOnUnknownFields
を使用する場合は、CSV オプション enforceSchema
を設定できません。
CYCLIC_FUNCTION_REFERENCE
循環関数参照が検出されました: <path>
。
DATABRICKS_DELTA_NOT_ENABLED
アカウントで Databricks Delta が有効になっていません。<hints>
DATATYPE_MISMATCH
データ型の不一致があるため、<sqlExpr>
を解決できません:
詳細については、DATATYPE_MISMATCH を参照してください。
DATATYPE_MISSING_SIZE
DataType <type>
には、<type>
(10) などの長さパラメーターが必要です。 長さを指定してください。
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
系列書き込み失敗: CLM/RLS のポリシーとの対応する関係がありません。
DATA_SOURCE_ALREADY_EXISTS
データ ソース ‘<provider>
’ は既に存在します。 新しいデータ ソースに別の名前を選択してください。
DATA_SOURCE_EXTERNAL_ERROR
外部データ ソースに保存するときにエラーが発生しました。
DATA_SOURCE_NOT_EXIST
データ ソース ‘<provider>
’ が見つかりません。 データ ソースが登録されていることを確認してください。
DATA_SOURCE_NOT_FOUND
データ ソース <provider>
が見つかりませんでした。 プロバイダー名が正しいこと、パッケージが適切に登録されていること、Spark バージョンとの互換性を確認してください。
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
オプション <option>
は空にすることはできません。また、無効な文字、クエリ文字列、またはパラメーターを含めることはできません。
DATA_SOURCE_OPTION_IS_REQUIRED
オプション <option>
は必須です。
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
データ ソース テーブルのスキーマが、必要なスキーマと一致しません。 DataFrameReader.schema API を使用しているか、テーブルを作成している場合は、スキーマを指定しないでください。
データ ソース スキーマ: <dsSchema>
必要なスキーマ: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
データ ソース オプションでは JDBC URL は使用できません。代わりに、'host'、'port'、および 'database' オプションを指定してください。
DATETIME_OVERFLOW
Datetime 操作のオーバーフロー: <operation>
。
DC_API_QUOTA_EXCEEDED
データ ソース <sourceName>
の API クォータを超えています。
詳細については、「DC_API_QUOTA_EXCEEDED」を参照してください
DC_CONNECTION_ERROR
ソース <sourceName>
への接続に失敗しました。 エラー コード: <errorCode>
。
詳しくは、DC_CONNECTION_ERROR に関する記事をご覧ください
DC_DYNAMICS_API_ERROR
Dynamics API 呼び出しでエラーが発生しました。errorCode: <errorCode>
。
詳細については、「DC_DYNAMICS_API_ERROR」を参照してください
DC_NETSUITE_ERROR
Netsuite JDBC 呼び出しでエラーが発生しました。errorCode: <errorCode>
。
詳細については、「DC_NETSUITE_ERROR」を参照してください
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: 割り当てなし
<sourceName>
ソースのテーブル <tableName>
にスキーマの変更が発生しています。
詳細については、「DC_SCHEMA_CHANGE_ERROR」を参照してください
DC_SERVICENOW_API_ERROR
ServiceNow API 呼び出しでエラーが発生しました。errorCode: <errorCode>
。
詳細については、「DC_SERVICENOW_API_ERROR」を参照してください
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Salesforce API クエリ ジョブに時間がかかりすぎた、失敗した、または手動でキャンセルされたため、オブジェクト <objName>
の取り込みが不完全です。
再試行するには、パイプライン全体を再実行するか、この特定のターゲット テーブルを最新の情報に更新します。 エラーが解決しない場合は、チケットを提出してください。 ジョブ ID: <jobId>
。 ジョブの状態: <jobStatus>
。
DC_SHAREPOINT_API_ERROR
Sharepoint API 呼び出しでエラーが発生しました。errorCode: <errorCode>
。
詳細については、「DC_SHAREPOINT_API_ERROR」を参照してください
DC_SOURCE_API_ERROR
<sourceName>
API 呼び出しでエラーが発生しました。 ソース API の種類: <apiType>
。 エラー コード: <errorCode>
。
これは、<sourceName>
API 上限に達すると発生する場合があります。 API 上限を超えていない場合は、コネクタの再実行をお試しください。 問題が解決しない場合は、チケットを提出してください。
DC_UNSUPPORTED_ERROR
データ ソース <sourceName>
でサポートされていないエラーが発生しました。
詳細については、「DC_UNSUPPORTED_ERROR」をご覧ください
DC_WORKDAY_RAAS_API_ERROR
Workday RAAS API 呼び出しでエラーが発生しました。エラー コード: <errorCode>
。
詳しくは、DC_WORKDAY_RAAS_API_ERROR に関する記事をご覧ください
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
10 進精度 <precision>
が最大精度 <maxPrecision>
を超えています。
DEFAULT_DATABASE_NOT_EXISTS
既定のデータベース <defaultDatabase>
は存在しません。最初に作成するか、既定のデータベースを <defaultDatabase>
に変更してください。
DEFAULT_FILE_NOT_FOUND
基になるファイルが更新されている可能性があります。 SQL で ‘REFRESH TABLE tableName’ コマンドを実行するか、関連する Dataset/DataFrame を再作成することで、Spark 内のキャッシュを明示的に無効にできます。 ディスク キャッシュが古い場合、または基になるファイルが削除されている場合は、クラスターを再起動することでディスク キャッシュを手動で無効にできます。
DEFAULT_PLACEMENT_INVALID
MERGE、INSERT、UPDATE、SET VARIABLE コマンドの既定値キーワードは、式に含まれていたため、ターゲット列に直接割り当てられませんでした。
例: UPDATE SET c1 = DEFAULT
は許可されますが、UPDATE T SET c1 = DEFAULT + 1
は許可されません。
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
ストリーミング クエリが予期しない Delta テーブルから読み取りを実行していました (id = '<newTableId>
')。
以前はチェックポイントに従って別の Delta テーブル (id = '<oldTableId>
') から読み取りを行っていました。
これは、新しいテーブルから読み取るようにコードを変更した場合や、
テーブルを削除して再作成した場合に発生する場合があります。 最初からやり直すには、変更を元に戻すか、ストリーミング クエリ チェックポイントを
削除してください。
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
個別のウィンドウ関数はサポートされていません: <windowExpr>
。
DIVIDE_BY_ZERO
0 で除算しました。 try_divide
を使用して序数が 0 であることを許容し、代わりに NULL を返します。 必要であれば、<config>
を "false" に設定してこのエラーを回避します。
詳細については、「DIVIDE_BY_ZERO」をご覧ください
DLT_EXPECTATIONS_NOT_SUPPORTED
期待値は、Delta Live Tables パイプライン内でのみサポートされます。
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
CLUSTER BY 句のある MATERIALIZED VIEW は、Delta Live Tables パイプライン内でのみサポートされます。
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALIZED VIEW の場所は、Delta Live Tables パイプライン内でのみサポートされます。
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
指定された型の MATERIALIZED VIEW のスキーマは、Delta Live Tables パイプライン内でのみサポートされます。
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
ビューの CONSTRAINT 句は、Delta Live Tables パイプラインでのみサポートされます。
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
アロー構造体内に重複するフィールド名は許可されません。<fieldNames>
を取得しました。
DUPLICATED_MAP_KEY
重複しているマップ キー <key>
が見つかりました。入力データをチェックしてください。
重複しているキーを削除する場合は、最後に挿入されたキーが優先されるように、<mapKeyDedupPolicy>
を "LAST_WIN" に設定できます。
DUPLICATED_METRICS_NAME
メトリック名が一意ではありません: <metricName>
。 結果が異なるメトリックに同じ名前を使用することはできません。
ただし、同じ結果と名前を持つメトリックの複数のインスタンス (自己結合など) は許可されます。
DUPLICATE_ASSIGNMENTS
列または変数 <nameList>
は割り当てターゲットとして複数回表示されます。
DUPLICATE_CLAUSES
重複する句が見つかりました: <clauseName>
。 いずれか 1 つを削除してください。
DUPLICATE_KEY
重複するキー <keyColumn>
が見つかりました。
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
ルーチン <functionName>
の呼び出しには、同じ名前のパラメーター <parameterName>
に対する複数の引数の割り当てが含まれているため、無効です。
詳細については、「DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT」をご覧ください
DUPLICATE_ROUTINE_PARAMETER_NAMES
ユーザー定義ルーチン <routineName>
のパラメーター リストに重複する名前が見つかりました: <names>
。
DUPLICATE_ROUTINE_RETURNS_COLUMNS
ユーザー定義ルーチン <routineName>
の RETURNS 句列リストで重複する列が見つかりました: <columns>
。
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
前のノードが、current_watermark_value=<currentWatermark>
より古い、eventTime=<emittedRowEventTime>
の行を出力しました
これにより、実行パイプラインのステートフル演算子のダウンストリームで正確性の問題が発生する可能性があります。
現在のグローバル ウォーターマーク値の後に行を出力する演算子ロジックを修正してください。
EMPTY_JSON_FIELD_VALUE
データ型 <dataType>
の空の文字列を解析できませんでした。
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
ステージング <operation>
クエリの空のローカル ファイル
ENCODER_NOT_FOUND
Spark SQL 内部表現に対する型 <typeName>
のエンコーダーが見つかりません。
"<docroot>
/sql-ref-datatypes.html" でサポートされているいずれかに入力型を変更することをご検討ください。
END_LABEL_WITHOUT_BEGIN_LABEL
終了ラベル <endLabel>
は、開始ラベルなしでは存在できません。
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Kafka トピックの一部のパーティションでは、Trigger.AvailableNow を使用したクエリの実行中に終了オフセットより小さい使用可能なオフセットが報告されます。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告してください。
最新オフセット: <latestOffset>
、終了オフセット: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Trigger.AvailableNow を使用する Kafka データ ソースの場合、終了オフセットは、プリフェッチされたオフセットよりも各トピック パーティションあたりのオフセットが小さいか等しい必要があります。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告してください。
プリフェッチされたオフセット: <prefetchedOffset>
、終了オフセット: <endOffset>
。
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
avro データ読み取り中のエラー – 不明なフィンガープリントに遭遇: <fingerprint>
、使用すべきスキーマが不明。
spark コンテキストの開始後に追加のスキーマを登録した場合にこれは発生することがあります。
EVENT_LOG_REQUIRES_SHARED_COMPUTE
割り当て済みまたは分離なし共有クラスターからイベント ログを照会できません。代わりに、共有クラスターまたは Databricks SQL ウェアハウスを使用してください。
EVENT_LOG_UNAVAILABLE
<tableOrPipeline>
に使用できるログはありません。 イベントが生成された後、後でもう一度お試しください
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
<tableIdentifier>
のテーブル型は <tableType>
です。
イベント ログのクエリでは、具体化されたビュー、ストリーミング テーブル、または Delta Live Tables パイプラインのみがサポートされます
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
イベント時刻 <eventName>
の型 <eventType>
が無効ですが、“TIMESTAMP
” が予期されています。
EXCEED_LIMIT_LENGTH
char/varchar 型の長さ制限 <limit>
を超えています。
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT 列 <columnName>
は解決され、StructType となることが予想されていましたが、型 <dataType>
が見つかりました。
EXCEPT_OVERLAPPING_COLUMNS
EXCEPT リスト内の列は、それぞれ異なり、重複していない必要がありますが、(<columns>
) を受け取りました。
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT 列 [<exceptColumns>
] は解決されましたが、スター型展開のどの列 [<expandedColumns>
] にも一致しません。
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
EXCEPT 句の列/フィールド名 <objectName>
を解決できません。 [<objectList>
] のいずれかの意味でしたか?
注: 構造体の展開中に、EXCEPT 句の入れ子になった列に修飾子 (テーブル名、親構造体の列名など) を含めることはできません。入れ子になった列で修飾子が使用されている場合は、それらの修飾子を削除してみてください。
EXECUTOR_BROADCAST_JOIN_OOM
ブロードキャスト関係 <relationClassName>
を構築するのに十分なメモリがありません。 関係のサイズ = <relationSize>
。 このタスクで使用される合計メモリ = <taskMemoryUsage>
。 エグゼキューター メモリ マネージャー メトリック: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
、offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
、onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
、offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
。 [sparkPlanId: <sparkPlanId>
]
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
この EXECUTE IMMEDIATE コマンドの USING 句には、同じ別名 (<aliases>
) を持つ複数の引数が含まれていましたが、これは無効です。一意の別名を指定するようにコマンドを更新してから、もう一度お試しください。
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>
' は永続的なビューを必要としますが、<viewName>
は一時ビューです。
EXPECT_TABLE_NOT_VIEW
'<operation>
' はテーブルを必要としますが、<viewName>
はビューです。
詳細については、EXPECT_TABLE_NOT_VIEW を参照してください
EXPECT_VIEW_NOT_TABLE
テーブル <tableName>
では、<operation>
はサポートされていません。
詳細については、EXPECT_VIEW_NOT_TABLE を参照してください
EXPRESSION_DECODING_FAILED
式: <expressions>
の値に行をデコードできませんでした。
EXPRESSION_ENCODING_FAILED
式: <expressions>
の値を行にエンコードできませんでした。
EXPRESSION_TYPE_IS_NOT_ORDERABLE
列式 <expr>
は、型 <exprType>
が順序付けできないため、並べ替えできません。
EXTERNAL_TABLE_INVALID_SCHEME
外部テーブルでは、<scheme>
スキームはサポートされていません。
FABRIC_REFRESH_INVALID_SCOPE
‘REFRESH FOREIGN <scope>
<name>
’ の実行中にエラーが発生しました。 ファブリック <scope>
を直接更新することはできません。ファブリック カタログを更新するには、代わりに ‘REFRESH FOREIGN CATALOG <catalogName>
’ を使ってください。
FAILED_EXECUTE_UDF
ユーザー定義関数 (<functionName>
: (<signature>
) =><result>
) が次の理由で失敗しました: <reason>
。
FAILED_FUNCTION_CALL
呼び出し用の関数 <funcName>
の準備に失敗しました。 関数の引数を再確認してください。
FAILED_JDBC
操作で JDBC <url>
に失敗しました:
詳細については、「FAILED_JDBC」をご覧ください
FAILED_PARSE_STRUCT_TYPE
構造体の解析に失敗しました: <raw>
。
FAILED_READ_FILE
ファイル <path>
の読み取り中にエラーが発生しました。
詳細については、「FAILED_READ_FILE」を参照してください
FAILED_REGISTER_CLASS_WITH_KRYO
Kryo にクラスを登録できませんでした。
FAILED_RENAME_PATH
宛先が既に存在するため、<sourcePath>
の名前を <targetPath>
に変更できませんでした。
FAILED_RENAME_TEMP_FILE
FileSystem.rename から false が返されたため、一時ファイル <srcPath>
の名前を <dstPath>
に変更できませんでした。
FAILED_ROW_TO_JSON
クラス <class>
の行の値 <value>
を JSON 形式でターゲット SQL 型 <sqlType>
に変換できませんでした。
FAILED_TO_PARSE_TOO_COMPLEX
潜在的な SQL 関数と参照されるビューを含むステートメントは、解析するには複雑すぎました。
このエラーを軽減するために、ステートメントを複雑でない複数のチャンクに分割します。
FEATURE_NOT_ENABLED
機能 <featureName>
が有効になっていません。 この機能を有効にするには、構成 <configKey>
を <configValue>
に設定することを検討してください。
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
はクラシック SQL ウェアハウスではサポートされていません。 この機能を使用するには、Pro または Serverless SQL ウェアハウスを使用します。 ウェアハウスの詳細については、以下をご覧ください: <docLink>
FEATURE_REQUIRES_UC
<feature>
は Unity Catalog なしではサポートされていません。 この機能を使用するには、Unity Catalog を有効にします。 Unity Catalog の詳細については、以下をご覧ください: <docLink>
FEATURE_UNAVAILABLE
<feature>
はお使いの環境ではサポートされていません。 この機能を使用するには、Databricks サポートにお問い合わせください。
FIELD_ALREADY_EXISTS
<fieldNames>
が <struct>
に既に存在するため、列を <op>
できません。
FIELD_NOT_FOUND
<fields>
にこのような構造体フィールド <fieldName>
はありません。
FILE_IN_STAGING_PATH_ALREADY_EXISTS
ステージング パス <path>
内のファイルは既に存在しますが、OVERWRITE が設定されていません
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
flatMapGroupsWithState のユーザー指定関数でエラーが発生しました。 理由: <reason>
FORBIDDEN_OPERATION
<objectType>
に対する操作 <statement>
は許可されていません: <objectName>
。
FOREACH_BATCH_USER_FUNCTION_ERROR
ユーザー指定関数の foreach バッチ シンクでエラーが発生しました。 理由: <reason>
FOREACH_USER_FUNCTION_ERROR
foreach シンクのユーザー指定関数でエラーが発生しました。 理由: <reason>
FOREIGN_KEY_MISMATCH
外部キーの親列 <parentColumns>
が主キーの子列 <childColumns>
と一致しません。
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
外部の <objectType>
の名前は空でない必要があるため、このコマンドを実行できません。
FOUND_MULTIPLE_DATA_SOURCES
‘<provider>
’ という名前の複数のデータ ソースが検出されました。 データ ソースが同時に登録されていたり、クラスパスに配置されていたりしないことを確認してください。
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
次の場所で、from_json 推論でスキーマの更新の競合が発生しました: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json で、columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) が
JSON オブジェクトに存在することが検出され、続行できなくなりました。 別の値を
オプション ‘columnNameOfCorruptRecord’ に設定してください。
FROM_JSON_CORRUPT_SCHEMA
from_json 推論が、次の場所に保存されているスキーマを読み取ることができませんでした: <location>
FROM_JSON_INFERENCE_FAILED
from_json がスキーマを推論できませんでした。 代わりに 1 つ指定してください。
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json 推論は、ストリーミング テーブルを定義する場合にのみサポートされます
FROM_JSON_INVALID_CONFIGURATION
from_json 構成が無効です:
詳細については、「FROM_JSON_INVALID_CONFIGURATION」をご覧ください
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json が <old>
から <new>
に進化できませんでした
FUNCTION_PARAMETERS_MUST_BE_NAMED
関数 <function>
には、名前付きパラメーターが必要です。 パラメータに名前がありません: <exprs>
。 たとえば、<function>
(param_name => …) のように、すべてのパラメーターに名前を追加するように関数呼び出しを更新してください。
GENERATED_COLUMN_WITH_DEFAULT_VALUE
列に既定値と生成式の両方を指定することはできませんが、列 <colName>
に既定値 (<defaultValue>
) と生成式 (<genExpr>
) が存在します。
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 以前のバージョンでは、getTablesByType はサポートされていません。 Hive 2.3 以降のバージョンを使用してください。
GET_WARMUP_TRACING_FAILED
ウォームアップを追跡できませんでした。 原因: <cause>
。
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
関数 get_warmup_tracing() が許可されていません。
GRAPHITE_SINK_INVALID_PROTOCOL
Graphite プロトコルが無効です: <protocol>
。
GRAPHITE_SINK_PROPERTY_MISSING
Graphite シンクには ‘<property>
’ プロパティが必要です。
GROUPING_COLUMN_MISMATCH
グループ (<grouping>
) の列がグループ列 <groupingColumns>
に見つかりません。
GROUPING_ID_COLUMN_MISMATCH
grouping_id (<groupingIdColumn>
) の列がグループ列 (<groupByColumns>
) と一致しません。
GROUPING_SIZE_LIMIT_EXCEEDED
グループ セットのサイズを <maxSize>
より大きくすることはできません。
GROUP_BY_AGGREGATE
GROUP BY では集計関数は使用できませんが、<sqlExpr>
が検出されました。
詳細については、「GROUP_BY_AGGREGATE」をご覧ください
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
は、集計関数を含む式 <aggExpr>
を参照します。 GROUP BY では集計関数は使用できません。
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY の位置 <index>
が選択リストにありません (有効な範囲は [1, <size>
] です)。
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
式 <sqlExpr>
は、データ型 <dataType>
が順序付け可能なデータ型ではないため、グループ化式として使用できません。
HDFS_HTTP_ERROR
HDFS から読み取ろうとすると、HTTP 要求が失敗しました。
詳細については、 HDFS_HTTP_ERRORを参照してください。
HLL_INVALID_INPUT_SKETCH_BUFFER
<function>
への呼び出しが無効です。有効な HLL スケッチ バッファーのみが入力としてサポートされます (hll_sketch_agg
関数によって生成されたものなど)。
HLL_INVALID_LG_K
<function>
への呼び出しが無効です。lgConfigK
の値が <min>
と <max>
の間である必要があります (<value>
を含みます)。
HLL_UNION_DIFFERENT_LG_K
スケッチの lgConfigK
の値が異なります: <left>
と <right>
。 異なる lgConfigK
の値で <function>
を呼び出すには、allowDifferentLgConfigK
パラメーターを true に設定します。
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
は 2 つ以上の名前部分を持つため、有効な識別子ではありません。
ILLEGAL_STATE_STORE_VALUE
状態ストアに指定された無効な値
詳細については、「ILLEGAL_STATE_STORE_VALUE」を参照してください
INCOMPARABLE_PIVOT_COLUMN
ピボット列 <columnName>
が無効です。 ピボット列は比較できる必要があります。
INCOMPATIBLE_COLUMN_TYPE
<operator>
は、互換性のある列型を持つテーブルでのみ実行できます。 <tableOrdinalNumber>
テーブルの <columnOrdinalNumber>
列は <dataType1>
型であり、最初のテーブルの同じ列にある <dataType2>
と互換性がありません。<hint>
。
INCOMPATIBLE_DATASOURCE_REGISTER
互換性のない DataSourceRegister が検出されました。 互換性のないライブラリをクラスパスから削除するか、アップグレードしてください。 エラー: <message>
INCOMPATIBLE_DATA_FOR_TABLE
テーブル <tableName>
に互換性のないデータを書き込めません。
詳細については、「INCOMPATIBLE_DATA_FOR_TABLE」を参照してください
INCOMPATIBLE_JOIN_TYPES
結合の種類 <joinType1>
と <joinType2>
には互換性がありません。
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
ビュー <viewName>
の SQL クエリに互換性のないスキーマ変更があり、列 <colName>
を解決できません。 <colName>
という名前の列が <expectedNum>
個予期されていましたが、<actualCols>
個が取得されました。
次を実行して、ビューを再作成してみてください: <suggestion>
。
INCOMPLETE_TYPE_DEFINITION
不完全な複合型:
詳細については、「INCOMPLETE_TYPE_DEFINITION」をご覧ください
INCONSISTENT_BEHAVIOR_CROSS_VERSION
アップグレード先によって結果が異なる場合があります
詳細については、「INCONSISTENT_BEHAVIOR_CROSS_VERSION」を参照してください。
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
、<functionName>
には、少なくとも <minArgs>
個の引数と最大で <maxArgs>
個の引数が必要です。
INCORRECT_RAMP_UP_RATE
<rowsPerSecond>
rowsPerSecond の最大オフセットは <maxSeconds>
ですが、'rampUpTimeSeconds' は <rampUpTimeSeconds>
です。
INDETERMINATE_COLLATION
呼び出された関数は適用すべき照合順序の知識が必要ですがが、不確定な照合順序が見つかりました。 照合順序を明示的に設定するには COLLATE 関数を使用します。
INDEX_ALREADY_EXISTS
インデックス <indexName>
はテーブル <tableName>
に既に存在するため、作成できません。
INDEX_NOT_FOUND
テーブル <tableName>
にインデックス <indexName>
が見つかりません。
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
トリガーの種類 <trigger>
は、このクラスターの種類ではサポートされていません。
AvailableNow、Once など、別のトリガーの種類を使ってください。
INSERT_COLUMN_ARITY_MISMATCH
<tableName>
に書き込めません。理由:
詳細については、「INSERT_COLUMN_ARITY_MISMATCH」をご覧ください
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
‘<tableName>
’ に書き込めません。<reason>
:
テーブルの列: <tableColumns>
。
静的な値を含むパーティション列: <staticPartCols>
。
データ列: <dataColumns>
。
INSUFFICIENT_PERMISSIONS
十分な特権がありません
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
外部の場所 <user>
に対するユーザー <location>
の特権が不十分です。
INSUFFICIENT_PERMISSIONS_NO_OWNER
<securableName>
の所有者がいません。 所有者を設定するように管理者に依頼します。
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
ユーザーは <securableName>
を所有していません。
INSUFFICIENT_PERMISSIONS_SECURABLE
ユーザーは <securableName>
に対するアクセス許可 <action>
がありません。
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
<securableName>
の所有者は、<parentSecurableName>
の所有者とは異なります。
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
ストレージ資格情報 <credentialName>
の特権が不十分です。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
基になるセキュリティ保護可能なリソースに対するアクセス許可のため、ユーザーは <securableName>
で <action>
を実行できません。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
基になるセキュリティ保護可能なリソースに対するアクセス許可のため、ユーザーは <securableName>
で <action>
を実行できません:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
<message>
.<alternative>
INTERVAL_DIVIDED_BY_ZERO
0 で除算しました。 try_divide
を使用して序数が 0 であることを許容し、代わりに NULL を返します。
INVALID_AGGREGATE_FILTER
集計関数内の FILTER 式 <filterExpr>
は無効です。
詳細については、「INVALID_AGGREGATE_FILTER」を参照してください
INVALID_ARRAY_INDEX
インデックス <indexValue>
は範囲外です。 この配列には <arraySize>
要素があります。 SQL 関数 get()
を使用して無効なインデックスで要素にアクセスすることを許容し、代わりに NULL を返します。 必要であれば、<ansiConfig>
を "false" に設定してこのエラーを回避します。
詳細については、「INVALID_ARRAY_INDEX」をご覧ください
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
インデックス <indexValue>
は範囲外です。 この配列には <arraySize>
要素があります。 try_element_at
を使用して無効なインデックスで要素にアクセスすることを許容し、代わりに NULL を返します。 必要であれば、<ansiConfig>
を "false" に設定してこのエラーを回避します。
詳細については、「INVALID_ARRAY_INDEX_IN_ELEMENT_AT」をご覧ください
INVALID_BITMAP_POSITION
0 でインデックスされたビットマップ位置 <bitPosition>
が範囲外です。 ビットマップには <bitmapNumBits>
ビット (<bitmapNumBytes>
バイト) あります。
INVALID_BOOLEAN_STATEMENT
この条件ではブール値ステートメントが必要ですが、 <invalidStatement>
が見つかりました。
INVALID_BOUNDARY
境界 <boundary>
が無効です: <invalidValue>
。
詳細については、「INVALID_BOUNDARY」をご覧ください
INVALID_BUCKET_COLUMN_DATA_TYPE
バケット列には <type>
を使用できません。 照合されたデータ型はバケットではサポートされていません。
INVALID_BUCKET_FILE
無効なバケット ファイル: <path>
。
INVALID_BYTE_STRING
想定される形式は ByteString ですが、<unsupported>
(<class>
) でした。
INVALID_COLUMN_NAME_AS_PATH
データ ソース <datasource>
の列 <columnName>
は、名前にファイル パスで使用できない文字が含まれているため、保存できません。 別名を使用して名前を変更してください。
INVALID_COLUMN_OR_FIELD_DATA_TYPE
列またはフィールド <name>
が型 <type>
になっていますが、<expectedType>
である必要があります。
INVALID_CONF_VALUE
構成 “<confName>
” の値 ‘<confValue>
’ は無効です。
詳細については、「INVALID_CONF_VALUE」を参照してください
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient
関数は、Unity Catalog で共有専用ビューを定義するために、CREATE VIEW
ステートメントまたは ALTER VIEW
ステートメントでのみ使用できます。
INVALID_CURSOR
カーソルは無効です。
詳細については、「INVALID_CURSOR」を参照してください。
INVALID_DATETIME_PATTERN
認識されない datetime パターン: <pattern>
。
詳細については、「INVALID_DATETIME_PATTERN」を参照してください
INVALID_DEFAULT_VALUE
ターゲットの列または変数 <colName>
に既定値 <defaultValue>
があるため、<statement>
コマンドを実行できませんでした。
詳細については、「INVALID_DEFAULT_VALUE」をご覧ください
INVALID_DELIMITER_VALUE
区切り記号の値が無効です。
詳細については、「INVALID_DELIMITER_VALUE」をご覧ください
INVALID_DEST_CATALOG
SYNC コマンドの宛先カタログは、Unity Catalog 内にある必要があります。 <catalog>
が見つかりました。
INVALID_DRIVER_MEMORY
システム メモリ <systemMemory>
は <minSystemMemory>
以上である必要があります。
Spark の構成で –driver-memory オプションまたは “<config>
” を使用して、ヒープ サイズを増やしてください。
INVALID_DYNAMIC_OPTIONS
<option_list>渡されたオプションは、外部テーブルの<table_name>では禁止されています。
INVALID_EMPTY_LOCATION
場所名を空の文字列にすることはできませんが、<location>
が指定されました。
INVALID_ESC
無効なエスケープ文字列が見つかりました: <invalidEscape>
。 エスケープ文字列には 1 文字だけ含まれる必要があります。
INVALID_ESCAPE_CHAR
EscapeChar
は長さ 1 の文字列リテラルである必要がありますが、<sqlExpr>
を取得しました。
INVALID_EXECUTOR_MEMORY
Executor メモリ <executorMemory>
は <minSystemMemory>
以上である必要があります。
Spark の構成で –executor-memory オプションまたは “<config>
” を使用して、Executory メモリを増やしてください。
INVALID_EXPRESSION_ENCODER
無効な式エンコーダーが見つかりました。 ExpressionEncoder のインスタンスが必要ですが、<encoderType>
でした。 詳しくは、‘<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html’ をご覧ください。
INVALID_EXTRACT_BASE_FIELD_TYPE
<base>
から値を抽出できません。 複合型 [STRUCT
、ARRAY
、MAP
] が必要ですが、<other>
を取得しました。
INVALID_EXTRACT_FIELD
<field>
を <expr>
から抽出できませんでした。
INVALID_EXTRACT_FIELD_TYPE
フィールド名は null 以外の文字列リテラルである必要がありますが、<extraction>
です。
INVALID_FIELD_NAME
フィールド名 <fieldName>
が無効です: <path>
は構造体ではありません。
INVALID_FORMAT
形式が無効です: <format>
。
詳細については、「INVALID_FORMAT」を参照してください。
INVALID_FRACTION_OF_SECOND
秒の端数は 0 である必要があります。 有効な範囲は [0, 60] です。 必要であれば、<ansiConfig>
を "false" に設定してこのエラーを回避します。
INVALID_HANDLE
ハンドル <handle>
が無効です。
詳細については、「INVALID_HANDLE」を参照してください
INVALID_IDENTIFIER
引用符で囲まれていない識別子 <ident>
は無効であり、<ident>
としてバッククオートにする必要があります。
引用符で囲まれていない識別子には、ASCII 文字 ('a' - 'z', 'A' - 'Z')、数字 ('0' - '9') 、アンダーバー ('_') しか含めることができません。
引用符で囲まれていない識別子は、数字で始めることはできません。
データ ソースやメタ ストアが異なると、有効な識別子にさらに制限が課される場合があります。
INVALID_INDEX_OF_ZERO
インデックス 0 は無効です。 インデックスは < 0 または > 0 のいずれかでなければなりません (最初の要素のインデックスは 1 です)。
INVALID_INLINE_TABLE
インライン テーブルが無効です。
詳細については、「INVALID_INLINE_TABLE」をご覧ください
INVALID_INTERVAL_FORMAT
"<input>
" を間隔に解析中にエラーが発生しました。 指定された値が、間隔を定義するための有効な形式であることをご確認ください。 正しい形式については、ドキュメントを参照できます。
詳細については、「INVALID_INTERVAL_FORMAT」を参照してください。
INVALID_INVERSE_DISTRIBUTION_FUNCTION
<funcName>
は無効な逆分布関数です。
詳細については、「INVALID_INVERSE_DISTRIBUTION_FUNCTION」をご覧ください
INVALID_JOIN_TYPE_FOR_JOINWITH
joinWith: <joinType>
の結合の種類が無効です。
INVALID_JSON_DATA_TYPE
JSON 文字列 '<invalidType>
' をデータ型に変換できませんでした。 有効なデータ型を入力してください。
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
照合順序は文字列の種類にのみ適用できますが、JSON データ型は <jsonType>
です。
INVALID_JSON_ROOT_FIELD
JSON ルート フィールドをターゲット Spark 型に変換できません。
INVALID_JSON_SCHEMA_MAP_TYPE
入力スキーマ <jsonSchema>
には、MAP
のキーの種類として STRING
のみを含めることができます。
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
構成 "<bufferSizeConfKey>
" の値は 2048 MiB 未満にする必要がありますが、<bufferSizeConfValue>
MiB になっています。
INVALID_LABEL_USAGE
ラベル <labelName>
の使用が無効です。
詳細については、 INVALID_LABEL_USAGEを参照してください。
INVALID_LAMBDA_FUNCTION_CALL
ラムダ関数呼び出しが無効です。
詳細については、「INVALID_LAMBDA_FUNCTION_CALL」をご覧ください
INVALID_LATERAL_JOIN_TYPE
OUTER サブクエリは結合パートナーに関連付けることができないため、LATERAL 相関関係を含む <joinType>
JOIN は許可されません。 LATERAL 相関関係を削除するか、代わりに、INNER JOIN または LEFT OUTER JOIN を使用します。
INVALID_LIMIT_LIKE_EXPRESSION
式 <expr>
のような制限は無効です。
詳細については、「INVALID_LIMIT_LIKE_EXPRESSION」をご覧ください
INVALID_LOCATION
場所名に無効な URI を指定することはできませんが、 <location>
指定されました。
INVALID_NON_ABSOLUTE_PATH
指定された非絶対パス <path>
は修飾できません。 パスを有効な dbfs マウント場所に更新してください。
INVALID_NON_DETERMINISTIC_EXPRESSIONS
演算子には決定論的式が必要ですが、実際の式は <sqlExprs>
です。
INVALID_NUMERIC_LITERAL_RANGE
数値リテラル <rawStrippedQualifier>
が <typeName>
の有効な範囲 (最小値 <minValue>
と最大値 <maxValue>
) 内ではありません。 必要に応じて値を調整してください。
INVALID_OBSERVED_METRICS
観察されたメトリックが無効です。
詳細については、「INVALID_OBSERVED_METRICS」を参照してください
INVALID_OPTIONS
無効なオプション:
詳細については、「INVALID_OPTIONS」をご覧ください
INVALID_PANDAS_UDF_PLACEMENT
グループ集計 pandas UDF <functionList>
は、他の pandas 以外の集計関数と一緒に呼び出すことはできません。
INVALID_PARAMETER_MARKER_VALUE
無効なパラメーター マッピングが指定されました。
詳細については、「INVALID_PARAMETER_MARKER_VALUE」をご覧ください
INVALID_PARAMETER_VALUE
<functionName>
のパラメーター <parameter>
の値が無効です:
詳細については、「INVALID_PARAMETER_VALUE」をご覧ください
INVALID_PARTITION_COLUMN_DATA_TYPE
パーティション列に <type>
を使用できません。
INVALID_PARTITION_OPERATION
パーティション コマンドが無効です。
詳細については、「INVALID_PARTITION_OPERATION」をご覧ください
INVALID_PIPELINE_ID
パイプライン ID <pipelineId>
が無効です。
パイプラインは次の形式の UUID である必要があります: ‘xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx’
INVALID_PRIVILEGE
<securable>
に対する特権 <privilege>
が無効です。
INVALID_PROPERTY_KEY
<key>
は無効なプロパティ キーです。SET <key>
=<value>
のように引用符を使用してください。
INVALID_PROPERTY_VALUE
<value>
は無効なプロパティ キーです。SET <key>
=<value>
のように引用符を使用してください
INVALID_QUERY_MIXED_QUERY_PARAMETERS
パラメーター化クエリでは、位置指定または名前付きパラメータのいずれかを使用する必要がありますが、両方は使用できません。
INVALID_S3_COPY_CREDENTIALS
COPY INTO 資格情報には、AWS_ACCESS_KEY、AWS_SECRET_KEY、AWS_SESSION_TOKEN を含める必要があります。
INVALID_SAVE_MODE
指定された保存モード <mode>
は無効です。 有効な保存モードには “append”、“overwrite”、“ignore”、“error”、“errorifexists”、“default” があります。
INVALID_SCHEMA
入力スキーマ <inputSchema>
は有効なスキーマ文字列ではありません。
詳細については、「INVALID_SCHEMA」を参照してください。
INVALID_SCHEMA_OR_RELATION_NAME
<name>
はテーブル/スキーマの有効な名前ではありません。 有効な名前には、アルファベット文字、数字、_ のみが含まれています。
INVALID_SCHEME
Unity Catalog は既定のファイル スキームとして <name>
をサポートしません。
INVALID_SECRET_LOOKUP
シークレット検索が無効です。
詳細については、「INVALID_SECRET_LOOKUP」を参照してください。
INVALID_SET_SYNTAX
'SET'、'SET key'、または 'SET key=value' の 形式で指定する必要があります。 キーに特殊文字を含める場合、または値にセミコロンを含める場合は、バッククォート (SET key
=value
など) を使用してください。
INVALID_SHARED_ALIAS_NAME
<sharedObjectType>
エイリアス名は、"schema.name" の形式である必要があります。
INVALID_SINGLE_VARIANT_COLUMN
ユーザー指定のスキーマもある場合は singleVariantColumn
オプションは使用できません。
INVALID_SOURCE_CATALOG
SYNC コマンドのソース カタログが Unity Catalog 内に存在してはなりません。 <catalog>
が見つかりました。
INVALID_SQL_ARG
sql()
の引数 <name>
が無効です。 SQL リテラルまたはコレクション コンストラクター関数 ( map()
、 array()
、 struct()
など) で置き換えることを検討してください。
INVALID_SQL_SYNTAX
SQL 構文
詳細については、「INVALID_SQL_SYNTAX」をご覧ください
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
ステージング <operation>
クエリのステージング パスが無効です: <path>
。
INVALID_STATEMENT_FOR_EXECUTE_INTO
EXECUTE IMMEDIATE の INTO 句はクエリに対してのみ有効ですが、指定された次のステートメントはクエリではありません: <sqlString>
。
INVALID_STATEMENT_OR_CLAUSE
ステートメントまたは句: <operation>
は無効です。
INVALID_SUBQUERY_EXPRESSION
無効なサブクエリ:
詳細については、「INVALID_SUBQUERY_EXPRESSION」を参照してください。
INVALID_TEMP_OBJ_REFERENCE
型が <obj>
の永続的オブジェクト <objName>
は、型が <tempObj>
の一時的オブジェクト <tempObjName>
を参照するため、作成できませんでした。 一時的オブジェクト <tempObjName>
を永続的にするか、永続的オブジェクト <objName>
を一時的なものにしてください。
INVALID_TIMESTAMP_FORMAT
指定された timestamp <timestamp>
が、予期される構文 <format>
と一致しません。
INVALID_TIME_TRAVEL_SPEC
テーブルをタイム トラベルする際、バージョンとタイムスタンプの両方を指定できません。
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
タイム トラベル timestamp 式 <expr>
が無効です。
詳細については、「INVALID_TIME_TRAVEL_TIMESTAMP_EXPR」をご覧ください
INVALID_TYPED_LITERAL
型指定されたリテラル <valueType>
の値が無効です: <value>
。
INVALID_UDF_IMPLEMENTATION
関数 <funcName>
は ScalarFunction または AggregateFunction を実装しません。
INVALID_UPGRADE_SYNTAX
<command>
<supportedOrNot>
ソース テーブルは Hive メタストアにあり、ターゲット テーブルは Unity Catalog にあります。
INVALID_URL
URL が無効です: <url>
。 必要であれば、<ansiConfig>
を "false" に設定してこのエラーを回避します。
INVALID_USAGE_OF_STAR_OR_REGEX
<prettyName>
での <elem>
の使用が無効です。
INVALID_UTF8_STRING
次の文字列で無効な UTF8 バイト シーケンスが見つかりました: <str>
INVALID_UUID
入力 <uuidInput>
は有効な UUID ではありません。
UUID は次の形式にする必要があります: ‘xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx’
UUIDの形式をチェックしてください。
INVALID_VARIABLE_DECLARATION
変数宣言が無効です。
詳細については、 INVALID_VARIABLE_DECLARATIONを参照してください。
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
変数型は文字列型である必要がありますが、<varType>
を受け取りました。
INVALID_VARIANT_CAST
バリアント値 <value>
を <dataType>
にキャストすることはできません。 代わりに、try_variant_get
を使用してください。
INVALID_VARIANT_FROM_PARQUET
バリアントが無効です。
詳細については、「INVALID_VARIANT_FROM_PARQUET」を参照してください。
INVALID_VARIANT_GET_PATH
パス <path>
は <functionName>
の有効なバリアント抽出パスではありません。
有効なパスは $
で始まり、[123]
、.name
、['name']
、["name"]
のような 0 個以上のセグメントが続きます。
INVALID_WHERE_CONDITION
WHERE 条件 <condition>
に無効な式が含まれています: <expressionList>
。
WHERE 句のウィンドウ関数、集計関数、およびジェネレーター関数を回避するように、クエリを書き換えます。
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
<aggFunc>
に対して ORDER BY またはウィンドウ フレームを指定できませんでした。
INVALID_WRITER_COMMIT_MESSAGE
データ ソース ライターが、無効な数のコミット メッセージを生成しました。 ライター コミット メッセージは各タスクから 1 つだけ必要ですが、<detail>
を受け取りました。
INVALID_WRITE_DISTRIBUTION
要求された書き込みディストリビューションが無効です。
詳細については、「INVALID_WRITE_DISTRIBUTION」をご覧ください
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
結合条件 <joinCondition>
の型 <conditionType>
が無効ですが、“BOOLEAN
” が予期されています。
KAFKA_DATA_LOSS
一部のデータは、Kafka で使用できなくなったため、失われた可能性があります。
Kafka によってデータが期限切れになったか、トピック内のすべてのデータが処理される前に
トピックが削除された可能性があります。
そのような場合にストリーミング クエリを失敗させたくない場合は、ソース オプション failOnDataLoss を false に設定してください。
理由:
詳しくは、KAFKA_DATA_LOSS に関する記事をご覧ください
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
でシャード <shardId>
の目的のシーケンス番号 <endSeqNum>
まで読み取れませんでした
コンシューマー モード <consumerMode>
の kinesis ストリーム <stream>
。 このクエリは失敗しますが、その理由は
データ損失の可能性があるためです。 最後の読み取りレコードはシーケンス番号 <lastSeqNum>
でした。
これは、endSeqNum のデータが既に期限切れになっている場合、または Kinesis ストリームが
削除され、同じ名前で再構築された場合に起こります。 エラーの動作は
spark 構成で spark.databricks.kinesis.failOnDataLoss を false に設定することでオーバーライドできます。
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Kinesis からフェッチされた最小 shardId (<fetchedShardId>
) が
追跡された最小 shardId (<trackedShardId>
) 未満です。
これは予期しないものであり、Kinesis ストリームが削除され、同じ名前で再作成され、
この Kinesis ストリームを使用するストリーミング クエリが既存のチェックポイントの場所を使用して再起動されときに発生します。
新しいチェックポイントの場所でストリーミング クエリを再起動するか、新しい名前でストリームを作成します。
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
シャード <shard>
では、以前のフェッチで Kinesis から読み取られた最後のレコードのシーケンス番号は <lastSeqNum>
で、
これは、シーケンス番号 <recordSeqNum>
を持つ現在のフェッチで読み取られたレコードよりも大きくなります。
これは予期しないことで、再試行または次のフェッチの開始位置が正しく初期化されていない場合に発生する可能性があり、下流のレコードが重複する場合があります。
KRYO_BUFFER_OVERFLOW
Kryo によるシリアル化 <exceptionMsg>
に失敗しました。 これを回避するには、"<bufferSizeConfKey>
" 値を増やします。
LABELS_MISMATCH
開始ラベル <beginLabel>
が終了ラベルの <endLabel>
と一致しません。
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA 入力パス <path>
が存在しません。
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL は file
のスキーマと共に使用する必要がありますが、次の値を取得しました: <actualSchema>
。
LOCATION_ALREADY_EXISTS
関連する場所 <location>
が既に存在するため、マネージド テーブルに <identifier>
という名前を付けることができません。 別のテーブル名を選択するか、既存の場所を最初に削除してください。
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Trigger.AvailableNow を使用したクエリの実行中に、Kafka トピックのパーティションの一部が失われました。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告してください。
最新のオフセットのトピック パーティション: <tpsForLatestOffset>
、 終了オフセットのトピック パーティション: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
メッセージの逆シリアル化で、形式に誤りがある Avro メッセージが検出されます。 解析モード: <mode>
。 形式に誤りがある Avro メッセージを null 結果として処理するには、オプション 'mode' を 'PERMISSIVE' に設定してみてください。
MALFORMED_CHARACTER_CODING
で <function>
を実行するときに無効な値が見つかりました <charset>
MALFORMED_CSV_RECORD
形式に誤りがある CSV レコード: <badRecord>
MALFORMED_RECORD_IN_PARSING
形式が正しくないレコードは、レコードの解析で検出されます: <badRecord>
。
解析モード: <failFastMode>
。 形式に誤りがあるレコードを null 結果として処理するには、オプション 'mode' を 'PERMISSIVE' に設定してみてください。
詳細については、「MALFORMED_RECORD_IN_PARSING」をご覧ください
MALFORMED_VARIANT
バリアント バイナリの形式に誤りがあります。 データ ソースが有効であることを確認してください。
MANAGED_TABLE_WITH_CRED
ストレージ資格情報を使用したマネージド テーブルの作成はサポートされていません。
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
具体化されたビューは pipelineId を持つよりも前のものであるため、<refreshType>
を実行できません。 <refreshType>
を有効にするには、具体化されたビューを削除して再作成してください。
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
具体化されたビューの操作 <operation>
は許可されません。
詳細については、「MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED」をご覧ください
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
具体化されたビューの出力式 <expression>
は、明示的にエイリアス化する必要があります。
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
具体化されたビュー <name>
をストリーミング クエリで作成できませんでした。 CREATE [OR REFRESH] STREAMING TABLE を使用するか、FROM 句から STREAM キーワードを削除して、このリレーションをバッチ クエリにしてください。
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
このバージョンの具体化されたビューでは、操作 <operation>
はサポートされていません。
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
セッション内の変数の数が最大許容数 (<maxNumVariables>
) を超えているため、新しい変数 <variableName>
を作成できません。
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch は、<kinesisRecordLimit>
以下の正の整数である必要があります
MERGE_CARDINALITY_VIOLATION
MERGE ステートメントの ON 検索条件で、ターゲット テーブルの 1 つの行とソース テーブルの複数の行が一致しました。
これにより、ターゲット列が更新または削除操作で複数回操作される可能性がありますが、これは許可されていません。
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT は有効ではありません。
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
指定された値 "<argValue>
" は METRIC_STORE テーブル関数の引数 "<argName>
" ではサポートされていません。
詳細については、「METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR」を参照してください
METRIC_STORE_UNSUPPORTED_ERROR
Metric Store 関数 <functionName>
は現在、この環境では無効になっています。
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Trigger.AvailableNow の Kafka データ ソースは、各マイクロバッチのプリフェッチ オフセットから終了オフセットに同じトピック パーティションを提供する必要があります。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告してください。
プリフェッチされたオフセットのトピック パーティション: <tpsForPrefetched>
、 終了オフセットのトピック パーティション: <tpsForEndOffset>
MISSING_AGGREGATION
非集計式 <expression>
は、GROUP BY 句に参加していない列に基づいています。
GROUP BY に列または式を追加するか、式を集計します。または、グループ内のどの値が返されるかを気にしない場合、<expressionAnyValue>
を使用します。
詳細については、「MISSING_AGGREGATION」をご覧ください
MISSING_CONNECTION_OPTION
型 '<connectionType>
' の接続には、次のオプションを含める必要があります: <requiredOptions>
。
MISSING_GROUP_BY
クエリに GROUP BY 句が含まれていません。 GROUP BY を追加するか、OVER 句を使用してウィンドウ関数に変換します。
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK 制約には名前が必要です。
MISSING_PARAMETER_FOR_KAFKA
Kafka には パラメーター <parameterName>
が必要ですが、<functionName>
では指定されていません。
MISSING_PARAMETER_FOR_ROUTINE
パラメーター <parameterName>
が必要ですが、<functionName>
では指定されていません。
MISSING_WINDOW_SPECIFICATION
ウィンドウの指定は、 <windowName>
の WINDOW 句では定義されていません。 WINDOW 句の詳細については、「<docroot>
/sql-ref-syntax-qry-select-window.html」を参照してください。
MODIFY_BUILTIN_CATALOG
組み込みカタログ <catalogName>
の変更はサポートされていません。
MULTIPLE_LOAD_PATH
Databricks Delta では、load() API で複数の入力パスがサポートされていません。
パス: <pathList>
。 同じ Delta テーブルから複数のパスを読み込んで
単一の DataFrame をビルドするには、対応するパーティション フィルターを使用して
Delta テーブルのルート パスを読み込んでください。 複数のパスが異なる Delta テーブルからの
ものである場合は、データセットの union()/unionByName() API を使用して、
個別の load() API 呼び出しによって生成された DataFrame を結合してください。
MULTIPLE_MATCHING_CONSTRAINTS
指定の条件で、一致する制約が少なくとも 2 つ見つかりました。
MULTIPLE_TIME_TRAVEL_SPEC
タイム トラベル句とオプションの両方にタイム トラベルを指定することはできません。
MULTIPLE_XML_DATA_SOURCE
<provider>
(<sourceNames>
) という名前の複数のデータ ソースが検出されました。 完全修飾クラス名を指定するか、クラスパスから <externalSource>
を削除してください。
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
式 <expr>
では、複数のソースがサポートされていません。
MULTI_UDF_INTERFACE_ERROR
複数の UDF インターフェイス、UDF クラス <className>
を実装することは許可されていません。
MUTUALLY_EXCLUSIVE_CLAUSES
相互に排他的な句またはオプション <clauses>
。 これらの句のいずれかを削除してください。
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
入力クエリでは <expectedType>
が必要ですが、基になるテーブルは <givenType>
です。
NAMED_PARAMETERS_NOT_SUPPORTED
名前付きパラメーターは <functionName>
関数ではサポートされていません。代わりに、関数呼び出しに位置引数を指定してクエリを再試行してください。
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
名前付き引数参照はサポートされていないため、関数 <functionName>
を呼び出すことができません。 この場合、名前付き引数参照は <argument>
でした。
NAMED_PARAMETER_SUPPORT_DISABLED
ここでは名前付き引数参照が有効になっていないため、関数 <functionName>
を呼び出すことができません。
この場合、名前付き引数参照は <argument>
でした。
機能を有効にするには、“spark.sql.allowNamedFunctionArguments” を “true” に設定します。
NAMESPACE_ALREADY_EXISTS
その名前空間 <nameSpaceName>
は既に存在するので作成できません。
別の名前を選択するか、既存の名前空間を削除するか、既存の名前空間を許容するために IF NOT EXISTS 句を追加します。
NAMESPACE_NOT_EMPTY
オブジェクトが含まれているため、名前空間 <nameSpaceNameName>
を削除できません。
DROP NAMESPACE ... CASCADE を使用して、名前空間とそのすべてのオブジェクトを削除します。
NAMESPACE_NOT_FOUND
名前空間 <nameSpaceName>
が見つかりません。 名前空間のスペルと正確さを確認します。
名前を修飾しなかった場合は、current_schema() 出力を確認するか、名前を正しく修飾します。
ドロップのエラーを許容するには、DROP NAMESPACE IF EXISTS を使用します。
NATIVE_IO_ERROR
ネイティブ要求が失敗しました。 requestId: <requestId>
, クラウド: <cloud>
, 操作: <operation>
request: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
エラー: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
このクラスターで、ネイティブ XML データ ソースが有効になっていません。
NESTED_AGGREGATE_FUNCTION
別の集計関数の引数で集計関数を使用することはできません。 サブクエリで内部集計関数を使用してください。
NESTED_EXECUTE_IMMEDIATE
入れ子になった EXECUTE IMMEDIATE コマンドは使用できません。 指定された SQL クエリ (<sqlString>
) に別の EXECUTE IMMEDIATE コマンドが含まれていないことを確認してください。
NONEXISTENT_FIELD_NAME_IN_LIST
フィールド <nonExistFields>
は存在しません。 使用できるフィールド: <fieldNames>
NON_FOLDABLE_ARGUMENT
関数 <funcName>
では、パラメーター <paramName>
が <paramType>
型の折りたたみ可能な式である必要がありますが、実際の引数は折りたたみ不可能です。
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
MERGE ステートメントに複数の MATCHED 句がある場合、最後の MATCHED 句のみが条件を省略できます。
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
MERGE ステートメントに複数の NOT MATCHED BY SOURCE 句がある場合、最後の NOT MATCHED BY SOURCE 句のみが条件を省略できます。
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
MERGE ステートメントに複数の NOT MATCHED [BY TARGET] 句がある場合、最後の NOT MATCHED [BY TARGET] 句のみが条件を省略できます。
NON_LITERAL_PIVOT_VALUES
ピボット値に必要なリテラル式 <expression>
が見つかりました。
NON_PARTITION_COLUMN
PARTITION 句にパーティション以外の列を含めることはできません: <columnName>
。
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
ウィンドウ関数は、ストリーミング DataFrame/データセットの <windowFunc>
(列 <columnName>
として) ではサポートされていません。
構造化ストリームでは、WINDOW 関数を使用した時間枠の集計のみがサポートされます。 (ウィンドウの仕様: <windowSpec>
)
NOT_ALLOWED_IN_FROM
FROM 句では使用できません。
詳細については、「NOT_ALLOWED_IN_FROM」をご覧ください
NOT_A_CONSTANT_STRING
ルーチンまたは句 <name>
に使用される式 <expr>
は、NOT NULL である定数 STRING
である必要があります。
詳細については、「NOT_A_CONSTANT_STRING」をご覧ください
NOT_A_PARTITIONED_TABLE
<tableIdentWithDB>
はパーティション テーブルではないため、操作 <operation>
は許可されません。
NOT_A_SCALAR_FUNCTION
<functionName>
はここでスカラー式として表示されますが、この関数はテーブル関数として定義されています。 クエリを更新して関数呼び出しを FROM 句に移動するか、代わりに <functionName>
をスカラー関数として再定義してください。
NOT_A_TABLE_FUNCTION
<functionName>
はここでテーブル関数として表示されますが、この関数はスカラー関数として定義されています。 クエリを更新して関数呼び出しを FROM 句の外部に移動するか、代わりに <functionName>
をテーブル関数として再定義してください。
NOT_NULL_ASSERT_VIOLATION
null 非許容フィールド (<walkedTypePath>
) に NULL 値が表示されました。Scala タプル/ケース クラスまたは JavaBean からスキーマが推論された場合は、scala.Option[_] または他の null 許容型 を使用してみてください(int/scala.Int ではなく、java.lang.Integer など)。
NOT_NULL_CONSTRAINT_VIOLATION
ここでは NULL を割り当てることはできません。
詳細については、「NOT_NULL_CONSTRAINT_VIOLATION」をご覧ください
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER/CHANGE COLUMN では、型が <originType>
の <table>
の列 <originName>
を型が <newType>
の <newName>
に変更できません。
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
は v2 テーブルではサポートされていません。
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
はサポートされていません。有効にする場合、"spark.sql.catalogImplementation" を "hive" に設定してください。
NOT_SUPPORTED_IN_JDBC_CATALOG
JDBC カタログではサポートされていないコマンド:
詳細については、「NOT_SUPPORTED_IN_JDBC_CATALOG」をご覧ください
NOT_SUPPORTED_WITH_DB_SQL
<operation>
は、SQL <endpoint>
ではサポートされていません。
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
はサーバーレス コンピューティングではサポートされていません。
NOT_UNRESOLVED_ENCODER
未解決のエンコーダーが予想されましたが、<attr>
が見つかりました。
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
<colName>
は Null 許容でなく、既定値がないため、既定値を決定できません。
NO_HANDLER_FOR_UDAF
UDAF '<functionName>
' のハンドラーはありません。 代わりに sparkSession.udf.register(...) を使用します。
NO_MERGE_ACTION_SPECIFIED
df.mergeInto の後に、whenMatched/whenNotMatched/whenNotMatchedBySource の少なくとも 1 つが続く必要があります。
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: 割り当てなし
パス ‘<path>
’の親となる外部の場所が見つかりませんでした。 親パスの 1 つに外部の場所を作成してから、クエリまたはコマンドを再試行してください。
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Protobuf スキーマで <catalystFieldPath>
が見つかりません。
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: 割り当てなし
テーブルの資格情報を生成するときに、テーブル ‘<tableId>
’の保存場所が見つかりませんでした。 テーブルの種類とテーブルの場所の URL を確認してから、クエリまたはコマンドを再試行してください。
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE: 割り当てなし
カタログ ‘<catalog>
’ が見つかりませんでした。 カタログ名を確認してから、クエリまたはコマンドを再試行してください。
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: 割り当てなし
クリーン ルーム ‘<cleanroom>
’ が存在しません。 クリーン ルーム名が正しく入力されており、既存の有効なクリーン ルームの名前と一致することを確認してから、クエリまたはコマンドをもう一度試してください。
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: 割り当てなし
外部の場所 ‘<externalLocation>
’ が存在しません。 外部の場所名が正しいことを確認してから、クエリまたはコマンドを再試行してください。
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: 割り当てなし
メタストアが見つかりませんでした。 アカウント管理者に依頼して、現在のワークスペースにメタストアを割り当ててから、クエリまたはコマンドをを再試行してください。
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: 割り当てなし
共有プロバイダー ‘<providerName>
’は存在しません。 共有プロバイダー名が正しく入力されており、有効な既存のプロバイダーの名前と一致することを確認してから、クエリまたはコマンドをを再試行してください。
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: 割り当てなし
受信者 ‘<recipient>
’ は存在しません。 受信者名が正しく入力されており、有効な既存の受信者の名前と一致することを確認してから、クエリまたはコマンドをを再試行してください。
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: 割り当てなし
共有 ‘<share>
’ は存在しません。 共有名が正しく入力されており、有効な既存の共有の名前と一致することを確認してから、クエリまたはコマンドをを再試行してください。
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: 割り当てなし
ストレージ資格情報 ‘<storageCredential>
’ は存在しません。 ストレージ資格情報名が正しく入力されており、有効な既存のストレージ資格情報の名前と一致することを確認してから、クエリまたはコマンドをを再試行してください。
NO_SUCH_USER_EXCEPTION
SQLSTATE: 割り当てなし
ユーザー ‘<userName>
’ は存在しません。 アクセス許可を付与するか所有権を変更するユーザーが正しく入力されており、有効な既存のユーザーの名前と一致することを確認してから、クエリまたはコマンドをを再試行してください。
NO_UDF_INTERFACE
UDF クラス <className>
に UDF インターフェイスが実装されていません。
NULLABLE_COLUMN_OR_FIELD
列またはフィールド <name>
が null 許容になっていますが、null 非許容である必要があります。
NULLABLE_ROW_ID_ATTRIBUTES
行 ID 属性を null 許容にすることはできません: <nullableRowIdAttrs>
NULL_DATA_SOURCE_OPTION
データ ソースの読み取り/書き込みオプション <option>
null 値を持つことはできません。
NULL_MAP_KEY
null をマップ キーとして使用することはできません。
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
EXECUTE IMMEDIATE はクエリ文字列として null 以外の変数が必要ですが、指定された変数 <varName>
は null です。
NUMERIC_OUT_OF_SUPPORTED_RANGE
値 <value>
は 38 桁を超えているため、数値として解釈できません。
NUMERIC_VALUE_OUT_OF_RANGE
詳細については、「NUMERIC_VALUE_OUT_OF_RANGE」を参照してください
NUM_COLUMNS_MISMATCH
<operator>
は同じ数の列を持つ入力に対してのみ実行できますが、最初の入力に <firstNumColumns>
列あり、<invalidOrdinalNum>
入力に <invalidNumColumns>
列あります。
NUM_TABLE_VALUE_ALIASES_MISMATCH
指定されたエイリアスの数が出力列の数と一致しません。
関数名: <funcName>
。エイリアスの数: <aliasesNum>
。出力列の数: <outColsNum>
。
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
カスタム ID 要求が指定されませんでした。
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
呼び出し関数 <functionName>
はこの <location>
ではサポートされていません。ここでは <supportedFunctions>
がサポートされています。
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
SQL 操作 <operation>
は、Unity Catalog でサポートされる Databricks SQL コネクタでのみサポートされます。
OPERATION_CANCELED
操作はキャンセルされました。
OPERATION_REQUIRES_UNITY_CATALOG
操作 <operation>
では、Unity Catalog を有効にする必要があります。
OP_NOT_SUPPORTED_READ_ONLY
<plan>
は、読み取り専用セッション モードではサポートされていません。
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY の位置 <index>
が選択リストにありません (有効な範囲は [1, <size>
] です)。
PARQUET_CONVERSION_FAILURE
Parquet 型が<parquetType>
データ型<dataType>
の Parquet コンバーターを作成できません。
詳細については、 PARQUET_CONVERSION_FAILUREを参照してください。
PARSE_EMPTY_STATEMENT
構文エラー、予期しない空のステートメント。
PARSE_SYNTAX_ERROR
<error>
<hint>
付近で構文エラーが発生しました。
PARTITIONS_ALREADY_EXIST
テーブル <tableName>
内にパーティションが既に存在するため、パーティション <partitionList>
の追加または名前の変更ができません。
別の名前を選択するか、既存のパーティションを削除するか、既存のパーティションを許容するために IF NOT EXISTS 句を追加します。
PARTITIONS_NOT_FOUND
パーティション <partitionList>
がテーブル <tableName>
に見つかりません。
パーティションの仕様とテーブル名を確認します。
ドロップ時のエラーを許容するには、ALTER TABLE … を使用します。 DROP IF EXISTS PARTITION.
PARTITION_LOCATION_ALREADY_EXISTS
パーティションの場所 <locationPath>
は、テーブル <tableName>
に既に存在します。
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
ALTER TABLE SET PARTITION LOCATION ステートメントを実行できませんでした。その理由は、
パーティションの場所 <location>
は、テーブル ディレクトリ <table>
にないからです。
これを修正するには、パーティションの場所を <table>
のサブディレクトリに設定してください。
PARTITION_METADATA
パーティション メタデータの格納は Unity Catalog ではサポートされていないため、<action>
をテーブル <tableName>
で使用できません。
PATH_ALREADY_EXISTS
パス <outputPath>
が既に存在します。 既存のパスを上書きするには、モードを "overwrite" に設定します。
PATH_NOT_FOUND
パスが存在しません: <path>
。
PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION
パイプ演算子 |> を使用する場合、集計関数の<expr>
は許可されませんSELECT 句。パイプ演算子 |> を使用してください代わりに AGGREGATE 句
PIVOT_VALUE_DATA_TYPE_MISMATCH
無効なピボット値 ‘<value>
’: 値のデータ型 <valueType>
がピボット列のデータ型 <pivotType>
と一致しません。
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
プロシージャ <procedureName>
では <expected>
引数が期待されますが、<actual>
が提供されました。
PROCEDURE_CREATION_EMPTY_ROUTINE
空のルーチン定義を持つ CREATE PROCEDURE は使用できません。
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
パラメーター <parameterName>
は、パラメーター モード <parameterMode>
で定義されます。 OUT パラメーターおよび INOUT パラメーターは、ルーチンの呼び出し時に省略できないため、DEFAULT 式をサポートしていません。 続行するには、DEFAULT 句を削除するか、パラメーター モードを IN に変更します。
PROCEDURE_NOT_SUPPORTED
ストアド プロシージャはサポートされていません
PROCEDURE_NOT_SUPPORTED_WITH_HMS
ストアド プロシージャは Hive メタストアではサポートされていません。 代わりに Unity Catalog を使用してください。
PROTOBUF_DEPENDENCY_NOT_FOUND
依存関係 <dependencyName>
が見つかりません。
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
次のパスで Protobuf 記述子ファイルを読み取り中にエラーが発生しました: <filePath>
。
PROTOBUF_FIELD_MISSING
<protobufSchema>
の Protobuf スキーマで <field>
を検索した結果、<matchSize>
件の一致を取得しました。 候補: <matches>
。
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Protobuf スキーマで <field>
が見つかりましたが、SQL スキーマで一致するものはありません。
PROTOBUF_FIELD_TYPE_MISMATCH
フィールド <field>
に対して型の不一致が見つかりました。
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Java クラスは <protobufFunction>
ではサポートされていません。 代替オプションについては、Databricks サポートにお問い合わせください。
PROTOBUF_MESSAGE_NOT_FOUND
記述子でメッセージ <messageName>
が見つかりません
PROTOBUF_TYPE_NOT_SUPPORT
Protobuf 型はまだサポートされていません: <protobufType>
。
PS_FETCH_RETRY_EXCEPTION
PubSub フェッチ ステージのタスクを再試行できません。 ステージ <stageInfo>
のパーティション <partitionInfo>
、TID <taskId>
。
PS_INVALID_EMPTY_OPTION
<key>
を空の文字列にすることはできません。
PS_INVALID_KEY_TYPE
PubSub 重複除去のキーの種類が無効です: <key>
。
PS_INVALID_OPTION
このオプション <key>
は PubSub ではサポートされていません。 テストでのみ使用できます。
PS_INVALID_OPTION_TYPE
<key>
の型が無効です。 <key>
の予期された型は型 <type>
です。
PS_INVALID_READ_LIMIT
PubSub ストリームの読み取り制限が無効です: <limit>
。
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
PubSubMessageMetadata にデコードする UnsafeRow が無効です。目的の proto スキーマは <protoSchema>
です。 UnsafeRow の入力が破損している可能性があります: <unsafeRow>
。
PS_MISSING_AUTH_INFO
完全な PubSub 認証情報を見つけることができませんでした。
PS_MISSING_REQUIRED_OPTION
必要なオプションが見つかりませんでした: <key>
。
PS_MOVING_CHECKPOINT_FAILURE
生データのチェックポイント ファイルを <src>
から宛先ディレクトリ <dest>
に移動できませんでした。
PS_MULTIPLE_FAILED_EPOCHS
失敗したフェッチが複数あるため、PubSub ストリームを開始できません: <failedEpochs>
。
PS_OPTION_NOT_IN_BOUNDS
<key>
は、次の境界 (<min>
、<max>
) 内に含まれている必要があります (境界はいずれも含みません)。
PS_PROVIDE_CREDENTIALS_WITH_OPTION
共有クラスターでは、インスタンス プロファイルを使用した認証はサポートされていません。 .option() を使用してストリームに資格情報を直接指定します。
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub ソース コネクタは、spark.speculation
が無効になっているクラスターでのみ使用できます。
PS_UNABLE_TO_CREATE_SUBSCRIPTION
トピック <topicId>
でサブスクリプション <subId>
の作成中にエラーが発生しました。 サブスクリプションを作成するのに十分なアクセス許可があることを確認して再度試してみてください。
PS_UNABLE_TO_PARSE_PROTO
シリアル化されたバイトを解析して proto を生成できません。
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset は、制限を指定しないとサポートされません。
PYTHON_DATA_SOURCE_ERROR
Python データ ソース <type>
を <action>
できませんでした: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Python ストリーミング ータソースで <action>
を実行したときに失敗しました: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
以前に割り当てられた列マスクが、現在はテーブル スキーマと互換性がないため、参照先テーブルにアクセスできません。続行するには、テーブルの所有者に連絡してポリシーの更新を依頼してください:
詳細については、「QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY」をご覧ください
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
以前に割り当てられた行レベルのセキュリティ ポリシーが、現在はテーブル スキーマと互換性がないため、参照先テーブルにアクセスできません。続行するには、テーブルの所有者に連絡してポリシーの更新を依頼してください:
詳細については、「QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY」をご覧ください
READ_CURRENT_FILE_NOT_FOUND
<message>
基になるファイルが更新されている可能性があります。 SQL で ‘REFRESH TABLE tableName’ コマンドを実行するか、関連する Dataset/DataFrame を再作成することで、Spark 内のキャッシュを明示的に無効にできます。
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
関数 <functionName>
の呼び出しに <parameterName>
と <alternativeName>
が設定されています。これらは相互の別名です。 それらのうち 1 つだけを設定してください。
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
関数 <functionName>
の必須パラメーター <parameterName>
は、名前のない位置 <expectedPos>
に割り当てる必要があります。
RECIPIENT_EXPIRATION_NOT_SUPPORTED
受信者の有効期限タイムスタンプでは、TIMESTAMP
/TIMESTAMP_LTZ/TIMESTAMP_NTZ のデータ型のみがサポートされます。
RECURSIVE_PROTOBUF_SCHEMA
Protobuf スキーマで再帰参照が見つかりました: <fieldDescriptor>
。これは、既定では Spark で処理できません。 オプション recursive.fields.max.depth
1 から 10 に設定してみてください。 10 レベルを超える再帰は許可されません。
RECURSIVE_VIEW
再帰ビュー <viewIdent>
が検出されました (サイクル: <newPath>
)。
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
DEFAULT 列の値への参照は、PARTITION 句内では使用できません。
RELATION_LARGER_THAN_8G
8G より大きい <relationName>
をビルドできません。
REMOTE_FUNCTION_HTTP_FAILED_ERROR
リモート HTTP 要求がコード <errorCode>
、エラー メッセージ <errorMessage>
で失敗しました
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
リモート HTTP 応答から JSON の結果を解析できないため、<functionName>
SQL 関数を評価できませんでした。エラー メッセージは <errorMessage>
です。 API ドキュメント <docUrl>
を確認してください。 エラー メッセージに示されている問題を修正し、クエリをを再試行してください。
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
予期しないリモート HTTP 応答を処理できないため、<functionName>
SQL 関数を評価できませんでした。エラー メッセージは <errorMessage>
です。 API ドキュメント <docUrl>
を確認してください。 エラー メッセージに示されている問題を修正し、クエリをを再試行してください。
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
<N>
回の再試行後にリモート要求が失敗しました。最後に失敗した HTTP エラー コードは <errorCode>
で、メッセージは <errorMessage>
でした
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
<errorMessage>
のため、<functionName>
SQL 関数を評価できませんでした。 <docUrl>
の要件を確認してください。 エラー メッセージに示されている問題を修正し、クエリをを再試行してください。
RENAME_SRC_PATH_NOT_FOUND
<sourcePath>
が見つからなかったため、名前を変更できませんでした。
REPEATED_CLAUSE
<clause>
句は、<operation>
操作ごとに最大 1 回使用できます。
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
関数 <functionName>
の必須パラメーター <parameterName>
は、名前のない位置 <positionalIndex>
に割り当てられています。
このパラメーターの <parameterName>
を含む名前付き引数を削除するか、または
<positionalIndex>
で位置引数を削除してもう一度クエリをお試しください。
REQUIRED_PARAMETER_NOT_FOUND
<parameterName>
という名前のパラメーターが必要ですが、関数呼び出しで値が指定されていないため、関数 <functionName>
を呼び出せません。 関数呼び出しを更新して引数の値 (インデックス位置 <index>
または名前) を指定し、クエリをもう一度お試しください。
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
には単一部分の名前空間が必要ですが、<namespace>
が取得されました。
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
'rescuedDataColumn' DataFrame API リーダー オプションは、'singleVariantColumn' DataFrame API オプションと相互に排他的です。
そのうちの 1 つを削除してから、DataFrame 操作をもう一度やり直してください。
RESERVED_CDC_COLUMNS_ON_WRITE
書き込みには、使用される予約列 <columnList>
が含まれます
使用される予約済みの列
<config>
を false に設定します。
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
オプション <option>
には、<source>
ソースの共有クラスターに関する制限された値があります。
詳細については、「RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED」をご覧ください
ROUTINE_ALREADY_EXISTS
その名前の<existingRoutineType>
が既に存在するため、<newRoutineType>
<routineName>
を作成できません。
別の名前を選択するか、既存の <existingRoutineType>
を削除または置き換えるか、既存の <newRoutineType>
を許容する IF NOT EXISTS 句を追加します。
ROUTINE_NOT_FOUND
ルーチン <routineName>
が見つかりません。 スキーマとカタログのスペルと正確さを確認します。
スキーマとカタログで名前を修飾しなかった場合は、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。
ドロップ時のエラーを許容するには DROP を使用します… IF EXISTS.
ROUTINE_PARAMETER_NOT_FOUND
関数 <functionName>
は、位置 <pos>
で指定されたパラメーター <parameterName>
をサポートしていません。<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
指定したクラス名 '<className>
' はシステム使用のために予約されているため、関数 <routineName>
を作成できません。 クラスの名前を変更して、もう一度やり直してください。
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
行レベル セキュリティ ポリシーを持つテーブル <tableName>
に対する CHECK 制約の作成はサポートされていません。
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
<statementType>
ステートメントがテーブルに行レベルのセキュリティ ポリシーを割り当てようとしましたが、参照される 2 つ以上の列の名前 <columnName>
が同じです。これは無効です。
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
<tableName>
に対する行レベルのセキュリティ ポリシーはサポートされていません:
詳細については、「ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED」をご覧ください
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
テーブル <tableName>
から <statementType>
<columnName>
できません。これは行レベルのセキュリティ ポリシーで参照されているためです。 先に進む前に、テーブル所有者はこのポリシーを削除または変更する必要があります。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO 操作では、ソース テーブル <tableName>
で行レベルのセキュリティ ポリシーがサポートされていません。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO 操作では、行レベルのセキュリティ ポリシーを使用したテーブル <tableName>
への書き込みがサポートされていません。
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
このステートメントはテーブルに行レベルのセキュリティ ポリシーを割り当てようとしましたが、参照される列 <columnName>
に複数の名前部分があります。これは無効です。
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
行レベルのセキュリティ ポリシーは、Unity Catalog でのみサポートされています。
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
行レベル セキュリティ ポリシーを持つテーブル <tableName>
からの <mode>
複製はサポートされていません。
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
行レベル セキュリティ ポリシーを持つテーブル <tableName>
への <mode>
複製はサポートされていません。
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
行レベルのセキュリティ ポリシーのパラメータとして定数を使うことはサポートされていません。 SQL コマンドを更新し、行フィルターの定義から定数を削除してから、コマンドをもう一度試してください。
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
テーブル プロバイダー “<provider>
” を使用したターゲット データ ソースでは、行レベルのセキュリティ ポリシーの割り当てはサポートされていないため、<statementType>
コマンドの実行に失敗しました。
ROW_SUBQUERY_TOO_MANY_ROWS
行として使用されるサブクエリによって複数の行が返されました。
ROW_VALUE_IS_NULL
インデックス <index>
の行に NULL が見つかりました。NULL 以外の値が必要です。
RULE_ID_NOT_FOUND
ルール名 "<ruleName>
" の ID が見つかりません。 新しいルールを追加する場合、RuleIdCollection.scala を変更してください。
SAMPLE_TABLE_PERMISSIONS
サンプル データベース/テーブルでは、権限はサポートされていません。
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
相関スカラー サブクエリ ‘<sqlExpr>
’ は GROUP BY と集合関数のどちらにも存在しません。
序数位置を使用して GROUP BY に追加するか、得られる値を考慮しない場合は first()
(または first_value
) にラップします。
SCALAR_SUBQUERY_TOO_MANY_ROWS
式として使用されるサブクエリによって 1 つ以上の行が返されました。
SCHEDULE_PERIOD_INVALID
<timeUnit>
のスケジュール期間は、1 ~ <upperBound>
(両端を含む) の整数値である必要があります。 受信済み: <actual>
。
SCHEMA_ALREADY_EXISTS
スキーマ <schemaName>
は既に存在するため、作成できません。
別の名前を選択するか、既存のスキーマを削除するか、既存のスキーマを許容するために IF NOT EXISTS 句を追加します。
SCHEMA_NOT_EMPTY
オブジェクトが含まれているため、スキーマ <schemaName>
を削除できません。
DROP SCHEMA … CASCADE を使用して、スキーマとそのすべてのオブジェクトを削除します。
SCHEMA_NOT_FOUND
スキーマ <schemaName>
が見つかりません。 スキーマとカタログのスペルと正確さを確認します。
名前をカタログで修飾しなかった場合は、current_schema() 出力を確認するか、名前を正しいカタログで修飾します。
ドロップのエラーを許容するには、DROP SCHEMA IF EXISTS を使用します。
SCHEMA_REGISTRY_CONFIGURATION_ERROR
スキーマ レジストリからのスキーマを初期化できませんでした。 <reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
<functionName>
関数の 2 番目の引数は整数である必要があります。
SECRET_FUNCTION_INVALID_LOCATION
SECRET 関数への 1 つ以上の暗号化されていない参照を含む <commandType>
コマンドを実行できません。このような関数呼び出しの結果を AES_ENCRYPT で暗号化し、もう一度実行してください
SEED_EXPRESSION_IS_UNFOLDABLE
式 <exprWithSeed>
のシード式 <seedExpr>
は折りたたみ可能である必要があります。
SERVER_IS_BUSY
サーバーがビジー状態であり、要求を処理できませんでした。 しばらく待ってから、もう一度お試しください。
SORT_BY_WITHOUT_BUCKETING
sortBy は bucketBy と共に使用する必要があります。
SPARK_JOB_CANCELLED
ジョブ <jobId>
取り消し <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
明示的な列リストのない CREATE TABLE では、バケット情報を指定できません。
明示的な列リストを含むフォームを使用し、バケット情報を指定してください。
または、句を省略して、バケット情報を推論できるようにします。
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
CLUSTER BY と CLUSTERED BY INTO BUCKETS の両方を指定することはできません。
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
CLUSTER BY と PARTITIONED BY の両方を指定することはできません。
SPECIFY_PARTITION_IS_NOT_ALLOWED
明示的な列リストのない CREATE TABLE では、PARTITIONED BY を指定できません。
明示的な列リストを含むフォームを使用し、PARTITIONED BY を指定してください。
または、PARTITION BY 句を省略してパーティション分割を推論することもできます。
SQL_CONF_NOT_FOUND
SQL 構成 <sqlConf>
が見つかりません。 構成が存在することをご確認ください。
STAGING_PATH_CURRENTLY_INACCESSIBLE
ターゲットのステージング パス <path>
へのアクセス中に一時的なエラーが発生しました。数分後にお試しください
STAR_GROUP_BY_POS
GROUP BY の序数位置を使用する場合、選択リストでは星 (*) は使用できません。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
無効なハンドル状態=<handleState>
を含むステートフル プロセッサ操作=<operationType>
を実行できませんでした。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
無効な timeMode=<timeMode>
を含むステートフル プロセッサ操作=<operationType>
を実行できませんでした
STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY
ステートフル プロセッサの初期状態処理中に、同じグループ化キーで状態を再初期化できません。 無効なグループ化キー=<groupingKey>
。 初期状態を確認し、重複行を削除してクエリを再開してください。
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
名前 <stateVarName>
を持つ状態変数は、StatefulProcessor で既に定義されています。
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
timeMode=<timeMode>
の state=<stateName>
では TTL を使用できないので、代わりに TimeMode.ProcessingTime() を使用します。
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
state=<stateName>
に対する状態ストア操作=<operationType>
では、TTL 期間はゼロより大きくする必要があります。
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
不明な時間モードの <timeMode>
。 許容される timeMode モードは 'none'、'processingTime'、'eventTime' です
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
サポートされていない開始文字と name=<colFamilyName>
を持つ列ファミリを作成できませんでした。
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
無効な name=<colFamilyName>
を含む列ファミリ operation=<operationName>
を実行できませんでした。 列ファミリ名が空であること、先頭/末尾に空白を含むこと、予約 keyword=default を使用することはできません。
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
列 family=<colFamilyName>
、oldSchema=<oldSchema>
、newSchema=<newSchema>
と互換性のないスキーマ変換。
STATE_STORE_HANDLE_NOT_INITIALIZED
この StatefulProcessor では、ハンドルが初期化されていません。
StatefulProcessor は、transformWithState 演算子内でのみ使用してください。
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
範囲スキャン エンコーダーの順序序数=<numOrderingCols>
が正しくありません。 順序序列数は、スキーマ列の数より 0 以上多くすることはできません。
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
プレフィックス スキャン エンコーダーのプレフィックス列=<numPrefixCols>
が不正です。 プレフィックス列は、0 またはスキーマ列の数以上にすることはできません。
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
再起動の間に <configName>
を <oldConfig>
から <newConfig>
に変更することはできません。 <configName>
を<oldConfig>
に設定するか、新しいチェックポイント ディレクトリで再起動してください。
STATE_STORE_INVALID_PROVIDER
指定されたステート ストア プロバイダー <inputClass>
では、org.apache.spark.sql.execution.streaming.state.StateStoreProvider は拡張されません。
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
クエリの再起動の間に <stateVarName>
を <newType>
に変更することはできません。 <stateVarName>
を<oldType>
に設定するか、新しいチェックポイント ディレクトリで再起動してください。
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
name=<fieldName>
で index=<index>
の Null 型順序列は、範囲スキャン エンコーダーではサポートされていません。
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
指定されたステート ストア プロバイダー <inputClass>
では、org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay は拡張されません。
そのため、状態データ ソースのオプション snapshotStartBatchId または readChangeFeed はサポートされていません。
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
列ファミリ=<colFamilyName>
が見つからない場合、状態ストア操作=<operationType>
はサポートされません。
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
name=<fieldName>
で index=<index>
を含む変数サイズ順序列は、範囲スキャン エンコーダーではサポートされていません。
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
静的パーティション列 <staticName>
は、列リストにも指定されます。
STDS_COMMITTED_BATCH_UNAVAILABLE
コミットされたバッチが見つかりません。チェックポイントの場所: <checkpointLocation>
。 停止する前に、クエリが実行され、マイクロバッチがコミットされていることを確認してください。
STDS_CONFLICT_OPTIONS
オプション <options>
を一緒に指定することはできません。 いずれか 1 つを指定してください。
STDS_FAILED_TO_READ_OPERATOR_METADATA
checkpointLocation=<checkpointLocation>
および batchId=<batchId>
の演算子メタデータを読み取れませんでした。
ファイルが存在しないか、ファイルが破損しています。
ストリーミング クエリを再実行して演算子メタデータを作成し、エラーが解決しない場合は対応するコミュニティまたはベンダーに報告します。
STDS_FAILED_TO_READ_STATE_SCHEMA
状態スキーマを読み取れませんでした。 ファイルが存在しないか、ファイルが破損しています。 オプション: <sourceOptions>
。
ストリーミング クエリを再実行して状態スキーマを構築します。エラーが解決しない場合は、対応するコミュニティまたはベンダーに報告してください。
STDS_INVALID_OPTION_VALUE
ソース オプション ‘<optionName>
’ に対する無効な値:
詳細については、「STDS_INVALID_OPTION_VALUE」をご覧ください
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
状態にパーティションがありません。 クエリが有効な状態を指していることを再確認してください。 オプション: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
<batchId>
のオフセット ログが存在しません。チェックポイントの場所: <checkpointLocation>
。
クエリに使用できるバッチ ID を指定してください。状態メタデータのデータ ソースを使用して、使用可能なバッチ ID のクエリを実行できます。
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
<batchId>
のオフセット ログにはメタデータを使用できません。チェックポイントの場所: <checkpointLocation>
。
チェックポイントは、以前のバージョンの Spark でのみ実行されるようです。 Spark が状態メタデータを構築できるように、最新バージョンの Spark でストリーミング クエリを実行してください。
STDS_REQUIRED_OPTION_UNSPECIFIED
‘<optionName>
’ を指定する必要があります。
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
アダプティブ クエリの実行は、構造化ストリーミングのステートフル演算子ではサポートされていません。
STREAMING_FROM_MATERIALIZED_VIEW
具体化されたビュー <viewName>
からストリーミングすることはできません。 具体化されたビューからのストリーミングはサポートされていません。
STREAMING_OUTPUT_MODE
ストリーミング出力モードが無効です: <outputMode>
。
詳細については、 STREAMING_OUTPUT_MODEを参照してください。
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
ストリーミング ステートフル演算子の名前が、状態メタデータの演算子と一致しません。 これは、ユーザーが既存のストリーミング クエリのステートフル演算子を追加、削除、変更するときに発生する可能性があります。
メタデータのステートフル演算子: [<OpsInMetadataSeq>
]、現在のバッチのステートフル演算子: [<OpsInCurBatchSeq>
]。
STREAMING_TABLE_NEEDS_REFRESH
<operation>
を実行するには、ストリーミング テーブル<tableName>
を更新する必要があります。 テーブルを更新するには、CREATE OR REFRESH STREAMING TABLE <tableName>
AS を実行してください。
STREAMING_TABLE_NOT_SUPPORTED
ストリーミング テーブルは、Delta Live Tables と Databricks SQL Warehouse でのみ作成および更新できます。
STREAMING_TABLE_OPERATION_NOT_ALLOWED
操作 <operation>
は許可されていません:
詳細については、「STREAMING_TABLE_OPERATION_NOT_ALLOWED」を参照してください。
STREAMING_TABLE_QUERY_INVALID
ストリーミング テーブル <tableName>
は、ストリーミング クエリからのみ作成できます。 STREAM キーワードを FROM 句に追加して、この関係をストリーミング クエリに変換してください。
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
<region>
の Kinesis ストリーム <streamName>
が見つかりません。
正しいストリーム名を指す新しいクエリを開始してください。
STRUCT_ARRAY_LENGTH_MISMATCH
入力行にスキーマで要求される数の値がありません。 <expected>
フィールドは必須で、<actual>
値が指定されます。
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
LIMIT 句と OFFSET 句の合計は、最大 32 ビット整数値 (2,147,483,647) より大きくすることはできませんが、制限 <limit>
、オフセット = <offset>
が見つかりました。
SYNC_METADATA_DELTA_ONLY
テーブル同期メタデータ修復コマンドは、Delta テーブルでのみサポートされています。
SYNC_METADATA_NOT_SUPPORTED
テーブル同期メタデータ修復コマンドは、Unity Catalog テーブルでのみサポートされています。
SYNC_SRC_TARGET_TBL_NOT_SAME
ソース テーブル名 <srcTable>
は、ターゲット テーブル名 <destTable>
と同じである必要があります。
SYNTAX_DISCONTINUED
句またはキーワードのサポート: <clause>
は、このコンテキストで廃止されました。
詳細については、「SYNTAX_DISCONTINUED」を参照してください
TABLE_OR_VIEW_ALREADY_EXISTS
テーブルまたはビュー <relationName>
は既に存在するため、作成できません。
別の名前を選択するか、既存のオブジェクトを削除するか、既存のオブジェクトを許容するために IF NOT EXISTS 句を追加するか、既存の具体化ビューを置き換えるためにOR REPLACE 句を追加するか、既存のストリーミング テーブルを更新するために OR REFRESH 句を追加します。
TABLE_OR_VIEW_NOT_FOUND
テーブルまたはビュー <relationName>
が見つかりません。 スキーマとカタログのスペルと正確さを確認します。
スキーマで名前を修飾しなかった場合は、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。
ドロップ時のエラーを許容するには、DROP VIEW IF EXISTS または DROP TABLE IF EXISTS を使用します。
詳細については、「TABLE_OR_VIEW_NOT_FOUND」をご覧ください
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
この機能はまだ実装されていないため、TABLE 引数を使用して SQL ユーザー定義関数 <functionName>
に <action>
を実行できません。
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Python ユーザー定義テーブル関数 <msg>
を分析できませんでした
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
テーブル メタデータは <requestedMetadata>
ですが、関数呼び出しは <invalidFunctionCallProperty>
であるため、テーブル関数 <functionName>
を評価できませんでした。
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
テーブル メタデータが無効なため、テーブル関数 <functionName>
を評価できませんでした (<reason>
)。
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
テーブル値関数のテーブル引数が多すぎます。
1 つのテーブル引数を使用できますが、<num>
個取得しました。
許可する場合、"spark.sql.allowMultipleTableArguments.enabled" を "true" に設定します
TABLE_WITH_ID_NOT_FOUND
ID <tableId>
を持つテーブルが見つかりません。 UUID の正確性を確認します。
TASK_WRITE_FAILED
<path>
への行の書き込み中にタスクが失敗しました。
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
一時ビュー <relationName>
は既に存在するため、作成できません。
別の名前を選択するか、既存のビューを削除または置換するか、既存のビューを許容するために IF NOT EXISTS 句を追加します。
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW または対応するデータセット API は、単一部分のビュー名のみを受け入れますが、次を取得します: <actualName>
。
UC_BUCKETED_TABLES
バケット テーブルは、Unity Catalog ではサポートされていません。
UC_CATALOG_NAME_NOT_PROVIDED
Unity Catalog の場合は、カタログ名を明示的に指定してください。 例: SHOW GRANT your.address@email.com
ON CATALOG main
UC_COMMAND_NOT_SUPPORTED
コマンド <commandName>
は Unity Catalog でサポートされていません。
詳細については、「UC_COMMAND_NOT_SUPPORTED」をご覧ください
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
コマンド <commandName>
は、共有アクセス モードの Unity Catalog クラスターではサポートされていません。 代わりに、シングル ユーザー アクセス モードを使用します。
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
指定された認証情報の種類はサポートされていません。
UC_DATASOURCE_NOT_SUPPORTED
データ ソース形式 <dataSourceFormatName>
は、Unity Catalog ではサポートされていません。
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
データ ソース オプションは、Unity Catalog ではサポートされていません。
UC_EXTERNAL_VOLUME_MISSING_LOCATION
外部ボリュームには LOCATION 句が存在する必要があります。 外部ボリュームを作成する場合、構文 'CREATE EXTERNAL VOLUME … LOCATION …’ をチェックしてください。
UC_FAILED_PROVISIONING_STATE
テーブル <tableName>
を参照しようとしましたが、参照できなかったため、クエリは失敗しました: <failureReason>
。 テーブル <tableName>
がアクティブなプロビジョニング状態になっていることを確認してから、クエリを再試行してください。
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
ファイル スキーム <schemeName>
を使用して Unity Catalog でテーブルを作成することはサポートされていません。
代わりに、同じテーブル プロバイダーの CREATE CONNECTION コマンドを使用してフェデレーション データ ソース接続を作成してから、CREATE FOREIGN CATALOG コマンドを使用して接続に基づいてカタログを作成し、その中のテーブルを参照してください。
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Hive Metastore フェデレーション ビューでは、複数のカタログ間の依存関係はサポートされていません。 Hive Metastore フェデレーション カタログのビュー <view>
は、hive_metastoreまたはspark_catalog カタログからの依存関係を使用する必要がありますが、依存関係 <dependency>
は別のカタログ <referencedCatalog>
にあります。 この制約を満たすように依存関係を更新してから、クエリまたはコマンドをもう一度やり直してください。
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Hive メタストア フェデレーションは、このクラスターでは有効になっていません。
カタログ <catalogName>
へのアクセスは、このクラスターではサポートされていません
UC_INVALID_DEPENDENCIES
<viewName>
の依存関係は <storedDeps>
として記録され、<parsedDeps>
として解析されます。 これは、SQL 以外の API を不適切に使用して発生した可能性があります。 Databricks Runtime の依存関係は、ALTER VIEW <viewName>
AS <viewText>
を実行することで修復できます。
UC_INVALID_NAMESPACE
入れ子になった名前空間または空の名前空間は、Unity Catalog ではサポートされていません。
UC_INVALID_REFERENCE
Unity Catalog 以外のオブジェクト <name>
を Unity Catalog オブジェクト内で参照することはできません。
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Unity Catalog Lakehouse フェデレーションの書き込みサポートが、このクラスターのプロバイダー <provider>
で有効になっていません。
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
マネージド ボリュームは LOCATION 句を受け入れていません。 マネージド ボリュームを作成する場合、構文 'CREATE VOLUME ...’ をチェックしてください。
UC_NOT_ENABLED
このクラスターでは Unity Catalog が有効になっていません。
UC_QUERY_FEDERATION_NOT_ENABLED
Unity Catalog クエリフェデレーションは、このクラスターでは有効になっていません。
UC_SERVICE_CREDENTIALS_NOT_ENABLED
このクラスターでは、サービスの認証情報が有効になっていません。
UC_VOLUMES_NOT_ENABLED
このインスタンスでは、Unity Catalog ボリュームのサポートは有効になっていません。
UC_VOLUMES_SHARING_NOT_ENABLED
このインスタンスでは、ボリューム共有のサポートは有効になっていません。
UC_VOLUME_NOT_FOUND
ボリューム <name>
は存在しません。 使用可能なボリュームを一覧表示するには、‘SHOW VOLUMES’ を使用してください。
UDF_ERROR
SQLSTATE: 割り当てなし
関数 <fn>
の実行に失敗しました
詳細については、「UDF_ERROR」をご覧ください
UDF_LIMITS
1 つ以上の UDF 制限に違反しました。
詳細については、「UDF_LIMITS」をご覧ください
UDF_MAX_COUNT_EXCEEDED
クエリ全体での UDF 制限 (UDF <maxNumUdfs>
個) を超えました (パブリック プレビュー中は制限されます)。 <numUdfs>
が見つかりました。 UDF は <udfNames>
です。
UDF_PYSPARK_ERROR
Python worker が予期せず終了しました
詳細については、 UDF_PYSPARK_ERRORを参照してください。
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf>
(<eval-type>
) は、共有アクセス モードのクラスターではサポートされていません。
UDF_PYSPARK_USER_CODE_ERROR
実行に失敗しました。
詳細については、 UDF_PYSPARK_USER_CODE_ERRORを参照してください。
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
パラメーターの既定値は、ユーザー定義の <functionType>
関数ではサポートされていません。
UDF_USER_CODE_ERROR
関数 <fn>
の実行に失敗しました。
詳細については、「UDF_USER_CODE_ERROR」をご覧ください
UDTF_ALIAS_NUMBER_MISMATCH
AS 句で指定されたエイリアスの数が、UDTF によって出力された列の数と一致しません。
<aliasesSize>
が予期されていましたが、<aliasesNames>
を取得しました。
指定されたエイリアスの数が、UDTF によって出力される列の数と一致していることを確認してください。
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
ユーザー定義テーブル関数を評価できませんでした。その ‘分析’ メソッドから、要求された OrderingColumn が返されましたが、その列名式に不要な別名 <aliasName>
が含まれていたためです。この別名を削除してから、もう一度クエリをお試しください。
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
ユーザー定義テーブル関数の ‘analyze’ メソッドが、対応する別名を含まない要求された ‘select’ 式 (<expression>
) を返したため、その関数を評価できませんでした。UDTF を更新して別名を指定してから、クエリをもう一度試してください。
UNABLE_TO_ACQUIRE_MEMORY
<requestedBytes>
バイトのメモリを取得できず、<receivedBytes>
を取得しました。
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
SQL 型 <toType>
を Protobuf 型 <protobufType>
に変換することはできません。
UNABLE_TO_FETCH_HIVE_TABLES
Hive データベース: <dbName>
のテーブルをフェッチできません。 エラー クラス名: <className>
。
UNABLE_TO_INFER_SCHEMA
<format>
のスキーマを推論できません。 手動で指定する必要があります。
UNAUTHORIZED_ACCESS
未承認のアクセス:
<report>
UNBOUND_SQL_PARAMETER
バインドされていないパラメーター <name>
が見つかりました。 args
を修正し、パラメーターのマッピングを、SQL リテラルまたはコレクション コンストラクター関数 (例: map()
、array()
、struct()
) に指定してください。
UNCLOSED_BRACKETED_COMMENT
閉じていない角かっこで囲まれたコメントが見つかりました。 コメントの末尾に */ を追加してください。
UNEXPECTED_INPUT_TYPE
関数 <functionName>
のパラメーター <paramIndex>
には <requiredType>
型が必要ですが、<inputSql>
には型 <inputType>
があります。
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
CREATE VIEW ステートメントの演算子 <op>
はストリーミング ソースとして予想外です。
ストリーミング ビュー クエリは、SELECT、WHERE、UNION ALL 操作のみで構成する必要があります。
UNEXPECTED_POSITIONAL_ARGUMENT
<parameterName>
に割り当てられている名前付き引数の後に位置引数が含まれているため、関数 <functionName>
を呼び出せません。位置引数が最初に置かれるように配置換えしてからクエリをもう一度お試しください。
UNEXPECTED_SERIALIZER_FOR_CLASS
クラス <className>
には、予期しない式シリアライザーがあります。 “STRUCT
”、または “STRUCT
” を返す “IF” が必要ですが、<expr>
が見つかりました。
UNKNOWN_FIELD_EXCEPTION
解析中に不明なフィールドが発生しました: <unknownFieldBlob>
。これは、自動再試行によって修正できます: <isRetryable>
詳細については、「UNKNOWN_FIELD_EXCEPTION」をご覧ください
UNKNOWN_POSITIONAL_ARGUMENT
関数 <functionName>
の呼び出しに、位置 <pos>
に不明な位置引数 <sqlExpr>
が含まれています。 これは無効です。
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
id <id>
を持つ不明なプリミティブ型がバリアント値で見つかりました。
INVALID_PROTOBUF_MESSAGE_TYPE
<descriptorName>
をメッセージとして扱おうとしましたが、<containingType>
でした。
UNPIVOT_REQUIRES_ATTRIBUTES
<empty>
式が指定されていない場合、UNPIVOT では、指定されたすべての <given>
式が列である必要があります。 これらは列 [<expressions>
] ではありません。
UNPIVOT_REQUIRES_VALUE_COLUMNS
UNPIVOT には少なくとも 1 つの値列を指定する必要がありますが、すべての列が ID として指定されています。
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
ピボット解除値列は極めてまれな型を共有する必要がありますが、一部の型はそうなっていません: [<types>
]。
UNPIVOT_VALUE_SIZE_MISMATCH
値列名 (<names>
) があるため、ピボット解除されたすべての値列は、同じサイズにする必要があります。
UNRECOGNIZED_PARAMETER_NAME
関数呼び出しに <argumentName>
という名前の引数の名前付き引数参照が含まれていたため、関数 <functionName>
を呼び出すことができません。ただし、この関数には、この名前の引数を含むシグネチャは含まれていません。 次のいずれかの意味でしたか? [<proposal>
]。
UNRECOGNIZED_SQL_TYPE
認識できない SQL 型 - 名前: <typeName>
、ID: <jdbcType>
。
UNRESOLVABLE_TABLE_VALUED_FUNCTION
テーブル値関数に <name>
を解決できませんでした。
<name>
がテーブル値関数として定義され、必要なすべてのパラメーターが正しく指定されていることをご確認ください。
<name>
が定義されていない場合、使用する前にテーブル値関数を作成してください。
テーブル値関数の定義の詳細については、Apache Spark のドキュメントをご覧ください。
UNRESOLVED_ALL_IN_GROUP_BY
select 句に基づいて GROUP BY ALL のグループ化列を推論することはできません。 グループ化列を明示的に指定してください。
UNRESOLVED_COLUMN
名前が <objectName>
の列、変数、または関数パラメーターは解決できません。
詳細については、「UNRESOLVED_COLUMN」を参照してください。
UNRESOLVED_FIELD
名前 <fieldName>
を持つフィールドは、構造体型の列 <columnPath>
では解決できません。
詳細については、「UNRESOLVED_FIELD」を参照してください。
UNRESOLVED_MAP_KEY
列 <objectName>
をマップ キーとして解決できません。 キーが文字列リテラルである場合は、単一引用符 ‘’ で囲んでください。
詳細については、「UNRESOLVED_MAP_KEY」を参照してください。
UNRESOLVED_ROUTINE
検索パス <searchPath>
ではルーチン <routineName>
を解決できません。
詳細については、「UNRESOLVED_ROUTINE」をご覧ください
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING 列 <colName>
は結合の <side>
側では解決できません。 <side>
側の列: [<suggestion>
]。
UNRESOLVED_VARIABLE
検索パス <searchPath>
の変数 <variableName>
を解決できません。
UNSUPPORTED_ADD_FILE
追加ファイルはサポートされません。
詳細については、「UNSUPPORTED_ADD_FILE」をご覧ください
UNSUPPORTED_ARROWTYPE
サポートされていない矢印の種類 <typeName>
。
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
関数 <funcName>
はバッチ クエリをサポートしていません。
UNSUPPORTED_CALL
クラス "<className>
" のメソッド "<methodName>
" を呼び出すことができません。
詳細については、「UNSUPPORTED_CALL」をご覧ください
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
char/varchar 型はテーブル スキーマで使用できません。
Spark で Spark 3.0 以前と同じように文字列型として扱う場合、"spark.sql.legacy.charVarcharAsString" を "true" に設定してください。
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause>
は <operation>
ではサポートされていません。
UNSUPPORTED_COLLATION
照合順序 <collationName>
は、以下ではサポートされていません。
詳細については、「UNSUPPORTED_COLLATION」をご覧ください
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
ソース パスと sourceArchiveDir の共通の先祖を UC に登録する必要があります。
このエラー メッセージが表示された場合、ソース パスと sourceArchiveDir を別の外部の場所に登録している可能性があります。
1 つの外部の場所に配置してください。
UNSUPPORTED_CONSTRAINT_CLAUSES
制約句 <clauses>
はサポートされていません。
UNSUPPORTED_CONSTRAINT_TYPE
制約型がサポートされていません。 <supportedConstraintTypes>
のみがサポートされます
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
ファイルに対する直接クエリでサポートされていないデータ ソースの種類: <dataSourceType>
UNSUPPORTED_DATATYPE
データ型 <typeName>
がサポートされていません。
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
データ ソース “<source>
” は、<createMode>
モードでは書き込めません。 代わりに、“Append” または “Overwrite” モードを使用してください。
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
<format>
データソースでは、型 <columnType>
の列 <columnName>
はサポートされていません。
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
<dataType>
のエンコーダーを作成できません。 UDF または DataFrame に対しては、別の出力データ型を使用してください。
UNSUPPORTED_DEFAULT_VALUE
DEFAULT 列の値はサポートされていません。
詳細については、「UNSUPPORTED_DEFAULT_VALUE」をご覧ください
UNSUPPORTED_DESERIALIZER
逆シリアライザーはサポートされていません。
詳細については、「UNSUPPORTED_DESERIALIZER」を参照してください
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<reason>
という原因で、生成式 <expressionStr>
で生成された列 <fieldName>
を作成できません。
UNSUPPORTED_EXPR_FOR_OPERATOR
クエリ演算子には、サポートされていない式が 1 つ以上含まれています。
WHERE 句のウィンドウ関数、集計関数、およびジェネレーター関数を回避するように、再書き込みすることを検討してください。
無効な式: [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
クエリ パラメータにサポートされていない式が含まれています。
パラメータに指定できるのは、変数またはリテラルです。
無効な式: [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
式 <sqlExpr>
は、ウィンドウ関数内ではサポートされていません。
UNSUPPORTED_FEATURE
この機能はサポートされていません。
詳細については、「UNSUPPORTED_FEATURE」を参照してください
UNSUPPORTED_FN_TYPE
サポートされていないユーザー定義関数の種類: <language>
UNSUPPORTED_GENERATOR
次のジェネレーターはサポートされていません。
詳細については、「UNSUPPORTED_GENERATOR」を参照してください
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() は、GroupingSets/Cube/Rollup でのみ使用できます。
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
初期位置が <initialPosition>
の <trigger>
は Kinesis ソースではサポートされていません
UNSUPPORTED_INSERT
ターゲットに挿入できません。
詳細については、「UNSUPPORTED_INSERT」をご覧ください
UNSUPPORTED_JOIN_TYPE
サポートされていない結合の種類 '<typ>
'。 サポートされている結合の種類は次のとおりです: <supported>
。
UNSUPPORTED_MANAGED_TABLE_CREATION
データソース <dataSource>
を使用したマネージド テーブル <tableName>
の作成はサポートされていません。 データソース DELTA を使用するか、次を使用して外部テーブルを作成する必要があります: CREATE EXTERNAL TABLE <tableName>
… USING <dataSource>
…
UNSUPPORTED_MERGE_CONDITION
MERGE 操作にサポートされていない <condName>
条件が含まれています。
詳細については、「UNSUPPORTED_MERGE_CONDITION」をご覧ください
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
テーブル <tableName>
には、行レベルのセキュリティ ポリシーまたは列マスクを持つ別のテーブルを間接的に参照する行レベルのセキュリティ ポリシーまたは列マスクがあります。これはサポートされていません。 呼び出しシーケンス: <callSequence>
UNSUPPORTED_OVERWRITE
読み取り元であるターゲットを上書きすることはできません。
詳細については、「UNSUPPORTED_OVERWRITE」をご覧ください
UNSUPPORTED_SAVE_MODE
保存モード <saveMode>
は、次の場合にはサポートされません:
詳細については、「UNSUPPORTED_SAVE_MODE」を参照してください
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
出力モードは、ウォーターマークのないストリーミング DataFrames/DataSets での <statefulOperator>
ではサポートされていません。
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
ビューのストリーミングはサポートされていません。 理由:
詳細については、「UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW」を参照してください
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
ストリーミング オプション <options>
は、共有クラスター上のデータ ソース <source>
ではサポートされていません。 オプションが正しく指定され、スペルが正しいことを確認し、制限事項を確認https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode 。
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
データ ソース <sink>
は、共有クラスター上のストリーミング シンクとしてサポートされていません。
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
データ ソース <source>
は、共有クラスター上のストリーミング ソースとしてサポートされていません。
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
関数 <funcName>
はストリーミングをサポートしていません。 STREAM キーワードを削除してください
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
は Kinesis ソースではサポートされていません
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
サポートされていないサブクエリ式:
詳細については、「UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY」を参照してください。
UNSUPPORTED_TIMESERIES_COLUMNS
timeseries 列を使用した主キーの作成はサポートされていません
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
1 つ以上の timeseries 列 <colSeq>
を使用した主キーの作成はサポートされていません
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
は Kinesis ソースではサポートされていません
UNSUPPORTED_TYPED_LITERAL
型 <unsupportedType>
のリテラルはサポートされていません。 サポートされる種類は、<supportedTypes>
です。
UNTYPED_SCALA_UDF
型指定されていない Scala UDF を使用しています。これには入力型情報がありません。
Spark はプリミティブ型の引数を使用して Scala クロージャに null を盲目的に渡す場合があり、クロージャは null 引数の Java 型の既定値を参照します。たとえば udf((x: Int) => x, IntegerType)
の場合、null 入力の結果は 0 になります。 このエラーを取り除くには、次の操作を行います。
- 型指定された Scala UDF API (戻り値の型パラメーターなし) を使用します。例:
udf((x: Int) => x)
。 - 入力型がすべて非プリミティブの場合は、Java UDF API を使用します。例:
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
。 - "spark.sql.legacy.allowUntypedScalaUDF" を "true" に設定し、この API を注意して使用します。
UPGRADE_NOT_SUPPORTED
テーブルは、Hive メタストアから Unity Catalog へのアップグレードの対象ではありません。 理由:
詳細については、「UPGRADE_NOT_SUPPORTED」を参照してください
USER_DEFINED_FUNCTIONS
ユーザー定義関数が無効です。
詳細については、USER_DEFINED_FUNCTIONS を参照してください。
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
raise_error()
関数が、パラメーター: <expectedParms>
が必要なエラー クラス: <errorClass>
を発生させるために使用されました。
指定されたパラメーター <providedParms>
が、想定されるパラメーターと一致しません。
必要なすべてのパラメーターを必ず指定してください。
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
raise_error()
関数が、不明なエラー クラス: <errorClass>
を発生させるために使用されました
VARIABLE_ALREADY_EXISTS
変数 <variableName>
は既に存在するため、作成できません。
別の名前を選択するか、既存の変数を削除または置換します。
VARIABLE_NOT_FOUND
変数 <variableName>
が見つかりません。 スキーマとカタログのスペルと正確さを確認します。
スキーマとカタログで名前を修飾しなかった場合は、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。
ドロップのエラーを許容するには、DROP VARIABLE IF EXISTS を使用します。
VARIANT_CONSTRUCTOR_SIZE_LIMIT
16 MiB を超えるバリアントを構築できません。 バリアント値の最大許容サイズは 16MiB です。
VARIANT_DUPLICATE_KEY
オブジェクト キー <key>
が重複しているため、バリアントを構築できませんでした。
VARIANT_SIZE_LIMIT
<functionName>
で <sizeLimit>
より大きいバリアントを構築することはできません。
この式には大きな文字列を入力しないでください (たとえば、式のサイズを調べる関数呼び出しを追加し、大きすぎる場合は最初に NULL に変換します)。
VIEW_ALREADY_EXISTS
ビュー <relationName>
は既に存在するため、作成できません。
別の名前を選択するか、既存のオブジェクトを削除または置換するか、既存のオブジェクトを許容するために IF NOT EXISTS 句を追加します。
VIEW_EXCEED_MAX_NESTED_DEPTH
ビュー <viewName>
の深度が、最大ビュー解像度深度 (<maxNestedDepth>
) を超えています。
エラーを回避するために分析は中止されます。 これを回避したい場合は、"spark.sql.view.maxNestedViewDepth" の値を増加してみてください。
VIEW_NOT_FOUND
ビュー <relationName>
が見つかりません。 スキーマとカタログのスペルと正確さを確認します。
スキーマで名前を修飾しなかった場合は、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。
ドロップのエラーを許容するには、DROP VIEW IF EXISTS を使用します。
VOLUME_ALREADY_EXISTS
ボリューム <relationName>
は既に存在するため、作成できません。
別の名前を選択するか、既存のオブジェクトを削除または置換するか、既存のオブジェクトを許容するために IF NOT EXISTS 句を追加します。
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName>
関数は、単一のオフセットを持つ順序付けられた行ベースのウィンドウ フレームでのみ評価できます: <windowExpr>
。
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Window 関数 <funcName>
には OVER 句が必要です。
WITH_CREDENTIAL
WITH CREDENTIAL 構文は、<type>
でサポートされていません。
WRITE_STREAM_NOT_ALLOWED
writeStream
は、ストリーミング データセット/DataFrame でのみ呼び出すことができます。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
コマンドを実行できませんでした。これは、DEFAULT 値が、新規の
列を既存の Delta テーブルに追加するときにサポートされていないためです。既定
値がない列を最初に追加してから、2 番目の ALTER TABLE ALTER COLUMN SET DEFAULT コマンドを実行して、
今後挿入される行に対して代わりに適用してください。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
<commandType>
コマンドを実行できませんでした。これは、列の DEFAULT 値を割り当てましたが、
対応するテーブル機能が有効になっていなかったためです。 このコマンドを再試行してください。ただし、
ALTER TABLE tableName SET の実行後に再試行してください
TBLPROPERTIES(‘delta.feature.allowColumnDefaults’ = ‘supported’).
WRONG_COMMAND_FOR_OBJECT_TYPE
操作 <operation>
には <requiredType>
が必要です。 ただし、<objectName>
は <foundType>
です。 代わりに <alternative>
を使用してください
WRONG_NUM_ARGS
<functionName>
には <expectedNum>
個のパラメーターが必要ですが、実際の数は <actualNum>
です。
詳細については、WRONG_NUM_ARGS を参照してください。
XML_ROW_TAG_MISSING
<rowTag>
オプションは、XML 形式でファイルを読み取る場合に必要です。
XML_UNSUPPORTED_NESTED_TYPES
XML では、<dataType>
の inner 型として <innerDataType>
はサポートされていません。 <dataType>
内で使用する場合は、<innerDataType>
を StructType フィールド内でラップしてください。
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
復旧されたデータとワイルドカード列を同時に有効にすることはできません。 wildcardColumnName オプションを削除してください。
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy 列 <columnName>
が存在しません。
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
アクティブな SparkSession が見つかりませんでした
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
新しい txn が既にアクティブになっている場合は、アクティブとして設定できません
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
名前が予約されているため、列 <colName>
を追加できませんでした。
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
現在の操作では、新しい削除ベクトルの作成を許可しないテーブルに削除ベクターを追加しようとしました。 バグ報告を提出してください。
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
削除ベクトルを追加するすべての操作では、統計の tightBounds 列を false に設定する必要があります。 バグ報告を提出してください。
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
列 <columnName>
を追加するためのインデックス <columnIndex>
が 0 未満です
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
<columnName>
は親が StructType ではないため、追加できません。 <other>
が見つかりました
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
位置 <position>
に構造体が見つかりません
DELTA_ADD_CONSTRAINTS
ALTER TABLE ADD CONSTRAINT を使用して CHECK 制約を追加してください。
DELTA_AGGREGATE_IN_GENERATED_COLUMN
<sqlExpr>
が見つかりました。 生成された列で集約式を使用することはできません
DELTA_AGGREGATION_NOT_SUPPORTED
集計関数は、<operation>
<predicate>
ではサポートされていません。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
ブルーム フィルター インデックスがあるため、列 <column>
の照合順序を変更できませんでした。 既存の照合順序を保持するか、照合順序を変更するのであれば、ブルーム フィルター インデックスを削除してから、もう一度コマンドを再試行してください。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
列 <column>
の照合順序を変更できませんでした。これはクラスタリング列です。 既存の照合順序を保持するか、照合順序を変更するのであれば、ALTER TABLE コマンドを使用して列を非クラスタリング列に変更してから、もう一度コマンドを再試行してください。
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
列 <currentType>
を <newType>
に変更する場合、ALTER TABLE CHANGE COLUMN はサポートされていません
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY は、リキッド クラスタリングを使用する Delta テーブルでのみサポートされています。
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY をパーティション テーブルに適用することはできません。
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
操作は許可されていません。S3 上で最終的な整合性を取る際に Delta トランザクション ログが破損する可能性があるため、S3 上の管理された Delta テーブルで ALTER TABLE RENAME TO の実行は許可されていません。 それでも実行し、以前に新しい名前 <newName>
の Delta テーブルが存在しなかったことが明らかな場合は、<key>
を true に設定することでこれを有効にすることができます。
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
ALTER TABLE SET TBLPROPERTIES を使って <tableFeature>
テーブル機能を有効にすることはできません。 クラスタリングを使って Delta テーブルを作成するには、CREATE OR REPLACE TABLE CLUSTER BY を使ってください。
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
<column>
のデータ型を <from>
から <to>
に変更できません。 この変更には列の削除と追加が含まれるため、あいまいです。 ALTER TABLE [ADD | DROP | RENAME] COLUMN を使用して個別に変更してください。
DELTA_AMBIGUOUS_PARTITION_COLUMN
曖昧なパーティション列 <column>
は <colMatches>
にすることができます。
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE には、<identifier>
と <location>
の 2 つの異なる場所が含まれています。
CREATE TABLE ステートメントから LOCATION 句を削除するか、
このチェックをスキップするには、<config>
を true に設定します。
DELTA_ARCHIVED_FILES_IN_LIMIT
テーブル <table>
では、<limit>
レコードという指定された制限を満たすのに十分なレコードが、アーカイブされていないファイルにありません。
DELTA_ARCHIVED_FILES_IN_SCAN
このクエリの一部としてスキャンする必要があるアーカイブされた可能性のある <numArchivedFiles>
個のファイルがテーブル <table>
に見つかりました。
アーカイブされたファイルにアクセスできません。 アーカイブまでの現在の時刻は、<archivalTime>
として構成されています。
アーカイブされたファイルを除外するようにクエリ フィルターを調整してください。
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
テーブルで変更データ フィード (CDF) が有効になっていて、DROP COLUMN または RENAME COLUMN を使用してスキーマの変更が行われた場合、操作 “<opName>
” は許可されません。
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
以下の存在しない列のブルーム フィルター インデックスを削除できません: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
列 <columnsWithBloomFilterIndices>
のブルーム フィルター インデックスの書き込み中に OutOfMemoryError が発生しました。
ブルーム フィルター インデックスのメモリ占有領域を減らすには、‘numItems’ オプションに選択する値を小さくするか、‘fpp’ オプションに選択する値を大きくするか、インデックスを作成する列を減らします。
DELTA_CANNOT_CHANGE_DATA_TYPE
データ型 <dataType>
を変更できません
DELTA_CANNOT_CHANGE_LOCATION
SET TBLPROPERTIES を使用して Delta テーブルの 'location' を変更することはできません。 代わりに ALTER TABLE SET LOCATION を使用してください。
DELTA_CANNOT_CHANGE_PROVIDER
'provider' は予約テーブル プロパティであり、変更することはできません。
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
次の存在しない列にブルーム フィルター インデックスを作成できません: <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
<path>
を作成できません
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
ビューの履歴を記述できません。
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
インデックスが作成されていない列 <columnName>
でブルーム フィルター インデックスをドロップすることはできません
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
チェック制約テーブル機能を削除できません。
最初に次の制約を削除する必要があります: <constraints>
DELTA_CANNOT_EVALUATE_EXPRESSION
式 <expression>
を評価できません
DELTA_CANNOT_FIND_BUCKET_SPEC
バケットの Delta テーブルが必要でしたが、テーブルの中にバケットの仕様が見つかりません
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
式 <expression>
のコードを生成できません
DELTA_CANNOT_MODIFY_APPEND_ONLY
このテーブルは、追加のみを許可するように設定されています。 更新または削除を許可する場合は、‘ALTER TABLE <table_name> SET TBLPROPERTIES (<config>
=false)’ を使用します。
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
は、このテーブルで調整されたコミットが有効になっており、それらに依存しているため、コミット内タイムスタンプ テーブルのプロパティをオーバーライドまたは設定解除できません。 TBLPROPERTIES 句から ("delta.enableInCommitTimestamps"、"delta.inCommitTimestampEnablementVersion"、"delta.inCommitTimestampEnablementTimestamp") を削除してから、もう一度コマンドを再試行してください。
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Delta テーブルの構成 <prop>
をユーザーが指定することはできません
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
は、既存のターゲット テーブルの調整されたコミット構成をオーバーライドできません。 TBLPROPERTIES 句から ("delta.coordinatedCommits.commitCoordinator-preview"、"delta.coordinatedCommits.commitCoordinatorConf-preview"、"delta.coordinatedCommits.tableConf-preview") を削除してから、もう一度コマンドを再試行してください。
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
相対パスに変換できない uri (<uri>
) がトランザクション ログで見つかりました。
DELTA_CANNOT_RELATIVIZE_PATH
トランザクション ログで見つかった現在の入力と相対化できないパス (<path>
) が次で見つかりました:
パス(
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<userPath>
”, true)
として再実行し、次も実行してください。
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<path>
”)
DELTA_CANNOT_RENAME_PATH
<currentPath>
の名前を <newPath>
に変更できません
DELTA_CANNOT_REPLACE_MISSING_TABLE
テーブル <tableName>
は存在しないため、置き換えることができません。 CREATE OR REPLACE TABLE を使用してテーブルを作成します。
DELTA_CANNOT_RESOLVE_COLUMN
<schema>
の列 <columnName>
を解決できません
DELTA_CANNOT_RESTORE_TABLE_VERSION
テーブルをバージョン <version>
に復元できません。 使用可能なバージョン: [<startVersion>
, <endVersion>
]。
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
使用可能な最新バージョンより前であるため、テーブルを timestamp (<requestedTimestamp>
) に復元できません。 (<earliestTimestamp>
) より後の timestamp を使用してください
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
使用可能な最新バージョンより後であるため、テーブルを timestamp (<requestedTimestamp>
) に復元できません。 (<latestTimestamp>
) より前の timestamp を使用してください
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
後者は前者に依存し、前者を内部的に設定するため、コミット内タイムスタンプ テーブルのプロパティを調整されたコミットと共に設定することはできません。 TBLPROPERTIES 句から ("delta.enableInCommitTimestamps"、"delta.inCommitTimestampEnablementVersion"、"delta.inCommitTimestampEnablementTimestamp") を削除してから、もう一度コマンドを再試行してください。
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
パス ベースのテーブルの場所を変更することはできません。
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
DLT 以外のテーブル上で、delta.managedDataSkippingStatsColumns を設定することはできません
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER では、調整されたコミット構成の設定を解除できません。 調整されたコミットからテーブルをダウングレードするには、 ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
を使用してもう一度やり直してください。
DELTA_CANNOT_UPDATE_ARRAY_FIELD
%1$s フィールドの %2$s 型を更新できません: %2$s.element を更新して要素を更新します
DELTA_CANNOT_UPDATE_MAP_FIELD
%1$s フィールドの %2$s 型を更新できません: %2$s.key または %2$s.value を更新してマップを更新します
DELTA_CANNOT_UPDATE_OTHER_FIELD
<typeName>
型のフィールド <tableName>
を更新できません
DELTA_CANNOT_UPDATE_STRUCT_FIELD
<tableName>
フィールドの <fieldName>
型を更新できません: そのフィールドを追加、削除、または更新して構造体を更新します
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
パーティション列にすべての列を使用することはできません
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
はビューです。 ビューへの書き込みはサポートされていません。
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
オーバーフローのため、<targetType>
型列 <columnName>
に <sourceType>
型の値を書き込むことができません。
オーバーフローを許容し、代わりに NULL を返すようにするには、入力値に try_cast
を使用します。
必要に応じて、<storeAssignmentPolicyFlag>
を "LEGACY" に設定してこのエラーをバイパスするか、<updateAndMergeCastingFollowsAnsiEnabledFlag>
を true に設定して古い動作に戻し、UPDATE と MERGE の <ansiEnabledFlag>
に従います。
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
構成 delta.enableChangeDataFeed を設定することができません。 差分からの変更データ フィードはまだ使用できません。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
互換性のないデータ スキーマが原因で、バージョン <start>
と <end>
間のテーブルの変更の取得に失敗しました。
読み取りスキーマは <readSchema>
で、バージョン <readVersion>
ですが、バージョン <incompatibleVersion>
で互換性のないデータ スキーマが見つかりました。
可能であれば、<config>
を endVersion
に設定して、エンド バージョンのスキーマを使用してテーブルの変更を取得するか、サポートにお問い合わせください。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
互換性のないスキーマの変更が原因で、バージョン <start>
と <end>
間のテーブルの変更の取得に失敗しました。
読み取りスキーマは <readSchema>
で、バージョン <readVersion>
ですが、バージョン <incompatibleVersion>
で互換性のないスキーマの変更が見つかりました。
可能であれば、テーブルの変更をバージョン <start>
から <incompatibleVersion>
- 1、およびバージョン <incompatibleVersion>
から <end>
に個別にクエリしてください。
DELTA_CHANGE_DATA_FILE_NOT_FOUND
トランザクション ログで参照されているファイル <filePath>
が見つかりません。 これは、テーブルの DELETE
ステートメントを使用せずに、ファイル システムからデータを手動で削除した場合に発生することがあります。 この要求は Change Data Feed を対象としているようです。その場合、このエラーは、変更データ ファイルが保持期間外であり、VACUUM
ステートメントによって削除された場合に発生する可能性があります。 詳細については、<faqPath>
を参照してください。
DELTA_CHANGE_TABLE_FEED_DISABLED
delta.enableChangeDataFeed が設定されたテーブルに書き込めません。 Delta からの変更データ フィードを使用できません。
DELTA_CHECKPOINT_NON_EXIST_TABLE
存在しないテーブル <path>
をチェックポイントにすることはできません。 _delta_log ディレクトリ内のファイルを手動で削除しましたか?
DELTA_CLONE_AMBIGUOUS_TARGET
CLONE ターゲットとして 2 つのパスが指定されているため、使用するパスがあいまいです。 CLONE の外部の場所が、
パスと同時に <externalLocation>
に指定されました。
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
ファイル (<fileName>
) が完全にコピーされていません。 予想されるファイル サイズ: <expectedSize>
、見つかったサイズ: <actualSize>
。 ファイル サイズ チェックを無視して操作を続行するには、<config>
を false に設定します。
DELTA_CLONE_UNSUPPORTED_SOURCE
サポートされていない <mode>
クローン ソース ‘<name>
’。形式は <format>
です。
サポートされている形式は、'delta'、'iceberg'、'parquet' です。
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
DBR バージョン < 14.0 の場合、リキッド クラスタリングを使用した Delta テーブルで CLONE はサポートされません。
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY は、次の列ではサポートされていません。 <columnsWithDataTypes>
はデータスキップをサポートしていません。
DELTA_CLUSTERING_COLUMNS_MISMATCH
指定されたクラスタリング列が既存のテーブルのものと一致しません。
- 指定済み:
<providedClusteringColumns>
- 既存:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
リキッド クラスタリングでは、クラスタリング列に統計が必要になります。以下の統計スキーマでクラスタリング列 ‘<columns>
’ が見つかりませんでした:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
リキッド クラスタリングを使用したテーブル ディレクトリからリキッド クラスタリングなしの外部テーブルを作成することはできません。パス: <path>
。
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>
' はクラスタリングをサポートしていません。
DELTA_CLUSTERING_PHASE_OUT_FAILED
<tableFeatureToAdd>
テーブル機能を使用してテーブルの <phaseOutType>
を完了できません (理由: <reason>
)。 OPTIMIZE コマンドをもう一度試してください。
== Error ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
リキッド クラスタリングを使用して Delta テーブルからパーティション テーブルに REPLACE を行うことはできません。
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
リキッド クラスタリングを使用してクラスター化列のない Delta テーブルに SHOW CREATE TABLE を行うことはサポートされていません。
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
既存のテーブルに空でないクラスタリング列がある場合、液体クラスタリングを含む Delta テーブルをパーティション テーブルに切り替える操作は許可されません( <operation>
)。
最初にクラスター化列を削除するには、ALTER TABLE CLUSTER BY NONE を実行してください。
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
動的パーティション上書きモードは、リキッド クラスタリングを使用する Delta テーブルでは使用できません。
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
リキッド クラスタリングを使用した Delta テーブルに対する OPTIMIZE コマンドの実行では、パーティション述語はサポートされていません。 述語を削除してください: <predicates>
。
DELTA_CLUSTERING_WITH_ZORDER_BY
リキッド クラスタリングを使用した Delta テーブルに対する OPTIMIZE コマンドでは、ZORDER BY を指定できません。 ZORDER BY (<zOrderBy>
) を削除してください。
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
リキッド クラスタリングの CLUSTER BY では、最大 <numColumnsLimit>
列のクラスタリング列がサポートされますが、テーブルには <actualNumColumns>
列のクラスタリング列が含まれます。 余分なクラスタリング列を削除してください。
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
スキーマが定義されていない場合、CLUSTER BY を指定することはできません。 テーブル <tableName>
のスキーマを定義してください。
DELTA_CLUSTER_BY_WITH_BUCKETING
クラスタリングとバケットの両方を指定することはできません。 クラスタリングを使用して Delta テーブルを作成する場合は、CLUSTERED BY INTO BUCKETS / bucketBy を削除してください。
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
クラスタリングとパーティション分割の両方を指定することはできません。 クラスタリングを使用して Delta テーブルを作成する場合は、PARTITIONED BY / partitionBy / partitionedBy を削除してください。
DELTA_COLLATIONS_NOT_SUPPORTED
照合順序は Delta レイクではサポートされません。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
パーティション列 '<column>
' では、データのスキップはサポートされていません。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
型 <type>
の列 '<column>
' では、データのスキップはサポートされていません。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
最大列 ID プロパティ (<prop>
) は、列マッピングが有効なテーブルでは設定されません。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
列マッピングが有効なテーブルの最大列 ID プロパティ (<prop>
) は <tableMax>
であり、すべてのフィールド (<fieldMax>
) の最大列 ID より小さくすることはできません。
DELTA_COLUMN_MISSING_DATA_TYPE
列のデータ型 <colName>
が指定されませんでした。
DELTA_COLUMN_NOT_FOUND
[<columnList>
] で指定された列 <columnName>
が見つかりません
DELTA_COLUMN_NOT_FOUND_IN_MERGE
INSERT 列 (<colNames>
) からターゲット テーブルの列 ‘<targetCol>
’ を見つけることができません。 INSERT 句では、ターゲット テーブルのすべての列の値を指定する必要があります。
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
次で列 <columnName>
が見つかりませんでした
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
<columnPath>
は入れ子になったデータ型であると予期されていましたが、<other>
が見つかりました。 探していました。
入れ子になったフィールドの <column>
のインデックス。
[スキーマ]:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
構造体列 <source>
は、<targetTable>
の <targetType>
フィールド <targetField>
に挿入できません。
DELTA_COMPACTION_VALIDATION_FAILED
パス <compactedPath>
から <newPath>
への圧縮の検証に失敗しました。バグ レポートを提出してください。
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
<dataType>
の列 <columName>
に入れ子になった NullType が見つかりました。 Delta では、複合型での NullType の書き込みはサポートされていません。
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: 同時更新によって <partition>
にファイルが追加されました。 <retryMsg>
<conflictingCommit>
詳細については、「<docLink>
」を参照してください。
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: このトランザクションは、同時更新によって削除された (<file>
など) 1 つ以上のファイルを削除しようとしました。 操作をもう一度やり直してください。<conflictingCommit>
詳細については、「<docLink>
」を参照してください。
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: このトランザクションは、同時更新によって削除された (<file>
など) 1 つ以上のファイルを読み取ろうとしました。 操作をもう一度やり直してください。<conflictingCommit>
詳細については、「<docLink>
」を参照してください。
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: このエラーは、複数のストリーミング クエリが同じチェックポイントを使用してこのテーブルに書き込んでいる場合に発生します。 同じストリーミング クエリの複数のインスタンスを同時に実行しましたか?<conflictingCommit>
詳細については、「<docLink>
」を参照してください。
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: 同時実行トランザクションが、現在のトランザクションがテーブルを読み込んでから新しいデータを書き込みました。 操作をもう一度やり直してください。<conflictingCommit>
詳細については、「<docLink>
」を参照してください。
DELTA_CONFLICT_SET_COLUMN
これらの SET 列 <columnList>
との競合があります。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
<command>
中は、コマンドから構成 "<configuration>
" を設定できません。 TBLPROPERTIES 句から削除してから、もう一度コマンドを再試行してください。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
<command>
中に、SparkSession 構成から構成 "<configuration>
" を設定することはできません。 spark.conf.unset("<configuration>")
を実行して設定を解除してから、コマンドをもう一度やり直してください。
DELTA_CONSTRAINT_ALREADY_EXISTS
制約 ‘<constraintName>
’ は既に存在します。 最初に以前の制約を削除してください。
以前の制約:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
列 <columnName>
にはデータ型 <columnType>
が含まれ、この列は次の CHECK 制約によって参照されているため、データ型 <dataType>
に変更できません。
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
この列は次の CHECK 制約によって参照されているため、列 <columnName>
を変更できません。
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
存在しない制約 <constraintName>
をテーブル <tableName>
からドロップできません。 エラーがスローされないようにするには、パラメーター IF EXISTS を指定するか、SQL セッション構成 <config>
を <confValue>
に設定します。
DELTA_CONVERSION_NO_PARTITION_FOUND
テーブル <tableName>
のカタログにパーティション情報が見つかりませんでした。 テーブルで "MSCK REPAIR TABLE" を実行してパーティションを検出しましたか?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
照合されたパーティション列が <colName>
された Parquet テーブルを Delta に変換できません。
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
CONVERT TO DELTA を使用している場合、構成 '<config>
' を <mode>
に設定することはできません。
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA では parquet テーブルのみがサポートされていますが、<sourceName>
のソース <tableId>
の変換を試みようとしています
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
統計を収集せずに行の追跡を有効にすることはできません。
行の追跡を有効にする場合は、次の操作を行います。
次のコマンドを実行して統計収集を有効にします
SET
<statisticsCollectionPropertyKey>
= true- NO STATISTICS オプションを使用せずに CONVERT TO DELTA を実行します。
統計を収集しない場合は、行の追跡を無効にします。
次のコマンドを実行して、既定のテーブル機能の有効化を非アクティブ化します。
RESET
<rowTrackingTableFeatureDefaultKey>
次のコマンドを実行して、既定のテーブル機能を非アクティブ化します。
SET
<rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO のターゲットは Delta テーブルである必要があります。
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Delta を使用して <tableName>
<path>
から外部テーブル
入力パスが空の場合、スキーマは指定されません。
Delta の詳細については、「<docLink>
」をご覧ください
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Delta を使用して <tableName>
%2$s
から外部テーブル
%2$s/_delta_log
. アップストリーム ジョブをチェックして、format(“delta”) を使用して書き込みを行っていること、
およびパスがそのテーブルのルートであることを確認します。
Delta の詳細については、「<docLink>
」をご覧ください
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
パスベースの Delta テーブルを別の場所で作成することはサポートされていません。 識別子: <identifier>
、場所: <location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
テーブル名または場所を指定する必要があります。
DELTA_CREATE_TABLE_SCHEME_MISMATCH
指定されたスキーマが <path>
の既存のスキーマと一致しません。
== Specified ==
<specifiedSchema>
== Existing ==
<existingSchema>
== Differences ==
<schemaDifferences>
既存のスキーマを保持する場合は、create table コマンドから
スキーマを省略できます。 それ以外の場合は、スキーマが一致していることを
確認してください。
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
TBLPROPERTIES を使って <tableFeature>
テーブル機能を有効にすることはできません。 クラスタリングを使って Delta テーブルを作成するには、CREATE OR REPLACE TABLE CLUSTER BY を使ってください。
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
指定されたクラスタリング列は、<path>
の既存のクラスタリング列と一致しません。
== Specified ==
<specifiedColumns>
== Existing ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
指定したパーティション分割が <path>
にある既存のパーティション分割と一致しません。
== Specified ==
<specifiedColumns>
== Existing ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
指定されたプロパティが <path>
にある既存のプロパティと一致しません。
== Specified ==
<specifiedProperties>
== Existing ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
テーブル ('<tableId>
') を作成できません。 関連する場所 ('<tableLocation>
') は空ではなく、Delta テーブルでもありません。
DELTA_DATA_CHANGE_FALSE
‘dataChange’ オプションが false に設定されているため、テーブル メタデータを変更できません。 試行された操作: ‘<op>
’。
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
トランザクション ログで参照されているファイル <filePath>
が見つかりません。 この Parquet ファイルは、Delta のデータ保持ポリシーにより削除される可能性があります。
既定の Delta データ保持期間: <logRetentionPeriod>
。 Parquet ファイルの変更時刻: <modificationTime>
。 Parquet ファイルの削除時刻: <deletionTime>
。 削除が行われた Delta バージョン: <deletionVersion>
。
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
numRecords 統計が欠落している削除ベクトルを持つファイルをコミットすることは無効です。
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
ドメイン <domainNames>
に対して DomainMetadata アクションが検出されましたが、DomainMetadataTableFeature が有効になっていません。
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
列を削除するためのインデックス <columnIndex>
が 0 未満です
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
単一列を含むスキーマから列を削除できません。 [スキーマ]:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
パス <path>
のファイル操作 ‘<actionType>
’ が複数回指定されました。
<conflictingPath>
と競合します。
同じパスを持つ複数のファイル操作が 1 つのコミットに存在する場合は無効です。
DELTA_DUPLICATE_COLUMNS_FOUND
次の重複する列 <coltype>
が見つかりました: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
INSERT 句に重複した列名があります
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
テーブルを更新する前に、重複する列を削除してください。
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
重複するデータ スキップ列が見つかりました: <columns>
。
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
内部エラー: 同じトランザクション内の 2 つの DomainMetadata アクションに同じドメイン <domainName>
があります
DELTA_DV_HISTOGRAM_DESERIALIZATON
テーブルの整合性検証中に、削除されたレコード数ヒストグラムを逆シリアル化できませんでした。
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
動的パーティション上書きモードはセッション構成か書き込みオプションによって指定されますが、spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
によって無効になっています。
DELTA_EMPTY_DATA
Delta テーブルの作成に使用されるデータには列がありません。
DELTA_EMPTY_DIRECTORY
ディレクトリ <directory>
にファイルがありません。
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
値が char/varchar 型の長さ制限 “<value>
” を超えています。 失敗したチェック: <expr>
。
DELTA_FAILED_CAST_PARTITION_VALUE
パーティション値 <value>
を <dataType>
にキャストできませんでした
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
既存のターゲット出力 <targetOutputColumns>
の中に <newAttributeName>
が見つかりませんでした
DELTA_FAILED_INFER_SCHEMA
指定されたファイルの一覧からスキーマを推論できませんでした。
DELTA_FAILED_MERGE_SCHEMA_FILE
ファイル <file>
のスキーマをマージできませんでした
<schema>
DELTA_FAILED_READ_FILE_FOOTER
ファイル <currentFile>
のフッターを読み取れませんでした
DELTA_FAILED_RECOGNIZE_PREDICATE
述語 '<predicate>
' を認識できません
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Delta ソースの最新バージョンの完全スキャンが必要ですが、バージョン <historicalVersion>
の履歴スキャンが見つかりました
DELTA_FAILED_TO_MERGE_FIELDS
フィールド ‘<currentField>
’ と ‘<updateField>
’ をマージできませんでした
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
次の表の機能はメタデータで有効になっていますが、プロトコルには記載されていないため、このテーブルでは操作できません: <features>
。
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
テーブル スキーマでは、次のテーブル機能を手動で有効にする必要があります: <unsupportedFeatures>
。
これを行うには、上記の各機能に対して次のコマンドを実行します:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
“table_name” と “feature_name” を実際に値に置き換えます。
現在サポートされている機能: <supportedFeatures>
。
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
同時実行トランザクションによってテーブルが変更されたため、機能を削除できません。
操作をもう一度やり直してください。
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
このテーブルの他の機能 (<dependentFeatures>
) が <feature>
に依存しているため、テーブル機能 <feature>
を削除できません。
この機能を削除する前に、まずそれらを削除することを検討してください。
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
<feature>
は現在、テーブルのプロトコルに存在しないため、このテーブルから削除できません。
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
この機能を使用する過去のバージョンが Delta ログに含まれているため、<feature>
を削除できません。
履歴保持期間 (<logRetentionPeriodKey>
=<logRetentionPeriod>
) までお待ちください
この機能が最後にアクティブになった後に経過しました。
または、TRUNCATE HISTORY 保持期間 (<truncateHistoryLogRetentionPeriod>
) が切れるまで待って、
実行してください。
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
特定の機能は、履歴の切り捨てを要求しません。
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
この機能の削除はサポートされていないため、<feature>
は削除できません。
Databricks サポートにお問い合わせください。
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
<feature>
は、この Databricks バージョンではサポートされていないため、削除できません。
より新しいバージョンの Databricks を使用することをご検討ください。
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
<feature>
は一部のみ削除されました。
この機能は、現行版のテーブルでは使用されていません。 ただし、この機能は
過去のバージョンのテーブルにまだ存在します。 過去のバージョンの有効期限が経過するまでは
テーブル プロトコルからテーブル機能を削除できません。
プロトコルからテーブル機能を削除するには、過去のバージョンの有効期限が経過するまで待ってから
このコマンドをもう一度実行してください。 過去のバージョンの保持期間は
現在 <logRetentionPeriodKey>
=<logRetentionPeriod>
として構成されています。
または、TRUNCATE HISTORY 保持期間 (<truncateHistoryLogRetentionPeriod>
) が切れるまで待って、
実行してください。
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
より高いリーダー プロトコル バージョン (現在の <current>
) が必要なため、テーブル機能 <feature>
を有効にできません。 テーブルのリーダー プロトコルのバージョンを <required>
にアップグレードするか、リーダー テーブル機能をサポートするバージョンにアップグレードすることを検討してください。 テーブル プロトコルのバージョンの詳細については、<docLink>
をご覧ください。
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
より高いライター プロトコル バージョン (現在の <current>
) が必要なため、テーブル機能 <feature>
を有効にできません。 テーブルのライター プロトコルのバージョンを <required>
にアップグレードするか、ライター テーブル機能をサポートするバージョンにアップグレードすることを検討してください。 テーブル プロトコルのバージョンの詳細については、<docLink>
をご覧ください。
DELTA_FILE_ALREADY_EXISTS
既存のファイル パス <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
ファイル リストとパターン文字列の両方を指定することはできません。
DELTA_FILE_NOT_FOUND
ファイル パス <path>
DELTA_FILE_NOT_FOUND_DETAILED
トランザクション ログで参照されているファイル <filePath>
が見つかりません。 これは、テーブルの DELETE
ステートメントを使用せずに、ファイル システムからデータを手動で削除した場合に発生します。 詳細については、<faqPath>
を参照してください。
DELTA_FILE_OR_DIR_NOT_FOUND
ファイルまたはディレクトリ <path>
はありません
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
書き換え対象のファイル (<path>
) が候補ファイルの中に見つかりません:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
MapType が見つかりました。 MapType のキーや値にアクセスするには、
次のいずれかを指定します:
<key>
または
<value>
のいずれか、続いて列名を指定します (列が構造体である場合のみ)。
例: mymap.key.mykey
列が基本型の場合は、mymap.key または mymap.value で十分です。
[スキーマ]:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
列 <columnName>
にはデータ型 <columnType>
が含まれ、この列は次の生成された列によって参照されているため、データ型 <dataType>
に変更できません。
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
この列は次の生成された列によって参照されているため、列 <columnName>
を変更できません。
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
生成された列 <columnName>
の式の型は <expressionType>
ですが、列タイプは <columnType>
です
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
列 <currentName>
は、生成された列または生成された列によって使用される列です。 データ型は <currentDataType>
で、データ型 <updateDataType>
に変換できません。
DELTA_ICEBERG_COMPAT_VIOLATION
IcebergCompatV<version>
の検証に失敗しました。.
詳細については、「DELTA_ICEBERG_COMPAT_VIOLATION」をご覧ください
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN は、IDENTITY 列ではサポートされていません。
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY は Delta でのみサポートされています。
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
非 IDENTITY 列で ALTER TABLE ALTER COLUMN SYNC IDENTITY を呼び出すことはできません。
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
GENERATED ALWAYS AS IDENTITY 列 <colName>
の値の指定はサポートされていません。
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY 列の手順を 0 にすることはできません。
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY 列は Delta でのみサポートされます。
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY 列 <colName>
はサポートされていません。
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS は、IDENTITY 列を含むテーブルではサポートされていません。
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType>
は IDENTITY 列ではサポートされていません。
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
IDENTITY 列の更新 <colName>
はサポートされていません。
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
IDENTITY 列は、生成された列式では指定できません。
DELTA_ILLEGAL_OPTION
オプション '<name>
' の値 '<input>
' が無効です。<explain>
DELTA_ILLEGAL_USAGE
Delta テーブルの <operation>
を行う場合、<option>
の使用は許可されません。
DELTA_INCONSISTENT_BUCKET_SPEC
Delta バケットテーブルの BucketSpec が metadata.Expected: <expected>
の BucketSpec と一致しません。 実際: <actual>
。
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) を異なる値に設定することはできません。 いずれか 1 つだけを設定するか、同じ値に設定してください。
DELTA_INCORRECT_ARRAY_ACCESS
ArrayType に誤ってアクセスしています。 arrayname.element.elementname の位置を使用して、
配列に追加します。
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
ArrayType が見つかりました。 ArrayType の要素にアクセスするには、次のように指定します。
<rightName>
(<wrongName>
の代わり)
[スキーマ]:
<schema>
DELTA_INCORRECT_GET_CONF
`conf.getConf() の代わりに getConf()
を使用してください
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
このエラーは通常、既定の LogStore の実装、つまり HDFSLogStore を使用して
非 HDFS ストレージ システムの Delta テーブルに書き込むときに発生します。
テーブルの更新でトランザクション ACID の保証を取得するには、お使いのストレージ システムに
適した LogStore の正しい実装を使用する必要があります。
詳細については、<docLink>
を参照してください。
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
列をドロップするためのインデックス <position>
が、構造体の長さ <length>
以上になっています
DELTA_INDEX_LARGER_THAN_STRUCT
列 <columnName>
を追加するインデックス <index>
が、構造体の長さ <length>
を超えています。
DELTA_INSERT_COLUMN_ARITY_MISMATCH
‘<tableName>
’、<columnName>
に書き込めません。ターゲット テーブルには <numColumns>
列がありますが、挿入されたデータには <insertColumns>
列があります
DELTA_INSERT_COLUMN_MISMATCH
列 <columnName>
が INSERT で指定されていません
DELTA_INVALID_AUTO_COMPACT_TYPE
無効な自動圧縮の種類です: <value>
。 使用できる値: <allowed>
。
DELTA_INVALID_BUCKET_COUNT
無効なバケット数: <invalidBucketCount>
。 バケット数は、2 の累乗で少なくとも 8 の正の数である必要があります。 代わりに <validBucketCount>
を使用できます。
DELTA_INVALID_BUCKET_INDEX
パーティション列の中にバケット列が見つかりません
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
間隔を null または空白にすることはできません。
DELTA_INVALID_CDC_RANGE
開始 <start>
から終了 <end>
までの CDC 範囲が無効でした。 終了を開始より前にすることはできません。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
属性名 "<columnName>
" に ” ,;{}()\n\t=” の中の無効な文字が含まれています。 別名を使用して名前を変更してください。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
スキーマの列名に ‘ ,;{}()nt=’ の中の無効な文字が見つかりました。
無効な列名: <invalidColumnNames>
。
他の文字を使用して、もう一度やり直してください。
または、列マッピングを有効にして、これらの文字を使用し続けることもできます。
DELTA_INVALID_CLONE_PATH
CLONE のターゲットの場所は、絶対パスまたはテーブル名である必要があります。
<path>
の代わりに絶対パスを使用してください。
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
スキーマの列名に ‘ ,;{}()nt=’ の中の無効な文字が見つかりました。
無効な列名: <invalidColumnNames>
。
列名に無効な文字がある場合は、列マッピングを削除できません。
列の名前を変更して無効な文字を削除してから、このコマンドをもう一度実行してください。
DELTA_INVALID_FORMAT
互換性のない形式が検出されました。
<deltaRootPath>
/_delta_log`` で Delta のトランザクション ログが見つかりましたが、
format(“<format>
”) を使用して <path>
に対して <operation>
を実行しようとしています。 次を使用する必要があります:
Delta テーブルに対する読み取り時および書き込み時には、‘format(“delta”)’ を使用する必要があります。
Delta の詳細については、「<docLink>
」をご覧ください
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
生成された列で、存在しない列または別の生成された列を使用することはできません
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
べき等データフレーム書き込みのオプションが無効です: <reason>
DELTA_INVALID_INTERVAL
<interval>
は有効な INTERVAL ではありません。
DELTA_INVALID_INVENTORY_SCHEMA
指定された INVENTORY のスキーマには、すべての必須フィールドは含まれません。 必須フィールド: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
無効な分離レベル ‘<isolationLevel>
’
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) と (<schemeConfig>
) を同時に設定することはできません。 それらのグループを 1 つだけ設定してください。
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Delta を使用してマネージド テーブル <tableName>
を
作成しようとしていますが、スキーマが指定されていません。
Delta の詳細については、「<docLink>
」をご覧ください
DELTA_INVALID_PARTITION_COLUMN
<columnName>
は、テーブル <tableName>
の有効なパーティション列ではありません。
DELTA_INVALID_PARTITION_COLUMN_NAME
” ,;{}()nt=” の中に無効な文字があるパーティション列が見つかりました。 名前をパーティション列に変更してください。 このチェックは、spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) を設定することで無効にすることができますが、Delta の他の機能が正しく動作しない可能性があるため、お勧めしません。
DELTA_INVALID_PARTITION_COLUMN_TYPE
型 <name>
の列 <dataType>
をパーティション列として使用することはサポートされていません。
DELTA_INVALID_PARTITION_PATH
パーティション パス フラグメントは part1=foo/part2=bar
のような形式にする必要があります。 パーティションのパス: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
プロトコルのバージョンを <oldProtocol>
から <newProtocol>
にダウングレードすることはできません
DELTA_INVALID_PROTOCOL_VERSION
サポートされていないデルタ プロトコル バージョン: テーブル "<tableNameOrPath>
" にはリーダー バージョン <readerRequired>
とライターバージョン <writerRequired>
が必要ですが、このバージョンの Databricks ではリーダーバージョン <supportedReaders>
とライターバージョンがサポートされています <supportedWriters>
。 新しいリリースにアップグレードしてください。
DELTA_INVALID_TABLE_VALUE_FUNCTION
関数 <function>
は、CDC 読み取りでサポートされていないテーブル値関数です。
DELTA_INVALID_TIMESTAMP_FORMAT
指定された timestamp <timestamp>
が、予期される構文 <format>
と一致しません。
DELTA_LOG_ALREADY_EXISTS
Delta ログは <path>
に既に存在しています
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
削除したことがない場合は、クエリが遅れている可能性があります。 チェックポイントを削除して最初から再起動してください。 この問題が再び発生しないようにするために、Delta テーブルのアイテム保持ポリシーを更新することができます。
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
<tableName>
に具体化された <rowTrackingColumn>
の列名がありません。
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Int.MaxValue-8 未満の制限値を使用してください。
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
このコミットは <numAttempts>
回試行されましたが成功しなかったため、失敗しました。
これは、Deltaテーブルが多数の同時コミットによって継続的にコミットされていることが原因である
可能性があります。
コミットが開始されたバージョン: <startVersion>
コミットが失敗したバージョン: <failVersion>
コミットを試みたアクションの数: <numActions>
このコミットの試行に費やされた合計時間: <timeSpent>
ミリ秒
DELTA_MAX_LIST_FILE_EXCEEDED
ファイル リストの最大エントリ数は <maxFileListSize>
ですが、現在は <numFiles>
エントリあります。
DELTA_MERGE_ADD_VOID_COLUMN
VOID 型を含む列 <newColumn>
を追加できません。 VOID 以外の型を明示的に指定してください。
DELTA_MERGE_INCOMPATIBLE_DATATYPE
互換性のないデータ型 <currentDataType>
と <updateDataType>
のマージに失敗しました
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
互換性のない <decimalRanges>
との 10 進型のマージに失敗しました
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
MERGE ステートメントのソースを具体化したままにすることは、繰り返し失敗しました。
DELTA_MERGE_MISSING_WHEN
MERGE ステートメントには、少なくとも 1 つの WHEN 句が必要です。
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
演算子 <merge>
で <input>
に解決された属性 <missingAttributes>
がありません
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
予期しない割り当てキー: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
指定された <cols>
の <clause>
で <sqlExpr>
を解決できませんでした。
DELTA_METADATA_CHANGED
MetadataChangedException: Delta テーブルのメタデータが同時更新によって変更されました。 操作をもう一度やり直してください。<conflictingCommit>
詳細については、「<docLink>
」を参照してください。
DELTA_MISSING_CHANGE_DATA
範囲 [<startVersion>
, <endVersion>
] の変更データの取得中にエラーが発生しました。
バージョン [<version>
] の変更データが記録されなかったためです。 このテーブルで変更データ フィードを有効にしている場合は、
DESCRIBE HISTORY
を使用して、最初に有効にされた日時を確認します。
それ以外の場合、変更データの記録を開始するには、`ALTER TABLE table_name SET TBLPROPERTIES (=true)` を
(<key>
=true)`。
DELTA_MISSING_COLUMN
<columnName>
がテーブル列 <columnList>
に見つかりません
DELTA_MISSING_COMMIT_INFO
このテーブルでは <featureName>
機能が有効になっており、コミットごとに CommitInfo アクションの存在が必要です。 しかし、コミット バージョン <version>
から CommitInfo アクションが欠落しています。
DELTA_MISSING_COMMIT_TIMESTAMP
このテーブルでは <featureName>
機能が有効になっており、CommitInfo アクションで commitTimestamp の存在が必要です。 しかし、コミット バージョン <version>
ではこのフィールドは設定されていません。
DELTA_MISSING_DELTA_TABLE
<tableName>
は Delta テーブルではありません。
DELTA_MISSING_DELTA_TABLE_COPY_INTO
テーブルが存在しません。 CREATE TABLE <tableName>
を使用して、最初に空の Delta テーブルを作成します。
DELTA_MISSING_ICEBERG_CLASS
Iceberg クラスが見つかりませんでした Delta Iceberg のサポートがインストールされていることを確認してください。
詳細については、「<docLink>
」をご覧ください。
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
NOT NULL 制約がある列 <columnName>
が、テーブルに書き込まれているデータにありません。
DELTA_MISSING_PARTITION_COLUMN
スキーマ <columnList>
にパーティション列 <columnName>
が見つかりません
DELTA_MISSING_PART_FILES
チェックポイント バージョン <version>
のすべてのパーツ ファイルが見つかりませんでした
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA では、parquet テーブルのみがサポートされます。 parquet ディレクトリの場合は、ターゲットを parquet.<path>
に書き換えてください。
DELTA_MISSING_SET_COLUMN
SET 列 <columnName>
が次の指定された列で見つかりません: <columnList>
。
DELTA_MISSING_TRANSACTION_LOG
互換性のない形式が検出されました。
Delta を使用して <operation>
<path>
を行おうとしていますが、
トランザクション ログが存在しません。 アップストリーム ジョブをチェックして、
format(“delta”) を使用して書き込みを行っていること、およびテーブル ベース パスの %1$s に対して行おうとしていることを確認してください。
Delta の詳細については、「<docLink>
」をご覧ください
DELTA_MODE_NOT_SUPPORTED
指定したモード ‘<mode>
’ はサポートされていません。 サポートされているモードは次のとおりです: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
CDC 読み取り用に指定された複数の <startingOrEnding>
引数。 <startingOrEnding>
Timestamp または <startingOrEnding>
Version のいずれかを指定してください。
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
複数のブルーム フィルターのインデックス構成が列 <columnName>
のコマンドに渡されました
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
複数のソース行が一致し、Delta テーブルの同じターゲット行を競合する方法で変更しようとしたため、
マージを実行できませんでした。 マージの SQL セマンティクスでは、
複数のソース行が同じターゲット行に一致する場合、
一致するターゲット行の更新または削除にどのソース行を使用するかが不明確なため、
結果が曖昧になる可能性があります。 複数の一致が発生する可能性をなくすには、
ソース テーブルを前処理します。 以降の手順については、「推奨ドキュメント」に記載されているリンクの
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
<command>
中に、両方の調整されたコミット構成 ("delta.coordinatedCommits.commitCoordinator-preview"、"delta.coordinatedCommits.commitCoordinatorConf-preview") がコマンドで設定されるか、どちらも設定されていません。 不足しています: "<configuration>
"。 TBLPROPERTIES 句でこの構成を指定するか、他の構成を削除してから、もう一度コマンドを再試行してください。
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
<command>
中に、両方の調整されたコミット構成 ("coordinatedCommits.commitCoordinator-preview"、"coordinatedCommits.commitCoordinatorConf-preview") が SparkSession 構成で設定されるか、どちらも設定されていません。 不足しています: "<configuration>
"。 SparkSession でこの構成を設定するか、他の構成の設定を解除してから、もう一度コマンドを再試行してください。
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
次の列名は、Delta バケットテーブルの内部使用専用に予約されています: <names>
DELTA_NESTED_FIELDS_NEED_RENAME
入力スキーマに、大文字の使用がターゲット テーブルとは異なる入れ子になったフィールドが含まれます。
Delta への書き込み中にこれらのフィールドのデータが失われるのを防ぐため、名前を変更する必要があります。
フィールド:
<fields>
.
元のスキーマ:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
フィールド <nestType>
の <parent>
型に NOT NULL 制約が含まれています。 Delta では、配列またはマップ内に入れ子になった NOT NULL 制約はサポートされていません。 このエラーを抑制し、指定した制約をサイレントに無視するには、<configKey>
を true に設定します。
解析された <nestType>
型:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
入れ子になったサブクエリは、<operation>
条件ではサポートされていません。
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<tableName>
の <numRows>
行が新しい CHECK 制約 (<checkConstraint>
) に違反しています
DELTA_NEW_NOT_NULL_VIOLATION
<tableName>
の <numRows>
行が新しい CHECK 制約 (<colName>
) に違反しています
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK 制約 ‘<name>
’ (<expr>
) はブール式にする必要があります。
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
<expr>
が見つかりました。 生成された列で非決定論的な式を使用することはできません。
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
<operation>
<expression>
では、決定論的関数以外はサポートされていません
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
MERGE ステートメントに複数の MATCHED 句がある場合、最後の MATCHED 句のみが条件を省略できます。
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
MERGE ステートメントに複数の NOT MATCHED BY SOURCE 句がある場合、最後の NOT MATCHED BY SOURCE 句のみが条件を省略できます。
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
MERGE ステートメントに複数の NOT MATCHED 句がある場合、最後の NOT MATCHED 句のみが条件を省略できます。
DELTA_NON_PARSABLE_TAG
タグ <tag>
を解析できませんでした。
ファイル タグ: <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
Delta に書き込まれるデータには、パーティション分割されていない列が少なくとも 1 つ含まれている必要があります。<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
述語はパーティション以外の列 ‘<columnName>
’ を参照します。 参照できるのはパーティション列のみです: [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
パーティション分割列以外の列 <columnList>
は、パーティション分割列のみが予期される場所で指定します: <fragment>
。
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Delta カタログには単一部分の名前空間が必要ですが、<identifier>
はマルチパートです。
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
は Delta テーブルではありません。 Databricks Delta で再作成する場合は、最初にこのテーブルをドロップしてください。
DELTA_NOT_A_DELTA_TABLE
<tableName>
は Delta テーブルではありません。 Delta Lake で再作成する場合は、最初にこのテーブルをドロップしてください。
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
null 許容列が構造体 <struct>
に見つかりません
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
列 <columnName>
の NOT NULL 制約に違反しています。
DELTA_NOT_NULL_NESTED_FIELD
入れ子の null 非許容フィールドを null 許容の親に追加することはできません。 それに応じて、親列の NULL 値の許容を設定してください。
DELTA_NO_COMMITS_FOUND
<logPath>
にコミットが見つかりません
DELTA_NO_RECREATABLE_HISTORY_FOUND
再作成可能なコミットが <logPath>
に見つかりません
DELTA_NO_RELATION_TABLE
テーブル <tableIdent>
が見つかりません
DELTA_NO_START_FOR_CDC_READ
CDC 読み取りのための startingVersion または startingTimestamp が指定されていません。
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta は、ストリーミング書き込みのスキーマで NullTypes を受け入れません。
DELTA_ONEOF_IN_TIMETRAVEL
タイム トラベル用に 'timestampAsOf' または 'versionAsOf' を指定してください。
DELTA_ONLY_OPERATION
<operation>
は、Delta テーブルでのみサポートされます。
DELTA_OPERATION_MISSING_PATH
<operation>
のパスまたはテーブル識別子を指定してください。
DELTA_OPERATION_NOT_ALLOWED
操作は許可されていません: <operation>
は Delta テーブルではサポートされていません
DELTA_OPERATION_NOT_ALLOWED_DETAIL
操作は許可されていません: <operation>
は Delta テーブル <tableName>
ではサポートされていません
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
既定以外の照合順序 <collation>
を持つ列 <colName>
に対して <operation>
はサポートされません。
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
は既定以外の照合順序を使用しているため、式 <exprText>
ではサポートされません。
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
生成された列を含む Delta テーブルを参照する一時ビューでの <operation>
コマンドはサポートされていません。 Delta テーブルで <operation>
コマンドを直接実行してください
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
操作は許可されていません: <operation>
はビューで実行できません。
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL は、空でないクラスタリング列を持つクラスター化テーブルでのみサポートされます。
DELTA_OVERWRITE_MUST_BE_TRUE
OVERWRITE = 'true' を設定しないと、コピー オプション overwriteSchema を指定できません。
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
‘overwriteSchema’ は動的パーティション上書きモードで使用できません。
DELTA_PARTITION_COLUMN_CAST_FAILED
値 <value>
を パーティション列 <columnName>
の <dataType>
にキャストできませんでした
DELTA_PARTITION_COLUMN_NOT_FOUND
スキーマ [<schemaMap>
] にパーティション列 <columnName>
が見つかりません
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Iceberg テーブルの変換時にパーティション スキーマを指定することはできません それは自動的に推論されます。
DELTA_PATH_DOES_NOT_EXIST
<path>
が存在しないか、Delta テーブルではありません。
DELTA_PATH_EXISTS
OVERWRITE = 'true' を設定しないと、既に存在するパス <path>
に書き込めません。
DELTA_POST_COMMIT_HOOK_FAILED
Delta テーブル バージョン <version>
へのコミットは成功しましたが、コミット後フック <name>
<message>
の実行中にエラーが発生しました
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: Delta テーブルのプロトコル バージョンが同時更新によって変更されました。 <additionalInfo>
<conflictingCommit>
詳細については、「<docLink>
」を参照してください。
DELTA_PROTOCOL_PROPERTY_NOT_INT
プロトコル プロパティ <key>
は整数である必要があります。 <value>
が見つかりました
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
テーブル機能を使用するためにリーダー プロトコル バージョンのみをアップグレードできません。 続行するには、ライター プロトコルのバージョンが、少なくとも <writerVersion>
以上である必要があります。 テーブル プロトコルのバージョンの詳細については、<docLink>
をご覧ください。
DELTA_READ_TABLE_WITHOUT_COLUMNS
列がない Delta テーブル <tableName>
を読み取ろうとしています。
テーブルを読み取ることができるオプション mergeSchema = true
を使用して、新しいデータを書き込みます。
DELTA_REGEX_OPT_SYNTAX_ERROR
‘<regExpOption>
’ の構文を再確認してください
DELTA_REPLACE_WHERE_IN_OVERWRITE
replaceWhere をフィルターによる上書きと組み合わせて使用することはできません
DELTA_REPLACE_WHERE_MISMATCH
書き込まれたデータは、テーブルの部分的な上書き条件または制約 '<replaceWhere>
' に準拠していません。
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
DataFrameWriter のオプションで、‘replaceWhere’ 式と ‘partitionOverwriteMode’=’dynamic’ を同時に設定することはできません。
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'dataChange' が false に設定されている場合、replaceWhere' をデータ フィルターで使用することはできません。 フィルター: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
行数統計なしで行 ID を割り当てることはできません。
Scala ノートブックで次のコードを実行してテーブルの統計を集計してから、以下をもう一度お試しください。
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
スキーマの変更が検出されました:
ストリーミング ソース スキーマ: <readSchema>
データ ファイル スキーマ: <dataSchema>
クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返され、
進展がない場合は、互換性のないスキーマの変更を行い、スキーマの変更を行い、
新しいチェックポイント ディレクトリを使用してクエリを最初から開始する必要があります。
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
バージョン <version>
で次のスキーマの変更が検出されました:
ストリーミング ソース スキーマ: <readSchema>
データ ファイル スキーマ: <dataSchema>
クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返され、
進展がない場合は、互換性のないスキーマの変更を行い、スキーマの変更を行い、
新しいチェックポイント ディレクトリを使用してクエリを最初から開始する必要があります。 新しいチェックポイントディレクトリに変更した後で問題が解決しない場合は、
既存の
‘startingVersion’ または ‘startingTimestamp’ オプションを変更し、
新しいチェックポイント ディレクトリを使用する、<version>
以降のバージョンから開始する必要がある場合があります。
DELTA_SCHEMA_CHANGED_WITH_VERSION
バージョン <version>
で次のスキーマの変更が検出されました:
ストリーミング ソース スキーマ: <readSchema>
データ ファイル スキーマ: <dataSchema>
クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返され、
進展がない場合は、互換性のないスキーマの変更を行い、スキーマの変更を行い、
新しいチェックポイント ディレクトリを使用してクエリを最初から開始する必要があります。
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Delta テーブルのスキーマは、DataFrame または DeltaTable オブジェクトが作成された後に、
互換性のない方法で変更されました。 DataFrame または DeltaTable オブジェクトを再定義してください。
変更点:
<schemaDiff>
<legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
テーブル スキーマが指定されていません。 REPLACE テーブルを使用し、AS SELECT クエリが指定されていない場合は、テーブルのスキーマ (列定義) を指定してください。
DELTA_SCHEMA_NOT_SET
テーブル スキーマが設定されていません。 データを書き込むか、CREATE TABLE を使用してスキーマを設定します。
DELTA_SET_LOCATION_SCHEMA_MISMATCH
新しい Delta の場所のスキーマは、現在のテーブル スキーマとは異なります。
元のスキーマ:
<original>
送信先スキーマ:
<destination>
これが意図した変更である場合は、次を実行してこのチェックをオフにすることができます。
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
トランザクション ログで参照されているファイル <filePath>
が見つかりません。 これは、テーブルの DELETE
ステートメントを使用せずに、ファイル システムからデータを手動で削除した場合に発生することがあります。 このテーブルはシャロー クローンと見なされます。その場合、このエラーは、このテーブルの複製元の元のテーブルが、クローンでまだ使用しているファイルを削除した場合に発生する可能性があります。 元のテーブルに依存しないクローンを作成する場合は、代わりに DEEP クローンを使用します。
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
<prefix>
で始まる定義済みのプロパティは変更できません。
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
データは、セッション内の現在の受信者には適用されない受信者プロパティ <property>
によって制限されています。
詳細については、「DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED」を参照してください。
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
アカウント間で共有される Delta Sharing ビューでは、<operation>
は使用できません。
DELTA_SHARING_INVALID_PROVIDER_AUTH
プロバイダー <provider>
の認証の種類<authenticationType>
が無効です。
DELTA_SHARING_INVALID_RECIPIENT_AUTH
受信者<recipient>
の認証の種類<authenticationType>
が無効です。
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
共有内の <type>
を参照する名前が無効です。 [schema].[<type>
] の形式に従って共有内で<type>
の名前を使用するか、[catalog]の形式に従ってテーブルの元のフル ネームを使用することもできます。schema]。[>type>]。
使用する名前がわからない場合は、"SHOW ALL IN SHARE [share]" を実行し、削除する <type>
の名前を見つけることができます。列 "name" は共有内の <type>
の名前で、列 "shared_object" は <type>
の元のフル ネームです。
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
受信者の <recipient>
には 2 つ以上のトークンがあります。
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Recipient プロパティ <property>
が存在しません。
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
受信者の <recipient>
に受信者トークンがありません。
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
パーティション分割されていない列 <badCols>
が SHOW PARTITIONS に指定されています
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
パーティション分割されていない次のテーブルでは、SHOW PARTITIONS は許可されません: <tableName>
DELTA_SOURCE_IGNORE_DELETE
バージョン <version>
のストリーミング ソースから削除されたデータ (<removedFile>
など) が検出されました。 現在これはサポートされていません。 削除を無視したい場合は、オプション 'ignoreDeletes' を 'true' に設定してください。 ソース テーブルは、次のパスにあります: <dataPath>
。
DELTA_SOURCE_TABLE_IGNORE_CHANGES
バージョン <version>
のソース テーブルでデータ更新 (<file>
など) を検出しました。 現在これはサポートされていません。 これが定期的に発生し、変更をスキップしても問題ない場合は、‘skipChangeCommits’ オプションを ‘true’ に設定してください。 データの更新を反映する必要があるj場合は、新しいチェックポイント ディレクトリでこのクエリを開始し直すか、DLT を使っている場合は完全な更新を行ってください。 これらの変更を処理する必要がある場合は、MV に切り替えてください。 ソース テーブルは、次のパスにあります: <dataPath>
。
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
'<version>
' または '<timestamp>
' を指定してください
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
Parquet メタデータ内の次の列の <statsType>
統計が見つかりません: <columnPath>
。
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Delta ストリーミング ソース内の Delta バージョン <previousSchemaChangeVersion>
と <currentSchemaChangeVersion>
の間で 1 つ以上の非加法スキーマ変更 (<opType>
) が検出されました。
<currentSchemaChangeVersion>
で最終スキーマを使用してストリーム処理を続行する前に、このスキーマ変更をシンク テーブルに手動で反映するかどうかを確認してください。
シンク テーブルのスキーマを修正したか、修正する必要がないと判断した場合、次のいずれかの SQL 構成を設定して、非加法スキーマ変更のブロックを解除し、ストリーム処理を続行できます。
この一連のスキーマ変更のためだけにこの特定のストリームのブロックを解除するには、<allowCkptVerKey>` = `<allowCkptVerValue>
を設定します。
この特定のストリームのブロックを解除するには、<allowCkptKey>` = `<allowCkptValue>
を設定します。
すべてのストリームのブロックを解除するには、<allowAllKey>` = `<allowAllValue>
を設定します。
または、該当する場合は、SQL conf で <allowAllMode>
を <opSpecificMode>
に置き換えて、このスキーマ変更の種類に対してストリームのブロックを解除することもできます。
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
列マッピング スキーマの変更を確認するときに、開始バージョンの Delta ログ スナップショットを取得できませんでした。 別の開始バージョンを選択するか、‘<config>
’ を ‘true’ に設定して、ユーザーの責任で、ストリーミング読み取りを強制的に有効にしてください。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
ストリーミング読み取りは、読み取り互換性のないスキーマの変更 (名前の変更、削除、データ型の変更など) を含むテーブルではサポートされていません。
この問題を解決するための詳細と次の手順については、<docLink>
のドキュメントをご覧ください
スキーマの読み取り: <readSchema>
。 互換性のないデータ スキーマ: <incompatibleSchema>
。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
ストリーミング読み取りは、読み取り互換性のないスキーマの変更 (名前の変更、削除、データ型の変更など) を含むテーブルではサポートされていません。
Delta ストリーム処理の非加法スキーマの進化を有効にするには、'schemaTrackingLocation' を指定してください。
詳細については、 <docLink>
をご覧ください。
スキーマの読み取り: <readSchema>
。 互換性のないデータ スキーマ: <incompatibleSchema>
。
DELTA_STREAMING_METADATA_EVOLUTION
ストリーミング中に、Delta テーブルのスキーマ、テーブルの構成、またはプロトコルが変更されました。
スキーマまたはメタデータ追跡ログが更新されました。
更新されたメタデータを使用して処理を続行するには、ストリームを再起動してください。
更新されたスキーマ: <schema>
。
更新されたテーブル構成: <config>
。
更新されたテーブル プロトコル: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
スキーマ追跡を使用したソース テーブル <tableId>
からのストリーミングでは、行フィルターや列マスクはサポートされていません。
行フィルターまたは列マスクを削除するか、スキーマ追跡を無効にしてください。
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
テーブルまたは ‘<table>
’ にあるテーブルからのストリーミング中に、競合しているスキーマの場所 '<loc>
' が検出されました。
別のストリームが同じスキーマの場所を再利用している可能性がありますが、これは許可されていません。
このテーブルのいずれかのストリームのリーダー オプションとして、新しい一意の schemaTrackingLocation
パスを指定するか、streamingSourceTrackingId
を指定してください。
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
スキーマの場所 '<schemaTrackingLocation>
' はチェックポイントの場所 '<checkpointLocation>
' の下に配置する必要があります。
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Delta ストリーミング ソース スキーマ ログの '<location>
' の不完全なログ ファイル。
スキーマ ログが壊れている可能性があります。 新しいスキーマの場所を選択してください。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Delta ストリームを読み取ろうとしたときに、互換性のない Delta テーブル ID が検出されました。
永続化されたテーブル ID: <persistedId>
、テーブル ID: <tableId>
スキーマ ログが再利用されている可能性があります。 新しいスキーマの場所を選択してください。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Delta ストリームを読み取ろうとしたときに、互換性のないパーティション スキーマが検出されました。
永続化されたスキーマ: <persistedSchema>
、Delta パーティション スキーマ: <partitionSchema>
テーブルのパーティション スキーマを最近手動で変更した場合は、新しいスキーマの場所を選択してスキーマ ログを再初期化してください。
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Delta ストリーミング ソース スキーマ ログを初期化できませんでした。
テーブル バージョン <a>
から <b>
へのストリーミング バッチの提供中に、互換性のないスキーマまたはプロトコルの変更が検出されました。
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Delta ストリーミング ソース スキーマ ログからスキーマを解析できませんでした。
スキーマ ログが壊れている可能性があります。 新しいスキーマの場所を選択してください。
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
テーブルで変更データ キャプチャを有効にできません。 テーブルには、テーブルの
変更データ フィードのメタデータとして <columnList>
内部的に使用される予約済みの列
テーブルでデータ フィードの変更を有効にするには、これらの列の名前を変更またはドロップします。
DELTA_TABLE_ALREADY_EXISTS
テーブル <tableName>
は既に存在します。
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
現在、DeltaTable.forPath では、<allowedPrefixes>
以降の hadoop 構成キーのみがサポートされていますが、<unsupportedOptions>
を取得しました
DELTA_TABLE_ID_MISMATCH
このコマンドがテーブルを使用しているときに、<tableLocation>
の Delta テーブルが置き換えられました。
テーブル ID は <oldId>
でしたが、現在は <newId>
です。
現在のコマンドを再試行して、テーブルの一貫性のあるビューが読み取られることを確認してください。
DELTA_TABLE_LOCATION_MISMATCH
既存のテーブル <tableName>
の場所は <existingTableLocation>
です。 指定した場所 <tableLocation>
と一致しません。
DELTA_TABLE_NOT_FOUND
Delta テーブル <tableName>
は存在しません。
DELTA_TABLE_NOT_SUPPORTED_IN_OP
<operation>
ではテーブルはサポートされていません。 代わりにパスを使用してください。
DELTA_TABLE_ONLY_OPERATION
<tableName>
は Delta テーブルではありません。 <operation>
は、Delta テーブルでのみサポートされます。
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
ターゲット テーブルの最終スキーマが空です。
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
指定された timestamp (<providedTimestamp>
) は、
このテーブル (<tableName>
) で使用可能な最新バージョンよりも後です。 <maximumTimestamp>
以前の timestamp を使用してください。
DELTA_TIMESTAMP_INVALID
指定されたタイムスタンプ (<expr>
) を有効なタイムスタンプに変換できません。
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
は有効な開始値である必要があります。
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: 手動削除またはログ保持ポリシー (<logRetentionKey>
=<logRetention>
) とチェックポイント保持ポリシー (<checkpointRetentionKey>
=<checkpointRetention>
) によりトランザクション ログが切り詰められたため、バージョン <version>
で状態を再構築することができませんでした。
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
操作は許可されていません: Delta テーブルの TRUNCATE TABLE ではパーティション述語がサポートされていません。特定のパーティションまたは行を削除するには DELETE を使用してください。
DELTA_UDF_IN_GENERATED_COLUMN
<udfExpr>
が見つかりました。 生成された列でユーザー定義関数を使用できません
DELTA_UNEXPECTED_ACTION_EXPRESSION
予期しないアクション式 <expression>
。
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
<expectedColsSize>
個のパーティション列 <expectedCols>
が予期されていますが、ファイル名 <path>
の解析からは <parsedColsSize>
個のパーティション列 <parsedCols>
が見つかりました
DELTA_UNEXPECTED_PARTIAL_SCAN
Delta ソースのフル スキャンを想定していましたが、部分的なスキャンが見つかりました。 パス:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
パーティション列 <expectedCol>
が予期されていましたが、ファイル名 <path>
の解析からはパーティション列 <parsedCol>
が見つかりました
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA は、カタログから推測されるパーティション スキーマとは異なるパーティション スキーマで呼び出されました。パーティション スキーマをカタログから選択できるようにするために、スキーマを指定することは避けてください。
カタログ パーティション スキーマ:
<catalogPartitionSchema>
指定されたパーティション スキーマ:
<userPartitionSchema>
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Delta Uniform の Iceberg を読み取れませんでした。
詳細については、「DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION」を参照してください
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
均一イングレス テーブルの作成または更新はサポートされていません。
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
形式 <fileFormat>
はサポートされていません。 元のファイル形式として iceberg のみサポートされています。
DELTA_UNIFORM_NOT_SUPPORTED
ユニバーサル形式は、Unity Catalog テーブルでのみサポートされます。
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
テーブル バージョン <version>
をユニバーサル形式 <format>
に変換できませんでした。 <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
ユニバーサル形式 (<format>
) の検証に失敗しました: <violation>
DELTA_UNKNOWN_CONFIGURATION
不明な構成 <config>
が指定されました
DELTA_UNKNOWN_PRIVILEGE
不明な特権: <privilege>
DELTA_UNKNOWN_READ_LIMIT
不明な ReadLimit: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
列の変更 <otherClass>
を認識できませんでした。 古い Delta Lake バージョンを実行している可能性があります。
DELTA_UNRECOGNIZED_INVARIANT
インバリアントが認識されませんでした。 Spark バージョンをアップグレードしてください。
DELTA_UNRECOGNIZED_LOGFILE
ログ ファイル <fileName>
が認識されませんでした
DELTA_UNSET_NON_EXISTENT_PROPERTY
テーブル <tableName>
に存在しないプロパティ ‘<property>
’ の設定を解除しようとしました
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
は、絶対パスを使用したファイルの追加をサポートしていません
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
列 <fieldPath>
を <oldField>
から <newField>
に変更する場合、ALTER TABLE CHANGE COLUMN はサポートされていません
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
サポートされていない ALTER TABLE REPLACE COLUMNS 操作。 理由: <details>
次のスキーマの変更に失敗しました:
<oldSchema>
を次のように変更します。
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
既存のテーブル (<tableName>
) を CLONE に置き換えようとしました。 この操作は
サポートされていません。 CLONE の別のターゲットを試すか、現在のターゲットにあるテーブルを削除します。
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
列マッピング モードを ‘<oldMode>
’ から ‘<newMode>
’ に変更することはサポートされていません。
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
現在のテーブル プロトコル バージョンは、
サポートしません <config>
。
列マッピングに必要な Delta プロトコルのバージョン:
<requiredVersion>
テーブルの現在の Delta プロトコルのバージョン:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
スキーマの変更が検出されました:
以前のスキーマ:
<oldTableSchema>
新しいスキーマ:
<newTableSchema>
列マッピング モードの変更中は、スキーマの変更は許可されません。
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
列マッピング モードでのデータの書き込みはサポートされていません。
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
型 <dataType>
の列にブルーム フィルター インデックスを作成することはサポートされていません: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
<fieldPath>
にはコメントを追加できません。 マップのキーと値または配列要素へのコメントの追加はサポートされていません。
DELTA_UNSUPPORTED_DATA_TYPES
サポートされていないデータ型を使用している列が見つかりました: <dataTypeList>
。 型チェックを無効にするには、‘<config>
’ を ‘false’ に設定します。 この型チェックを無効にすると、ユーザーがサポートされていない Delta テーブルを作成できてしまう可能性があるため、レガシ テーブルの読み取り/書き込みを試みる場合にのみ使用する必要があります。
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
は生成された列の結果ではありえません
DELTA_UNSUPPORTED_DEEP_CLONE
この Delta バージョンでは、ディープ クローンはサポートされていません。
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
はビューです。 DESCRIBE DETAIL は、テーブルでのみサポートされています。
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
クラスタリング列 (<columnList>
) のドロップは許可されていません。
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN は Delta テーブルではサポートされていません。 <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
入れ子になった列は StructType からのみドロップできます。 <struct>
が見つかりました
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
パーティション列 (<columnList>
) のドロップは許可されていません。
DELTA_UNSUPPORTED_EXPRESSION
<causedBy>
でサポートされていない式の型 (<expType>
) です。 サポートされている型は [<supportedTypes>
] です。
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
は生成された列では使用できません
DELTA_UNSUPPORTED_FEATURES_FOR_READ
サポートされていない Delta 読み取り機能です: テーブル “<tableNameOrPath>
” には、このバージョンの Databricks ではサポートされていないリーダー テーブル機能が必要です: <unsupported>
。 Delta Lake 機能の互換性について詳しくは、<link>
を参照してください。
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
サポートされていない Delta 書き込み機能です: テーブル “<tableNameOrPath>
” には、このバージョンの Databricks ではサポートされていないライター テーブル機能が必要です: <unsupported>
。 Delta Lake 機能の互換性について詳しくは、<link>
を参照してください。
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
次の Spark 構成または Delta テーブル プロパティで構成されたテーブル機能は、このバージョンの Databricks では認識されません: <configs>
。
DELTA_UNSUPPORTED_FEATURE_STATUS
テーブル機能 <feature>
の状態が "有効" になることが予期されていましたが、“<status>
” を取得しました。
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
入れ子になったフィールドの更新は StructType でのみサポートされていますが、型が <dataType>
である <columnName>
のフィールドを更新しようとしています。
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
'FSCK REPAIR TABLE' コマンドは、削除ベクトル ファイルがないテーブル バージョンではサポートされていません。
サポートにお問い合わせください。
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
'GENERATE symlink_format_manifest' コマンドは、削除ベクトルを含むテーブル バージョンではサポートされていません。
削除ベクトルを含まないテーブルのバージョンを生成するには、‘REORG TABLE table APPLY (PURGE)’ を実行します。 その後、'GENERATE' コマンドを再実行します。
削除ベクトルを再び追加する同時トランザクションが REORG と GENERATE の間にないことを確認してください。
マニフェストを定期的に生成する必要がある場合、または同時トランザクションを回避できない場合は、'ALTER TABLE TABLE SET TBLPROPERTIES (delta.enableDeletionVectors = false) を使用して、このテーブルの削除ベクトルを無効にすることを検討してください。
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
StructTypes 以外の入れ子になったフィールドのインバリアントはサポートされていません。
DELTA_UNSUPPORTED_IN_SUBQUERY
サブクエリは、<operation>
条件ではサポートされていません。
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix は使用できません
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
外部リーダーはこれらの Delta テーブルを読み取ることができないため、列マッピングを利用するテーブルではマニフェストの生成はサポートされていません。 詳細については Delta のドキュメントを参照してください。
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
スキーマの展開を伴う MERGE INTO 操作では、現在 CDC 出力の書き込みはサポートされていません。
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
<operation>
条件では、複数列に In 述語を使用することはできません。
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
入れ子になった列にブルーム ファイラー インデックスを作成することは現在サポートされていません: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
入れ子になったフィールドは、<operation>
(field = <fieldName>
) ではサポートされていません。
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
複製先テーブルが空ではありません。 CLONE を実行する前に、テーブルの TRUNCATE または DELETE FROM を実行してください。
DELTA_UNSUPPORTED_OUTPUT_MODE
データ ソース <dataSource>
では <mode>
出力モードはサポートされていません
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
パーティション分割列でのブルーム フィルター インデックスの作成はサポートされていません: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
列の名前変更は、Delta テーブルではサポートされていません。 <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta では、読み取り時のスキーマの指定はサポートされていません。
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
Delta バケット テーブルでは、SORTED BY はサポートされていません
DELTA_UNSUPPORTED_SOURCE
<operation>
宛先では Delta ソースのみがサポートされます。
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
挿入時にパーティション仕様で静的パーティションを指定することは現在サポートされていません。
DELTA_UNSUPPORTED_STRATEGY_NAME
サポートされていない戦略名: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
<operation>
(条件 = <cond>
) では、サブクエリはサポートされていません。
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
サブクエリは、パーティション述語ではサポートされていません。
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
タイム トラベルを複数の形式で指定することはできません。
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
ビュー、サブクエリ、ストリームをタイム トラベルしたり、データ フィード クエリを変更したりすることはできません。
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
サンプル テーブルの切り詰めはサポートされていません
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
サポートされていない型の変更が適用されたため、このテーブルを操作できません。 <fieldName>
が <fromType>
から <toType>
に変更されました。
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Delta テーブルをバキュームする場合は、基本パス (<baseDeltaPath>
) を指定してください。 特定のパーティションをバキュームすることは、現在サポートされていません。
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
テーブルの実装では、書き込みがサポートされていません: <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
コミット コーディネーター <coordinatorName>
に登録されているテーブルに対して書き込みを実行しようとしています。 ただし、このコーディネーターの実装は現在の環境では使用できません。また、コーディネーターを使用しない書き込みは許可されません。
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
サンプル テーブルへの書き込みはサポートされていません
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
<fromCatalog>
を <toCatalog>
にキャストできません。 入れ子になった列はすべて一致する必要があります。
DELTA_VACUUM_COPY_INTO_STATE_FAILED
データ ファイルの VACUUM は成功しましたが、COPY INTO 状態のガベージ コレクションに失敗しました。
DELTA_VERSIONS_NOT_CONTIGUOUS
バージョン (<versionList>
) は連続していません。
詳細については、「DELTA_VERSIONS_NOT_CONTIGUOUS」を参照してください。
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
次の値を持つ行が CHECK 制約 <constraintName>
<expression>
に違反しています:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
テーブル <table>
のプロパティの検証に違反しました:
詳細については、「DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED」を参照してください
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
はビューです。 ビューにデータを書き込むことはできません。
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Z オーダー列 <columnName>
はデータ スキーマに存在しません。
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
<cols>
の Z オーダーは
無効になります。理由は、現時点では、これらの列の統計情報は収集されないためです。 以降の手順については、「推奨ドキュメント」に記載されているリンクの
<link>
データのスキップと Z オーダーの詳細については、上記のリンクを参照してください。 次のように設定することで、このチェックを
無効にできます:
‘%%sql set <zorderColStatKey>
= false’
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
はパーティション列です。 Z-Ordering は、データ列でのみ実行できます
オートローダー
CF_ADD_NEW_NOT_SUPPORTED
スキーマが指定されている場合、スキーマ進化モード <addNewColumnsMode>
はサポートされません。 このモードを使用するには、代わりに cloudFiles.schemaHints
を介してスキーマを提供できます。
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
(既定の) ディレクトリ一覧モードの通知設定の認証オプションが
見つかりました:
<options>
ファイル通知モードを使用する場合は、次のように明示的に設定してください:
.option(“cloudFiles.<useNotificationsKey>
”, “true”)
または、オプションの検証をスキップしてこれらの認証オプションを無視する場合は、
次のように設定できます:
.option(“cloudFiles.ValidateOptionsKey>”, “false”)
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
増分一覧モード (cloudFiles.<useIncrementalListingKey>
) と
ファイル通知 (cloudFiles.<useNotificationsKey>
) が
同時に有効になりました。
必ず 1 つだけ選択してください。
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Azure には adlsBlobSuffix と adlsDfsSuffix が必要です
CF_BUCKET_MISMATCH
ファイル イベント <fileEvent>
の <storeType>
は、ソース <source>
によって想定されたものとは異なります。
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
スキーマ ログが空の場合、スキーマを進化させることはできません。 スキーマ ログの場所: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
次のキュー メッセージ: <message>
を解析できません
CF_CANNOT_RESOLVE_CONTAINER_NAME
パス <path>
からコンテナー名を解決できません。解決された uri: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
非同期バックフィル スレッドが実行されている場合、ディレクトリ一覧を実行できません
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
cloudFiles.cleanSource と cloudFiles.allowOverwrites を同時に有効にすることはできません。
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
自動ローダーは、ソース ディレクトリへの書き込みアクセス許可がないため、処理されたファイルを削除できません。
<reason>
修正するには、次のいずれかを実行します:
- ソース ディレクトリに書き込みアクセス許可を付与する OR
- cleanSource を 'OFF' に設定する
また、SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors を 'true' に設定することで、ストリームのブロックを解除することもできます。
CF_DUPLICATE_COLUMN_IN_DATA
テーブルのパーティション スキーマを推測しようとしたときにエラーが発生しました。 データとパーティションのパスに同じ列が重複しています。 パーティション値を無視するには、次を使用してパーティション列を明示的に指定してください: .option(“cloudFiles.<partitionColumnsKey>
”, “{comma-separated-list}”)
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
入力パス <path>
が空の場合、スキーマを推論できません。 入力パスにファイルがある場合はストリームを開始するか、スキーマを指定してください。
CF_EVENT_GRID_AUTH_ERROR
Event Grid サブスクリプションを作成できませんでした。 サービス プリンシパルに
<permissionType>
サブスクリプションがあることをご確認ください。 詳細については、以下を参照してください。
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Event Grid サブスクリプションを作成できませんでした。 Microsoft.EventGrid がサブスクリプションのリソース
プロバイダーとして登録されていることを確認してください。 詳細については、以下を参照してください。
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Event Grid サブスクリプションを作成できませんでした。 ストレージ アカウント (
(<storageAccount>
) リソース グループ (<resourceGroup>
) の下にあり、ストレージ
アカウントが “StorageV2 (汎用 v2)” アカウントであることを確認してください。 詳細については、以下を参照してください。
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
自動ローダー イベント通知モードは <cloudStore>
でサポートされません。
CF_FAILED_TO_CHECK_STREAM_NEW
ストリームが新しいかどうかを確認できませんでした
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
サブスクリプション <subscriptionName>
を作成できませんでした。 同じ名前のサブスクリプションがすでに存在していて、別のトピック <otherTopicName>
に関連付けられています。 目的のトピックは <proposedTopicName>
です。 既存のサブスクリプションを削除するか、新しいリソース サフィックスを使用してサブスクリプションを作成します。
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
トピック <topicName>
を作成できませんでした。 同じ名前のトピックが既に存在します。<reason>
既存のトピックを削除するか、別のリソース サフィックスを使用してやり直してください
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
トピック <topicName>
のバケット <bucketName>
にある ID <notificationId>
の通知を削除できませんでした。 GCP コンソールから通知を再試行するか、手動で削除してください。
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
文字列 ‘<jsonSchema>
’ から永続化されたスキーマを逆シリアル化できませんでした
CF_FAILED_TO_EVOLVE_SCHEMA
スキーマ ログなしでスキーマを進化させることはできません。
CF_FAILED_TO_FIND_PROVIDER
<fileFormatInput>
のプロバイダーが見つかりませんでした
CF_FAILED_TO_INFER_SCHEMA
入力パス <path>
内の既存のファイルから形式 <fileFormatInput>
のスキーマを推測できませんでした。
詳細については、「CF_FAILED_TO_INFER_SCHEMA」を参照してください
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
場所 <path>
のスキーマ ログに書き込めませんでした。
CF_FILE_FORMAT_REQUIRED
必要なオプション cloudFiles.format が見つかりませんでした。
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
トピック <topicName>
の自動ローダー プレフィックスを持つ複数 (<num>
) のサブスクリプションが見つかりました:
<subscriptionList>
トピックごとに 1 つのサブスクリプションのみが存在する必要があります。 トピックに複数のサブスクリプションがないことを手動で確認してください。
CF_GCP_AUTHENTICATION
GCP リソースでの認証に既定の GCP 資格情報プロバイダー チェーンを使用するには、<clientEmail>
、<client>
、
<privateKey>
、<privateKeyId>
CF_GCP_LABELS_COUNT_EXCEEDED
GCP リソースに対して受け取ったラベルが多すぎます (<num>
)。 リソースあたりの最大ラベル数は <maxNum>
です。
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
GCP リソースに対して受け取ったリソース タグが多すぎます (<num>
)。 リソース タグはリソースに GCP ラベルとして保存され、Databricks 固有のタグはこのラベル割り当ての一部を消費するため、リソースあたりの最大リソース タグ数は <maxNum>
です。
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
パス <path>
にあるスキーマ ログ内にある不完全なログ ファイル
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
自動ローダー チェックポイント内のメタデータ ファイルが不完全です
CF_INCORRECT_SQL_PARAMS
cloud_files メソッドでは、読み込むためのパスとファイル形式の、2 つの必須文字列パラメータを指定できます。 ファイル リーダーのオプションは、Key-Value 形式の文字列で指定する必要があります。 例: cloud_files(“path”, “json”, map(“option1”, “value1”))。 受信: <params>
CF_INTERNAL_ERROR
内部エラーです。
詳細については、「CF_INTERNAL_ERROR」を参照してください
CF_INVALID_ARN
無効な ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
オプション cloudFiles.certificate を使って提供される秘密キーは解析できません。 PEM 形式の、有効な公開キーを指定してください。
CF_INVALID_AZURE_CERT_PRIVATE_KEY
オプション cloudFiles.certificatePrivateKey を使って提供される秘密キーは解析できません。 PEM 形式の、有効な秘密キーを指定してください。
CF_INVALID_CHECKPOINT
このチェックポイントは有効な CloudFiles ソースではありません
CF_INVALID_CLEAN_SOURCE_MODE
クリーン ソース オプション <value>
のモードが無効です。
CF_INVALID_GCP_RESOURCE_TAG_KEY
GCP リソースのリソース タグ キー <key>
が無効です。 キーは小文字で始まり、1 - 63 文字以内で、小文字、数字、アンダースコア (_)、ハイフン (-) のみを使用できます。
CF_INVALID_GCP_RESOURCE_TAG_VALUE
GCP リソースのリソース タグ値 <value>
が無効です。 値の長さは 0 - 63 文字以内で、小文字、数字、アンダースコア (_)、ハイフン (-) のみを使用できます。
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
自動ローダーは、マネージド ファイル イベントで使用する場合、次のオプションをサポートしません:
<optionList>
これらのオプションを削除してから、ストリームを再起動することをお勧めします。
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
マネージド ファイル イベント サービスからの応答が無効です。 サポートについては、Databricks のサポートにお問い合わせください。
詳しくは、CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE に関する記事をご覧ください
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
は次のいずれかにする必要があります: {
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
スキーマ ヒントでは、特定の列を 1 回だけ指定できます。
この場合、再定義する列: <columnName>
schemaHints で複数回:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
スキーマ ヒントを使用して、マップと配列の入れ子になった型をオーバーライドすることはできません。
競合する列: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset は、このソースの ReadLimit を使用して呼び出す必要があります。
CF_LOG_FILE_MALFORMED
ログ ファイルの形式が正しくありませんでした: <fileName>
から正しいログ バージョンを読み取れませんでした。
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
includeExistingFiles を false に設定して、外部の場所にある既存のファイルを無視するように自動ローダーに要求しました。 ただし、マネージド ファイル イベント サービスは、外部の場所にある既存のファイルを引き続き検出しています。 マネージド ファイル イベントが外部の場所にあるすべてのファイルの検出を完了したら、もう一度やり直してください。
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
マネージド ファイル イベントで自動ローダーを使用していますが、入力パス '<path>
' の外部の場所にファイル イベントが有効になっていないか、入力パスが無効であるようです。 入力パスの外部の場所でファイル イベントを有効にするように Databricks 管理者に依頼してください。
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
マネージド ファイル イベントで自動ローダーを使用していますが、入力パス '<path>
' の外部の場所またはボリュームにアクセスできないか、入力パスが無効であるようです。 Databricks 管理者に、外部の場所またはボリュームの読み取りアクセス許可を付与するか、既存の外部の場所またはボリューム内に有効な入力パスを指定するように要求してください。
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
マネージド ファイル イベントを含む自動ローダーは、Databricks サーバーレスでのみ使用できます。 続行するには、このワークロードを Databricks サーバーレスに移動するか、cloudFiles.useManagedFileEvents オプションをオフにしてください。
CF_MAX_MUST_BE_POSITIVE
max は正である必要があります
CF_METADATA_FILE_CONCURRENTLY_USED
複数のストリーミング クエリが同時に <metadataFile>
を使用しています
CF_MISSING_METADATA_FILE_ERROR
ストリーミング ソース チェックポイント ディレクトリ内にメタデータ ファイルがありません。 このメタデータ
ファイルには、ストリームの重要な既定のオプションが含まれているため、現時点でストリームを再開することは
できません。 サポートについては、Databricks のサポートにお問い合わせください。
CF_MISSING_PARTITION_COLUMN_ERROR
パーティション列 <columnName>
が次の指定されたスキーマに存在しません:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
ファイル通知モードの使用中に CloudFiles ソースへのパスが指定されていない場合は、.schema() を使用してスキーマを指定してください。 または、自動ローダーを使用してスキーマを推測するには、.load() で基本パスを指定してください。
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
バケット <bucketName>
で トピック <topicName>
の既存の通知が見つかりました:
notification,id
<notificationList>
意図しないイベントでサブスクライバーを汚染しないようにするには、上記の通知を削除して再試行してください。
CF_NEW_PARTITION_ERROR
ファイル [<filesList>
] から新しいパーティション列が推論されました。 スキーマ内のすべてのパーティション列を指定するか、次を使用して値を抽出するパーティション列のリストを指定してください: .option(“cloudFiles.partitionColumns”, “{comma-separated-list|empty-string}”)
CF_PARTITON_INFERENCE_ERROR
ファイルの現在のバッチのパーティション スキーマを推測しようとしたときにエラーが発生しました。 次を使用して、パーティション列を明示的に指定してください: .option(“cloudFiles.<partitionColumnOption>
”, “{comma-separated-list}”)
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
入力パス <path>
が存在しない場合、ファイルを読み取ることができません。 入力パスが存在することを確認してからやり直してください。
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
非同期バックフィルが無効になっている場合、定期的なバックフィルはサポートされません。 非同期バックフィルまたはディレクトリ一覧を有効にするには、spark.databricks.cloudFiles.asyncDirListing
を true に設定します
CF_PREFIX_MISMATCH
不一致のイベントが見つかりました: キー <key>
にプレフィックス <prefix>
がありません
CF_PROTOCOL_MISMATCH
<message>
コードに他の変更を加える必要がない場合は、SQL 構成を
‘<sourceProtocolVersionKey>
= <value>
’ に設定して
ストリームを再開してください。 以下を参照してください。
<docLink>
をご覧ください。
CF_REGION_NOT_FOUND_ERROR
既定の AWS リージョンを取得できませんでした。 cloudFiles.region オプションを使用してリージョンを指定してください。
CF_RESOURCE_SUFFIX_EMPTY
通知サービスを作成できませんでした: リソース サフィックスを空にすることはできません。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
通知サービスを作成できませんでした: リソース サフィックスに使用できるのは、英数字、ハイフン (-) とアンダースコア (_) のみです。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
通知サービスを作成できませんでした: リソース サフィックスに使用できるのは、小文字、数字、ダッシュ (-) のみです。
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
通知サービスを作成できませんでした: リソース サフィックスに使用できるのは、英数字、ハイフン (-)、アンダースコア (_)、ピリオド (.)、チルダ (~)、プラス記号 (+)、パーセント記号 (<percentSign>
) のみです。
CF_RESOURCE_SUFFIX_LIMIT
通知サービスを作成できませんでした: リソース サフィックスは <limit>
文字以内にする必要があります。
CF_RESOURCE_SUFFIX_LIMIT_GCP
通知サービスを作成できませんでした: リソース サフィックスは、<lowerLimit>
から <upperLimit>
文字の間にする必要があります。
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
制限された GCP リソース タグ キー (<key>
) が見つかりました。 次の GCP リソース タグ キーは自動ローダーに制限されています: [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration は cloudFiles.maxFileAge より大きくすることはできません。
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
プレフィックスが <prefix>
のトピック <topic>
の通知を作成できませんでした。 同じ名前で別のプレフィックスが付いたトピックが既にあります: <oldPrefix>
。 セットアップに別のリソース サフィックスを使用するか、既存のセットアップを削除してみてください。
CF_SOURCE_DIRECTORY_PATH_REQUIRED
ソース ディレクトリ パスにオプション path
を指定してください
CF_SOURCE_UNSUPPORTED
クラウド ファイル ソースでは、現在、S3、Azure Blob Storage (wasb/wasbs)、Azure Data Lake Gen1 (adl) と Gen2 (abfs/abfss) のパスのみがサポートされています。 パス: ‘<path>
’、解決された uri: ‘<uri>
’。
CF_STATE_INCORRECT_SQL_PARAMS
cloud_files_state 関数は、cloudFiles ストリームのチェックポイント ディレクトリを表す文字列パラメーターか、ストリーミング テーブルを識別するマルチパートの tableName と、オプションとして、状態を読み込むチェックポイント バージョンを表す 2 番目の整数パラメーターを受け取ります。 2 番目のパラメーターは、最新のチェックポイントを読み取るために 'latest' を使用することもできます。 受信: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
入力チェックポイント パス <path>
が無効です。 パスが存在しないか、cloud_files ソースが見つかりません。
CF_STATE_INVALID_VERSION
指定したバージョン <version>
が存在しないか、分析中に削除されました。
CF_THREAD_IS_DEAD
<threadName>
スレッドが動作していません。
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
ソース チェックポイントの場所 <checkPointLocation>
からストリーム チェックポイントの場所を派生できません
CF_UNABLE_TO_DETECT_FILE_FORMAT
<fileSize>
個のサンプリングされたファイルからソース ファイル形式を検出できません。次のものが見つかりました: <formats>
。 形式を指定してください。
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
バケット情報を抽出できません。 パス: ‘<path>
’、解決された uri: ‘<uri>
’。
CF_UNABLE_TO_EXTRACT_KEY_INFO
キー情報を抽出できません。 パス: ‘<path>
’、解決された uri: ‘<uri>
’。
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
ストレージ アカウント情報を抽出できません。パス: ‘<path>
’、解決された uri: ‘<uri>
’
CF_UNABLE_TO_LIST_EFFICIENTLY
パス <path>
のディレクトリ名前変更イベントを受け取りましたが、このディレクトリを効率的に一覧表示できません。 ストリームを続けるには、オプション ‘cloudFiles.ignoreDirRenames’ を true に設定し、このデータを処理するために cloudFiles.backfillInterval を使用して通常のバックフィルを有効にすることを検討してください。
CF_UNEXPECTED_READ_LIMIT
予期しない ReadLimit: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
不明なオプション キーが見つかりました:
<optionList>
指定されたすべてのオプション キーが正しいことを確認してください。 オプションの検証をスキップして、
これらの不明なオプションを無視する場合は、次のように設定できます:
.option(“cloudFiles.<validateOptions>
”, “false”)
CF_UNKNOWN_READ_LIMIT
不明な ReadLimit: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
自動ローダー ストリーミング ソースを作成するための SQL 関数 ‘cloud_files’ は、Delta Live Tables パイプラインでのみサポートされます。 詳細については、以下を参照してください。
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
形式 <format>
ではスキーマ推論はサポートされていません。 スキーマを指定してください。
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: サポートされているログの最大バージョンは v<maxVersion>``, but encountered v``<version>
です。 ログ ファイルは新しい方のバージョンの DBR によって生成されたため、このバージョンで読み取ることができません。 アップグレードしてください。
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
スキーマ進化モード <mode>
は、形式 <format>
ではサポートされていません。 スキーマの進化モードを 'none' に設定してください。
CF_USE_DELTA_FORMAT
Delta テーブルからの読み取りは、この構文ではサポートされていません。 Delta のデータを使用する場合は、Delta テーブルの読み取り (<deltaDocLink>
) またはストリーム ソースとしての Delta テーブルの読み取り (<streamDeltaDocLink>
) に関するドキュメントをご覧ください。 Delta からのストリーミング ソースは、データの増分消費用に既に最適化されています。
地理空間
EWKB_PARSE_ERROR
EWKB の解析中にエラーが発生しました: 位置 <pos>
の <parseError>
GEOJSON_PARSE_ERROR
GeoJSON の解析中にエラーが発生しました: 位置 <pos>
の <parseError>
詳細については、「GEOJSON_PARSE_ERROR」をご覧ください
H3_INVALID_CELL_ID
<h3Cell>
が有効な H3 セル ID ではありません
詳細については、「H3_INVALID_CELL_ID」をご覧ください
H3_INVALID_GRID_DISTANCE_VALUE
H3 グリッド距離 <k>
は負でない値にする必要があります
詳細については、「H3_INVALID_GRID_DISTANCE_VALUE」をご覧ください
H3_INVALID_RESOLUTION_VALUE
H3 の解像度 <r>
は、<minR>
と <maxR>
の間 (両端を含む) である必要があります
詳細については、「H3_INVALID_RESOLUTION_VALUE」をご覧ください
H3_NOT_ENABLED
<h3Expression>
が無効になっているか、サポートされていません。 Photon を有効にするか、H3 式をサポートするレベルに切り替えることを検討してください
詳細については、「H3_NOT_ENABLED」をご覧ください
H3_PENTAGON_ENCOUNTERED_ERROR
グリッド距離 <k>
で <h3Cell>
の 16 進リングを計算中に五角形が検出されました
H3_UNDEFINED_GRID_DISTANCE
<h3Cell1>
と <h3Cell2>
の間の H3 グリッド距離が未定義です
ST_DIFFERENT_SRID_VALUES
"<sqlFunction>
" の引数の SRID 値は同じである必要があります。 SRID 値が見つかりました: <srid1>
、<srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>
": <reason>
ST_INVALID_ARGUMENT_TYPE
"<sqlFunction>
" の引数は <validTypes>
型である必要があります
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: SRID <srcSrid>
から SRID <trgSrid>
への無効な CRS 変換またはサポートされていない CRS 変換
ST_INVALID_ENDIANNESS_VALUE
エンディアン <e>
は、'NDR' (リトル エンディアン) または 'XDR' (ビッグ エンディアン) である必要があります
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: 無効な geohash 値: ‘<geohash>
’。 geohash 値は、https://en.wikipedia.org/wiki/Geohash#Textual_representation で説明されているように、有効な小文字の base32 文字列である必要があります
ST_INVALID_PRECISION_VALUE
精度 <p>
は、<minP>
と <maxP>
の間 (両端を含む) である必要があります
ST_INVALID_SRID_VALUE
無効またはサポートされていない SRID <srid>
。
ST_NOT_ENABLED
<stExpression>
が無効になっているか、サポートされていません。 Photon を有効にするか、ST 式をサポートするレベルに切り替えることを検討してください
ST_UNSUPPORTED_RETURN_TYPE
GEOGRAPHY データ型と GEOMETRY データ型をクエリで返すことはできません。 次のいずれかの SQL 式を使用して、標準のインターチェンジ形式: <projectionExprs>
に変換してください。
WKB_PARSE_ERROR
WKB の解析中にエラーが発生しました: 位置 <pos>
の <parseError>
詳細については、「WKB_PARSE_ERROR」をご覧ください
WKT_PARSE_ERROR
WKT の解析中にエラーが発生しました: 位置 <pos>
の <parseError>
詳細については、「WKT_PARSE_ERROR」をご覧ください