Azure Databricks のエラー クラス

適用対象: Databricks SQL Databricks Runtime 12.2 以上

エラー クラスは、わかりやすく、人間が判読でき、エラー条件に一意の文字列です。

エラー クラスを使用すると、エラー メッセージを解析しなくても、アプリケーション内のエラーをプログラムで処理できます。

これは、Azure Databricks によって返される一般的な名前付きエラー条件のリストです。

Databricks Runtime と Databricks SQL

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE: 42845

集合関数に非決定的な式 <sqlExpr> を含めることはできません。

AI_FUNCTION_HTTP_PARSE_CAST_ERROR

SQLSTATE: 2203G

指定された returnType “<dataType>” にキャストするときに、モデルの出力を解析できませんでした。応答の JSON は “<responseString>” でした。 応答 JSON で表される型の内容と一致するように returnType を更新してから、クエリをもう一度やり直してください。

AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR

SQLSTATE: 2203G

実際のモデル出力には、複数の列 “<responseString>” があります。 一方、指定された戻り値の型 [“<dataType>”] には列が 1 つだけ含まれます。 モデル出力と同じ数の列を含むように returnType を更新してから、クエリをもう一度やり直してください。

AI_FUNCTION_HTTP_REQUEST_ERROR

SQLSTATE: 08000

関数 <funcName> に対して HTTP 要求を行っている間にエラーが発生しました: <errorMessage>

AI_FUNCTION_INVALID_HTTP_RESPONSE

SQLSTATE: 08000

関数 <funcName> に対する HTTP 応答が無効です: <errorMessage>

AI_FUNCTION_INVALID_MAX_WORDS

SQLSTATE: 22032

単語の最大数は負ではない整数である必要がありますが、<maxWords> を受け取りました。

AI_FUNCTION_INVALID_MODEL_PARAMETERS

SQLSTATE: 22023

指定されたモデル パラメーター (<modelParameters>) は、エンドポイント "<endpointName>" を提供するためのAI_QUERY関数では無効です。

詳細については、AI_FUNCTION_INVALID_MODEL_PARAMETERSを参照してください

AI_FUNCTION_JSON_PARSE_ERROR

SQLSTATE: 22000

関数 <funcName> に対する JSON 応答の解析中にエラーが発生しました: <errorMessage>

AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR

SQLSTATE: 2203G

サービス エンドポイント "<endpointName>" のスキーマを解析できませんでした。<errorMessage>、応答 JSON は "<responseJson>" でした。

スキーマ解決をオーバーライドするには、AI_QUERY 関数で returnType パラメーターを手動設定します。

AI_FUNCTION_UNSUPPORTED_ERROR

SQLSTATE: 56038

関数 <funcName> は、現在の環境ではサポートされていません。 Databricks SQL Pro とサーバーレスでのみ利用できます。

AI_FUNCTION_UNSUPPORTED_REQUEST

SQLSTATE: 0A000

SQL 関数 “<functionName>” を評価できませんでした。これは、<invalidValue> の指定された引数は “<invalidDataType>” を持っていますが、サポートされているのは以下の型のみであるためです: <supportedDataTypes>。 文字列型の引数を指定するように関数呼び出しを更新し、クエリを再試行してください。

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

AI 関数 “<functionName>” は、戻り値の型として “<typeName>” をサポートしていません。 戻り値の型は、Catalyst で認識され、AI 関数でサポートされる有効な SQL 型である必要があります。 現在サポートされている型には、次のものが含まれます: <supportedValues>

AI_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22032

指定された値 “<argValue>” は引数 “<argName>” ではサポートされていません。 サポートされる値は、次のとおりです: <supportedValues>

AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH

SQLSTATE: 0A000

指定された “<sqlExpr>” は引数 returnType でサポートされていません。

AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

埋め込み列の種類 <embeddingColumnType> を使用したベクトル検索はサポートされていません。

AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

インデックスの種類 <indexType> を使用したベクトル検索はサポートされていません。

AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR

SQLSTATE: 0A000

要求エンコード中に、spark 型<dataType>から scala ネイティブ オブジェクトにベクター検索クエリを具体化できませんでした。エラー: <errorMessage>

AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR

SQLSTATE: 0A000

num_results が <maxLimit> より大きいベクトル検索はサポートされていません。 指定された制限は <requestedLimit> でした。 num_results <= <maxLimit> を使用してもう一度お試しください

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

名前パラメーター化クエリを使用するには、すべてのパラメータに名前を付ける必要があります。 パラメータに名前がありません: <exprs>

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE: KD005

パーティション列にすべての列を使用することはできません。

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

ALTER TABLE <type><columnName> は記述子 “<optionName>” を複数回指定しますが、これは無効です。

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE: 42KD0

名前 <name> は、入れ子になった CTE ではあいまいです。

内部 CTE で定義されている名前が優先されるように <config> を "CORRECTED" に設定してください。 "LEGACY" に設定すると、外部 CTE 定義が優先されます。

https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine をご覧ください。

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE: 42702

列またはフィールド <name> があいまいで、<n> 件の一致があります。

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE: 42702

<name> があいまいです。 これは、複数の DataFrame を結合し、それらの DataFrame の一部が同じであるためです。

この列は DataFrames の 1 つを指していますが、Spark はどれを指しているのかわかりません。

DataFrame.alias を使用して異なる名前を DataFrame に付けてから、それらを結合してください。

また、修飾名を使用して列を指定してください (例: df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")))。

AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

制約 <constraint> へのあいまいな参照。

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE: 42702

横列の別名 <name> があいまいで、<n> 件の一致があります。

AMBIGUOUS_REFERENCE

SQLSTATE: 42704

参照 <name> があいまいで、次のようになります: <referenceNames>

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE: 42000

フィールド <field> へのあいまいな参照。 スキーマに <count> 回現れます。

ANALYZE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 0A000

ANALYZE CONSTRAINTS はサポートされていません。

ANSI_CONFIG_CANNOT_BE_DISABLED

SQLSTATE: 56038

ANSI SQL の構成 <config> は、この製品では無効にできません。

AQE_THREAD_INTERRUPTED

SQLSTATE: HY008

ユーザーによるクエリの取り消しが原因で、AQE スレッドが中断される可能性があります。

ARGUMENT_NOT_CONSTANT

SQLSTATE: 42K08

関数 <functionName> には、定数引数を必要とする位置 <pos> にパラメーター <parameterName> が含まれています。 引数 <sqlExpr> を個別に計算し、結果を定数として渡してください。

ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<message>.<alternative> 必要であれば、<config> を "false" に設定してこのエラーを回避します。

詳細については、「ARITHMETIC_OVERFLOW」をご覧ください

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE: 42802

割り当てられたか、別名が付けられた列または変数の数: <numTarget> は、ソース式の数 <numExpr> と一致しません。

AS_OF_JOIN

SQLSTATE: 42604

AS OF 結合が無効です。

詳細については、「AS_OF_JOIN」をご覧ください

AVRO_DEFAULT_VALUES_UNSUPPORTED

SQLSTATE: 0A000

rescuedDataColumn が有効になっている場合、既定値の使用はサポートされません。 このチェックは spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue を false に設定することで削除できますが、既定値は適用されず、null 値が引き続き使用されます。

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE: 22KD3

元のエンコードされたデータ型が <avroType> であるため、Avro <avroPath> を SQL <sqlPath> に変換できません。ただし、フィールドを <sqlType> として読み取ろうとしているため、正しくない答えの原因となります。

このフィールドの読み取りを許可するには、SQL 構成の "spark.sql.legacy.avro.allowIncompatibleSchema" を有効にします。

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE: 0A000

位置指定フィールド マッチングの使用は、rescuedDataColumn または failOnUnknownFields が有効になっている場合はサポートされません。 続行するには、これらのオプションを削除してください。

BATCH_METADATA_NOT_FOUND

SQLSTATE: 42K03

バッチ <batchMetadataFile> が見つかりません。

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE: 42616

BigQuery 接続資格情報は、'GoogleServiceAccountKeyJson' パラメーターまたは 'projectId'、'OAuthServiceAcctEmail'、'OAuthPvtKey' のすべてで指定する必要があります

BINARY_ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<value1> <symbol> <value2> によってオーバーフローが発生しました。

BOOLEAN_STATEMENT_WITH_EMPTY_ROW

SQLSTATE: 21000

ブール型のステートメント <invalidStatement> が無効です。 型の値を持つ 1 行が BOOLEAN 必要ですが、空の行が取得されました。

BUILT_IN_CATALOG

SQLSTATE: 42832

<operation> は組み込みカタログをサポートしていません。

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE: 42KDE

メソッド <methodName> をストリーミング データセット/DataFrame で呼び出すことができません。

CANNOT_ALTER_COLLATION_BUCKET_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN はバケット列の型/サブの型の照合順序を変更できませんが、テーブル <tableName> にバケット列 <columnName> が見つかりました。

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN はパーティション列ではサポートされていませんが、テーブル <tableName> のパーティション列 <columnName> にあります。

CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK

SQLSTATE: 42611

イベント時間列を再割り当てするには、ウォーターマークを定義する必要があります。 ストリーミング クエリの中にウォーターマークの定義を見つけられませんでした。

CANNOT_CAST_DATATYPE

SQLSTATE: 42846

<sourceType><targetType> にキャストできません。

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

スキーマに互換性がないため、Protobuf <protobufColumn> を SQL <sqlColumn> に変換できません (protobufType = <protobufType>、sqlType = <sqlType>)。

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

Protobuf の <protobufType> を SQL 型 <toType> に変換できません。

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQLSTATE: 42846

スキーマに互換性がないため、Protobuf <protobufColumn> を SQL <sqlColumn> に変換できません (protobufType = <protobufType>、sqlType = <sqlType>)。

CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

SQLSTATE: 42846

<data> が列挙型 <enumString> の定義された値にないため、SQL <sqlColumn> を Protobuf <protobufColumn> に変換できません。

CANNOT_COPY_STATE

SQLSTATE: 0AKD0

現在のデータベースや一時ビューなどのカタログ状態を Unity Catalog からレガシ カタログにコピーすることはできません。

CANNOT_CREATE_DATA_SOURCE_TABLE

SQLSTATE: 42KDE

データ ソース テーブル <tableName> の作成に失敗しました:

詳細については、「CANNOT_CREATE_DATA_SOURCE_TABLE」をご覧ください

CANNOT_DECODE_URL

SQLSTATE: 22546

指定された URL をデコードできませんでした: <url>。 URL の形式が正しいことを確認してから、もう一度お試しください。

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE: 42832

システム所有の <resourceType> を削除することはできません。

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

CHECK 制約と PRIMARY KEY または FOREIGN KEY 制約で共有される名前 <constraintName> を持つ制約

を削除することができません。 PRIMARY KEY または

FOREIGN KEY 制約は以下のクエリで削除できます:

  • ALTER TABLE .. DROP PRIMARY KEY または
  • ALTER TABLE .. DROP FOREIGN KEY ..

CANNOT_ESTABLISH_CONNECTION

SQLSTATE: 08001

リモート <jdbcDialectName> データベースへの接続を確立できません。 接続情報と資格情報 (ホスト、ポート、ユーザー、パスワードとデータベースのオプションなど) をご確認ください。 ** 情報が正しいと思われる場合、ワークスペースのネットワーク設定を確認し、ホストへの送信制限がないことをご確認ください。 また、ワークスペースの Spark クラスターがデプロイされているネットワークからの受信接続をホストがブロックしないことをご確認ください。 ** 詳細なエラー メッセージ: <causeErrorMessage>

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE: 08001

リモート <jdbcDialectName> データベースへの接続を確立できません。 接続情報と資格情報 (ホスト、ポート、ユーザー、パスワードとデータベースのオプションなど) をご確認ください。 ** お客様はサーバーレス コンピューティングを使用しているため、情報が正しいと思われる場合、インターネットからホストへの受信トラフィックを許可してください。 ネットワーク ポリシーで受信インターネット トラフィックが許可されていない場合は、サーバーレス コンピューティング以外を使用するか、Databricks 担当者に連絡してサーバーレス プライベート ネットワークについてご確認ください。 ** 詳細なエラー メッセージ: <causeErrorMessage>

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE: 0A000

データセットの変換とアクションはドライバーによってのみ呼び出せます。他のデータセット変換の中からは呼び出せません。たとえば、dataset1.map(x => dataset2.values.count() * x) は、dataset1.map 変換の中で値の変換やカウント アクションを実行できないため、無効です。 詳細については、SPARK-28702 に関するページを参照してください。

CANNOT_LOAD_FUNCTION_CLASS

SQLSTATE: 46103

関数 <functionName> を登録するときにクラス <className> を読み込めません。クラスパス上にあることを確認してください。

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE: 42K03

<protobufClassName> という名前の Protobuf クラスを読み込めませんでした。 <explanation>.

CANNOT_LOAD_STATE_STORE

SQLSTATE: 58030

読み込み中にエラーが発生しました。

詳細については、「CANNOT_LOAD_STATE_STORE」を参照してください

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE: 42825

互換性のないデータ型 <left><right> の結合に失敗しました。 マージする列のデータ型を確認し、互換性があることをご確認ください。 必要に応じて、マージを試みる前に、列を互換性のあるデータ型にキャストすることをご検討ください。

CANNOT_MERGE_SCHEMAS

SQLSTATE: 42KD9

スキーマのマージに失敗しました:

初期スキーマ:

<left>

初期スキーマとマージできないスキーマ:

<right>.

CANNOT_MODIFY_CONFIG

SQLSTATE: 46110

Spark 構成の値を変更できません: <key>

関連項目: https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements

CANNOT_PARSE_DECIMAL

SQLSTATE: 22018

10 進数を解析できません。 入力が、小数点またはコンマ区切り記号 (省略可能) を含む有効な数値であることをご確認ください。

CANNOT_PARSE_INTERVAL

SQLSTATE: 22006

<intervalString> を解析できません。 指定された値が、間隔を定義するための有効な形式であることをご確認ください。 正しい形式については、ドキュメントを参照できます。 問題が解決しない場合は、入力値が null または空ではないことをもう一度確認してから、もう一度お試しください。

CANNOT_PARSE_JSON_FIELD

SQLSTATE: 2203G

Spark データ型 <dataType> をターゲットにするよう JSON トークン型 <jsonType> のフィールド名 <fieldName> と値 <fieldValue> をパースできません。

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

SQLSTATE: 22018

記述子バイトの Protobuf FileDescriptorSet への解析で発生するエラー。

CANNOT_PARSE_TIMESTAMP

SQLSTATE: 22007

<message>. 必要であれば、<ansiConfig> を "false" に設定してこのエラーを回避します。

CANNOT_QUERY_TABLE_DURING_INITIALIZATION

SQLSTATE: 55019

初期化中は MV/ST のクエリを実行できません。

詳細については、「CANNOT_QUERY_TABLE_DURING_INITIALIZATION」を参照してください

CANNOT_READ_ARCHIVED_FILE

SQLSTATE: KD003

パス <path> にあるファイルがアーカイブされているため、読み込むことができません。 アーカイブされたファイルを除外するようにクエリ フィルターを調整してください。

CANNOT_READ_FILE

SQLSTATE: KD003

次のパスにある <format> ファイルを読み込むことができません: <path>

詳細については、「CANNOT_READ_FILE」をご覧ください

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

SQLSTATE: 42501

セキュリティで保護されたプロバイダーから機密キー '<key>' を読み取ることができません。

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE: 429BB

Hive 型の文字列 <fieldType>、列 <fieldName> を認識できません。 フィールドに指定されたデータ型を Spark SQL で認識できません。 指定したフィールドのデータ型を確認し、有効な Spark SQL データ型であることをご確認ください。 有効なデータ型とその形式の一覧については、Spark SQL のドキュメントをご覧ください。 データ型が正しい場合、サポートされているバージョンの Spark SQL を使用していることをご確認ください。

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE: 0AKD0

Hive メタストア オブジェクトで Unity Catalog <objType> を参照できません。

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE: 0AKD0

カタログ間で <type> の名前を変更することはできません。

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE: 0AKD0

スキーマ間で <type> の名前を変更することはできません。

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE: 42704

データフレーム列 <name> を解決できません。 これはおそらく、df1.select(df2.col("a")) のような正しくない参照があるためです。

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE: 42704

<targetString> を解決できませんでした。* 指定された入力列は <columns> です。 指定したテーブルまたは構造体が存在し、入力列でアクセス可能であることをご確認ください。

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE: 58030

作成されたパス <path> に対するアクセス許可の設定を <permission> に戻すことができませんでした。

CANNOT_SAVE_VARIANT

SQLSTATE: 0A000

バリアント データ型を外部ストレージに保存できません。

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE: 0AKD0

Unity Catalog と Hive Metastore 間でテーブルをシャロー クローンできません。

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE: 0AKUC

既にシャロー クローンであるテーブル <table> をシャロー クローンすることはできません。

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE: 0AKUC

シャロー クローンは、MANAGED テーブル型でのみサポートされます。 テーブル <table> は MANAGED テーブルではありません。

CANNOT_UPDATE_FIELD

SQLSTATE: 0A000

<table> フィールド <fieldName> 型を更新できない:

詳細については、「CANNOT_UPDATE_FIELD」を参照してください

CANNOT_UP_CAST_DATATYPE

SQLSTATE: 42846

<expression><sourceType> から <targetType> にアップキャストできません。

<details>

CANNOT_VALIDATE_CONNECTION

SQLSTATE: 08000

<jdbcDialectName> 接続の検証はサポートされていません。 代替ソリューションについて Databricks サポートに問い合わせるか、“spark.databricks.testConnectionBeforeCreation” を “false” に設定して、接続オブジェクトを作成する前の接続テストをスキップしてください。

CANNOT_WRITE_STATE_STORE

SQLSTATE: 58030

プロバイダー <providerClass> の状態ストア ファイルの書き込み中にエラーが発生しました。

詳細については、「CANNOT_WRITE_STATE_STORE」を参照してください

CAST_INVALID_INPUT

SQLSTATE: 22018

<sourceType> の値 <expression> は、不正なため <targetType> にキャストできません。 構文に従って値を修正するか、ターゲットの型を変更します。 try_cast を使用して形式が正しくない入力を許容し、代わりに NULL を返します。

詳細については、「CAST_INVALID_INPUT」をご覧ください

CAST_OVERFLOW

SQLSTATE: 22003

<sourceType> の値 <value> はオーバーフローにより <targetType> にキャストできません。 try_cast を使用してオーバーフローを許容し、代わりに NULL を返します。

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE: 22003

オーバーフローに起因して <sourceType> 型の値を <targetType> 型の列または変数 <columnName> に割り当てられません。 オーバーフローを許容し、代わりに NULL を返すようにするには、入力値に try_cast を使用します。

CATALOG_NOT_FOUND

SQLSTATE: 42P08

カタログ <catalogName> が見つかりません。 SQL コンフィグ <config> をカタログ プラグインに設定することを検討してください。

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE: 56000

チェックポイント ブロック <rddBlockId> が見つかりませんでした!

このパーティションを最初にチェックポイント処理した Executor が有効でなくなったか、元の RDD が維持されていません。

この問題が解決しない場合は、代わりに rdd.checkpoint() を使用することを検討してください。これは、ローカル チェックポイント処理よりも低速ですが、よりフォールト トレラントです。

CLASS_NOT_OVERRIDE_EXPECTED_METHOD

SQLSTATE: 38000

<className><method1> または <method2> をオーバーライドする必要があります。

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE: 0A000

MapObjects は、結果のコレクションとしてクラス <cls> をサポートしていません。

CLEANROOM_COMMANDS_NOT_SUPPORTED

SQLSTATE: 0A000

クリーン ルーム コマンドはサポートされていません

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

クリーン ルーム内の <type> を参照する名前が無効です。 [catalog]の形式に従って、クリーン ルーム内の <type>’名を使用します。[schema]。[<type>]。

使用する名前がわからない場合は、“SHOW ALL IN CLEANROOM <クリーン ルーム>” を実行して、“name” 列の値を使用できます。

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE: 42K03

ファイル <filePath> に対するファイル通知が受信されましたが、もう存在しません。 ファイルが処理される前に削除されていないことをご確認ください。 ストリームを続行するには、Spark SQL 構成 <config> を true に設定します。

CLOUD_PROVIDER_ERROR

SQLSTATE: 58000

クラウド プロバイダー エラー: <message>

CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

指定されたクラスタリングが既存のテーブル <tableName>のクラスタリングと一致しません。

指定されたクラスタリング列: [<specifiedClusteringString>]。

既存のクラスタリング列: [<existingClusteringString>]。

CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

'<operation>' はクラスタリングをサポートしていません。

CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED

SQLSTATE: 0A000

CLUSTER BY AUTO 機能を有効にするには、Databricks 担当者にお問い合わせください。

CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED

SQLSTATE: 56038

CLUSTER BY AUTO を使用するには、clusteringTable.enableClusteringTableFeature を有効にしてください。

CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE: 56038

CLUSTER BY AUTO を有効にするには、予測最適化が必要です。

CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR

SQLSTATE: 56038

CLUSTER BY AUTO は、UC マネージド テーブルでのみサポートされます。

CODEC_NOT_AVAILABLE

SQLSTATE: 56038

コーデック <codecName> を使用できません。

詳細については、「CODEC_NOT_AVAILABLE」を参照してください

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE: 42704

コーデック <codecName> の短い名前が見つかりません。

COLLATION_INVALID_NAME

SQLSTATE: 42704

<collationName> が正しい照合順序名を表していません。 推奨される有効な照合名: [<proposals>]。

COLLATION_INVALID_PROVIDER

SQLSTATE: 42704

<provider> が正しい照合順序プロバイダーを表していません。 サポートされているプロバイダー: [<supportedProviders>]。

COLLATION_MISMATCH

SQLSTATE: 42P21

文字列関数と演算子に使用する照合順序を決定できませんでした。

詳細については、「COLLATION_MISMATCH」を参照してください

COLLECTION_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

配列サイズの上限 <maxRoundedArrayLength> を超える要素 <numberOfElements> を含む配列は作成できません。

詳細については、「COLLECTION_SIZE_LIMIT_EXCEEDED」をご覧ください

COLUMN_ALIASES_NOT_ALLOWED

SQLSTATE: 42601

列の別名は <op> では使用できません。

COLUMN_ALREADY_EXISTS

SQLSTATE: 42711

<columnName> は既に存在します。 別の名前を選ぶか、既存の列の名前を変更してください。

COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

列マスク ポリシーを持つテーブル <tableName> に対する CHECK 制約の作成はサポートされていません。

COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME

SQLSTATE: 42734

<statementType> ステートメントが、USING COLUMNS リスト内に同じ名前 <columnName> を持つ 2 つ以上の参照列が含まれる列に列マスク ポリシーを割り当てようとしました。これは無効です。

COLUMN_MASKS_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

<tableName> の列マスク ポリシーはサポートされていません。

詳細については、「COLUMN_MASKS_FEATURE_NOT_SUPPORTED」をご覧ください

COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

テーブル <tableName> から <statementType> <columnName> できません。これは、列 <maskedColumn> の列マスク ポリシーで参照されているためです。 先に進む前に、テーブル所有者はこのポリシーを削除または変更する必要があります。

COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

MERGE INTO 操作では、ソース テーブル <tableName> で列マスク ポリシーがサポートされていません。

COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

MERGE INTO 操作では、列マスク ポリシーを使用したテーブル <tableName> への書き込みがサポートされていません。

COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME

SQLSTATE: 42K05

このステートメントは、複数の名前部分を持つ列 <columnName> に列マスク ポリシーを割り当てようとしました。これは無効です。

COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME

SQLSTATE: 42K05

このステートメントは、列に列マスク ポリシーを割り当てようとし、USING COLUMNS リストには複数の名前部分を含む名前 <columnName> が含まれていました。これは無効です。

COLUMN_MASKS_NOT_ENABLED

SQLSTATE: 56038

列マスクの定義のサポートが有効になっていません

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

列マスク ポリシーは、Unity Catalog でのみサポートされています。

COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

列マスク ポリシーを持つテーブル <tableName> からの <mode> 複製はサポートされていません。

COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

列マスク ポリシーを持つテーブル <tableName> への <mode> 複製はサポートされていません。

COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

列マスク ポリシーのパラメータとして定数を使うことはサポートされていません。 SQL コマンドを更新し、列マスク定義から定数を削除してから、コマンドをもう一度試してください。

COLUMN_MASKS_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

テーブル プロバイダー “<provider>” を使用したターゲット データ ソースでは列マスク ポリシーの割り当てがサポートされていないため、<statementType> コマンドの実行に失敗しました。

COLUMN_MASKS_UNSUPPORTED_SUBQUERY

SQLSTATE: 0A000

テーブル <tableName> には、まだサポートされていない入れ子になったクエリ式を含む列マスク ポリシーが 1 つ以上含まれているため、<operation> を実行できません。 続行するには、テーブルの所有者に問い合わせて、列マスク ポリシーを更新してください。

COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN

SQLSTATE: 42734

<columnName> の名前がターゲット列と同じです。これは無効です。USING COLUMNS リストから列を削除し、コマンドを再試行してください。

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE: 42703

<colType> の列 <colName> はテーブル <tableName> で定義されていません。定義済みのテーブル列は <tableCols> です。

COLUMN_NOT_FOUND

SQLSTATE: 42703

<colName> が見つかりません。 SQL 構成 <caseSensitiveConfig> に従って、列名のスペルと正確さを確認してください。

COMMA_PRECEDING_CONSTRAINT_ERROR

SQLSTATE: 42601

制約定義の前の予期しない ‘,’。 列 (および期待値) が定義されていない場合は、CONSTRAINT 句をコンマで始めないでください。

COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

COMMENT ON CONNECTION コマンドはまだ実装されていません

COMPARATOR_RETURNS_NULL

SQLSTATE: 22004

比較子は、<firstValue><secondValue> の比較で NULL を返しました。

“より大きい” には正の整数、“等しい” には 0、“より小さい” には負の整数を返す必要があります。

NULL が 0 (等しい) として扱われる非推奨の動作に戻すには、“spark.sql.legacy.allowNullComparisonResultInArraySort” を “true” に設定する必要があります。

COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

SQLSTATE: 42K09

式の入力データ型を処理できません: <expression>

詳細については、「COMPLEX_EXPRESSION_UNSUPPORTED_INPUT」を参照してください

CONCURRENT_QUERY

SQLSTATE: 0A000

このクエリ [id: <queryId>] の別のインスタンスが同時実行セッション [既存の runId: <existingQueryRunId> 新しい runId: <newQueryRunId>] によって開始されました。

CONCURRENT_STREAM_LOG_UPDATE

SQLSTATE: 40000

ログへの同時更新。 <batchId> に対して複数のストリーミング ジョブが検出されました。

特定のチェックポイントの場所で一度に実行されるストリーミング ジョブが 1 つだけであるようにしてください。

CONFIG_NOT_AVAILABLE

SQLSTATE: 42K0I

構成 <config> は使用できません。

CONFLICTING_PARTITION_COLUMN_NAMES

SQLSTATE: KD009

パーティション列名の競合が検出されました:

<distinctPartColLists>

パーティション テーブル ディレクトリの場合、データ ファイルはリーフ ディレクトリにのみ格納する必要があります。

また、同じレベルのディレクトリには、同じパーティション列名が必要です。

次のディレクトリで、予期しないファイルや一貫性のないパーティション列名がないか確認してください。

<suspiciousPaths>

CONFLICTING_PROVIDER

SQLSTATE: 22023

指定されたプロバイダー <provider> が、既存のカタログ プロバイダー <expectedProvider> と一致しません。 ‘USING <expectedProvider>’ を使って、コマンドをもう一度試してください。

CONNECT

SQLSTATE: 56K00

Spark の一般的な Connect エラーです。

詳細については、CONNECT を参照してください。

CONNECTION_ALREADY_EXISTS

SQLSTATE: 42000

接続 <connectionName> は既に存在するため、作成できません。

別の名前を選択するか、既存の接続を削除または置換するか、既存の接続を許容するために IF NOT EXISTS 句を追加します。

CONNECTION_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

接続名は空でない必要があるため、このコマンドを実行できません。

CONNECTION_NOT_FOUND

SQLSTATE: 42000

接続名 <connectionName> が見つからなかったため、このコマンドを実行できません。

CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE: 42000

型 '<connectionType>' の接続では、次のオプションはサポートされていません: <optionsNotSupported>。 サポートされているオプション: <allowedOptions>

CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

型 '<connectionType>' の接続を作成できません。 サポートされる接続の種類: <allowedTypes>

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

テーブル制約は Unity Catalog でのみサポートされます。

CONVERSION_INVALID_INPUT

SQLSTATE: 22018

<str> (<fmt>) は形式に誤りがあるため、<targetType> に変換できません。 構文に従って値を修正するか、形式を変更します。 <suggestion> を使用して形式が正しくない入力を許容し、代わりに NULL を返します。

COPY_INTO_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

<tableName> に書き込めません。理由:

詳細については、「COPY_INTO_COLUMN_ARITY_MISMATCH」を参照してください

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE: 0A000

スキームが無効です: <scheme>。 COPY INTO ソース資格情報は現在、s3/s3n/s3a/wasbs/abfss のみがサポートされています。

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE: 42601

COPY INTO ソース資格情報で <keyList> を指定する必要があります。

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE: 25000

重複したファイルが、同時 COPY INTO 操作でコミットされました。 後でもう一度やり直してください。

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE: 0A000

スキームが無効です: <scheme>。 COPY INTO ソース暗号化では現在、s3/s3n/s3a/wasbs/abfss のみがサポートされています。

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE: 0A000

COPY INTO 暗号化では、ADLS Gen2 または abfss:// ファイル スキームのみがサポートされます

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE: 42601

COPY INTO ソース暗号化では ‘<key>’ を指定する必要があります。

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE: 42601

暗号化オプション <requiredKey> が無効です。 COPY INTO ソース暗号化では ‘<requiredKey>’ = ‘<keyValue>’ を指定する必要があります。

COPY_INTO_FEATURE_INCOMPATIBLE_SETTING

SQLSTATE: 42613

COPY INTO 機能 ‘<feature>’ は、‘<incompatibleSetting>’ と互換性がありません。

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE: 25000

データの追加以外の COPY INTO は、他のトランザクションと同時に実行することはできません。 後でもう一度やり直してください。

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE: 25000

COPY INTO は状態の読み込みに失敗し、最大再試行回数を超えました。

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE: 42KDG

Delta テーブル (テーブル:<table>) へのコピー中にスキーマの不一致が検出されました。

これは、受信データに問題があることを示している場合があります。または、次のように設定することで、受信データに従って Delta テーブル スキーマを自動的に進化させることができます:

COPY_OPTIONS (‘mergeSchema’ = ‘true’)

スキーマの違い:

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE: 0A000

ソース ファイルの形式は、CSV、JSON、AVRO、ORC、PARQUET、TEXT、BINARYFILE のいずれかである必要があります。 Delta テーブルでソースとして COPY INTO を使用することはサポートされていません。OPTIMIZE 操作後に重複するデータが取り込まれる可能性があるためです。 このチェックをオフにするには、SQL コマンド set spark.databricks.delta.copyInto.formatCheck.enabled = false を実行します。

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE: 42KD9

ソース ディレクトリに、型 <format> の解析可能なファイルが含まれていませんでした。 ‘<source>’ の内容をチェックしてください。

エラーは、'<config>' を 'false' に設定することで消去できます。

COPY_INTO_STATE_INTERNAL_ERROR

SQLSTATE: 55019

COPY INTO 状態の処理中に内部エラーが発生しました。

詳細については、「COPY_INTO_STATE_INTERNAL_ERROR」を参照してください

COPY_INTO_SYNTAX_ERROR

SQLSTATE: 42601

COPY INTO コマンドを解析できませんでした。

詳細については、「COPY_INTO_SYNTAX_ERROR」をご覧ください

COPY_INTO_UNSUPPORTED_FEATURE

SQLSTATE: 0A000

COPY INTO機能 ‘<feature>’はサポートされていません。

COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

形式 ''<formatType> のデータをアンロードできません。 サポートされている形式 <connectionType> は次のとおりです <allowedFormats>

CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

CREATE FOREIGN SCHEMA コマンドはまだ実装されていません

CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

CREATE FOREIGN TABLE コマンドはまだ実装されていません

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE: 0A000

ASYNC が指定された具体化されたビューまたはストリーミング テーブルでは CREATE OR REFRESH を実行できません。 CREATE OR REFRESH ステートメントから ASYNC を削除するか、既存の具体化されたビューまたはストリーミング テーブルを非同期に更新するには REFRESH ASYNC を使ってください。

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE: 0A000

<name> の別名を明示的に割り当てずに永続的ビュー <attr> を作成することはできません。

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

CREATE TABLE 列 <columnName> は、記述子 "<optionName>" を複数回指定しています。これは無効です。

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

ビュー <viewName>を作成できません。その理由は

詳細については、「INSERT_COLUMN_ARITY_MISMATCH」を参照してください

CREDENTIAL_MISSING

SQLSTATE: 42601

外部の場所を作成または更新する場合は、資格情報を入力してください。

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE: 0A000

列は序数ではなく名前で読み取られるので、rescuedDataColumn または failOnUnknownFields を使用する場合は、CSV オプション enforceSchema を設定できません。

CYCLIC_FUNCTION_REFERENCE

SQLSTATE: 42887

循環関数参照が検出されました: <path>

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE: 56038

アカウントで Databricks Delta が有効になっていません。<hints>

DATATYPE_MISMATCH

SQLSTATE: 42K09

データ型の不一致があるため、<sqlExpr> を解決できません:

詳細については、DATATYPE_MISMATCH を参照してください。

DATATYPE_MISSING_SIZE

SQLSTATE: 42K01

DataType <type> には、<type>(10) などの長さパラメーターが必要です。 長さを指定してください。

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE: 25000

系列書き込み失敗: CLM/RLS のポリシーとの対応する関係がありません。

DATA_SOURCE_ALREADY_EXISTS

SQLSTATE: 42710

データ ソース ‘<provider>’ は既に存在します。 新しいデータ ソースに別の名前を選択してください。

DATA_SOURCE_EXTERNAL_ERROR

SQLSTATE: KD010

外部データ ソースに保存するときにエラーが発生しました。

DATA_SOURCE_NOT_EXIST

SQLSTATE: 42704

データ ソース ‘<provider>’ が見つかりません。 データ ソースが登録されていることを確認してください。

DATA_SOURCE_NOT_FOUND

SQLSTATE: 42K02

データ ソース <provider> が見つかりませんでした。 プロバイダー名が正しいこと、パッケージが適切に登録されていること、Spark バージョンとの互換性を確認してください。

DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS

SQLSTATE: 42602

オプション <option> は空にすることはできません。また、無効な文字、クエリ文字列、またはパラメーターを含めることはできません。

DATA_SOURCE_OPTION_IS_REQUIRED

SQLSTATE: 42601

オプション <option> は必須です。

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE: 42K03

データ ソース テーブルのスキーマが、必要なスキーマと一致しません。 DataFrameReader.schema API を使用しているか、テーブルを作成している場合は、スキーマを指定しないでください。

データ ソース スキーマ: <dsSchema>

必要なスキーマ: <expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE: 42KDB

データ ソース オプションでは JDBC URL は使用できません。代わりに、'host'、'port'、および 'database' オプションを指定してください。

DATETIME_OVERFLOW

SQLSTATE: 22008

Datetime 操作のオーバーフロー: <operation>

DC_API_QUOTA_EXCEEDED

SQLSTATE: KD000

データ ソース <sourceName> の API クォータを超えています。

詳細については、「DC_API_QUOTA_EXCEEDED」を参照してください

DC_CONNECTION_ERROR

SQLSTATE: KD000

ソース <sourceName> への接続に失敗しました。 エラー コード: <errorCode>

詳しくは、DC_CONNECTION_ERROR に関する記事をご覧ください

DC_DYNAMICS_API_ERROR

SQLSTATE: KD000

Dynamics API 呼び出しでエラーが発生しました。errorCode: <errorCode>

詳細については、「DC_DYNAMICS_API_ERROR」を参照してください

DC_NETSUITE_ERROR

SQLSTATE: KD000

Netsuite JDBC 呼び出しでエラーが発生しました。errorCode: <errorCode>

詳細については、「DC_NETSUITE_ERROR」を参照してください

DC_SCHEMA_CHANGE_ERROR

SQLSTATE: 割り当てなし

<sourceName> ソースのテーブル <tableName> にスキーマの変更が発生しています。

詳細については、「DC_SCHEMA_CHANGE_ERROR」を参照してください

DC_SERVICENOW_API_ERROR

SQLSTATE: KD000

ServiceNow API 呼び出しでエラーが発生しました。errorCode: <errorCode>

詳細については、「DC_SERVICENOW_API_ERROR」を参照してください

DC_SFDC_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

Salesforce API クエリ ジョブに時間がかかりすぎた、失敗した、または手動でキャンセルされたため、オブジェクト <objName> の取り込みが不完全です。

再試行するには、パイプライン全体を再実行するか、この特定のターゲット テーブルを最新の情報に更新します。 エラーが解決しない場合は、チケットを提出してください。 ジョブ ID: <jobId>。 ジョブの状態: <jobStatus>

DC_SHAREPOINT_API_ERROR

SQLSTATE: KD000

Sharepoint API 呼び出しでエラーが発生しました。errorCode: <errorCode>

詳細については、「DC_SHAREPOINT_API_ERROR」を参照してください

DC_SOURCE_API_ERROR

SQLSTATE: KD000

<sourceName> API 呼び出しでエラーが発生しました。 ソース API の種類: <apiType>。 エラー コード: <errorCode>

これは、<sourceName> API 上限に達すると発生する場合があります。 API 上限を超えていない場合は、コネクタの再実行をお試しください。 問題が解決しない場合は、チケットを提出してください。

DC_UNSUPPORTED_ERROR

SQLSTATE: 0A000

データ ソース <sourceName> でサポートされていないエラーが発生しました。

詳細については、「DC_UNSUPPORTED_ERROR」をご覧ください

DC_WORKDAY_RAAS_API_ERROR

SQLSTATE: KD000

Workday RAAS API 呼び出しでエラーが発生しました。エラー コード: <errorCode>

詳しくは、DC_WORKDAY_RAAS_API_ERROR に関する記事をご覧ください

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

SQLSTATE: 22003

10 進精度 <precision> が最大精度 <maxPrecision> を超えています。

DEFAULT_DATABASE_NOT_EXISTS

SQLSTATE: 42704

既定のデータベース <defaultDatabase> は存在しません。最初に作成するか、既定のデータベースを <defaultDatabase> に変更してください。

DEFAULT_FILE_NOT_FOUND

SQLSTATE: 42K03

基になるファイルが更新されている可能性があります。 SQL で ‘REFRESH TABLE tableName’ コマンドを実行するか、関連する Dataset/DataFrame を再作成することで、Spark 内のキャッシュを明示的に無効にできます。 ディスク キャッシュが古い場合、または基になるファイルが削除されている場合は、クラスターを再起動することでディスク キャッシュを手動で無効にできます。

DEFAULT_PLACEMENT_INVALID

SQLSTATE: 42608

MERGE、INSERT、UPDATE、SET VARIABLE コマンドの既定値キーワードは、式に含まれていたため、ターゲット列に直接割り当てられませんでした。

例: UPDATE SET c1 = DEFAULT は許可されますが、UPDATE T SET c1 = DEFAULT + 1 は許可されません。

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE: 55019

ストリーミング クエリが予期しない Delta テーブルから読み取りを実行していました (id = '<newTableId>')。

以前はチェックポイントに従って別の Delta テーブル (id = '<oldTableId>') から読み取りを行っていました。

これは、新しいテーブルから読み取るようにコードを変更した場合や、

テーブルを削除して再作成した場合に発生する場合があります。 最初からやり直すには、変更を元に戻すか、ストリーミング クエリ チェックポイントを

削除してください。

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE: 0A000

個別のウィンドウ関数はサポートされていません: <windowExpr>

DIVIDE_BY_ZERO

SQLSTATE: 22012

0 で除算しました。 try_divide を使用して序数が 0 であることを許容し、代わりに NULL を返します。 必要であれば、<config> を "false" に設定してこのエラーを回避します。

詳細については、「DIVIDE_BY_ZERO」をご覧ください

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE: 56038

期待値は、Delta Live Tables パイプライン内でのみサポートされます。

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE: 56038

CLUSTER BY 句のある MATERIALIZED VIEW は、Delta Live Tables パイプライン内でのみサポートされます。

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED VIEW の場所は、Delta Live Tables パイプライン内でのみサポートされます。

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE: 56038

指定された型の MATERIALIZED VIEW のスキーマは、Delta Live Tables パイプライン内でのみサポートされます。

DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 56038

ビューの CONSTRAINT 句は、Delta Live Tables パイプラインでのみサポートされます。

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE: 42713

アロー構造体内に重複するフィールド名は許可されません。<fieldNames> を取得しました。

DUPLICATED_MAP_KEY

SQLSTATE: 23505

重複しているマップ キー <key> が見つかりました。入力データをチェックしてください。

重複しているキーを削除する場合は、最後に挿入されたキーが優先されるように、<mapKeyDedupPolicy> を "LAST_WIN" に設定できます。

DUPLICATED_METRICS_NAME

SQLSTATE: 42710

メトリック名が一意ではありません: <metricName>。 結果が異なるメトリックに同じ名前を使用することはできません。

ただし、同じ結果と名前を持つメトリックの複数のインスタンス (自己結合など) は許可されます。

DUPLICATE_ASSIGNMENTS

SQLSTATE: 42701

列または変数 <nameList> は割り当てターゲットとして複数回表示されます。

DUPLICATE_CLAUSES

SQLSTATE: 42614

重複する句が見つかりました: <clauseName>。 いずれか 1 つを削除してください。

DUPLICATE_KEY

SQLSTATE: 23505

重複するキー <keyColumn> が見つかりました。

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE: 4274K

ルーチン <functionName> の呼び出しには、同じ名前のパラメーター <parameterName> に対する複数の引数の割り当てが含まれているため、無効です。

詳細については、「DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT」をご覧ください

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE: 42734

ユーザー定義ルーチン <routineName> のパラメーター リストに重複する名前が見つかりました: <names>

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE: 42711

ユーザー定義ルーチン <routineName> の RETURNS 句列リストで重複する列が見つかりました: <columns>

EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED

SQLSTATE: 42815

前のノードが、current_watermark_value=<currentWatermark> より古い、eventTime=<emittedRowEventTime> の行を出力しました

これにより、実行パイプラインのステートフル演算子のダウンストリームで正確性の問題が発生する可能性があります。

現在のグローバル ウォーターマーク値の後に行を出力する演算子ロジックを修正してください。

EMPTY_JSON_FIELD_VALUE

SQLSTATE: 42604

データ型 <dataType> の空の文字列を解析できませんでした。

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE: 22023

ステージング <operation> クエリの空のローカル ファイル

ENCODER_NOT_FOUND

SQLSTATE: 42704

Spark SQL 内部表現に対する型 <typeName> のエンコーダーが見つかりません。

"<docroot>/sql-ref-datatypes.html" でサポートされているいずれかに入力型を変更することをご検討ください。

END_LABEL_WITHOUT_BEGIN_LABEL

SQLSTATE: 42K0L

終了ラベルは、開始ラベル <endLabel> なしでは存在できません。

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Kafka トピックの一部のパーティションでは、Trigger.AvailableNow を使用したクエリの実行中に終了オフセットより小さい使用可能なオフセットが報告されます。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告してください。

最新オフセット: <latestOffset>、終了オフセット: <endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE: KD000

Trigger.AvailableNow を使用する Kafka データ ソースの場合、終了オフセットは、プリフェッチされたオフセットよりも各トピック パーティションあたりのオフセットが小さいか等しい必要があります。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告してください。

プリフェッチされたオフセット: <prefetchedOffset>、終了オフセット: <endOffset>

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE: KD00B

avro データ読み取り中のエラー – 不明なフィンガープリントに遭遇: <fingerprint>、使用すべきスキーマが不明。

spark コンテキストの開始後に追加のスキーマを登録した場合にこれは発生することがあります。

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE: 42601

割り当て済みまたは分離なし共有クラスターからイベント ログを照会できません。代わりに、共有クラスターまたは Databricks SQL ウェアハウスを使用してください。

EVENT_LOG_UNAVAILABLE

SQLSTATE: 55019

<tableOrPipeline> に使用できるログはありません。 イベントが生成された後、後でもう一度お試しください

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE: 42832

<tableIdentifier> のテーブル型は <tableType> です。

イベント ログのクエリでは、具体化されたビュー、ストリーミング テーブル、Delta Live Tables パイプラインのみがサポートされます

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE: 42K09

イベント時刻 <eventName> の型 <eventType> が無効ですが、“TIMESTAMP” が予期されています。

EXCEED_LIMIT_LENGTH

SQLSTATE: 54006

char/varchar 型の長さ制限 <limit> を超えています。

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE: 428H2

EXCEPT 列 <columnName> は解決され、StructType となることが予想されていましたが、型 <dataType> が見つかりました。

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE: 42702

EXCEPT リスト内の列は、それぞれ異なり、重複していない必要がありますが、(<columns>) を受け取りました。

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE: 42703

EXCEPT 列 [<exceptColumns>] は解決されましたが、スター型展開のどの列 [<expandedColumns>] にも一致しません。

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE: 42703

EXCEPT 句の列/フィールド名 <objectName> を解決できません。 [<objectList>] のいずれかの意味でしたか?

注: 構造体の展開中に、EXCEPT 句の入れ子になった列に修飾子 (テーブル名、親構造体の列名など) を含めることはできません。入れ子になった列で修飾子が使用されている場合は、それらの修飾子を削除してみてください。

EXECUTOR_BROADCAST_JOIN_OOM

SQLSTATE: 53200

ブロードキャスト関係 <relationClassName> を構築するのに十分なメモリがありません。 関係のサイズ = <relationSize>。 このタスクで使用される合計メモリ = <taskMemoryUsage>。 エグゼキューター メモリ マネージャー メトリック: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>、offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>、onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>、offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>。 [sparkPlanId: <sparkPlanId>]

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE: 42701

この EXECUTE IMMEDIATE コマンドの USING 句には、同じ別名 (<aliases>) を持つ複数の引数が含まれていましたが、これは無効です。一意の別名を指定するようにコマンドを更新してから、もう一度お試しください。

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE: 42809

'<operation>' は永続的なビューを必要としますが、<viewName> は一時ビューです。

EXPECT_TABLE_NOT_VIEW

SQLSTATE: 42809

'<operation>' はテーブルを必要としますが、<viewName> はビューです。

詳細については、EXPECT_TABLE_NOT_VIEW を参照してください

EXPECT_VIEW_NOT_TABLE

SQLSTATE: 42809

テーブル <tableName> では、<operation> はサポートされていません。

詳細については、EXPECT_VIEW_NOT_TABLE を参照してください

EXPRESSION_DECODING_FAILED

SQLSTATE: 42846

式: <expressions> の値に行をデコードできませんでした。

EXPRESSION_ENCODING_FAILED

SQLSTATE: 42846

式: <expressions> の値を行にエンコードできませんでした。

EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

列式 <expr> は、型 <exprType> が順序付けできないため、並べ替えできません。

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE: 0A000

外部テーブルでは、<scheme> スキームはサポートされていません。

FABRIC_REFRESH_INVALID_SCOPE

SQLSTATE: 0A000

‘REFRESH FOREIGN <scope> <name>’ の実行中にエラーが発生しました。 ファブリック <scope> を直接更新することはできません。ファブリック カタログを更新するには、代わりに ‘REFRESH FOREIGN CATALOG <catalogName>’ を使ってください。

FAILED_EXECUTE_UDF

SQLSTATE: 39000

ユーザー定義関数 (<functionName>: (<signature>) =><result>) が次の理由で失敗しました: <reason>

FAILED_FUNCTION_CALL

SQLSTATE: 38000

呼び出し用の関数 <funcName> の準備に失敗しました。 関数の引数を再確認してください。

FAILED_JDBC

SQLSTATE: HV000

操作で JDBC <url> に失敗しました:

詳細については、「FAILED_JDBC」をご覧ください

FAILED_PARSE_STRUCT_TYPE

SQLSTATE: 22018

構造体の解析に失敗しました: <raw>

FAILED_READ_FILE

SQLSTATE: KD001

ファイル <path> の読み取り中にエラーが発生しました。

詳細については、「FAILED_READ_FILE」を参照してください

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE: KD000

Kryo にクラスを登録できませんでした。

FAILED_RENAME_PATH

SQLSTATE: 42K04

宛先が既に存在するため、<sourcePath> の名前を <targetPath> に変更できませんでした。

FAILED_RENAME_TEMP_FILE

SQLSTATE: 58030

FileSystem.rename から false が返されたため、一時ファイル <srcPath> の名前を <dstPath> に変更できませんでした。

FAILED_ROW_TO_JSON

SQLSTATE: 2203G

クラス <class> の行の値 <value> を JSON 形式でターゲット SQL 型 <sqlType> に変換できませんでした。

FAILED_TO_PARSE_TOO_COMPLEX

SQLSTATE: 54001

潜在的な SQL 関数と参照されるビューを含むステートメントは、解析するには複雑すぎました。

このエラーを軽減するために、ステートメントを複雑でない複数のチャンクに分割します。

FEATURE_NOT_ENABLED

SQLSTATE: 56038

機能 <featureName> が有効になっていません。 この機能を有効にするには、構成 <configKey><configValue> に設定することを検討してください。

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE: 56038

<feature> はクラシック SQL ウェアハウスではサポートされていません。 この機能を使用するには、Pro または Serverless SQL ウェアハウスを使用します。 ウェアハウスの詳細については、以下をご覧ください: <docLink>

FEATURE_REQUIRES_UC

SQLSTATE: 0AKUD

<feature> は Unity Catalog なしではサポートされていません。 この機能を使用するには、Unity Catalog を有効にします。 Unity Catalog の詳細については、以下をご覧ください: <docLink>

FEATURE_UNAVAILABLE

SQLSTATE: 56038

<feature> はお使いの環境ではサポートされていません。 この機能を使用するには、Databricks サポートにお問い合わせください。

FIELD_ALREADY_EXISTS

SQLSTATE: 42710

<fieldNames><struct> に既に存在するため、列を <op> できません。

FIELD_NOT_FOUND

SQLSTATE: 42704

<fields> にこのような構造体フィールド <fieldName> はありません。

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE: 42K04

ステージング パス <path> 内のファイルは既に存在しますが、OVERWRITE が設定されていません

FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR

SQLSTATE: 39000

flatMapGroupsWithState のユーザー指定関数でエラーが発生しました。 理由: <reason>

FORBIDDEN_OPERATION

SQLSTATE: 42809

<objectType> に対する操作 <statement> は許可されていません: <objectName>

FOREACH_BATCH_USER_FUNCTION_ERROR

SQLSTATE: 39000

ユーザー指定関数の foreach バッチ シンクでエラーが発生しました。 理由: <reason>

FOREACH_USER_FUNCTION_ERROR

SQLSTATE: 39000

foreach シンクのユーザー指定関数でエラーが発生しました。 理由: <reason>

FOREIGN_KEY_MISMATCH

SQLSTATE: 42830

外部キーの親列 <parentColumns> が主キーの子列 <childColumns> と一致しません。

FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

外部の <objectType> の名前は空でない必要があるため、このコマンドを実行できません。

FOUND_MULTIPLE_DATA_SOURCES

SQLSTATE: 42710

<provider>’ という名前の複数のデータ ソースが検出されました。 データ ソースが同時に登録されていたり、クラスパスに配置されていたりしないことを確認してください。

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE: 42601

次の場所で、from_json 推論でスキーマの更新の競合が発生しました: <location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE: 42601

from_json で、columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) が

JSON オブジェクトに存在することが検出され、続行できなくなりました。 別の値を

オプション ‘columnNameOfCorruptRecord’ に設定してください。

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE: 42601

from_json 推論が、次の場所に保存されているスキーマを読み取ることができませんでした: <location>

FROM_JSON_INFERENCE_FAILED

SQLSTATE: 42601

from_json がスキーマを推論できませんでした。 代わりに 1 つ指定してください。

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE: 0A000

from_json 推論は、ストリーミング テーブルを定義する場合にのみサポートされます

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE: 42601

from_json 構成が無効です:

詳細については、「FROM_JSON_INVALID_CONFIGURATION」をご覧ください

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE: 22KD3

from_json が <old> から <new> に進化できませんでした

FUNCTION_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

関数 <function> には、名前付きパラメーターが必要です。 パラメータに名前がありません: <exprs>。 たとえば、<function>(param_name => …) のように、すべてのパラメーターに名前を追加するように関数呼び出しを更新してください。

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE: 42623

列に既定値と生成式の両方を指定することはできませんが、列 <colName> に既定値 (<defaultValue>) と生成式 (<genExpr>) が存在します。

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE: 56038

Hive 2.2 以前のバージョンでは、getTablesByType はサポートされていません。 Hive 2.3 以降のバージョンを使用してください。

GET_WARMUP_TRACING_FAILED

SQLSTATE: 42601

ウォームアップを追跡できませんでした。 原因: <cause>

GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED

SQLSTATE: 42601

関数 get_warmup_tracing() が許可されていません。

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE: KD000

Graphite プロトコルが無効です: <protocol>

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE: KD000

Graphite シンクには ‘<property>’ プロパティが必要です。

GROUPING_COLUMN_MISMATCH

SQLSTATE: 42803

グループ (<grouping>) の列がグループ列 <groupingColumns> に見つかりません。

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE: 42803

grouping_id (<groupingIdColumn>) の列がグループ列 (<groupByColumns>) と一致しません。

GROUPING_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

グループ セットのサイズを <maxSize> より大きくすることはできません。

GROUP_BY_AGGREGATE

SQLSTATE: 42903

GROUP BY では集計関数は使用できませんが、<sqlExpr> が検出されました。

詳細については、「GROUP_BY_AGGREGATE」をご覧ください

GROUP_BY_POS_AGGREGATE

SQLSTATE: 42903

GROUP BY <index> は、集計関数を含む式 <aggExpr> を参照します。 GROUP BY では集計関数は使用できません。

GROUP_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

GROUP BY の位置 <index> が選択リストにありません (有効な範囲は [1, <size>] です)。

GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

<sqlExpr> は、データ型 <dataType> が順序付け可能なデータ型ではないため、グループ化式として使用できません。

HDFS_HTTP_ERROR

SQLSTATE: KD00F

HDFS から読み取ろうとすると、HTTP 要求が失敗しました。

詳細については、HDFS_HTTP_ERRORを参照してください

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

<function> への呼び出しが無効です。有効な HLL スケッチ バッファーのみが入力としてサポートされます (hll_sketch_agg 関数によって生成されたものなど)。

HLL_INVALID_LG_K

SQLSTATE: 22546

<function> への呼び出しが無効です。lgConfigK の値が <min><max> の間である必要があります (<value> を含みます)。

HLL_UNION_DIFFERENT_LG_K

SQLSTATE: 22000

スケッチの lgConfigK の値が異なります: <left><right>。 異なる lgConfigK の値で <function> を呼び出すには、allowDifferentLgConfigK パラメーターを true に設定します。

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE: 42601

<identifier> は 2 つ以上の名前部分を持つため、有効な識別子ではありません。

ILLEGAL_STATE_STORE_VALUE

SQLSTATE: 42601

状態ストアに指定された無効な値

詳細については、「ILLEGAL_STATE_STORE_VALUE」を参照してください

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE: 42818

ピボット列 <columnName> が無効です。 ピボット列は比較できる必要があります。

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE: 42825

<operator> は、互換性のある列型を持つテーブルでのみ実行できます。 <tableOrdinalNumber> テーブルの <columnOrdinalNumber> 列は <dataType1> 型であり、最初のテーブルの同じ列にある <dataType2> と互換性がありません。<hint>

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE: 56038

互換性のない DataSourceRegister が検出されました。 互換性のないライブラリをクラスパスから削除するか、アップグレードしてください。 エラー: <message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE: KD000

テーブル <tableName> に互換性のないデータを書き込めません。

詳細については、「INCOMPATIBLE_DATA_FOR_TABLE」を参照してください

INCOMPATIBLE_JOIN_TYPES

SQLSTATE: 42613

結合の種類 <joinType1><joinType2> には互換性がありません。

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE: 51024

ビュー <viewName> の SQL クエリに互換性のないスキーマ変更があり、列 <colName> を解決できません。 <colName> という名前の列が <expectedNum> 個予期されていましたが、<actualCols> 個が取得されました。

次を実行して、ビューを再作成してみてください: <suggestion>

INCOMPLETE_TYPE_DEFINITION

SQLSTATE: 42K01

不完全な複合型:

詳細については、「INCOMPLETE_TYPE_DEFINITION」をご覧ください

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE: 42K0B

アップグレード先によって結果が異なる場合があります

詳細については、「INCONSISTENT_BEHAVIOR_CROSS_VERSION」を参照してください。

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE: 42605

<failure><functionName> には、少なくとも <minArgs> 個の引数と最大で <maxArgs> 個の引数が必要です。

INCORRECT_RAMP_UP_RATE

SQLSTATE: 22003

<rowsPerSecond> rowsPerSecond の最大オフセットは <maxSeconds> ですが、'rampUpTimeSeconds' は <rampUpTimeSeconds> です。

INDETERMINATE_COLLATION

SQLSTATE: 42P22

呼び出された関数は適用すべき照合順序の知識が必要ですがが、不確定な照合順序が見つかりました。 照合順序を明示的に設定するには COLLATE 関数を使用します。

INDEX_ALREADY_EXISTS

SQLSTATE: 42710

インデックス <indexName> はテーブル <tableName> に既に存在するため、作成できません。

INDEX_NOT_FOUND

SQLSTATE: 42704

テーブル <tableName> にインデックス <indexName> が見つかりません。

INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED

SQLSTATE: 0A000

トリガーの種類 <trigger> は、このクラスターの種類ではサポートされていません。

AvailableNow、Once など、別のトリガーの種類を使ってください。

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

<tableName> に書き込めません。理由:

詳細については、「INSERT_COLUMN_ARITY_MISMATCH」をご覧ください

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

<tableName>’ に書き込めません。<reason>:

テーブルの列: <tableColumns>

静的な値を含むパーティション列: <staticPartCols>

データ列: <dataColumns>

INSUFFICIENT_PERMISSIONS

SQLSTATE: 42501

十分な特権がありません

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE: 42501

外部の場所 <user> に対するユーザー <location> の特権が不十分です。

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE: 42501

<securableName> の所有者がいません。 所有者を設定するように管理者に依頼します。

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE: 42501

ユーザーは <securableName> を所有していません。

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE: 42501

ユーザーは <securableName> に対するアクセス許可 <action> がありません。

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE: 42501

<securableName> の所有者は、<parentSecurableName> の所有者とは異なります。

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE: 42501

ストレージ資格情報 <credentialName> の特権が不十分です。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE: 42501

基になるセキュリティ保護可能なリソースに対するアクセス許可のため、ユーザーは <securableName><action> を実行できません。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE: 42501

基になるセキュリティ保護可能なリソースに対するアクセス許可のため、ユーザーは <securableName><action> を実行できません:

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE: 22015

<message>.<alternative>

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE: 22012

0 で除算しました。 try_divide を使用して序数が 0 であることを許容し、代わりに NULL を返します。

INVALID_AGGREGATE_FILTER

SQLSTATE: 42903

集計関数内の FILTER 式 <filterExpr> は無効です。

詳細については、「INVALID_AGGREGATE_FILTER」を参照してください

INVALID_ARRAY_INDEX

SQLSTATE: 22003

インデックス <indexValue> は範囲外です。 この配列には <arraySize> 要素があります。 SQL 関数 get() を使用して無効なインデックスで要素にアクセスすることを許容し、代わりに NULL を返します。 必要であれば、<ansiConfig> を "false" に設定してこのエラーを回避します。

詳細については、「INVALID_ARRAY_INDEX」をご覧ください

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE: 22003

インデックス <indexValue> は範囲外です。 この配列には <arraySize> 要素があります。 try_element_at を使用して無効なインデックスで要素にアクセスすることを許容し、代わりに NULL を返します。 必要であれば、<ansiConfig> を "false" に設定してこのエラーを回避します。

詳細については、「INVALID_ARRAY_INDEX_IN_ELEMENT_AT」をご覧ください

INVALID_BITMAP_POSITION

SQLSTATE: 22003

0 でインデックスされたビットマップ位置 <bitPosition> が範囲外です。 ビットマップには <bitmapNumBits> ビット (<bitmapNumBytes> バイト) あります。

INVALID_BOOLEAN_STATEMENT

SQLSTATE: 22546

条件にはブールステートメントが必要ですが <invalidStatement> 、見つかりました。

INVALID_BOUNDARY

SQLSTATE: 22003

境界 <boundary> が無効です: <invalidValue>

詳細については、「INVALID_BOUNDARY」をご覧ください

INVALID_BUCKET_COLUMN_DATA_TYPE

SQLSTATE: 42601

バケット列には <type> を使用できません。 照合されたデータ型はバケットではサポートされていません。

INVALID_BUCKET_FILE

SQLSTATE: 58030

無効なバケット ファイル: <path>

INVALID_BYTE_STRING

SQLSTATE: 22P03

想定される形式は ByteString ですが、<unsupported> (<class>) でした。

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE: 46121

データ ソース <datasource> の列 <columnName> は、名前にファイル パスで使用できない文字が含まれているため、保存できません。 別名を使用して名前を変更してください。

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE: 42000

列またはフィールド <name> が型 <type> になっていますが、<expectedType> である必要があります。

INVALID_CONF_VALUE

SQLSTATE: 22022

構成 “<confName>” の値 ‘<confValue>’ は無効です。

詳細については、「INVALID_CONF_VALUE」を参照してください

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE: 42887

current_recipient 関数は、Unity Catalog で共有専用ビューを定義するために、CREATE VIEW ステートメントまたは ALTER VIEW ステートメントでのみ使用できます。

INVALID_CURSOR

SQLSTATE: HY109

カーソルは無効です。

詳細については、「INVALID_CURSOR」を参照してください。

INVALID_DATETIME_PATTERN

SQLSTATE: 22007

認識されない datetime パターン: <pattern>

詳細については、「INVALID_DATETIME_PATTERN」を参照してください

INVALID_DEFAULT_VALUE

SQLSTATE: 42623

ターゲットの列または変数 <colName> に既定値 <defaultValue> があるため、<statement> コマンドを実行できませんでした。

詳細については、「INVALID_DEFAULT_VALUE」をご覧ください

INVALID_DELIMITER_VALUE

SQLSTATE: 42602

区切り記号の値が無効です。

詳細については、「INVALID_DELIMITER_VALUE」をご覧ください

INVALID_DEST_CATALOG

SQLSTATE: 42809

SYNC コマンドの宛先カタログは、Unity Catalog 内にある必要があります。 <catalog> が見つかりました。

INVALID_DRIVER_MEMORY

SQLSTATE: F0000

システム メモリ <systemMemory><minSystemMemory> 以上である必要があります。

Spark の構成で –driver-memory オプションまたは “<config>” を使用して、ヒープ サイズを増やしてください。

INVALID_DYNAMIC_OPTIONS

SQLSTATE: 42K10

option_list渡された<>オプションは、外部テーブル<のtable_name>では禁止されています。

INVALID_EMPTY_LOCATION

SQLSTATE: 42K05

場所名を空の文字列にすることはできませんが、<location> が指定されました。

INVALID_ESC

SQLSTATE: 42604

無効なエスケープ文字列が見つかりました: <invalidEscape>。 エスケープ文字列には 1 文字だけ含まれる必要があります。

INVALID_ESCAPE_CHAR

SQLSTATE: 42604

EscapeChar は長さ 1 の文字列リテラルである必要がありますが、<sqlExpr> を取得しました。

INVALID_EXECUTOR_MEMORY

SQLSTATE: F0000

Executor メモリ <executorMemory><minSystemMemory> 以上である必要があります。

Spark の構成で –executor-memory オプションまたは “<config>” を使用して、Executory メモリを増やしてください。

INVALID_EXPRESSION_ENCODER

SQLSTATE: 42001

無効な式エンコーダーが見つかりました。 ExpressionEncoder のインスタンスが必要ですが、<encoderType> でした。 詳しくは、‘<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html’ をご覧ください。

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE: 42000

<base> から値を抽出できません。 複合型 [STRUCTARRAYMAP] が必要ですが、<other> を取得しました。

INVALID_EXTRACT_FIELD

SQLSTATE: 42601

<field><expr> から抽出できませんでした。

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE: 42000

フィールド名は null 以外の文字列リテラルである必要がありますが、<extraction> です。

INVALID_FIELD_NAME

SQLSTATE: 42000

フィールド名 <fieldName> が無効です: <path> は構造体ではありません。

INVALID_FORMAT

SQLSTATE: 42601

形式が無効です: <format>

詳細については、「INVALID_FORMAT」を参照してください。

INVALID_FRACTION_OF_SECOND

SQLSTATE: 22023

秒の端数は 0 である必要があります。 有効な範囲は [0, 60] です。 必要であれば、<ansiConfig> を "false" に設定してこのエラーを回避します。

INVALID_HANDLE

SQLSTATE: HY000

ハンドル <handle> が無効です。

詳細については、「INVALID_HANDLE」を参照してください

INVALID_IDENTIFIER

SQLSTATE: 42602

引用符で囲まれていない識別子 <ident> は無効であり、<ident> としてバッククオートにする必要があります。

引用符で囲まれていない識別子には、ASCII 文字 ('a' - 'z', 'A' - 'Z')、数字 ('0' - '9') 、アンダーバー ('_') しか含めることができません。

引用符で囲まれていない識別子は、数字で始めることはできません。

データ ソースやメタ ストアが異なると、有効な識別子にさらに制限が課される場合があります。

INVALID_INDEX_OF_ZERO

SQLSTATE: 22003

インデックス 0 は無効です。 インデックスは < 0 または > 0 のいずれかでなければなりません (最初の要素のインデックスは 1 です)。

INVALID_INLINE_TABLE

SQLSTATE: 42000

インライン テーブルが無効です。

詳細については、「INVALID_INLINE_TABLE」をご覧ください

INVALID_INTERVAL_FORMAT

SQLSTATE: 22006

"<input>" を間隔に解析中にエラーが発生しました。 指定された値が、間隔を定義するための有効な形式であることをご確認ください。 正しい形式については、ドキュメントを参照できます。

詳細については、「INVALID_INTERVAL_FORMAT」を参照してください。

INVALID_INVERSE_DISTRIBUTION_FUNCTION

SQLSTATE: 42K0K

<funcName> は無効な逆分布関数です。

詳細については、「INVALID_INVERSE_DISTRIBUTION_FUNCTION」をご覧ください

INVALID_JOIN_TYPE_FOR_JOINWITH

SQLSTATE: 42613

joinWith: <joinType>の結合の種類が無効です。

INVALID_JSON_DATA_TYPE

SQLSTATE: 2203G

JSON 文字列 '<invalidType>' をデータ型に変換できませんでした。 有効なデータ型を入力してください。

INVALID_JSON_DATA_TYPE_FOR_COLLATIONS

SQLSTATE: 2203G

照合順序は文字列の種類にのみ適用できますが、JSON データ型は <jsonType> です。

INVALID_JSON_ROOT_FIELD

SQLSTATE: 22032

JSON ルート フィールドをターゲット Spark 型に変換できません。

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE: 22032

入力スキーマ <jsonSchema> には、MAP のキーの種類として STRING のみを含めることができます。

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE: F0000

構成 "<bufferSizeConfKey>" の値は 2048 MiB 未満にする必要がありますが、<bufferSizeConfValue> MiB になっています。

INVALID_LABEL_USAGE

SQLSTATE: 42K0L

ラベル <labelName> の使用が無効です。

詳細については、INVALID_LABEL_USAGEを参照してください

INVALID_LAMBDA_FUNCTION_CALL

SQLSTATE: 42K0D

ラムダ関数呼び出しが無効です。

詳細については、「INVALID_LAMBDA_FUNCTION_CALL」をご覧ください

INVALID_LATERAL_JOIN_TYPE

SQLSTATE: 42613

OUTER サブクエリは結合パートナーに関連付けることができないため、LATERAL 相関関係を含む <joinType> JOIN は許可されません。 LATERAL 相関関係を削除するか、代わりに、INNER JOIN または LEFT OUTER JOIN を使用します。

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE: 42K0E

<expr> のような制限は無効です。

詳細については、「INVALID_LIMIT_LIKE_EXPRESSION」をご覧ください

INVALID_LOCATION

SQLSTATE: 42K05

場所名は無効な URI にすることはできませんが <location> 、指定されました。

INVALID_NON_ABSOLUTE_PATH

SQLSTATE: 22KD1

指定された非絶対パス <path> は修飾できません。 パスを有効な dbfs マウント場所に更新してください。

INVALID_NON_DETERMINISTIC_EXPRESSIONS

SQLSTATE: 42K0E

演算子には決定論的式が必要ですが、実際の式は <sqlExprs> です。

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE: 22003

数値リテラル <rawStrippedQualifier><typeName> の有効な範囲 (最小値 <minValue> と最大値 <maxValue>) 内ではありません。 必要に応じて値を調整してください。

INVALID_OBSERVED_METRICS

SQLSTATE: 42K0E

観察されたメトリックが無効です。

詳細については、「INVALID_OBSERVED_METRICS」を参照してください

INVALID_OPTIONS

SQLSTATE: 42K06

無効なオプション:

詳細については、「INVALID_OPTIONS」をご覧ください

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE: 0A000

グループ集計 pandas UDF <functionList> は、他の pandas 以外の集計関数と一緒に呼び出すことはできません。

INVALID_PARAMETER_MARKER_VALUE

SQLSTATE: 22023

無効なパラメーター マッピングが指定されました。

詳細については、「INVALID_PARAMETER_MARKER_VALUE」をご覧ください

INVALID_PARAMETER_VALUE

SQLSTATE: 22023

<functionName> のパラメーター <parameter> の値が無効です:

詳細については、「INVALID_PARAMETER_VALUE」をご覧ください

INVALID_PARTITION_COLUMN_DATA_TYPE

SQLSTATE: 0A000

パーティション列に <type> を使用できません。

INVALID_PARTITION_OPERATION

SQLSTATE: 42601

パーティション コマンドが無効です。

詳細については、「INVALID_PARTITION_OPERATION」をご覧ください

INVALID_PIPELINE_ID

SQLSTATE: 42604

パイプライン ID <pipelineId> が無効です。

パイプラインは次の形式の UUID である必要があります: ‘xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx’

INVALID_PRIVILEGE

SQLSTATE: 42852

<securable> に対する特権 <privilege> が無効です。

INVALID_PROPERTY_KEY

SQLSTATE: 42602

<key> は無効なプロパティ キーです。SET <key>=<value> のように引用符を使用してください。

INVALID_PROPERTY_VALUE

SQLSTATE: 42602

<value> は無効なプロパティ キーです。SET <key>=<value> のように引用符を使用してください

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE: 42613

パラメーター化クエリでは、位置指定または名前付きパラメータのいずれかを使用する必要がありますが、両方は使用できません。

INVALID_S3_COPY_CREDENTIALS

SQLSTATE: 42501

COPY INTO 資格情報には、AWS_ACCESS_KEY、AWS_SECRET_KEY、AWS_SESSION_TOKEN を含める必要があります。

INVALID_SAVE_MODE

SQLSTATE: 42000

指定された保存モード <mode> は無効です。 有効な保存モードには “append”、“overwrite”、“ignore”、“error”、“errorifexists”、“default” があります。

INVALID_SCHEMA

SQLSTATE: 42K07

入力スキーマ <inputSchema> は有効なスキーマ文字列ではありません。

詳細については、「INVALID_SCHEMA」を参照してください。

INVALID_SCHEMA_OR_RELATION_NAME

SQLSTATE: 42602

<name> はテーブル/スキーマの有効な名前ではありません。 有効な名前には、アルファベット文字、数字、_ のみが含まれています。

INVALID_SCHEME

SQLSTATE: 0AKUC

Unity Catalog は既定のファイル スキームとして <name> をサポートしません。

INVALID_SECRET_LOOKUP

SQLSTATE: 22531

シークレット検索が無効です。

詳細については、「INVALID_SECRET_LOOKUP」を参照してください。

INVALID_SET_SYNTAX

SQLSTATE: 42000

'SET'、'SET key'、または 'SET key=value' の 形式で指定する必要があります。 キーに特殊文字を含める場合、または値にセミコロンを含める場合は、バッククォート (SET key=valueなど) を使用してください。

INVALID_SHARED_ALIAS_NAME

SQLSTATE: 42601

<sharedObjectType> エイリアス名は、"schema.name" の形式である必要があります。

INVALID_SINGLE_VARIANT_COLUMN

SQLSTATE: 42613

ユーザー指定のスキーマもある場合は singleVariantColumn オプションは使用できません。

INVALID_SOURCE_CATALOG

SQLSTATE: 42809

SYNC コマンドのソース カタログが Unity Catalog 内に存在してはなりません。 <catalog> が見つかりました。

INVALID_SQL_ARG

SQLSTATE: 42K08

sql() の引数 <name> が無効です。 SQL リテラルまたはコレクション コンストラクター関数 ( map()array()struct()など) で置き換えることを検討してください。

INVALID_SQL_SYNTAX

SQLSTATE: 42000

SQL 構文 が無効です。

詳細については、「INVALID_SQL_SYNTAX」をご覧ください

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE: 42604

ステージング <operation> クエリのステージング パスが無効です: <path>

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE: 07501

EXECUTE IMMEDIATE の INTO 句はクエリに対してのみ有効ですが、指定された次のステートメントはクエリではありません: <sqlString>

INVALID_STATEMENT_OR_CLAUSE

SQLSTATE: 42601

ステートメントまたは句: <operation> は無効です。

INVALID_SUBQUERY_EXPRESSION

SQLSTATE: 42823

無効なサブクエリ:

詳細については、「INVALID_SUBQUERY_EXPRESSION」を参照してください。

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE: 42K0F

型が <obj> の永続的オブジェクト <objName> は、型が <tempObj> の一時的オブジェクト <tempObjName> を参照するため、作成できませんでした。 一時的オブジェクト <tempObjName> を永続的にするか、永続的オブジェクト <objName> を一時的なものにしてください。

INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22000

指定された timestamp <timestamp> が、予期される構文 <format> と一致しません。

INVALID_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

テーブルをタイム トラベルする際、バージョンとタイムスタンプの両方を指定できません。

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE: 42K0E

タイム トラベル timestamp 式 <expr> が無効です。

詳細については、「INVALID_TIME_TRAVEL_TIMESTAMP_EXPR」をご覧ください

INVALID_TYPED_LITERAL

SQLSTATE: 42604

型指定されたリテラル <valueType> の値が無効です: <value>

INVALID_UDF_IMPLEMENTATION

SQLSTATE: 38000

関数 <funcName> は ScalarFunction または AggregateFunction を実装しません。

INVALID_UPGRADE_SYNTAX

SQLSTATE: 42809

<command> <supportedOrNot> ソース テーブルは Hive メタストアにあり、ターゲット テーブルは Unity Catalog にあります。

INVALID_URL

SQLSTATE: 22P02

URL が無効です: <url>。 必要であれば、<ansiConfig> を "false" に設定してこのエラーを回避します。

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE: 42000

<prettyName> での <elem> の使用が無効です。

INVALID_UTF8_STRING

SQLSTATE: 22029

次の文字列で無効な UTF8 バイト シーケンスが見つかりました: <str>

INVALID_UUID

SQLSTATE: 42604

入力 <uuidInput> は有効な UUID ではありません。

UUID は次の形式にする必要があります: ‘xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx’

UUIDの形式をチェックしてください。

INVALID_VARIABLE_DECLARATION

SQLSTATE: 42K0M

変数宣言が無効です。

詳細については、INVALID_VARIABLE_DECLARATIONを参照してください

INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE: 42K09

変数型は文字列型である必要がありますが、<varType> を受け取りました。

INVALID_VARIANT_CAST

SQLSTATE: 22023

バリアント値 <value><dataType> にキャストすることはできません。 代わりに、try_variant_get を使用してください。

INVALID_VARIANT_FROM_PARQUET

SQLSTATE: 22023

バリアントが無効です。

詳細については、「INVALID_VARIANT_FROM_PARQUET」を参照してください。

INVALID_VARIANT_GET_PATH

SQLSTATE: 22023

パス <path><functionName> の有効なバリアント抽出パスではありません。

有効なパスは $ で始まり、[123].name['name']["name"] のような 0 個以上のセグメントが続きます。

INVALID_WHERE_CONDITION

SQLSTATE: 42903

WHERE 条件 <condition> に無効な式が含まれています: <expressionList>

WHERE 句のウィンドウ関数、集計関数、およびジェネレーター関数を回避するように、クエリを書き換えます。

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE: 42601

<aggFunc> に対して ORDER BY またはウィンドウ フレームを指定できませんでした。

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE: 42KDE

データ ソース ライターが、無効な数のコミット メッセージを生成しました。 ライター コミット メッセージは各タスクから 1 つだけ必要ですが、<detail> を受け取りました。

INVALID_WRITE_DISTRIBUTION

SQLSTATE: 42000

要求された書き込みディストリビューションが無効です。

詳細については、「INVALID_WRITE_DISTRIBUTION」をご覧ください

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE: 42K0E

結合条件 <joinCondition> の型 <conditionType> が無効ですが、“BOOLEAN” が予期されています。

KAFKA_DATA_LOSS

SQLSTATE: 22000

一部のデータは、Kafka で使用できなくなったため、失われた可能性があります。

Kafka によってデータが期限切れになったか、トピック内のすべてのデータが処理される前に

トピックが削除された可能性があります。

そのような場合にストリーミング クエリを失敗させたくない場合は、ソース オプション failOnDataLoss を false に設定してください。

理由:

詳しくは、KAFKA_DATA_LOSS に関する記事をご覧ください

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE: 22000

でシャード <shardId> の目的のシーケンス番号 <endSeqNum> まで読み取れませんでした

コンシューマー モード <consumerMode> の kinesis ストリーム <stream>。 このクエリは失敗しますが、その理由は

データ損失の可能性があるためです。 最後の読み取りレコードはシーケンス番号 <lastSeqNum> でした。

これは、endSeqNum のデータが既に期限切れになっている場合、または Kinesis ストリームが

削除され、同じ名前で再構築された場合に起こります。 エラーの動作は

spark 構成で spark.databricks.kinesis.failOnDataLoss を false に設定することでオーバーライドできます。

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE: 42K04

Kinesis からフェッチされた最小 shardId (<fetchedShardId>) が

追跡された最小 shardId (<trackedShardId>) 未満です。

これは予期しないものであり、Kinesis ストリームが削除され、同じ名前で再作成され、

この Kinesis ストリームを使用するストリーミング クエリが既存のチェックポイントの場所を使用して再起動されときに発生します。

新しいチェックポイントの場所でストリーミング クエリを再起動するか、新しい名前でストリームを作成します。

KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION

SQLSTATE: 22000

シャード <shard> では、以前のフェッチで Kinesis から読み取られた最後のレコードのシーケンス番号は <lastSeqNum> で、

これは、シーケンス番号 <recordSeqNum> を持つ現在のフェッチで読み取られたレコードよりも大きくなります。

これは予期しないことで、再試行または次のフェッチの開始位置が正しく初期化されていない場合に発生する可能性があり、下流のレコードが重複する場合があります。

KRYO_BUFFER_OVERFLOW

SQLSTATE: 54006

Kryo によるシリアル化 <exceptionMsg> に失敗しました。 これを回避するには、"<bufferSizeConfKey>" 値を増やします。

LABELS_MISMATCH

SQLSTATE: 42K0L

開始ラベル <beginLabel> が終了ラベル <endLabel>と一致しません。

LOAD_DATA_PATH_NOT_EXISTS

SQLSTATE: 42K03

LOAD DATA 入力パス <path> が存在しません。

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE: 42601

LOCAL は file のスキーマと共に使用する必要がありますが、次の値を取得しました: <actualSchema>

LOCATION_ALREADY_EXISTS

SQLSTATE: 42710

関連する場所 <location> が既に存在するため、マネージド テーブルに <identifier> という名前を付けることができません。 別のテーブル名を選択するか、既存の場所を最初に削除してください。

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Trigger.AvailableNow を使用したクエリの実行中に、Kafka トピックのパーティションの一部が失われました。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告してください。

最新のオフセットのトピック パーティション: <tpsForLatestOffset>、 終了オフセットのトピック パーティション: <tpsForEndOffset>

MALFORMED_AVRO_MESSAGE

SQLSTATE: KD000

メッセージの逆シリアル化で、形式に誤りがある Avro メッセージが検出されます。 解析モード: <mode>。 形式に誤りがある Avro メッセージを null 結果として処理するには、オプション 'mode' を 'PERMISSIVE' に設定してみてください。

MALFORMED_CHARACTER_CODING

SQLSTATE: 22000

で実行 <function> するときに無効な値が見つかりました <charset>

MALFORMED_CSV_RECORD

SQLSTATE: KD000

形式に誤りがある CSV レコード: <badRecord>

MALFORMED_RECORD_IN_PARSING

SQLSTATE: 22023

形式が正しくないレコードは、レコードの解析で検出されます: <badRecord>

解析モード: <failFastMode>。 形式に誤りがあるレコードを null 結果として処理するには、オプション 'mode' を 'PERMISSIVE' に設定してみてください。

詳細については、「MALFORMED_RECORD_IN_PARSING」をご覧ください

MALFORMED_VARIANT

SQLSTATE: 22023

バリアント バイナリの形式に誤りがあります。 データ ソースが有効であることを確認してください。

MANAGED_TABLE_WITH_CRED

SQLSTATE: 42613

ストレージ資格情報を使用したマネージド テーブルの作成はサポートされていません。

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE: 55019

具体化されたビューは pipelineId を持つよりも前のものであるため、<refreshType> を実行できません。 <refreshType> を有効にするには、具体化されたビューを削除して再作成してください。

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE: 56038

具体化されたビューの操作 <operation> は許可されません。

詳細については、「MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED」をご覧ください

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE: 0A000

具体化されたビューの出力式 <expression> は、明示的にエイリアス化する必要があります。

MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID

SQLSTATE: 42000

ストリーミング クエリで具体化されたビュー <name> を作成できませんでした。 CREATE [OR REFRESH] STREAMING TABLE を使用するか、FROM 句から STREAM キーワードを削除して、このリレーションをバッチ クエリにしてください。

MATERIALIZED_VIEW_UNSUPPORTED_OPERATION

SQLSTATE: 0A000

このバージョンの具体化されたビューでは、操作 <operation> はサポートされていません。

MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED

SQLSTATE: 54KD1

セッション内の変数の数が最大許容数 (<maxNumVariables>) を超えているため、新しい変数 <variableName> を作成できません。

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE: 22023

maxRecordsPerFetch は、<kinesisRecordLimit> 以下の正の整数である必要があります

MERGE_CARDINALITY_VIOLATION

SQLSTATE: 23K01

MERGE ステートメントの ON 検索条件で、ターゲット テーブルの 1 つの行とソース テーブルの複数の行が一致しました。

これにより、ターゲット列が更新または削除操作で複数回操作される可能性がありますが、これは許可されていません。

METRIC_CONSTRAINT_NOT_SUPPORTED

SQLSTATE: 0A000

METRIC CONSTRAINT は有効ではありません。

METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22023

指定された値 "<argValue>" は METRIC_STORE テーブル関数の引数 "<argName>" ではサポートされていません。

詳細については、「METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR」を参照してください

METRIC_STORE_UNSUPPORTED_ERROR

SQLSTATE: 56038

Metric Store 関数 <functionName> は現在、この環境では無効になっています。

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE: KD000

Trigger.AvailableNow の Kafka データ ソースは、各マイクロバッチのプリフェッチ オフセットから終了オフセットに同じトピック パーティションを提供する必要があります。 エラーは一時的なものになる可能性があります。クエリを再起動し、同じ問題が引き続き発生した場合は報告してください。

プリフェッチされたオフセットのトピック パーティション: <tpsForPrefetched>、 終了オフセットのトピック パーティション: <tpsForEndOffset>

MISSING_AGGREGATION

SQLSTATE: 42803

非集計式 <expression> は、GROUP BY 句に参加していない列に基づいています。

GROUP BY に列または式を追加するか、式を集計します。または、グループ内のどの値が返されるかを気にしない場合、<expressionAnyValue> を使用します。

詳細については、「MISSING_AGGREGATION」をご覧ください

MISSING_CONNECTION_OPTION

SQLSTATE: 42000

型 '<connectionType>' の接続には、次のオプションを含める必要があります: <requiredOptions>

MISSING_GROUP_BY

SQLSTATE: 42803

クエリに GROUP BY 句が含まれていません。 GROUP BY を追加するか、OVER 句を使用してウィンドウ関数に変換します。

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE: 42000

CHECK 制約には名前が必要です。

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE: 42KDF

Kafka には パラメーター <parameterName> が必要ですが、<functionName> では指定されていません。

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE: 42KDF

パラメーター <parameterName> が必要ですが、<functionName> では指定されていません。

MISSING_WINDOW_SPECIFICATION

SQLSTATE: 42P20

ウィンドウの指定は WINDOW 句 <windowName>で定義されていません。 WINDOW 句の詳細については、「/sql-ref-syntax-qry-select-window.html」を<docroot>参照してください。

MODIFY_BUILTIN_CATALOG

SQLSTATE: 42832

組み込みカタログ <catalogName> の変更はサポートされていません。

MULTIPLE_LOAD_PATH

SQLSTATE: 42000

Databricks Delta では、load() API で複数の入力パスがサポートされていません。

パス: <pathList>。 同じ Delta テーブルから複数のパスを読み込んで

単一の DataFrame をビルドするには、対応するパーティション フィルターを使用して

Delta テーブルのルート パスを読み込んでください。 複数のパスが異なる Delta テーブルからの

ものである場合は、データセットの union()/unionByName() API を使用して、

個別の load() API 呼び出しによって生成された DataFrame を結合してください。

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE: 42891

指定の条件で、一致する制約が少なくとも 2 つ見つかりました。

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

タイム トラベル句とオプションの両方にタイム トラベルを指定することはできません。

MULTIPLE_XML_DATA_SOURCE

SQLSTATE: 42710

<provider> (<sourceNames>) という名前の複数のデータ ソースが検出されました。 完全修飾クラス名を指定するか、クラスパスから <externalSource> を削除してください。

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE: 42K0E

<expr> では、複数のソースがサポートされていません。

MULTI_UDF_INTERFACE_ERROR

SQLSTATE: 0A000

複数の UDF インターフェイス、UDF クラス <className> を実装することは許可されていません。

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE: 42613

相互に排他的な句またはオプション <clauses>。 これらの句のいずれかを削除してください。

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE: 42601

入力クエリでは <expectedType> が必要ですが、基になるテーブルは <givenType> です。

NAMED_PARAMETERS_NOT_SUPPORTED

SQLSTATE: 4274K

名前付きパラメーターは <functionName> 関数ではサポートされていません。代わりに、関数呼び出しに位置引数を指定してクエリを再試行してください。

NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS

SQLSTATE: 0A000

名前付き引数参照はサポートされていないため、関数 <functionName> を呼び出すことができません。 この場合、名前付き引数参照は <argument> でした。

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE: 0A000

ここでは名前付き引数参照が有効になっていないため、関数 <functionName> を呼び出すことができません。

この場合、名前付き引数参照は <argument> でした。

機能を有効にするには、“spark.sql.allowNamedFunctionArguments” を “true” に設定します。

NAMESPACE_ALREADY_EXISTS

SQLSTATE: 42000

その名前空間 <nameSpaceName> は既に存在するので作成できません。

別の名前を選択するか、既存の名前空間を削除するか、既存の名前空間を許容するために IF NOT EXISTS 句を追加します。

NAMESPACE_NOT_EMPTY

SQLSTATE: 42000

オブジェクトが含まれているため、名前空間 <nameSpaceNameName> を削除できません。

DROP NAMESPACE ... CASCADE を使用して、名前空間とそのすべてのオブジェクトを削除します。

NAMESPACE_NOT_FOUND

SQLSTATE: 42000

名前空間 <nameSpaceName> が見つかりません。 名前空間のスペルと正確さを確認します。

名前を修飾しなかった場合は、current_schema() 出力を確認するか、名前を正しく修飾します。

ドロップのエラーを許容するには、DROP NAMESPACE IF EXISTS を使用します。

NATIVE_IO_ERROR

SQLSTATE: KD00F

ネイティブ要求が失敗しました。 requestId: <requestId>, cloud: <cloud>, operation: <operation>

request: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],

エラー: <error>

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE: 56038

このクラスターで、ネイティブ XML データ ソースが有効になっていません。

NESTED_AGGREGATE_FUNCTION

SQLSTATE: 42607

別の集計関数の引数で集計関数を使用することはできません。 サブクエリで内部集計関数を使用してください。

NESTED_EXECUTE_IMMEDIATE

SQLSTATE: 07501

入れ子になった EXECUTE IMMEDIATE コマンドは使用できません。 指定された SQL クエリ (<sqlString>) に別の EXECUTE IMMEDIATE コマンドが含まれていないことを確認してください。

NONEXISTENT_FIELD_NAME_IN_LIST

SQLSTATE: HV091

フィールド <nonExistFields> は存在しません。 使用できるフィールド: <fieldNames>

NON_FOLDABLE_ARGUMENT

SQLSTATE: 42K08

関数 <funcName> では、パラメーター <paramName><paramType> 型の折りたたみ可能な式である必要がありますが、実際の引数は折りたたみ不可能です。

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

MERGE ステートメントに複数の MATCHED 句がある場合、最後の MATCHED 句のみが条件を省略できます。

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

MERGE ステートメントに複数の NOT MATCHED BY SOURCE 句がある場合、最後の NOT MATCHED BY SOURCE 句のみが条件を省略できます。

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

MERGE ステートメントに複数の NOT MATCHED [BY TARGET] 句がある場合、最後の NOT MATCHED [BY TARGET] 句のみが条件を省略できます。

NON_LITERAL_PIVOT_VALUES

SQLSTATE: 42K08

ピボット値に必要なリテラル式 <expression> が見つかりました。

NON_PARTITION_COLUMN

SQLSTATE: 42000

PARTITION 句にパーティション以外の列を含めることはできません: <columnName>

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE: 42KDE

ウィンドウ関数は、ストリーミング DataFrame/データセットの <windowFunc> (列 <columnName> として) ではサポートされていません。

構造化ストリームでは、WINDOW 関数を使用した時間枠の集計のみがサポートされます。 (ウィンドウの仕様: <windowSpec>)

NOT_ALLOWED_IN_FROM

SQLSTATE: 42601

FROM 句では使用できません。

詳細については、「NOT_ALLOWED_IN_FROM」をご覧ください

NOT_A_CONSTANT_STRING

SQLSTATE: 42601

ルーチンまたは句 <name> に使用される式 <expr> は、NOT NULL である定数 STRING である必要があります。

詳細については、「NOT_A_CONSTANT_STRING」をご覧ください

NOT_A_PARTITIONED_TABLE

SQLSTATE: 42809

<tableIdentWithDB> はパーティション テーブルではないため、操作 <operation> は許可されません。

NOT_A_SCALAR_FUNCTION

SQLSTATE: 42887

<functionName> はここでスカラー式として表示されますが、この関数はテーブル関数として定義されています。 クエリを更新して関数呼び出しを FROM 句に移動するか、代わりに <functionName> をスカラー関数として再定義してください。

NOT_A_TABLE_FUNCTION

SQLSTATE: 42887

<functionName> はここでテーブル関数として表示されますが、この関数はスカラー関数として定義されています。 クエリを更新して関数呼び出しを FROM 句の外部に移動するか、代わりに <functionName> をテーブル関数として再定義してください。

NOT_NULL_ASSERT_VIOLATION

SQLSTATE: 42000

null 非許容フィールド (<walkedTypePath>) に NULL 値が表示されました。Scala タプル/ケース クラスまたは JavaBean からスキーマが推論された場合は、scala.Option[_] または他の null 許容型 を使用してみてください(int/scala.Int ではなく、java.lang.Integer など)。

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE: 42000

ここでは NULL を割り当てることはできません。

詳細については、「NOT_NULL_CONSTRAINT_VIOLATION」をご覧ください

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER/CHANGE COLUMN では、型が <originType><table> の列 <originName> を型が <newType><newName> に変更できません。

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE: 0A000

<cmd> は v2 テーブルではサポートされていません。

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE: 0A000

<cmd> はサポートされていません。有効にする場合、"spark.sql.catalogImplementation" を "hive" に設定してください。

NOT_SUPPORTED_IN_JDBC_CATALOG

SQLSTATE: 0A000

JDBC カタログではサポートされていないコマンド:

詳細については、「NOT_SUPPORTED_IN_JDBC_CATALOG」をご覧ください

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE: 0A000

<operation> は、SQL <endpoint> ではサポートされていません。

NOT_SUPPORTED_WITH_SERVERLESS

SQLSTATE: 0A000

<operation> はサーバーレス コンピューティングではサポートされていません。

NOT_UNRESOLVED_ENCODER

SQLSTATE: 42601

未解決のエンコーダーが予想されましたが、<attr> が見つかりました。

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE: 42608

<colName> は Null 許容でなく、既定値がないため、既定値を決定できません。

NO_HANDLER_FOR_UDAF

SQLSTATE: 42000

UDAF '<functionName>' のハンドラーはありません。 代わりに sparkSession.udf.register(...) を使用します。

NO_MERGE_ACTION_SPECIFIED

SQLSTATE: 42K0E

df.mergeInto の後に、whenMatched/whenNotMatched/whenNotMatchedBySource の少なくとも 1 つが続く必要があります。

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE: 割り当てなし

パス ‘<path>’の親となる外部の場所が見つかりませんでした。 親パスの 1 つに外部の場所を作成してから、クエリまたはコマンドを再試行してください。

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

SQLSTATE: 42S22

Protobuf スキーマで <catalystFieldPath> が見つかりません。

NO_STORAGE_LOCATION_FOR_TABLE

SQLSTATE: 割り当てなし

テーブルの資格情報を生成するときに、テーブル ‘<tableId>’の保存場所が見つかりませんでした。 テーブルの種類とテーブルの場所の URL を確認してから、クエリまたはコマンドを再試行してください。

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE: 割り当てなし

カタログ ‘<catalog>’ が見つかりませんでした。 カタログ名を確認してから、クエリまたはコマンドを再試行してください。

NO_SUCH_CLEANROOM_EXCEPTION

SQLSTATE: 割り当てなし

クリーン ルーム ‘<cleanroom>’ が存在しません。 クリーン ルーム名が正しく入力されており、既存の有効なクリーン ルームの名前と一致することを確認してから、クエリまたはコマンドをもう一度試してください。

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE: 割り当てなし

外部の場所 ‘<externalLocation>’ が存在しません。 外部の場所名が正しいことを確認してから、クエリまたはコマンドを再試行してください。

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE: 割り当てなし

メタストアが見つかりませんでした。 アカウント管理者に依頼して、現在のワークスペースにメタストアを割り当ててから、クエリまたはコマンドをを再試行してください。

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE: 割り当てなし

共有プロバイダー ‘<providerName>’は存在しません。 共有プロバイダー名が正しく入力されており、有効な既存のプロバイダーの名前と一致することを確認してから、クエリまたはコマンドをを再試行してください。

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE: 割り当てなし

受信者 ‘<recipient>’ は存在しません。 受信者名が正しく入力されており、有効な既存の受信者の名前と一致することを確認してから、クエリまたはコマンドをを再試行してください。

NO_SUCH_SHARE_EXCEPTION

SQLSTATE: 割り当てなし

共有 ‘<share>’ は存在しません。 共有名が正しく入力されており、有効な既存の共有の名前と一致することを確認してから、クエリまたはコマンドをを再試行してください。

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE: 割り当てなし

ストレージ資格情報 ‘<storageCredential>’ は存在しません。 ストレージ資格情報名が正しく入力されており、有効な既存のストレージ資格情報の名前と一致することを確認してから、クエリまたはコマンドをを再試行してください。

NO_SUCH_USER_EXCEPTION

SQLSTATE: 割り当てなし

ユーザー ‘<userName>’ は存在しません。 アクセス許可を付与するか所有権を変更するユーザーが正しく入力されており、有効な既存のユーザーの名前と一致することを確認してから、クエリまたはコマンドをを再試行してください。

NO_UDF_INTERFACE

SQLSTATE: 38000

UDF クラス <className> に UDF インターフェイスが実装されていません。

NULLABLE_COLUMN_OR_FIELD

SQLSTATE: 42000

列またはフィールド <name> が null 許容になっていますが、null 非許容である必要があります。

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE: 42000

行 ID 属性を null 許容にすることはできません: <nullableRowIdAttrs>

NULL_DATA_SOURCE_OPTION

SQLSTATE: 22024

データ ソースの読み取り/書き込みオプション <option> に null 値を指定することはできません。

NULL_MAP_KEY

SQLSTATE: 2200E

null をマップ キーとして使用することはできません。

NULL_QUERY_STRING_EXECUTE_IMMEDIATE

SQLSTATE: 22004

EXECUTE IMMEDIATE はクエリ文字列として null 以外の変数が必要ですが、指定された変数 <varName> は null です。

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE: 22003

<value> は 38 桁を超えているため、数値として解釈できません。

NUMERIC_VALUE_OUT_OF_RANGE

SQLSTATE: 22003

詳細については、「NUMERIC_VALUE_OUT_OF_RANGE」を参照してください

NUM_COLUMNS_MISMATCH

SQLSTATE: 42826

<operator> は同じ数の列を持つ入力に対してのみ実行できますが、最初の入力に <firstNumColumns> 列あり、<invalidOrdinalNum> 入力に <invalidNumColumns> 列あります。

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE: 42826

指定されたエイリアスの数が出力列の数と一致しません。

関数名: <funcName>。エイリアスの数: <aliasesNum>。出力列の数: <outColsNum>

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE: 22KD2

カスタム ID 要求が指定されませんでした。

ONLY_SECRET_FUNCTION_SUPPORTED_HERE

SQLSTATE: 42K0E

呼び出し関数 <functionName> はこの <location> ではサポートされていません。ここでは <supportedFunctions> がサポートされています。

ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR

SQLSTATE: 0A000

SQL 操作 <operation> は、Unity Catalog でサポートされる Databricks SQL コネクタでのみサポートされます。

OPERATION_CANCELED

SQLSTATE: HY008

操作はキャンセルされました。

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE: 0AKUD

操作 <operation> では、Unity Catalog を有効にする必要があります。

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE: 42KD1

<plan> は、読み取り専用セッション モードではサポートされていません。

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

ORDER BY の位置 <index> が選択リストにありません (有効な範囲は [1, <size>] です)。

PARQUET_CONVERSION_FAILURE

SQLSTATE: 42846

Parquet 型<parquetType>のデータ型<dataType>の Parquet コンバーターを作成できません。

詳細については、PARQUET_CONVERSION_FAILUREを参照してください

PARSE_EMPTY_STATEMENT

SQLSTATE: 42617

構文エラー、予期しない空のステートメント。

PARSE_SYNTAX_ERROR

SQLSTATE: 42601

<error> <hint> 付近で構文エラーが発生しました。

PARTITIONS_ALREADY_EXIST

SQLSTATE: 428FT

テーブル <tableName> 内にパーティションが既に存在するため、パーティション <partitionList> の追加または名前の変更ができません。

別の名前を選択するか、既存のパーティションを削除するか、既存のパーティションを許容するために IF NOT EXISTS 句を追加します。

PARTITIONS_NOT_FOUND

SQLSTATE: 428FT

パーティション <partitionList> がテーブル <tableName> に見つかりません。

パーティションの仕様とテーブル名を確認します。

ドロップ時のエラーを許容するには、ALTER TABLE … を使用します。 DROP IF EXISTS PARTITION.

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE: 42K04

パーティションの場所 <locationPath> は、テーブル <tableName> に既に存在します。

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE: 42KD5

ALTER TABLE SET PARTITION LOCATION ステートメントを実行できませんでした。その理由は、

パーティションの場所 <location> は、テーブル ディレクトリ <table> にないからです。

これを修正するには、パーティションの場所を <table> のサブディレクトリに設定してください。

PARTITION_METADATA

SQLSTATE: 0AKUC

パーティション メタデータの格納は Unity Catalog ではサポートされていないため、<action> をテーブル <tableName> で使用できません。

PATH_ALREADY_EXISTS

SQLSTATE: 42K04

パス <outputPath> が既に存在します。 既存のパスを上書きするには、モードを "overwrite" に設定します。

PATH_NOT_FOUND

SQLSTATE: 42K03

パスが存在しません: <path>

PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION

SQLSTATE: 0A000

パイプ演算子を使用する場合、集計関数 <expr> は使用できません |> SELECT 句。パイプ演算子を使用してください |> 代わりに AGGREGATE 句

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

無効なピボット値 ‘<value>’: 値のデータ型 <valueType> がピボット列のデータ型 <pivotType> と一致しません。

PROCEDURE_ARGUMENT_NUMBER_MISMATCH

SQLSTATE: 42605

プロシージャ <procedureName> では <expected> 引数が期待されますが、<actual> が提供されました。

PROCEDURE_CREATION_EMPTY_ROUTINE

SQLSTATE: 0A000

空のルーチン定義を持つ CREATE PROCEDURE は使用できません。

PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT

SQLSTATE: 42601

パラメーター <parameterName> は、パラメーター モード <parameterMode> で定義されます。 OUT パラメーターおよび INOUT パラメーターは、ルーチンの呼び出し時に省略できないため、DEFAULT 式をサポートしていません。 続行するには、DEFAULT 句を削除するか、パラメーター モードを IN に変更します。

PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

ストアド プロシージャはサポートされていません

PROCEDURE_NOT_SUPPORTED_WITH_HMS

SQLSTATE: 0A000

ストアド プロシージャは Hive メタストアではサポートされていません。 代わりに Unity Catalog を使用してください。

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE: 42K0G

依存関係 <dependencyName> が見つかりません。

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE: 42K0G

次のパスで Protobuf 記述子ファイルを読み取り中にエラーが発生しました: <filePath>

PROTOBUF_FIELD_MISSING

SQLSTATE: 42K0G

<protobufSchema> の Protobuf スキーマで <field> を検索した結果、<matchSize> 件の一致を取得しました。 候補: <matches>

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

SQLSTATE: 42K0G

Protobuf スキーマで <field> が見つかりましたが、SQL スキーマで一致するものはありません。

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE: 42K0G

フィールド <field> に対して型の不一致が見つかりました。

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE: 0A000

Java クラスは <protobufFunction> ではサポートされていません。 代替オプションについては、Databricks サポートにお問い合わせください。

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE: 42K0G

記述子でメッセージ <messageName> が見つかりません

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE: 42K0G

Protobuf 型はまだサポートされていません: <protobufType>

PS_FETCH_RETRY_EXCEPTION

SQLSTATE: 22000

PubSub フェッチ ステージのタスクを再試行できません。 ステージ <stageInfo> のパーティション <partitionInfo>、TID <taskId>

PS_INVALID_EMPTY_OPTION

SQLSTATE: 42000

<key> を空の文字列にすることはできません。

PS_INVALID_KEY_TYPE

SQLSTATE: 22000

PubSub 重複除去のキーの種類が無効です: <key>

PS_INVALID_OPTION

SQLSTATE: 42000

このオプション <key> は PubSub ではサポートされていません。 テストでのみ使用できます。

PS_INVALID_OPTION_TYPE

SQLSTATE: 42000

<key> の型が無効です。 <key> の予期された型は型 <type> です。

PS_INVALID_READ_LIMIT

SQLSTATE: 42000

PubSub ストリームの読み取り制限が無効です: <limit>

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE: 22000

PubSubMessageMetadata にデコードする UnsafeRow が無効です。目的の proto スキーマは <protoSchema> です。 UnsafeRow の入力が破損している可能性があります: <unsafeRow>

PS_MISSING_AUTH_INFO

SQLSTATE: 42000

完全な PubSub 認証情報を見つけることができませんでした。

PS_MISSING_REQUIRED_OPTION

SQLSTATE: 42000

必要なオプションが見つかりませんでした: <key>

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE: 22000

生データのチェックポイント ファイルを <src> から宛先ディレクトリ <dest> に移動できませんでした。

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE: 22000

失敗したフェッチが複数あるため、PubSub ストリームを開始できません: <failedEpochs>

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE: 22000

<key> は、次の境界 (<min><max>) 内に含まれている必要があります (境界はいずれも含みません)。

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE: 42000

共有クラスターでは、インスタンス プロファイルを使用した認証はサポートされていません。 .option() を使用してストリームに資格情報を直接指定します。

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE: 0A000

PubSub ソース コネクタは、spark.speculation が無効になっているクラスターでのみ使用できます。

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE: 42000

トピック <topicId> でサブスクリプション <subId> の作成中にエラーが発生しました。 サブスクリプションを作成するのに十分なアクセス許可があることを確認して再度試してみてください。

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE: 22000

シリアル化されたバイトを解析して proto を生成できません。

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE: 0A000

getOffset は、制限を指定しないとサポートされません。

PYTHON_DATA_SOURCE_ERROR

SQLSTATE: 38000

Python データ ソース <type><action> できませんでした: <msg>

PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR

SQLSTATE: 38000

Python ストリーミング ータソースで <action> を実行したときに失敗しました: <msg>

QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

SQLSTATE: 428HD

以前に割り当てられた列マスクが、現在はテーブル スキーマと互換性がないため、参照先テーブルにアクセスできません。続行するには、テーブルの所有者に連絡してポリシーの更新を依頼してください:

詳細については、「QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY」をご覧ください

QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

SQLSTATE: 428HD

以前に割り当てられた行レベルのセキュリティ ポリシーが、現在はテーブル スキーマと互換性がないため、参照先テーブルにアクセスできません。続行するには、テーブルの所有者に連絡してポリシーの更新を依頼してください:

詳細については、「QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY」をご覧ください

READ_CURRENT_FILE_NOT_FOUND

SQLSTATE: 42K03

<message>

基になるファイルが更新されている可能性があります。 SQL で ‘REFRESH TABLE tableName’ コマンドを実行するか、関連する Dataset/DataFrame を再作成することで、Spark 内のキャッシュを明示的に無効にできます。

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE: 4274K

関数 <functionName> の呼び出しに <parameterName><alternativeName> が設定されています。これらは相互の別名です。 それらのうち 1 つだけを設定してください。

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE: 4274K

関数 <functionName> の必須パラメーター <parameterName> は、名前のない位置 <expectedPos> に割り当てる必要があります。

RECIPIENT_EXPIRATION_NOT_SUPPORTED

SQLSTATE: 0A000

受信者の有効期限タイムスタンプでは、TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ のデータ型のみがサポートされます。

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE: 42K0G

Protobuf スキーマで再帰参照が見つかりました: <fieldDescriptor>。これは、既定では Spark で処理できません。 オプション recursive.fields.max.depth 1 を 10 に設定してみてください。 10 レベルを超える再帰は許可されません。

RECURSIVE_VIEW

SQLSTATE: 42K0H

再帰ビュー <viewIdent> が検出されました (サイクル: <newPath>)。

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE: 42601

DEFAULT 列の値への参照は、PARTITION 句内では使用できません。

RELATION_LARGER_THAN_8G

SQLSTATE: 54000

8G より大きい <relationName> をビルドできません。

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE: 57012

リモート HTTP 要求がコード <errorCode>、エラー メッセージ <errorMessage> で失敗しました

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE: 22032

リモート HTTP 応答から JSON の結果を解析できないため、<functionName> SQL 関数を評価できませんでした。エラー メッセージは <errorMessage> です。 API ドキュメント <docUrl> を確認してください。 エラー メッセージに示されている問題を修正し、クエリをを再試行してください。

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE: 57012

予期しないリモート HTTP 応答を処理できないため、<functionName> SQL 関数を評価できませんでした。エラー メッセージは <errorMessage> です。 API ドキュメント <docUrl> を確認してください。 エラー メッセージに示されている問題を修正し、クエリをを再試行してください。

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE: 57012

<N> 回の再試行後にリモート要求が失敗しました。最後に失敗した HTTP エラー コードは <errorCode> で、メッセージは <errorMessage> でした

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE: 57012

<errorMessage> のため、<functionName> SQL 関数を評価できませんでした。 <docUrl> の要件を確認してください。 エラー メッセージに示されている問題を修正し、クエリをを再試行してください。

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE: 42K03

<sourcePath> が見つからなかったため、名前を変更できませんでした。

REPEATED_CLAUSE

SQLSTATE: 42614

<clause> 句は、<operation> 操作ごとに最大 1 回使用できます。

REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY

SQLSTATE: 4274K

関数 <functionName> の必須パラメーター <parameterName> は、名前のない位置 <positionalIndex> に割り当てられています。

このパラメーターの <parameterName> を含む名前付き引数を削除するか、または

<positionalIndex> で位置引数を削除してもう一度クエリをお試しください。

REQUIRED_PARAMETER_NOT_FOUND

SQLSTATE: 4274K

<parameterName> という名前のパラメーターが必要ですが、関数呼び出しで値が指定されていないため、関数 <functionName> を呼び出せません。 関数呼び出しを更新して引数の値 (インデックス位置 <index> または名前) を指定し、クエリをもう一度お試しください。

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE: 42K05

<sessionCatalog> には単一部分の名前空間が必要ですが、<namespace> が取得されました。

RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT

SQLSTATE: 4274K

'rescuedDataColumn' DataFrame API リーダー オプションは、'singleVariantColumn' DataFrame API オプションと相互に排他的です。

そのうちの 1 つを削除してから、DataFrame 操作をもう一度やり直してください。

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE: 42939

書き込みには、使用される予約列 <columnList> が含まれます

使用される予約済みの列 が含まれています。 テーブルに書き込むには、これらの列の名前を変更またはドロップするか、

を false に設定してテーブルのデータ フィードの変更を無効にします。

<config> を false に設定します。

RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

SQLSTATE: 0A000

オプション <option> には、<source> ソースの共有クラスターに関する制限された値があります。

詳細については、「RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED」をご覧ください

ROUTINE_ALREADY_EXISTS

SQLSTATE: 42723

その名前が既に<newRoutineType><routineName>存在するため、<existingRoutineType>作成できません。

別の名前を選択するか、既存 <existingRoutineType>のものを削除または置き換えるか、既存のものを許容する IF NOT EXISTS 句を <newRoutineType>追加します。

ROUTINE_NOT_FOUND

SQLSTATE: 42883

ルーチン <routineName> が見つかりません。 スキーマとカタログのスペルと正確さを確認します。

スキーマとカタログで名前を修飾しなかった場合は、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。

ドロップ時のエラーを許容するには DROP を使用します… IF EXISTS.

ROUTINE_PARAMETER_NOT_FOUND

SQLSTATE: 42000

関数 <functionName> は、位置 <pos> で指定されたパラメーター <parameterName> をサポートしていません。<suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE: 42939

指定したクラス名 '<className>' はシステム使用のために予約されているため、関数 <routineName> を作成できません。 クラスの名前を変更して、もう一度やり直してください。

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

行レベル セキュリティ ポリシーを持つテーブル <tableName> に対する CHECK 制約の作成はサポートされていません。

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE: 42734

<statementType> ステートメントがテーブルに行レベルのセキュリティ ポリシーを割り当てようとしましたが、参照される 2 つ以上の列の名前 <columnName> が同じです。これは無効です。

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

<tableName> に対する行レベルのセキュリティ ポリシーはサポートされていません:

詳細については、「ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED」をご覧ください

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

テーブル <tableName> から <statementType> <columnName> できません。これは行レベルのセキュリティ ポリシーで参照されているためです。 先に進む前に、テーブル所有者はこのポリシーを削除または変更する必要があります。

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

MERGE INTO 操作では、ソース テーブル <tableName> で行レベルのセキュリティ ポリシーがサポートされていません。

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

MERGE INTO 操作では、行レベルのセキュリティ ポリシーを使用したテーブル <tableName> への書き込みがサポートされていません。

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE: 42K05

このステートメントはテーブルに行レベルのセキュリティ ポリシーを割り当てようとしましたが、参照される列 <columnName> に複数の名前部分があります。これは無効です。

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

行レベルのセキュリティ ポリシーは、Unity Catalog でのみサポートされています。

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

行レベル セキュリティ ポリシーを持つテーブル <tableName> からの <mode> 複製はサポートされていません。

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

行レベル セキュリティ ポリシーを持つテーブル <tableName> への <mode> 複製はサポートされていません。

ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

行レベルのセキュリティ ポリシーのパラメータとして定数を使うことはサポートされていません。 SQL コマンドを更新し、行フィルターの定義から定数を削除してから、コマンドをもう一度試してください。

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

テーブル プロバイダー “<provider>” を使用したターゲット データ ソースでは、行レベルのセキュリティ ポリシーの割り当てはサポートされていないため、<statementType> コマンドの実行に失敗しました。

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

行として使用されるサブクエリによって複数の行が返されました。

ROW_VALUE_IS_NULL

SQLSTATE: 22023

インデックス <index>の行に NULL が見つかりました。NULL 以外の値が必要です。

RULE_ID_NOT_FOUND

SQLSTATE: 22023

ルール名 "<ruleName>" の ID が見つかりません。 新しいルールを追加する場合、RuleIdCollection.scala を変更してください。

SAMPLE_TABLE_PERMISSIONS

SQLSTATE: 42832

サンプル データベース/テーブルでは、権限はサポートされていません。

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE: 0A000

相関スカラー サブクエリ ‘<sqlExpr>’ は GROUP BY と集合関数のどちらにも存在しません。

序数位置を使用して GROUP BY に追加するか、得られる値を考慮しない場合は first() (または first_value) にラップします。

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

式として使用されるサブクエリによって 1 つ以上の行が返されました。

SCHEDULE_PERIOD_INVALID

SQLSTATE: 22003

スケジュール期間 <timeUnit> は、1 <upperBound> ~ (両端を含む) の整数値である必要があります。 受信済み: <actual>.

SCHEMA_ALREADY_EXISTS

SQLSTATE: 42P06

スキーマ <schemaName> は既に存在するため、作成できません。

別の名前を選択するか、既存のスキーマを削除するか、既存のスキーマを許容するために IF NOT EXISTS 句を追加します。

SCHEMA_NOT_EMPTY

SQLSTATE: 2BP01

オブジェクトが含まれているため、スキーマ <schemaName> を削除できません。

DROP SCHEMA … CASCADE を使用して、スキーマとそのすべてのオブジェクトを削除します。

SCHEMA_NOT_FOUND

SQLSTATE: 42704

スキーマ <schemaName> が見つかりません。 スキーマとカタログのスペルと正確さを確認します。

名前をカタログで修飾しなかった場合は、current_schema() 出力を確認するか、名前を正しいカタログで修飾します。

ドロップのエラーを許容するには、DROP SCHEMA IF EXISTS を使用します。

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE: 42K0G

スキーマ レジストリからのスキーマを初期化できませんでした。 <reason>.

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

SQLSTATE: 22023

<functionName> 関数の 2 番目の引数は整数である必要があります。

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE: 42K0E

SECRET 関数への 1 つ以上の暗号化されていない参照を含む <commandType> コマンドを実行できません。このような関数呼び出しの結果を AES_ENCRYPT で暗号化し、もう一度実行してください

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE: 42K08

<exprWithSeed> のシード式 <seedExpr> は折りたたみ可能である必要があります。

SERVER_IS_BUSY

SQLSTATE: 08KD1

サーバーがビジー状態であり、要求を処理できませんでした。 しばらく待ってから、もう一度お試しください。

SORT_BY_WITHOUT_BUCKETING

SQLSTATE: 42601

sortBy は bucketBy と共に使用する必要があります。

SPARK_JOB_CANCELLED

SQLSTATE: HY008

ジョブ <jobId> が取り消されました <reason>

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42601

明示的な列リストのない CREATE TABLE では、バケット情報を指定できません。

明示的な列リストを含むフォームを使用し、バケット情報を指定してください。

または、句を省略して、バケット情報を推論できるようにします。

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42908

CLUSTER BY と CLUSTERED BY INTO BUCKETS の両方を指定することはできません。

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE: 42908

CLUSTER BY と PARTITIONED BY の両方を指定することはできません。

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE: 42601

明示的な列リストのない CREATE TABLE では、PARTITIONED BY を指定できません。

明示的な列リストを含むフォームを使用し、PARTITIONED BY を指定してください。

または、PARTITION BY 句を省略してパーティション分割を推論することもできます。

SQL_CONF_NOT_FOUND

SQLSTATE: 42K0I

SQL 構成 <sqlConf> が見つかりません。 構成が存在することをご確認ください。

STAGING_PATH_CURRENTLY_INACCESSIBLE

SQLSTATE: 22000

ターゲットのステージング パス <path> へのアクセス中に一時的なエラーが発生しました。数分後にお試しください

STAR_GROUP_BY_POS

SQLSTATE: 0A000

GROUP BY の序数位置を使用する場合、選択リストでは星 (*) は使用できません。

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE

SQLSTATE: 42802

無効なハンドル状態=<handleState> を含むステートフル プロセッサ操作=<operationType> を実行できませんでした。

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE

SQLSTATE: 42802

無効な timeMode=<timeMode> を含むステートフル プロセッサ操作=<operationType> を実行できませんでした

STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY

SQLSTATE: 42710

ステートフル プロセッサの初期状態処理中に、同じグループ化キーで状態を再初期化できません。 無効なグループ化キー=<groupingKey>。 初期状態を確認し、重複行を削除してクエリを再開してください。

STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED

SQLSTATE: 42802

名前 <stateVarName> を持つ状態変数は、StatefulProcessor で既に定義されています。

STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL

SQLSTATE: 42802

timeMode=<timeMode> の state=<stateName> では TTL を使用できないので、代わりに TimeMode.ProcessingTime() を使用します。

STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE

SQLSTATE: 42802

state=<stateName> に対する状態ストア操作=<operationType> では、TTL 期間はゼロより大きくする必要があります。

STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE

SQLSTATE: 42802

不明な時間モード <timeMode>です。 許容される timeMode モードは 'none'、'processingTime'、'eventTime' です

STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS

SQLSTATE: 42802

サポートされていない開始文字と name=<colFamilyName> を持つ列ファミリを作成できませんでした。

STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME

SQLSTATE: 42802

無効な name=<colFamilyName> を含む列ファミリ operation=<operationName> を実行できませんでした。 列ファミリ名が空であること、先頭/末尾に空白を含むこと、予約 keyword=default を使用することはできません。

STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE

SQLSTATE: 42802

列 family=、oldSchema=<colFamilyName>、newSchema=<oldSchema><newSchema> と互換性のないスキーマ変換。

STATE_STORE_HANDLE_NOT_INITIALIZED

SQLSTATE: 42802

この StatefulProcessor では、ハンドルが初期化されていません。

StatefulProcessor は、transformWithState 演算子内でのみ使用してください。

STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN

SQLSTATE: 42802

範囲スキャン エンコーダーの順序序数=<numOrderingCols> が正しくありません。 順序序列数は、スキーマ列の数より 0 以上多くすることはできません。

STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN

SQLSTATE: 42802

プレフィックス スキャン エンコーダーのプレフィックス列=<numPrefixCols> が不正です。 プレフィックス列は、0 またはスキーマ列の数以上にすることはできません。

STATE_STORE_INVALID_CONFIG_AFTER_RESTART

SQLSTATE: 42K06

再起動の間に<oldConfig>切り<newConfig><configName>えることはできません。 に<oldConfig>設定<configName>するか、新しいチェックポイント ディレクトリで再起動してください。

STATE_STORE_INVALID_PROVIDER

SQLSTATE: 42K06

指定されたステート ストア プロバイダー <inputClass> では、org.apache.spark.sql.execution.streaming.state.StateStoreProvider は拡張されません。

STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE

SQLSTATE: 42K06

クエリの再起動の間に<newType>変更<stateVarName>することはできません。 に<oldType>設定<stateVarName>するか、新しいチェックポイント ディレクトリで再起動してください。

STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

name=<fieldName> で index=<index> の Null 型順序列は、範囲スキャン エンコーダーではサポートされていません。

STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

SQLSTATE: 42K06

指定されたステート ストア プロバイダー <inputClass> では、org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay は拡張されません。

そのため、状態データ ソースのオプション snapshotStartBatchId または readChangeFeed はサポートされていません。

STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY

SQLSTATE: 42802

列ファミリ=<colFamilyName> が見つからない場合、状態ストア操作=<operationType> はサポートされません。

STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

name=<fieldName> で index=<index> を含む変数サイズ順序列は、範囲スキャン エンコーダーではサポートされていません。

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE: 42713

静的パーティション列 <staticName> は、列リストにも指定されます。

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE: KD006

コミットされたバッチが見つかりません。チェックポイントの場所: <checkpointLocation>。 停止する前に、クエリが実行され、マイクロバッチがコミットされていることを確認してください。

STDS_CONFLICT_OPTIONS

SQLSTATE: 42613

オプション <options> を一緒に指定することはできません。 いずれか 1 つを指定してください。

STDS_FAILED_TO_READ_OPERATOR_METADATA

SQLSTATE: 42K03

checkpointLocation= と batchId<batchId>=<checkpointLocation> の演算子メタデータを読み取れませんでした。

ファイルが存在しないか、ファイルが破損しています。

ストリーミング クエリを再実行して演算子メタデータを作成し、エラーが解決しない場合は対応するコミュニティまたはベンダーに報告します。

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE: 42K03

状態スキーマを読み取れませんでした。 ファイルが存在しないか、ファイルが破損しています。 オプション: <sourceOptions>

ストリーミング クエリを再実行して状態スキーマを構築します。エラーが解決しない場合は、対応するコミュニティまたはベンダーに報告してください。

STDS_INVALID_OPTION_VALUE

SQLSTATE: 42616

ソース オプション ‘<optionName>’ に対する無効な値:

詳細については、「STDS_INVALID_OPTION_VALUE」をご覧ください

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE: KD006

状態にパーティションがありません。 クエリが有効な状態を指していることを再確認してください。 オプション: <sourceOptions>

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

<batchId> のオフセット ログが存在しません。チェックポイントの場所: <checkpointLocation>

クエリに使用できるバッチ ID を指定してください。状態メタデータのデータ ソースを使用して、使用可能なバッチ ID のクエリを実行できます。

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE: KD006

<batchId> のオフセット ログにはメタデータを使用できません。チェックポイントの場所: <checkpointLocation>

チェックポイントは、以前のバージョンの Spark でのみ実行されるようです。 Spark が状態メタデータを構築できるように、最新バージョンの Spark でストリーミング クエリを実行してください。

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE: 42601

<optionName>’ を指定する必要があります。

STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS

SQLSTATE: 0A000

アダプティブ クエリの実行は、構造化ストリーミングのステートフル演算子ではサポートされていません。

STREAMING_FROM_MATERIALIZED_VIEW

SQLSTATE: 0A000

具体化されたビュー <viewName> からストリーミングすることはできません。 具体化されたビューからのストリーミングはサポートされていません。

STREAMING_OUTPUT_MODE

SQLSTATE: 42KDE

ストリーミング出力モードが無効です: <outputMode>.

詳細については、STREAMING_OUTPUT_MODEを参照してください

STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

SQLSTATE: 42K03

ストリーミング ステートフル演算子の名前が、状態メタデータの演算子と一致しません。 これは、ユーザーが既存のストリーミング クエリのステートフル演算子を追加、削除、変更するときに発生する可能性があります。

メタデータのステートフル演算子: [<OpsInMetadataSeq>]、現在のバッチのステートフル演算子: [<OpsInCurBatchSeq>]。

STREAMING_TABLE_NEEDS_REFRESH

SQLSTATE: 55019

ストリーミング テーブル <tableName> を更新して実行 <operation>する必要があります。 テーブルを更新するには、CREATE OR REFRESH STREAMING TABLE <tableName> AS を実行してください。

STREAMING_TABLE_NOT_SUPPORTED

SQLSTATE: 56038

ストリーミング テーブルは、Delta Live Tables と Databricks SQL Warehouses でのみ作成および更新できます。

STREAMING_TABLE_OPERATION_NOT_ALLOWED

SQLSTATE: 42601

操作 <operation> は許可されていません:

詳細については、「STREAMING_TABLE_OPERATION_NOT_ALLOWED」を参照してください。

STREAMING_TABLE_QUERY_INVALID

SQLSTATE: 42000

ストリーミング テーブル <tableName> は、ストリーミング クエリからのみ作成できます。 STREAM キーワードを FROM 句に追加して、この関係をストリーミング クエリに変換してください。

STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE: 42K02

<region> の Kinesis ストリーム <streamName> が見つかりません。

正しいストリーム名を指す新しいクエリを開始してください。

STRUCT_ARRAY_LENGTH_MISMATCH

SQLSTATE: 2201E

入力行にスキーマで要求される数の値がありません。 <expected> フィールドは必須で、<actual> 値が指定されます。

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE: 22003

LIMIT 句と OFFSET 句の合計は、最大 32 ビット整数値 (2,147,483,647) より大きくすることはできませんが、制限 <limit>、オフセット = <offset> が見つかりました。

SYNC_METADATA_DELTA_ONLY

SQLSTATE: 0AKDD

テーブル同期メタデータ修復コマンドは、Delta テーブルでのみサポートされています。

SYNC_METADATA_NOT_SUPPORTED

SQLSTATE: 0AKUD

テーブル同期メタデータ修復コマンドは、Unity Catalog テーブルでのみサポートされています。

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE: 42KD2

ソース テーブル名 <srcTable> は、ターゲット テーブル名 <destTable> と同じである必要があります。

SYNTAX_DISCONTINUED

SQLSTATE: 42601

句またはキーワードのサポート: <clause> は、このコンテキストで廃止されました。

詳細については、「SYNTAX_DISCONTINUED」を参照してください

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

テーブルまたはビュー <relationName> は既に存在するため、作成できません。

別の名前を選択するか、既存のオブジェクトを削除するか、既存のオブジェクトを許容するために IF NOT EXISTS 句を追加するか、既存の具体化ビューを置き換えるためにOR REPLACE 句を追加するか、既存のストリーミング テーブルを更新するために OR REFRESH 句を追加します。

TABLE_OR_VIEW_NOT_FOUND

SQLSTATE: 42P01

テーブルまたはビュー <relationName> が見つかりません。 スキーマとカタログのスペルと正確さを確認します。

スキーマで名前を修飾しなかった場合は、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。

ドロップ時のエラーを許容するには、DROP VIEW IF EXISTS または DROP TABLE IF EXISTS を使用します。

詳細については、「TABLE_OR_VIEW_NOT_FOUND」をご覧ください

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE: 0A000

この機能はまだ実装されていないため、TABLE 引数を使用して SQL ユーザー定義関数 <functionName><action> を実行できません。

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE: 38000

Python ユーザー定義テーブル関数 <msg> を分析できませんでした

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE: 22023

テーブル メタデータは <requestedMetadata> ですが、関数呼び出しは <invalidFunctionCallProperty>であるため、テーブル関数 <functionName> を評価できませんでした。

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE: 22023

テーブル メタデータが無効なため、テーブル関数 <functionName> を評価できませんでした (<reason>)。

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE: 54023

テーブル値関数のテーブル引数が多すぎます。

1 つのテーブル引数を使用できますが、<num> 個取得しました。

許可する場合、"spark.sql.allowMultipleTableArguments.enabled" を "true" に設定します

TABLE_WITH_ID_NOT_FOUND

SQLSTATE: 42P01

ID <tableId> を持つテーブルが見つかりません。 UUID の正確性を確認します。

TASK_WRITE_FAILED

SQLSTATE: 58030

<path> への行の書き込み中にタスクが失敗しました。

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

一時ビュー <relationName> は既に存在するため、作成できません。

別の名前を選択するか、既存のビューを削除または置換するか、既存のビューを許容するために IF NOT EXISTS 句を追加します。

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE: 428EK

CREATE TEMPORARY VIEW または対応するデータセット API は、単一部分のビュー名のみを受け入れますが、次を取得します: <actualName>

UC_BUCKETED_TABLES

SQLSTATE: 0AKUC

バケット テーブルは、Unity Catalog ではサポートされていません。

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE: 3D000

Unity Catalog の場合は、カタログ名を明示的に指定してください。 例: SHOW GRANT your.address@email.com ON CATALOG main

UC_COMMAND_NOT_SUPPORTED

SQLSTATE: 0AKUC

コマンド <commandName> は Unity Catalog でサポートされていません。

詳細については、「UC_COMMAND_NOT_SUPPORTED」をご覧ください

UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE

SQLSTATE: 0AKUC

コマンド <commandName> は、共有アクセス モードの Unity Catalog クラスターではサポートされていません。 代わりに、シングル ユーザー アクセス モードを使用します。

UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED

SQLSTATE: 0AKUC

指定された認証情報の種類はサポートされていません。

UC_DATASOURCE_NOT_SUPPORTED

SQLSTATE: 0AKUC

データ ソース形式 <dataSourceFormatName> は、Unity Catalog ではサポートされていません。

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE: 0AKUC

データ ソース オプションは、Unity Catalog ではサポートされていません。

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE: 42601

外部ボリュームには LOCATION 句が存在する必要があります。 外部ボリュームを作成する場合、構文 'CREATE EXTERNAL VOLUME … LOCATION …’ をチェックしてください。

UC_FAILED_PROVISIONING_STATE

SQLSTATE: 0AKUC

テーブル <tableName> を参照しようとしましたが、参照できなかったため、クエリは失敗しました: <failureReason>。 テーブル <tableName> がアクティブなプロビジョニング状態になっていることを確認してから、クエリを再試行してください。

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

ファイル スキーム <schemeName> を使用して Unity Catalog でテーブルを作成することはサポートされていません。

代わりに、同じテーブル プロバイダーの CREATE CONNECTION コマンドを使用してフェデレーション データ ソース接続を作成してから、CREATE FOREIGN CATALOG コマンドを使用して接続に基づいてカタログを作成し、その中のテーブルを参照してください。

UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED

SQLSTATE: 56038

Hive Metastore フェデレーション ビューでは、複数のカタログ間の依存関係はサポートされていません。 Hive Metastore フェデレーション カタログのビュー <view> では、hive_metastoreまたはspark_catalog カタログからの依存関係を使用する必要がありますが、その依存関係 <dependency> は別のカタログ <referencedCatalog>にあります。 この制約を満たすように依存関係を更新してから、クエリまたはコマンドをもう一度やり直してください。

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE: 0A000

Hive メタストア フェデレーションは、このクラスターでは有効になっていません。

カタログ <catalogName> へのアクセスは、このクラスターではサポートされていません

UC_INVALID_DEPENDENCIES

SQLSTATE: 56098

<viewName> の依存関係は <storedDeps> として記録され、<parsedDeps> として解析されます。 これは、SQL 以外の API を不適切に使用して発生した可能性があります。 Databricks Runtime の依存関係は、ALTER VIEW <viewName> AS <viewText>を実行することで修復できます。

UC_INVALID_NAMESPACE

SQLSTATE: 0AKUC

入れ子になった名前空間または空の名前空間は、Unity Catalog ではサポートされていません。

UC_INVALID_REFERENCE

SQLSTATE: 0AKUC

Unity Catalog 以外のオブジェクト <name> を Unity Catalog オブジェクト内で参照することはできません。

UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED

SQLSTATE: 56038

Unity Catalog Lakehouse フェデレーションの書き込みサポートが、このクラスターのプロバイダー <provider> で有効になっていません。

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE: 42601

マネージド ボリュームは LOCATION 句を受け入れていません。 マネージド ボリュームを作成する場合、構文 'CREATE VOLUME ...’ をチェックしてください。

UC_NOT_ENABLED

SQLSTATE: 56038

このクラスターでは Unity Catalog が有効になっていません。

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE: 56038

Unity Catalog クエリフェデレーションは、このクラスターでは有効になっていません。

UC_SERVICE_CREDENTIALS_NOT_ENABLED

SQLSTATE: 56038

このクラスターでは、サービスの認証情報が有効になっていません。

UC_VOLUMES_NOT_ENABLED

SQLSTATE: 56038

このインスタンスでは、Unity Catalog ボリュームのサポートは有効になっていません。

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE: 56038

このインスタンスでは、ボリューム共有のサポートは有効になっていません。

UC_VOLUME_NOT_FOUND

SQLSTATE: 42704

ボリューム <name> は存在しません。 使用可能なボリュームを一覧表示するには、‘SHOW VOLUMES’ を使用してください。

UDF_ERROR

SQLSTATE: 割り当てなし

関数 <fn> の実行に失敗しました

詳細については、「UDF_ERROR」をご覧ください

UDF_LIMITS

SQLSTATE: 54KD0

1 つ以上の UDF 制限に違反しました。

詳細については、「UDF_LIMITS」をご覧ください

UDF_MAX_COUNT_EXCEEDED

SQLSTATE: 54KD0

クエリ全体での UDF 制限 (UDF <maxNumUdfs> 個) を超えました (パブリック プレビュー中は制限されます)。 <numUdfs> が見つかりました。 UDF は <udfNames> です。

UDF_PYSPARK_ERROR

SQLSTATE: 39000

Python worker が予期せず終了しました

詳細については、UDF_PYSPARK_ERRORを参照してください

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE: 0A000

PySpark UDF <udf> (<eval-type>) は、共有アクセス モードのクラスターではサポートされていません。

UDF_PYSPARK_USER_CODE_ERROR

SQLSTATE: 39000

実行に失敗しました。

詳細については、UDF_PYSPARK_USER_CODE_ERRORを参照してください

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE: 0A000

パラメーターの既定値は、ユーザー定義の <functionType> 関数ではサポートされていません。

UDF_USER_CODE_ERROR

SQLSTATE: 39000

関数 <fn> の実行に失敗しました。

詳細については、「UDF_USER_CODE_ERROR」をご覧ください

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE: 42802

AS 句で指定されたエイリアスの数が、UDTF によって出力された列の数と一致しません。

<aliasesSize> が予期されていましたが、<aliasesNames> を取得しました。

指定されたエイリアスの数が、UDTF によって出力される列の数と一致していることを確認してください。

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE: 42802

ユーザー定義テーブル関数を評価できませんでした。その ‘分析’ メソッドから、要求された OrderingColumn が返されましたが、その列名式に不要な別名 <aliasName> が含まれていたためです。この別名を削除してから、もう一度クエリをお試しください。

UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

SQLSTATE: 42802

ユーザー定義テーブル関数の ‘analyze’ メソッドが、対応する別名を含まない要求された ‘select’ 式 (<expression>) を返したため、その関数を評価できませんでした。UDTF を更新して別名を指定してから、クエリをもう一度試してください。

UNABLE_TO_ACQUIRE_MEMORY

SQLSTATE: 53200

<requestedBytes> バイトのメモリを取得できず、<receivedBytes> を取得しました。

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

SQL 型 <toType> を Protobuf 型 <protobufType> に変換することはできません。

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE: 58030

Hive データベース: <dbName> のテーブルをフェッチできません。 エラー クラス名: <className>

UNABLE_TO_INFER_SCHEMA

SQLSTATE: 42KD9

<format> のスキーマを推論できません。 手動で指定する必要があります。

UNAUTHORIZED_ACCESS

SQLSTATE: 42501

未承認のアクセス:

<report>

UNBOUND_SQL_PARAMETER

SQLSTATE: 42P02

バインドされていないパラメーター <name> が見つかりました。 args を修正し、パラメーターのマッピングを、SQL リテラルまたはコレクション コンストラクター関数 (例: map()array()struct()) に指定してください。

UNCLOSED_BRACKETED_COMMENT

SQLSTATE: 42601

閉じていない角かっこで囲まれたコメントが見つかりました。 コメントの末尾に */ を追加してください。

UNEXPECTED_INPUT_TYPE

SQLSTATE: 42K09

関数 <functionName> のパラメーター <paramIndex> には <requiredType> 型が必要ですが、<inputSql> には型 <inputType> があります。

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE: 42KDD

CREATE VIEW ステートメントの演算子 <op> はストリーミング ソースとして予想外です。

ストリーミング ビュー クエリは、SELECT、WHERE、UNION ALL 操作のみで構成する必要があります。

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

<parameterName> に割り当てられている名前付き引数の後に位置引数が含まれているため、関数 <functionName> を呼び出せません。位置引数が最初に置かれるように配置換えしてからクエリをもう一度お試しください。

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE: 42846

クラス <className> には、予期しない式シリアライザーがあります。 “STRUCT”、または “STRUCT” を返す “IF” が必要ですが、<expr> が見つかりました。

UNKNOWN_FIELD_EXCEPTION

SQLSTATE: KD003

解析中に不明なフィールドが発生しました: <unknownFieldBlob>。これは、自動再試行によって修正できます: <isRetryable>

詳細については、「UNKNOWN_FIELD_EXCEPTION」をご覧ください

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

関数 <functionName> の呼び出しに、位置 <pos> に不明な位置引数 <sqlExpr> が含まれています。 これは無効です。

UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT

SQLSTATE: 22023

ID <id> を持つ不明なプリミティブ型がバリアント値で見つかりました。

INVALID_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

<descriptorName> をメッセージとして扱おうとしましたが、<containingType> でした。

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE: 42K0A

<empty> 式が指定されていない場合、UNPIVOT では、指定されたすべての <given> 式が列である必要があります。 これらは列 [<expressions>] ではありません。

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE: 42K0A

UNPIVOT には少なくとも 1 つの値列を指定する必要がありますが、すべての列が ID として指定されています。

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

ピボット解除値列は極めてまれな型を共有する必要がありますが、一部の型はそうなっていません: [<types>]。

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE: 428C4

値列名 (<names>) があるため、ピボット解除されたすべての値列は、同じサイズにする必要があります。

UNRECOGNIZED_PARAMETER_NAME

SQLSTATE: 4274K

関数呼び出しに <argumentName> という名前の引数の名前付き引数参照が含まれていたため、関数 <functionName> を呼び出すことができません。ただし、この関数には、この名前の引数を含むシグネチャは含まれていません。 次のいずれかの意味でしたか? [<proposal>]。

UNRECOGNIZED_SQL_TYPE

SQLSTATE: 42704

認識できない SQL 型 - 名前: <typeName>、ID: <jdbcType>

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE: 42883

テーブル値関数に <name> を解決できませんでした。

<name> がテーブル値関数として定義され、必要なすべてのパラメーターが正しく指定されていることをご確認ください。

<name> が定義されていない場合、使用する前にテーブル値関数を作成してください。

テーブル値関数の定義の詳細については、Apache Spark のドキュメントをご覧ください。

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE: 42803

select 句に基づいて GROUP BY ALL のグループ化列を推論することはできません。 グループ化列を明示的に指定してください。

UNRESOLVED_COLUMN

SQLSTATE: 42703

名前が <objectName> の列、変数、または関数パラメーターは解決できません。

詳細については、「UNRESOLVED_COLUMN」を参照してください。

UNRESOLVED_FIELD

SQLSTATE: 42703

名前 <fieldName> を持つフィールドは、構造体型の列 <columnPath> では解決できません。

詳細については、「UNRESOLVED_FIELD」を参照してください。

UNRESOLVED_MAP_KEY

SQLSTATE: 42703

<objectName> をマップ キーとして解決できません。 キーが文字列リテラルである場合は、単一引用符 ‘’ で囲んでください。

詳細については、「UNRESOLVED_MAP_KEY」を参照してください。

UNRESOLVED_ROUTINE

SQLSTATE: 42883

検索パス <searchPath> ではルーチン <routineName> を解決できません。

詳細については、「UNRESOLVED_ROUTINE」をご覧ください

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE: 42703

USING 列 <colName> は結合の <side> 側では解決できません。 <side>側の列: [<suggestion>]。

UNRESOLVED_VARIABLE

SQLSTATE: 42883

検索パス <searchPath> の変数 <variableName> を解決できません。

UNSUPPORTED_ADD_FILE

SQLSTATE: 0A000

追加ファイルはサポートされません。

詳細については、「UNSUPPORTED_ADD_FILE」をご覧ください

UNSUPPORTED_ARROWTYPE

SQLSTATE: 0A000

サポートされていない矢印の種類 <typeName>

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

関数 <funcName> はバッチ クエリをサポートしていません。

UNSUPPORTED_CALL

SQLSTATE: 0A000

クラス "<className>" のメソッド "<methodName>" を呼び出すことができません。

詳細については、「UNSUPPORTED_CALL」をご覧ください

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE: 0A000

char/varchar 型はテーブル スキーマで使用できません。

Spark で Spark 3.0 以前と同じように文字列型として扱う場合、"spark.sql.legacy.charVarcharAsString" を "true" に設定してください。

UNSUPPORTED_CLAUSE_FOR_OPERATION

SQLSTATE: 0A000

<clause><operation> ではサポートされていません。

UNSUPPORTED_COLLATION

SQLSTATE: 0A000

照合順序 <collationName> は、以下ではサポートされていません。

詳細については、「UNSUPPORTED_COLLATION」をご覧ください

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE: 42616

ソース パスと sourceArchiveDir の共通の先祖を UC に登録する必要があります。

このエラー メッセージが表示された場合、ソース パスと sourceArchiveDir を別の外部の場所に登録している可能性があります。

1 つの外部の場所に配置してください。

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE: 0A000

制約句 <clauses> はサポートされていません。

UNSUPPORTED_CONSTRAINT_TYPE

SQLSTATE: 42000

制約型がサポートされていません。 <supportedConstraintTypes> のみがサポートされます

UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

SQLSTATE: 0A000

ファイルに対する直接クエリでサポートされていないデータ ソースの種類: <dataSourceType>

UNSUPPORTED_DATATYPE

SQLSTATE: 0A000

データ型 <typeName> がサポートされていません。

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE: 0A000

データ ソース “<source>” は、<createMode> モードでは書き込めません。 代わりに、“Append” または “Overwrite” モードを使用してください。

UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

SQLSTATE: 0A000

<format> データソースでは、型 <columnType> の列 <columnName> はサポートされていません。

UNSUPPORTED_DATA_TYPE_FOR_ENCODER

SQLSTATE: 0A000

<dataType> のエンコーダーを作成できません。 UDF または DataFrame に対しては、別の出力データ型を使用してください。

UNSUPPORTED_DEFAULT_VALUE

SQLSTATE: 0A000

DEFAULT 列の値はサポートされていません。

詳細については、「UNSUPPORTED_DEFAULT_VALUE」をご覧ください

UNSUPPORTED_DESERIALIZER

SQLSTATE: 0A000

逆シリアライザーはサポートされていません。

詳細については、「UNSUPPORTED_DESERIALIZER」を参照してください

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

<reason> という原因で、生成式 <expressionStr> で生成された列 <fieldName> を作成できません。

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE: 42K0E

クエリ演算子には、サポートされていない式が 1 つ以上含まれています。

WHERE 句のウィンドウ関数、集計関数、およびジェネレーター関数を回避するように、再書き込みすることを検討してください。

無効な式: [<invalidExprSqls>]

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE: 42K0E

クエリ パラメータにサポートされていない式が含まれています。

パラメータに指定できるのは、変数またはリテラルです。

無効な式: [<invalidExprSql>]

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE: 42P20

<sqlExpr> は、ウィンドウ関数内ではサポートされていません。

UNSUPPORTED_FEATURE

SQLSTATE: 0A000

この機能はサポートされていません。

詳細については、「UNSUPPORTED_FEATURE」を参照してください

UNSUPPORTED_FN_TYPE

SQLSTATE: 0A000

サポートされていないユーザー定義関数の種類: <language>

UNSUPPORTED_GENERATOR

SQLSTATE: 42K0E

次のジェネレーターはサポートされていません。

詳細については、「UNSUPPORTED_GENERATOR」を参照してください

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE: 42K0E

grouping()/grouping_id() は、GroupingSets/Cube/Rollup でのみ使用できます。

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE: 42616

初期位置が <initialPosition><trigger> は Kinesis ソースではサポートされていません

UNSUPPORTED_INSERT

SQLSTATE: 42809

ターゲットに挿入できません。

詳細については、「UNSUPPORTED_INSERT」をご覧ください

UNSUPPORTED_JOIN_TYPE

SQLSTATE: 0A000

サポートされていない結合の種類 '<typ>'。 サポートされている結合の種類は次のとおりです <supported>

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE: 0AKDD

データソース <dataSource> を使用したマネージド テーブル <tableName> の作成はサポートされていません。 データソース DELTA を使用するか、次を使用して外部テーブルを作成する必要があります: CREATE EXTERNAL TABLE <tableName> … USING <dataSource>

UNSUPPORTED_MERGE_CONDITION

SQLSTATE: 42K0E

MERGE 操作にサポートされていない <condName> 条件が含まれています。

詳細については、「UNSUPPORTED_MERGE_CONDITION」をご覧ください

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE: 0A000

テーブル <tableName> には、行レベルのセキュリティ ポリシーまたは列マスクを持つ別のテーブルを間接的に参照する行レベルのセキュリティ ポリシーまたは列マスクがあります。これはサポートされていません。 呼び出しシーケンス: <callSequence>

UNSUPPORTED_OVERWRITE

SQLSTATE: 42902

読み取り元であるターゲットを上書きすることはできません。

詳細については、「UNSUPPORTED_OVERWRITE」をご覧ください

UNSUPPORTED_SAVE_MODE

SQLSTATE: 0A000

保存モード <saveMode> は、次の場合にはサポートされません:

詳細については、「UNSUPPORTED_SAVE_MODE」を参照してください

UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK

SQLSTATE: 0A000

<outputMode> ウォーターマークのないストリーミング DataFrames/DataSet では、出力モードはサポート <statefulOperator> されていません。

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE: 0A000

ビューのストリーミングはサポートされていません。 理由:

詳細については、「UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW」を参照してください

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE: 0A000

ストリーミング オプション <options> は、共有クラスター上のデータ ソース <source> ではサポートされていません。 オプションが指定され、スペルが正しいことを確認し、制限事項を確認https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode してください。

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE: 0A000

データ ソース <sink> は、共有クラスター上のストリーミング シンクとしてサポートされていません。

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE: 0A000

データ ソース <source> は、共有クラスター上のストリーミング ソースとしてサポートされていません。

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

関数 <funcName> はストリーミングをサポートしていません。 STREAM キーワードを削除してください

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<streamReadLimit> は Kinesis ソースではサポートされていません

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

SQLSTATE: 0A000

サポートされていないサブクエリ式:

詳細については、「UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY」を参照してください。

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE: 56038

timeseries 列を使用した主キーの作成はサポートされていません

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE: 0A000

1 つ以上の timeseries 列 <colSeq> を使用した主キーの作成はサポートされていません

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<trigger> は Kinesis ソースではサポートされていません

UNSUPPORTED_TYPED_LITERAL

SQLSTATE: 0A000

<unsupportedType> のリテラルはサポートされていません。 サポートされる種類は、<supportedTypes> です。

UNTYPED_SCALA_UDF

SQLSTATE: 42K0E

型指定されていない Scala UDF を使用しています。これには入力型情報がありません。

Spark はプリミティブ型の引数を使用して Scala クロージャに null を盲目的に渡す場合があり、クロージャは null 引数の Java 型の既定値を参照します。たとえば udf((x: Int) => x, IntegerType) の場合、null 入力の結果は 0 になります。 このエラーを取り除くには、次の操作を行います。

  1. 型指定された Scala UDF API (戻り値の型パラメーターなし) を使用します。例: udf((x: Int) => x)
  2. 入力型がすべて非プリミティブの場合は、Java UDF API を使用します。例: udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
  3. "spark.sql.legacy.allowUntypedScalaUDF" を "true" に設定し、この API を注意して使用します。

UPGRADE_NOT_SUPPORTED

SQLSTATE: 0AKUC

テーブルは、Hive メタストアから Unity Catalog へのアップグレードの対象ではありません。 理由:

詳細については、「UPGRADE_NOT_SUPPORTED」を参照してください

USER_DEFINED_FUNCTIONS

SQLSTATE: 42601

ユーザー定義関数が無効です。

詳細については、USER_DEFINED_FUNCTIONS を参照してください。

USER_RAISED_EXCEPTION

SQLSTATE: P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE: P0001

raise_error() 関数が、パラメーター: <expectedParms> が必要なエラー クラス: <errorClass> を発生させるために使用されました。

指定されたパラメーター <providedParms> が、想定されるパラメーターと一致しません。

必要なすべてのパラメーターを必ず指定してください。

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE: P0001

raise_error() 関数が、不明なエラー クラス: <errorClass> を発生させるために使用されました

VARIABLE_ALREADY_EXISTS

SQLSTATE: 42723

変数 <variableName> は既に存在するため、作成できません。

別の名前を選択するか、既存の変数を削除または置換します。

VARIABLE_NOT_FOUND

SQLSTATE: 42883

変数 <variableName> が見つかりません。 スキーマとカタログのスペルと正確さを確認します。

スキーマとカタログで名前を修飾しなかった場合は、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。

ドロップのエラーを許容するには、DROP VARIABLE IF EXISTS を使用します。

VARIANT_CONSTRUCTOR_SIZE_LIMIT

SQLSTATE: 22023

16 MiB を超えるバリアントを構築できません。 バリアント値の最大許容サイズは 16MiB です。

VARIANT_DUPLICATE_KEY

SQLSTATE: 22023

オブジェクト キー <key> が重複しているため、バリアントを構築できませんでした。

VARIANT_SIZE_LIMIT

SQLSTATE: 22023

<functionName><sizeLimit> より大きいバリアントを構築することはできません。

この式には大きな文字列を入力しないでください (たとえば、式のサイズを調べる関数呼び出しを追加し、大きすぎる場合は最初に NULL に変換します)。

VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

ビュー <relationName> は既に存在するため、作成できません。

別の名前を選択するか、既存のオブジェクトを削除または置換するか、既存のオブジェクトを許容するために IF NOT EXISTS 句を追加します。

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE: 54K00

ビュー <viewName> の深度が、最大ビュー解像度深度 (<maxNestedDepth>) を超えています。

エラーを回避するために分析は中止されます。 これを回避したい場合は、"spark.sql.view.maxNestedViewDepth" の値を増加してみてください。

VIEW_NOT_FOUND

SQLSTATE: 42P01

ビュー <relationName> が見つかりません。 スキーマとカタログのスペルと正確さを確認します。

スキーマで名前を修飾しなかった場合は、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。

ドロップのエラーを許容するには、DROP VIEW IF EXISTS を使用します。

VOLUME_ALREADY_EXISTS

SQLSTATE: 42000

ボリューム <relationName> は既に存在するため、作成できません。

別の名前を選択するか、既存のオブジェクトを削除または置換するか、既存のオブジェクトを許容するために IF NOT EXISTS 句を追加します。

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE: 42K0E

<funcName> 関数は、単一のオフセットを持つ順序付けられた行ベースのウィンドウ フレームでのみ評価できます: <windowExpr>

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE: 42601

Window 関数 <funcName> には OVER 句が必要です。

WITH_CREDENTIAL

SQLSTATE: 42601

WITH CREDENTIAL 構文は、<type> でサポートされていません。

WRITE_STREAM_NOT_ALLOWED

SQLSTATE: 42601

writeStream は、ストリーミング データセット/DataFrame でのみ呼び出すことができます。

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE: 0AKDC

コマンドを実行できませんでした。これは、DEFAULT 値が、新規の

列を既存の Delta テーブルに追加するときにサポートされていないためです。既定

値がない列を最初に追加してから、2 番目の ALTER TABLE ALTER COLUMN SET DEFAULT コマンドを実行して、

今後挿入される行に対して代わりに適用してください。

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE: 0AKDE

<commandType> コマンドを実行できませんでした。これは、列の DEFAULT 値を割り当てましたが、

対応するテーブル機能が有効になっていなかったためです。 このコマンドを再試行してください。ただし、

ALTER TABLE tableName SET の実行後に再試行してください

TBLPROPERTIES(‘delta.feature.allowColumnDefaults’ = ‘supported’).

WRONG_COMMAND_FOR_OBJECT_TYPE

SQLSTATE: 42809

操作 <operation> には <requiredType> が必要です。 ただし、<objectName><foundType> です。 代わりに <alternative> を使用してください

WRONG_NUM_ARGS

SQLSTATE: 42605

<functionName> には <expectedNum> 個のパラメーターが必要ですが、実際の数は <actualNum> です。

詳細については、WRONG_NUM_ARGS を参照してください。

XML_ROW_TAG_MISSING

SQLSTATE: 42KDF

<rowTag> オプションは、XML 形式でファイルを読み取る場合に必要です。

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE: 0N000

XML では、<dataType> の inner 型として <innerDataType> はサポートされていません。 <dataType> 内で使用する場合は、<innerDataType> を StructType フィールド内でラップしてください。

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE: 22023

復旧されたデータとワイルドカード列を同時に有効にすることはできません。 wildcardColumnName オプションを削除してください。

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

ZOrderBy 列 <columnName> が存在しません。

Delta Lake

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

SQLSTATE: 08003

アクティブな SparkSession が見つかりませんでした

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE: 0B000

新しい txn が既にアクティブになっている場合は、アクティブとして設定できません

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE: 42000

名前が予約されているため、列 <colName> を追加できませんでした。

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE: 0A000

現在の操作では、新しい削除ベクトルの作成を許可しないテーブルに削除ベクターを追加しようとしました。 バグ報告を提出してください。

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE: 42000

削除ベクトルを追加するすべての操作では、統計の tightBounds 列を false に設定する必要があります。 バグ報告を提出してください。

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD3

<columnName> を追加するためのインデックス <columnIndex> が 0 未満です

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE: 42KD3

<columnName> は親が StructType ではないため、追加できません。 <other> が見つかりました

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE: 42KD3

位置 <position> に構造体が見つかりません

DELTA_ADD_CONSTRAINTS

SQLSTATE: 0A000

ALTER TABLE ADD CONSTRAINT を使用して CHECK 制約を追加してください。

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE: 42621

<sqlExpr> が見つかりました。 生成された列で集約式を使用することはできません

DELTA_AGGREGATION_NOT_SUPPORTED

SQLSTATE: 42903

集計関数は、<operation> <predicate> ではサポートされていません。

DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER

SQLSTATE: 428FR

ブルーム フィルター インデックスがあるため、列 <column> の照合順序を変更できませんでした。 既存の照合順序を保持するか、照合順序を変更するのであれば、ブルーム フィルター インデックスを削除してから、もう一度コマンドを再試行してください。

DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY

SQLSTATE: 428FR

<column> の照合順序を変更できませんでした。これはクラスタリング列です。 既存の照合順序を保持するか、照合順序を変更するのであれば、ALTER TABLE コマンドを使用して列を非クラスタリング列に変更してから、もう一度コマンドを再試行してください。

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE: 42837

<currentType><newType> に変更する場合、ALTER TABLE CHANGE COLUMN はサポートされていません

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY は、リキッド クラスタリングを使用する Delta テーブルでのみサポートされています。

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY をパーティション テーブルに適用することはできません。

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE: 42000

操作は許可されていません。S3 上で最終的な整合性を取る際に Delta トランザクション ログが破損する可能性があるため、S3 上の管理された Delta テーブルで ALTER TABLE RENAME TO の実行は許可されていません。 それでも実行し、以前に新しい名前 <newName> の Delta テーブルが存在しなかったことが明らかな場合は、<key> を true に設定することでこれを有効にすることができます。

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE SET TBLPROPERTIES を使って <tableFeature> テーブル機能を有効にすることはできません。 クラスタリングを使って Delta テーブルを作成するには、CREATE OR REPLACE TABLE CLUSTER BY を使ってください。

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE: 429BQ

<column> のデータ型を <from> から <to> に変更できません。 この変更には列の削除と追加が含まれるため、あいまいです。 ALTER TABLE [ADD | DROP | RENAME] COLUMN を使用して個別に変更してください。

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE: 42702

曖昧なパーティション列 <column><colMatches> にすることができます。

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE: 42613

CREATE TABLE には、<identifier><location> の 2 つの異なる場所が含まれています。

CREATE TABLE ステートメントから LOCATION 句を削除するか、 を true に設定して、

このチェックをスキップするには、<config> を true に設定します。

DELTA_ARCHIVED_FILES_IN_LIMIT

SQLSTATE: 42KDC

テーブル <table> では、<limit> レコードという指定された制限を満たすのに十分なレコードが、アーカイブされていないファイルにありません。

DELTA_ARCHIVED_FILES_IN_SCAN

SQLSTATE: 42KDC

このクエリの一部としてスキャンする必要があるアーカイブされた可能性のある <numArchivedFiles> 個のファイルがテーブル <table> に見つかりました。

アーカイブされたファイルにアクセスできません。 アーカイブまでの現在の時刻は、<archivalTime> として構成されています。

アーカイブされたファイルを除外するようにクエリ フィルターを調整してください。

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE: 42KD4

テーブルで変更データ フィード (CDF) が有効になっていて、DROP COLUMN または RENAME COLUMN を使用してスキーマの変更が行われた場合、操作 “<opName>” は許可されません。

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE: 42703

以下の存在しない列のブルーム フィルター インデックスを削除できません: <unknownColumns>

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE: 82100

<columnsWithBloomFilterIndices> のブルーム フィルター インデックスの書き込み中に OutOfMemoryError が発生しました。

ブルーム フィルター インデックスのメモリ占有領域を減らすには、‘numItems’ オプションに選択する値を小さくするか、‘fpp’ オプションに選択する値を大きくするか、インデックスを作成する列を減らします。

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE: 429BQ

データ型 <dataType> を変更できません

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE: 42601

SET TBLPROPERTIES を使用して Delta テーブルの 'location' を変更することはできません。 代わりに ALTER TABLE SET LOCATION を使用してください。

DELTA_CANNOT_CHANGE_PROVIDER

SQLSTATE: 42939

'provider' は予約テーブル プロパティであり、変更することはできません。

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE: 42703

次の存在しない列にブルーム フィルター インデックスを作成できません: <unknownCols>

DELTA_CANNOT_CREATE_LOG_PATH

SQLSTATE: 42KD5

<path> を作成できません

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE: 42809

ビューの履歴を記述できません。

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE: 42703

インデックスが作成されていない列 <columnName> でブルーム フィルター インデックスをドロップすることはできません

DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE

SQLSTATE: 0AKDE

チェック制約テーブル機能を削除できません。

最初に次の制約を削除する必要があります: <constraints>

DELTA_CANNOT_EVALUATE_EXPRESSION

SQLSTATE: 0AKDC

<expression> を評価できません

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE: 22000

バケットの Delta テーブルが必要でしたが、テーブルの中にバケットの仕様が見つかりません

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

SQLSTATE: 0AKDC

<expression> のコードを生成できません

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE: 42809

このテーブルは、追加のみを許可するように設定されています。 更新または削除を許可する場合は、‘ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)’ を使用します。

DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> は、このテーブルで調整されたコミットが有効になっており、それらに依存しているため、コミット内タイムスタンプ テーブルのプロパティをオーバーライドまたは設定解除できません。 TBLPROPERTIES 句から ("delta.enableInCommitTimestamps"、"delta.inCommitTimestampEnablementVersion"、"delta.inCommitTimestampEnablementTimestamp") を削除してから、もう一度コマンドを再試行してください。

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

SQLSTATE: 42939

Delta テーブルの構成 <prop> をユーザーが指定することはできません

DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

<Command> は、既存のターゲット テーブルの調整されたコミット構成をオーバーライドできません。 TBLPROPERTIES 句から ("delta.coordinatedCommits.commitCoordinator-preview"、"delta.coordinatedCommits.commitCoordinatorConf-preview"、"delta.coordinatedCommits.tableConf-preview") を削除してから、もう一度コマンドを再試行してください。

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE: 22KD1

相対パスに変換できない uri (<uri>) がトランザクション ログで見つかりました。

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE: 42000

トランザクション ログで見つかった現在の入力と相対化できないパス (<path>) が次で見つかりました:

パス()。 これを

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<userPath>”, true)

として再実行し、次も実行してください。

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<path>”)

DELTA_CANNOT_RENAME_PATH

SQLSTATE: 22KD1

<currentPath> の名前を <newPath> に変更できません

DELTA_CANNOT_REPLACE_MISSING_TABLE

SQLSTATE: 42P01

テーブル <tableName> は存在しないため、置き換えることができません。 CREATE OR REPLACE TABLE を使用してテーブルを作成します。

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE: 42703

<schema> の列 <columnName> を解決できません

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE: 22003

テーブルをバージョン <version> に復元できません。 使用可能なバージョン: [<startVersion>, <endVersion>]。

DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER

SQLSTATE: 22003

使用可能な最新バージョンより前であるため、テーブルを timestamp (<requestedTimestamp>) に復元できません。 (<earliestTimestamp>) より後の timestamp を使用してください

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE: 22003

使用可能な最新バージョンより後であるため、テーブルを timestamp (<requestedTimestamp>) に復元できません。 (<latestTimestamp>) より前の timestamp を使用してください

DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> 後者は前者に依存し、前者を内部的に設定するため、コミット内タイムスタンプ テーブルのプロパティを調整されたコミットと共に設定することはできません。 TBLPROPERTIES 句から ("delta.enableInCommitTimestamps"、"delta.inCommitTimestampEnablementVersion"、"delta.inCommitTimestampEnablementTimestamp") を削除してから、もう一度コマンドを再試行してください。

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE: 42613

パス ベースのテーブルの場所を変更することはできません。

DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY

SQLSTATE: 42616

DLT 以外のテーブル上で、delta.managedDataSkippingStatsColumns を設定することはできません

DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

ALTER では、調整されたコミット構成の設定を解除できません。 調整されたコミットからテーブルをダウングレードするには、次を使用して ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'もう一度やり直してください。

DELTA_CANNOT_UPDATE_ARRAY_FIELD

SQLSTATE: 429BQ

%1$s フィールドの %2$s 型を更新できません: %2$s.element を更新して要素を更新します

DELTA_CANNOT_UPDATE_MAP_FIELD

SQLSTATE: 429BQ

%1$s フィールドの %2$s 型を更新できません: %2$s.key または %2$s.value を更新してマップを更新します

DELTA_CANNOT_UPDATE_OTHER_FIELD

SQLSTATE: 429BQ

<typeName> 型のフィールド <tableName> を更新できません

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE: 429BQ

<tableName> フィールドの <fieldName> 型を更新できません: そのフィールドを追加、削除、または更新して構造体を更新します

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

SQLSTATE: 428FT

パーティション列にすべての列を使用することはできません

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE: 0A000

<table> はビューです。 ビューへの書き込みはサポートされていません。

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE: 22003

オーバーフローのため、<targetType> 型列 <columnName><sourceType> 型の値を書き込むことができません。

オーバーフローを許容し、代わりに NULL を返すようにするには、入力値に try_cast を使用します。

必要に応じて、<storeAssignmentPolicyFlag> を "LEGACY" に設定してこのエラーをバイパスするか、<updateAndMergeCastingFollowsAnsiEnabledFlag> を true に設定して古い動作に戻し、UPDATE と MERGE の <ansiEnabledFlag> に従います。

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

SQLSTATE: 0AKDC

構成 delta.enableChangeDataFeed を設定することができません。 差分からの変更データ フィードはまだ使用できません。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE: 0AKDC

互換性のないデータ スキーマが原因で、バージョン <start><end> 間のテーブルの変更の取得に失敗しました。

読み取りスキーマは <readSchema> で、バージョン <readVersion> ですが、バージョン <incompatibleVersion> で互換性のないデータ スキーマが見つかりました。

可能であれば、<config>endVersion に設定して、エンド バージョンのスキーマを使用してテーブルの変更を取得するか、サポートにお問い合わせください。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0AKDC

互換性のないスキーマの変更が原因で、バージョン <start><end> 間のテーブルの変更の取得に失敗しました。

読み取りスキーマは <readSchema> で、バージョン <readVersion> ですが、バージョン <incompatibleVersion> で互換性のないスキーマの変更が見つかりました。

可能であれば、テーブルの変更をバージョン <start> から <incompatibleVersion> - 1、およびバージョン <incompatibleVersion> から <end> に個別にクエリしてください。

DELTA_CHANGE_DATA_FILE_NOT_FOUND

SQLSTATE: 42K03

トランザクション ログで参照されているファイル <filePath> が見つかりません。 これは、テーブルの DELETE ステートメントを使用せずに、ファイル システムからデータを手動で削除した場合に発生することがあります。 この要求は Change Data Feed を対象としているようです。その場合、このエラーは、変更データ ファイルが保持期間外であり、VACUUM ステートメントによって削除された場合に発生する可能性があります。 詳細については、<faqPath> を参照してください。

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE: 42807

delta.enableChangeDataFeed が設定されたテーブルに書き込めません。 Delta からの変更データ フィードを使用できません。

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE: 42K03

存在しないテーブル <path> をチェックポイントにすることはできません。 _delta_log ディレクトリ内のファイルを手動で削除しましたか?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE: 42613

CLONE ターゲットとして 2 つのパスが指定されているため、使用するパスがあいまいです。 CLONE の外部の場所が、

パスと同時に <externalLocation> に指定されました。

<targetIdentifier>.

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE: 42000

ファイル (<fileName>) が完全にコピーされていません。 予想されるファイル サイズ: <expectedSize>、見つかったサイズ: <actualSize>。 ファイル サイズ チェックを無視して操作を続行するには、<config> を false に設定します。

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

サポートされていない <mode> クローン ソース ‘<name>’。形式は <format> です。

サポートされている形式は、'delta'、'iceberg'、'parquet' です。

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE: 0A000

DBR バージョン < 14.0 の場合、リキッド クラスタリングを使用した Delta テーブルで CLONE はサポートされません。

DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED

SQLSTATE: 0A000

CLUSTER BY はサポートされていません。次の <columnsWithDataTypes> 列では、データのスキップはサポートされていません。

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

指定されたクラスタリング列が既存のテーブルのものと一致しません。

  • 指定済み: <providedClusteringColumns>
  • 既存: <existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE: 22000

リキッド クラスタリングでは、クラスタリング列に統計が必要になります。以下の統計スキーマでクラスタリング列 ‘<columns>’ が見つかりませんでした:

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE: 22000

リキッド クラスタリングを使用したテーブル ディレクトリからリキッド クラスタリングなしの外部テーブルを作成することはできません。パス: <path>

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

'<operation>' はクラスタリングをサポートしていません。

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE: 0AKDE

<tableFeatureToAdd> テーブル機能を使用してテーブルの <phaseOutType> を完了できません (理由: <reason>)。 OPTIMIZE コマンドをもう一度試してください。

== Error ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE: 42000

リキッド クラスタリングを使用して Delta テーブルからパーティション テーブルに REPLACE を行うことはできません。

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE: 0A000

リキッド クラスタリングを使用してクラスター化列のない Delta テーブルに SHOW CREATE TABLE を行うことはサポートされていません。

DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS

SQLSTATE: 42000

既存のテーブルに空でないクラスタリング列がある場合、液体クラスタリングを含む Delta テーブルをパーティション テーブルに切り替える操作 <operation>は許可されません。

最初にクラスター化列を削除するには、ALTER TABLE CLUSTER BY NONE を実行してください。

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42000

動的パーティション上書きモードは、リキッド クラスタリングを使用する Delta テーブルでは使用できません。

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE: 0A000

リキッド クラスタリングを使用した Delta テーブルに対する OPTIMIZE コマンドの実行では、パーティション述語はサポートされていません。 述語を削除してください: <predicates>

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE: 42613

リキッド クラスタリングを使用した Delta テーブルに対する OPTIMIZE コマンドでは、ZORDER BY を指定できません。 ZORDER BY (<zOrderBy>) を削除してください。

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE: 54000

リキッド クラスタリングの CLUSTER BY では、最大 <numColumnsLimit> 列のクラスタリング列がサポートされますが、テーブルには <actualNumColumns> 列のクラスタリング列が含まれます。 余分なクラスタリング列を削除してください。

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

スキーマが定義されていない場合、CLUSTER BY を指定することはできません。 テーブル <tableName> のスキーマを定義してください。

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE: 42613

クラスタリングとバケットの両方を指定することはできません。 クラスタリングを使用して Delta テーブルを作成する場合は、CLUSTERED BY INTO BUCKETS / bucketBy を削除してください。

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE: 42613

クラスタリングとパーティション分割の両方を指定することはできません。 クラスタリングを使用して Delta テーブルを作成する場合は、PARTITIONED BY / partitionBy / partitionedBy を削除してください。

DELTA_COLLATIONS_NOT_SUPPORTED

SQLSTATE: 0AKDC

照合順序は Delta レイクではサポートされません。

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE: 0AKDC

パーティション列 '<column>' では、データのスキップはサポートされていません。

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE: 0AKDC

<type> の列 '<column>' では、データのスキップはサポートされていません。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE: 42703

最大列 ID プロパティ (<prop>) は、列マッピングが有効なテーブルでは設定されません。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE: 42703

列マッピングが有効なテーブルの最大列 ID プロパティ (<prop>) は <tableMax> であり、すべてのフィールド (<fieldMax>) の最大列 ID より小さくすることはできません。

DELTA_COLUMN_MISSING_DATA_TYPE

SQLSTATE: 42601

列のデータ型 <colName> が指定されませんでした。

DELTA_COLUMN_NOT_FOUND

SQLSTATE: 42703

[<columnList>] で指定された列 <columnName> が見つかりません

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE: 42703

INSERT 列 (<colNames>) からターゲット テーブルの列 ‘<targetCol>’ を見つけることができません。 INSERT 句では、ターゲット テーブルのすべての列の値を指定する必要があります。

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42703

次で列 <columnName> が見つかりませんでした

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE: 42704

<columnPath> は入れ子になったデータ型であると予期されていましたが、<other> が見つかりました。 探していました。

入れ子になったフィールドの <column> のインデックス。

[スキーマ]:

<schema>

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE: 2200G

構造体列 <source> は、<targetTable><targetType> フィールド <targetField> に挿入できません。

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE: 22000

パス <compactedPath> から <newPath> への圧縮の検証に失敗しました。バグ レポートを提出してください。

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE: 22005

<dataType> の列 <columName> に入れ子になった NullType が見つかりました。 Delta では、複合型での NullType の書き込みはサポートされていません。

DELTA_CONCURRENT_APPEND

SQLSTATE: 2D521

ConcurrentAppendException: 同時更新によって <partition> にファイルが追加されました。 <retryMsg> <conflictingCommit>

詳細については、「<docLink>」を参照してください。

DELTA_CONCURRENT_DELETE_DELETE

SQLSTATE: 2D521

ConcurrentDeleteDeleteException: このトランザクションは、同時更新によって削除された (<file> など) 1 つ以上のファイルを削除しようとしました。 操作をもう一度やり直してください。<conflictingCommit>

詳細については、「<docLink>」を参照してください。

DELTA_CONCURRENT_DELETE_READ

SQLSTATE: 2D521

ConcurrentDeleteReadException: このトランザクションは、同時更新によって削除された (<file> など) 1 つ以上のファイルを読み取ろうとしました。 操作をもう一度やり直してください。<conflictingCommit>

詳細については、「<docLink>」を参照してください。

DELTA_CONCURRENT_TRANSACTION

SQLSTATE: 2D521

ConcurrentTransactionException: このエラーは、複数のストリーミング クエリが同じチェックポイントを使用してこのテーブルに書き込んでいる場合に発生します。 同じストリーミング クエリの複数のインスタンスを同時に実行しましたか?<conflictingCommit>

詳細については、「<docLink>」を参照してください。

DELTA_CONCURRENT_WRITE

SQLSTATE: 2D521

ConcurrentWriteException: 同時実行トランザクションが、現在のトランザクションがテーブルを読み込んでから新しいデータを書き込みました。 操作をもう一度やり直してください。<conflictingCommit>

詳細については、「<docLink>」を参照してください。

DELTA_CONFLICT_SET_COLUMN

SQLSTATE: 42701

これらの SET 列 <columnList> との競合があります。

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

実行中 <command>は、コマンドから構成 "<configuration>" を設定できません。 TBLPROPERTIES 句から削除してから、もう一度コマンドを再試行してください。

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

実行中 <command>は、SparkSession 構成から構成 "<configuration>" を設定できません。 実行 spark.conf.unset("<configuration>") して設定を解除してから、コマンドをもう一度やり直してください。

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 42710

制約 ‘<constraintName>’ は既に存在します。 最初に以前の制約を削除してください。

以前の制約:

<oldConstraint>

DELTA_CONSTRAINT_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

<columnName> にはデータ型 <columnType> が含まれ、この列は次の CHECK 制約によって参照されているため、データ型 <dataType> に変更できません。

<constraints>

DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

この列は次の CHECK 制約によって参照されているため、列 <columnName> を変更できません。

<constraints>

DELTA_CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 42704

存在しない制約 <constraintName> をテーブル <tableName> からドロップできません。 エラーがスローされないようにするには、パラメーター IF EXISTS を指定するか、SQL セッション構成 <config><confValue> に設定します。

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE: 42KD6

テーブル <tableName> のカタログにパーティション情報が見つかりませんでした。 テーブルで "MSCK REPAIR TABLE" を実行してパーティションを検出しましたか?

DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN

SQLSTATE: 0AKDC

照合されたパーティション列 <colName> を持つ Parquet テーブルを Delta に変換できません。

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE: 0AKDC

CONVERT TO DELTA を使用している場合、構成 '<config>' を <mode> に設定することはできません。

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE: 0AKDC

CONVERT TO DELTA では parquet テーブルのみがサポートされていますが、<sourceName> のソース <tableId> の変換を試みようとしています

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE: 22000

統計を収集せずに行の追跡を有効にすることはできません。

行の追跡を有効にする場合は、次の操作を行います。

  1. 次のコマンドを実行して統計収集を有効にします

    SET <statisticsCollectionPropertyKey> = true

    1. NO STATISTICS オプションを使用せずに CONVERT TO DELTA を実行します。

統計を収集しない場合は、行の追跡を無効にします。

  1. 次のコマンドを実行して、既定のテーブル機能の有効化を非アクティブ化します。

    RESET <rowTrackingTableFeatureDefaultKey>

    1. 次のコマンドを実行して、既定のテーブル機能を非アクティブ化します。

      SET <rowTrackingDefaultPropertyKey> = false

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE: 0AKDD

COPY INTO のターゲットは Delta テーブルである必要があります。

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE: 42601

Delta を使用して <tableName>

<path> から外部テーブル を作成しようとしていますが、

入力パスが空の場合、スキーマは指定されません。

Delta の詳細については、「<docLink>」をご覧ください

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE: 42K03

Delta を使用して <tableName>

%2$s から外部テーブル を作成しようとしていますが、%2$s/_delta_log にトランザクション ログがありません

%2$s/_delta_log. アップストリーム ジョブをチェックして、format(“delta”) を使用して書き込みを行っていること、

およびパスがそのテーブルのルートであることを確認します。

Delta の詳細については、「<docLink>」をご覧ください

DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH

SQLSTATE: 0AKDC

パスベースの Delta テーブルを別の場所で作成することはサポートされていません。 識別子: <identifier>、場所: <location>

DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION

SQLSTATE: 42601

テーブル名または場所を指定する必要があります。

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE: 42KD7

指定されたスキーマが <path> の既存のスキーマと一致しません。

== Specified ==

<specifiedSchema>

== Existing ==

<existingSchema>

== Differences ==

<schemaDifferences>

既存のスキーマを保持する場合は、create table コマンドから

スキーマを省略できます。 それ以外の場合は、スキーマが一致していることを

確認してください。

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

TBLPROPERTIES を使って <tableFeature> テーブル機能を有効にすることはできません。 クラスタリングを使って Delta テーブルを作成するには、CREATE OR REPLACE TABLE CLUSTER BY を使ってください。

DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING

SQLSTATE: 42KD7

指定されたクラスタリング列は、<path> の既存のクラスタリング列と一致しません。

== Specified ==

<specifiedColumns>

== Existing ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

SQLSTATE: 42KD7

指定したパーティション分割が <path> にある既存のパーティション分割と一致しません。

== Specified ==

<specifiedColumns>

== Existing ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE: 42KD7

指定されたプロパティが <path> にある既存のプロパティと一致しません。

== Specified ==

<specifiedProperties>

== Existing ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE: 42601

テーブル ('<tableId>') を作成できません。 関連する場所 ('<tableLocation>') は空ではなく、Delta テーブルでもありません。

DELTA_DATA_CHANGE_FALSE

SQLSTATE: 0AKDE

‘dataChange’ オプションが false に設定されているため、テーブル メタデータを変更できません。 試行された操作: ‘<op>’。

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE: 42K03

トランザクション ログで参照されているファイル <filePath> が見つかりません。 この Parquet ファイルは、Delta のデータ保持ポリシーにより削除される可能性があります。

既定の Delta データ保持期間: <logRetentionPeriod>。 Parquet ファイルの変更時刻: <modificationTime>。 Parquet ファイルの削除時刻: <deletionTime>。 削除が行われた Delta バージョン: <deletionVersion>

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE: 2D521

numRecords 統計が欠落している削除ベクトルを持つファイルをコミットすることは無効です。

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE: 0A000

ドメイン <domainNames> に対して DomainMetadata アクションが検出されましたが、DomainMetadataTableFeature が有効になっていません。

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD8

列を削除するためのインデックス <columnIndex> が 0 未満です

DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA

SQLSTATE: 0AKDC

単一列を含むスキーマから列を削除できません。 [スキーマ]:

<schema>

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE: 2D521

パス <path> のファイル操作 ‘<actionType>’ が複数回指定されました。

<conflictingPath> と競合します。

同じパスを持つ複数のファイル操作が 1 つのコミットに存在する場合は無効です。

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE: 42711

次の重複する列 <coltype> が見つかりました: <duplicateCols>

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE: 42701

INSERT 句に重複した列名があります

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE: 42701

<message>

テーブルを更新する前に、重複する列を削除してください。

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE: 42701

重複するデータ スキップ列が見つかりました: <columns>

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE: 42601

内部エラー: 同じトランザクション内の 2 つの DomainMetadata アクションに同じドメイン <domainName> があります

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE: 22000

テーブルの整合性検証中に、削除されたレコード数ヒストグラムを逆シリアル化できませんでした。

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE: 0A000

動的パーティション上書きモードはセッション構成か書き込みオプションによって指定されますが、spark.databricks.delta.dynamicPartitionOverwrite.enabled=false によって無効になっています。

DELTA_EMPTY_DATA

SQLSTATE: 428GU

Delta テーブルの作成に使用されるデータには列がありません。

DELTA_EMPTY_DIRECTORY

SQLSTATE: 42K03

ディレクトリ <directory> にファイルがありません。

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE: 22001

値が char/varchar 型の長さ制限 “<value>” を超えています。 失敗したチェック: <expr>

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE: 22018

パーティション値 <value><dataType> にキャストできませんでした

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

SQLSTATE: 42703

既存のターゲット出力 <targetOutputColumns> の中に <newAttributeName> が見つかりませんでした

DELTA_FAILED_INFER_SCHEMA

SQLSTATE: 42KD9

指定されたファイルの一覧からスキーマを推論できませんでした。

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE: 42KDA

ファイル <file> のスキーマをマージできませんでした

<schema>

SQLSTATE: KD001

ファイル <currentFile> のフッターを読み取れませんでした

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE: 42601

述語 '<predicate>' を認識できません

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE: KD002

Delta ソースの最新バージョンの完全スキャンが必要ですが、バージョン <historicalVersion> の履歴スキャンが見つかりました

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE: 22005

フィールド ‘<currentField>’ と ‘<updateField>’ をマージできませんでした

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE: 0AKDE

次の表の機能はメタデータで有効になっていますが、プロトコルには記載されていないため、このテーブルでは操作できません: <features>

DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT

SQLSTATE: 0AKDE

テーブル スキーマでは、次のテーブル機能を手動で有効にする必要があります: <unsupportedFeatures>

これを行うには、上記の各機能に対して次のコマンドを実行します:

ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')

“table_name” と “feature_name” を実際に値に置き換えます。

現在サポートされている機能: <supportedFeatures>

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE: 0AKDE

同時実行トランザクションによってテーブルが変更されたため、機能を削除できません。

操作をもう一度やり直してください。

<concurrentCommit>

DELTA_FEATURE_DROP_DEPENDENT_FEATURE

SQLSTATE: 0AKDE

このテーブルの他の機能 (<dependentFeatures>) が <feature> に依存しているため、テーブル機能 <feature> を削除できません。

この機能を削除する前に、まずそれらを削除することを検討してください。

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE: 0AKDE

<feature> は現在、テーブルのプロトコルに存在しないため、このテーブルから削除できません。

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE: 0AKDE

この機能を使用する過去のバージョンが Delta ログに含まれているため、<feature> を削除できません。

履歴保持期間 (<logRetentionPeriodKey>=<logRetentionPeriod>) までお待ちください

この機能が最後にアクティブになった後に経過しました。

または、TRUNCATE HISTORY 保持期間 (<truncateHistoryLogRetentionPeriod>) が切れるまで待って、

実行してください。

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE: 0AKDE

特定の機能は、履歴の切り捨てを要求しません。

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE: 0AKDE

この機能の削除はサポートされていないため、<feature> は削除できません。

Databricks サポートにお問い合わせください。

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE: 0AKDE

<feature> は、この Databricks バージョンではサポートされていないため、削除できません。

より新しいバージョンの Databricks を使用することをご検討ください。

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 0AKDE

<feature> は一部のみ削除されました。

この機能は、現行版のテーブルでは使用されていません。 ただし、この機能は

過去のバージョンのテーブルにまだ存在します。 過去のバージョンの有効期限が経過するまでは

テーブル プロトコルからテーブル機能を削除できません。

プロトコルからテーブル機能を削除するには、過去のバージョンの有効期限が経過するまで待ってから

このコマンドをもう一度実行してください。 過去のバージョンの保持期間は

現在 <logRetentionPeriodKey>=<logRetentionPeriod> として構成されています。

または、TRUNCATE HISTORY 保持期間 (<truncateHistoryLogRetentionPeriod>) が切れるまで待って、

実行してください。

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

SQLSTATE: 0AKDE

より高いリーダー プロトコル バージョン (現在の <current>) が必要なため、テーブル機能 <feature> を有効にできません。 テーブルのリーダー プロトコルのバージョンを <required> にアップグレードするか、リーダー テーブル機能をサポートするバージョンにアップグレードすることを検討してください。 テーブル プロトコルのバージョンの詳細については、<docLink> をご覧ください。

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

SQLSTATE: 0AKDE

より高いライター プロトコル バージョン (現在の <current>) が必要なため、テーブル機能 <feature> を有効にできません。 テーブルのライター プロトコルのバージョンを <required> にアップグレードするか、ライター テーブル機能をサポートするバージョンにアップグレードすることを検討してください。 テーブル プロトコルのバージョンの詳細については、<docLink> をご覧ください。

DELTA_FILE_ALREADY_EXISTS

SQLSTATE: 42K04

既存のファイル パス <path>

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE: 42613

ファイル リストとパターン文字列の両方を指定することはできません。

DELTA_FILE_NOT_FOUND

SQLSTATE: 42K03

ファイル パス <path>

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE: 42K03

トランザクション ログで参照されているファイル <filePath> が見つかりません。 これは、テーブルの DELETE ステートメントを使用せずに、ファイル システムからデータを手動で削除した場合に発生します。 詳細については、<faqPath> を参照してください。

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE: 42K03

ファイルまたはディレクトリ <path> はありません

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE: 42K03

書き換え対象のファイル (<path>) が候補ファイルの中に見つかりません:

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE: KD003

MapType が見つかりました。 MapType のキーや値にアクセスするには、

次のいずれかを指定します:

<key> または

<value>

のいずれか、続いて列名を指定します (列が構造体である場合のみ)。

例: mymap.key.mykey

列が基本型の場合は、mymap.key または mymap.value で十分です。

[スキーマ]:

<schema>

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

<columnName> にはデータ型 <columnType> が含まれ、この列は次の生成された列によって参照されているため、データ型 <dataType> に変更できません。

<generatedColumns>

DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

この列は次の生成された列によって参照されているため、列 <columnName> を変更できません。

<generatedColumns>

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE: 42K09

生成された列 <columnName> の式の型は <expressionType> ですが、列タイプは <columnType> です

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE: 42K09

<currentName> は、生成された列または生成された列によって使用される列です。 データ型は <currentDataType> で、データ型 <updateDataType> に変換できません。

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE: KD00E

IcebergCompatV<version> の検証に失敗しました。.

詳細については、「DELTA_ICEBERG_COMPAT_VIOLATION」をご覧ください

DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN は、IDENTITY 列ではサポートされていません。

DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

ALTER TABLE ALTER COLUMN SYNC IDENTITY は Delta でのみサポートされています。

DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN

SQLSTATE: 429BQ

非 IDENTITY 列で ALTER TABLE ALTER COLUMN SYNC IDENTITY を呼び出すことはできません。

DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED

SQLSTATE: 42808

GENERATED ALWAYS AS IDENTITY 列 <colName> の値の指定はサポートされていません。

DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

IDENTITY 列の手順を 0 にすることはできません。

DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

IDENTITY 列は Delta でのみサポートされます。

DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED

SQLSTATE: 42601

PARTITIONED BY IDENTITY 列 <colName> はサポートされていません。

DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE REPLACE COLUMNS は、IDENTITY 列を含むテーブルではサポートされていません。

DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

DataType <dataType> は IDENTITY 列ではサポートされていません。

DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED

SQLSTATE: 42808

IDENTITY 列 <colName> の UPDATE はサポートされていません。

DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION

SQLSTATE: 42613

IDENTITY 列は、生成された列式では指定できません。

DELTA_ILLEGAL_OPTION

SQLSTATE: 42616

オプション '<name>' の値 '<input>' が無効です。<explain>

DELTA_ILLEGAL_USAGE

SQLSTATE: 42601

Delta テーブルの <operation> を行う場合、<option> の使用は許可されません。

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE: 42000

Delta バケットテーブルの BucketSpec が metadata.Expected: <expected> の BucketSpec と一致しません。 実際: <actual>

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE: F0000

(<setKeys>) を異なる値に設定することはできません。 いずれか 1 つだけを設定するか、同じ値に設定してください。

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE: KD003

ArrayType に誤ってアクセスしています。 arrayname.element.elementname の位置を使用して、

配列に追加します。

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE: KD003

ArrayType が見つかりました。 ArrayType の要素にアクセスするには、次のように指定します。

<rightName> (<wrongName> の代わり)

[スキーマ]:

<schema>

DELTA_INCORRECT_GET_CONF

SQLSTATE: 42000

`conf.getConf() の代わりに getConf() を使用してください

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE: 0AKDC

このエラーは通常、既定の LogStore の実装、つまり HDFSLogStore を使用して

非 HDFS ストレージ システムの Delta テーブルに書き込むときに発生します。

テーブルの更新でトランザクション ACID の保証を取得するには、お使いのストレージ システムに

適した LogStore の正しい実装を使用する必要があります。

詳細については、<docLink> を参照してください。

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE: 42KD8

列をドロップするためのインデックス <position> が、構造体の長さ <length> 以上になっています

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE: 42KD8

<columnName> を追加するインデックス <index> が、構造体の長さ <length> を超えています。

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 42802

<tableName>’、<columnName> に書き込めません。ターゲット テーブルには <numColumns> 列がありますが、挿入されたデータには <insertColumns> 列があります

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE: 42802

<columnName> が INSERT で指定されていません

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE: 22023

無効な自動圧縮の種類です: <value>。 使用できる値: <allowed>

DELTA_INVALID_BUCKET_COUNT

SQLSTATE: 22023

無効なバケット数: <invalidBucketCount>。 バケット数は、2 の累乗で少なくとも 8 の正の数である必要があります。 代わりに <validBucketCount> を使用できます。

DELTA_INVALID_BUCKET_INDEX

SQLSTATE: 22023

パーティション列の中にバケット列が見つかりません

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE: 2200P

間隔を null または空白にすることはできません。

DELTA_INVALID_CDC_RANGE

SQLSTATE: 22003

開始 <start> から終了 <end> までの CDC 範囲が無効でした。 終了を開始より前にすることはできません。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE: 42K05

属性名 "<columnName>" に ” ,;{}()\n\t=” の中の無効な文字が含まれています。 別名を使用して名前を変更してください。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE: 42K05

スキーマの列名に ‘ ,;{}()nt=’ の中の無効な文字が見つかりました。

無効な列名: <invalidColumnNames>

他の文字を使用して、もう一度やり直してください。

または、列マッピングを有効にして、これらの文字を使用し続けることもできます。

DELTA_INVALID_CLONE_PATH

SQLSTATE: 22KD1

CLONE のターゲットの場所は、絶対パスまたはテーブル名である必要があります。 の代わりに

<path> の代わりに絶対パスを使用してください。

DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING

SQLSTATE: 42K05

スキーマの列名に ‘ ,;{}()nt=’ の中の無効な文字が見つかりました。

無効な列名: <invalidColumnNames>

列名に無効な文字がある場合は、列マッピングを削除できません。

列の名前を変更して無効な文字を削除してから、このコマンドをもう一度実行してください。

DELTA_INVALID_FORMAT

SQLSTATE: 22000

互換性のない形式が検出されました。

<deltaRootPath>/_delta_log`` で Delta のトランザクション ログが見つかりましたが、

format(“<format>”) を使用して <path> に対して <operation> を実行しようとしています。 次を使用する必要があります:

Delta テーブルに対する読み取り時および書き込み時には、‘format(“delta”)’ を使用する必要があります。

Delta の詳細については、「<docLink>」をご覧ください

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE: 42621

生成された列で、存在しない列または別の生成された列を使用することはできません

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE: 42616

べき等データフレーム書き込みのオプションが無効です: <reason>

DELTA_INVALID_INTERVAL

SQLSTATE: 22006

<interval> は有効な INTERVAL ではありません。

DELTA_INVALID_INVENTORY_SCHEMA

SQLSTATE: 42000

指定された INVENTORY のスキーマには、すべての必須フィールドは含まれません。 必須フィールド: <expectedSchema>

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE: 25000

無効な分離レベル ‘<isolationLevel>

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE: F0000

(<classConfig>) と (<schemeConfig>) を同時に設定することはできません。 それらのグループを 1 つだけ設定してください。

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE: 42000

Delta を使用してマネージド テーブル <tableName>

作成しようとしていますが、スキーマが指定されていません。

Delta の詳細については、「<docLink>」をご覧ください

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE: 42996

<columnName> は、テーブル <tableName> の有効なパーティション列ではありません。

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE: 42996

” ,;{}()nt=” の中に無効な文字があるパーティション列が見つかりました。 名前をパーティション列に変更してください。 このチェックは、spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) を設定することで無効にすることができますが、Delta の他の機能が正しく動作しない可能性があるため、お勧めしません。

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE: 42996

<name> の列 <dataType> をパーティション列として使用することはサポートされていません。

DELTA_INVALID_PARTITION_PATH

SQLSTATE: 22KD1

パーティション パス フラグメントは part1=foo/part2=bar のような形式にする必要があります。 パーティションのパス: <path>

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE: KD004

プロトコルのバージョンを <oldProtocol> から <newProtocol> にダウングレードすることはできません

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE: KD004

サポートされていないデルタ プロトコル バージョン: テーブル "<tableNameOrPath>" にはリーダー バージョン <readerRequired> とライターバージョン <writerRequired> が必要ですが、このバージョンの Databricks ではリーダーバージョン <supportedReaders> とライターバージョンがサポートされています <supportedWriters>。 新しいリリースにアップグレードしてください。

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE: 22000

関数 <function> は、CDC 読み取りでサポートされていないテーブル値関数です。

DELTA_INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22007

指定された timestamp <timestamp> が、予期される構文 <format> と一致しません。

DELTA_LOG_ALREADY_EXISTS

SQLSTATE: 42K04

Delta ログは <path> に既に存在しています

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE: 42K03

削除したことがない場合は、クエリが遅れている可能性があります。 チェックポイントを削除して最初から再起動してください。 この問題が再び発生しないようにするために、Delta テーブルのアイテム保持ポリシーを更新することができます。

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE: 22000

<tableName> に具体化された <rowTrackingColumn> の列名がありません。

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE: 42000

Int.MaxValue-8 未満の制限値を使用してください。

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE: 40000

このコミットは <numAttempts> 回試行されましたが成功しなかったため、失敗しました。

これは、Deltaテーブルが多数の同時コミットによって継続的にコミットされていることが原因である

可能性があります。

コミットが開始されたバージョン: <startVersion>

コミットが失敗したバージョン: <failVersion>

コミットを試みたアクションの数: <numActions>

このコミットの試行に費やされた合計時間: <timeSpent> ミリ秒

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE: 42000

ファイル リストの最大エントリ数は <maxFileListSize> ですが、現在は <numFiles> エントリあります。

DELTA_MERGE_ADD_VOID_COLUMN

SQLSTATE: 42K09

VOID 型を含む列 <newColumn> を追加できません。 VOID 以外の型を明示的に指定してください。

DELTA_MERGE_INCOMPATIBLE_DATATYPE

SQLSTATE: 42K09

互換性のないデータ型 <currentDataType><updateDataType> のマージに失敗しました

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE: 42806

互換性のない <decimalRanges> との 10 進型のマージに失敗しました

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE: 25000

MERGE ステートメントのソースを具体化したままにすることは、繰り返し失敗しました。

DELTA_MERGE_MISSING_WHEN

SQLSTATE: 42601

MERGE ステートメントには、少なくとも 1 つの WHEN 句が必要です。

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE: 42601

演算子 <merge><input> に解決された属性 <missingAttributes> がありません

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE: 22005

予期しない割り当てキー: <unexpectedKeyClass> - <unexpectedKeyObject>

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE: 42601

指定された <cols><clause><sqlExpr> を解決できませんでした。

DELTA_METADATA_CHANGED

SQLSTATE: 2D521

MetadataChangedException: Delta テーブルのメタデータが同時更新によって変更されました。 操作をもう一度やり直してください。<conflictingCommit>

詳細については、「<docLink>」を参照してください。

DELTA_MISSING_CHANGE_DATA

SQLSTATE: KD002

範囲 [<startVersion> , <endVersion>] の変更データの取得中にエラーが発生しました。

バージョン [<version>] の変更データが記録されなかったためです。 このテーブルで変更データ フィードを有効にしている場合は、

DESCRIBE HISTORY を使用して、最初に有効にされた日時を確認します。

それ以外の場合、変更データの記録を開始するには、`ALTER TABLE table_name SET TBLPROPERTIES (=true)` を

(<key>=true)`。

DELTA_MISSING_COLUMN

SQLSTATE: 42703

<columnName> がテーブル列 <columnList> に見つかりません

DELTA_MISSING_COMMIT_INFO

SQLSTATE: KD004

このテーブルでは <featureName> 機能が有効になっており、コミットごとに CommitInfo アクションの存在が必要です。 しかし、コミット バージョン <version> から CommitInfo アクションが欠落しています。

DELTA_MISSING_COMMIT_TIMESTAMP

SQLSTATE: KD004

このテーブルでは <featureName> 機能が有効になっており、CommitInfo アクションで commitTimestamp の存在が必要です。 しかし、コミット バージョン <version> ではこのフィールドは設定されていません。

DELTA_MISSING_DELTA_TABLE

SQLSTATE: 42P01

<tableName> は Delta テーブルではありません。

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE: 42P01

テーブルが存在しません。 CREATE TABLE <tableName> を使用して、最初に空の Delta テーブルを作成します。

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE: 56038

Iceberg クラスが見つかりませんでした Delta Iceberg のサポートがインストールされていることを確認してください。

詳細については、「<docLink>」をご覧ください。

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE: 23502

NOT NULL 制約がある列 <columnName> が、テーブルに書き込まれているデータにありません。

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE: 42KD6

スキーマ <columnList> にパーティション列 <columnName> が見つかりません

DELTA_MISSING_PART_FILES

SQLSTATE: 42KD6

チェックポイント バージョン <version> のすべてのパーツ ファイルが見つかりませんでした

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE: 0AKDC

CONVERT TO DELTA では、parquet テーブルのみがサポートされます。 parquet ディレクトリの場合は、ターゲットを parquet.<path> に書き換えてください。

DELTA_MISSING_SET_COLUMN

SQLSTATE: 42703

SET 列 <columnName> が次の指定された列で見つかりません: <columnList>

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE: 42000

互換性のない形式が検出されました。

Delta を使用して <operation> <path> を行おうとしていますが、

トランザクション ログが存在しません。 アップストリーム ジョブをチェックして、

format(“delta”) を使用して書き込みを行っていること、およびテーブル ベース パスの %1$s に対して行おうとしていることを確認してください。

Delta の詳細については、「<docLink>」をご覧ください

DELTA_MODE_NOT_SUPPORTED

SQLSTATE: 0AKDC

指定したモード ‘<mode>’ はサポートされていません。 サポートされているモードは次のとおりです: <supportedModes>

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE: 42614

CDC 読み取り用に指定された複数の <startingOrEnding> 引数。 <startingOrEnding>Timestamp または <startingOrEnding>Version のいずれかを指定してください。

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 42614

複数のブルーム フィルターのインデックス構成が列 <columnName> のコマンドに渡されました

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE: 21506

複数のソース行が一致し、Delta テーブルの同じターゲット行を競合する方法で変更しようとしたため、

マージを実行できませんでした。 マージの SQL セマンティクスでは、

複数のソース行が同じターゲット行に一致する場合、

一致するターゲット行の更新または削除にどのソース行を使用するかが不明確なため、

結果が曖昧になる可能性があります。 複数の一致が発生する可能性をなくすには、

ソース テーブルを前処理します。 以降の手順については、「推奨ドキュメント」に記載されているリンクの

<usageReference>

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND

SQLSTATE: 42616

実行中 <command>は、両方の調整されたコミット構成 ("delta.coordinatedCommits.commitCoordinator-preview"、"delta.coordinatedCommits.commitCoordinatorConf-preview") がコマンドで設定されるか、どちらも設定されていません。 見つかりません: "<configuration>". TBLPROPERTIES 句でこの構成を指定するか、他の構成を削除してから、もう一度コマンドを再試行してください。

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION

SQLSTATE: 42616

間に <command>、両方の調整されたコミット構成 ("coordinatedCommits.commitCoordinator-preview"、"coordinatedCommits.commitCoordinatorConf-preview") が SparkSession 構成で設定されるか、どちらも設定されていません。 見つかりません: "<configuration>". SparkSession でこの構成を設定するか、他の構成の設定を解除してから、もう一度コマンドを再試行してください。

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE: 42000

次の列名は、Delta バケットテーブルの内部使用専用に予約されています: <names>

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE: 42K05

入力スキーマに、大文字の使用がターゲット テーブルとは異なる入れ子になったフィールドが含まれます。

Delta への書き込み中にこれらのフィールドのデータが失われるのを防ぐため、名前を変更する必要があります。

フィールド:

<fields>.

元のスキーマ:

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE: 0AKDC

フィールド <nestType><parent> 型に NOT NULL 制約が含まれています。 Delta では、配列またはマップ内に入れ子になった NOT NULL 制約はサポートされていません。 このエラーを抑制し、指定した制約をサイレントに無視するには、<configKey> を true に設定します。

解析された <nestType> 型:

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

入れ子になったサブクエリは、<operation> 条件ではサポートされていません。

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE: 23512

<tableName><numRows> 行が新しい CHECK 制約 (<checkConstraint>) に違反しています

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE: 23512

<tableName><numRows> 行が新しい CHECK 制約 (<colName>) に違反しています

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE: 42621

CHECK 制約 ‘<name>’ (<expr>) はブール式にする必要があります。

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN

SQLSTATE: 42621

<expr> が見つかりました。 生成された列で非決定論的な式を使用することはできません。

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE: 0AKDC

<operation> <expression> では、決定論的関数以外はサポートされていません

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

MERGE ステートメントに複数の MATCHED 句がある場合、最後の MATCHED 句のみが条件を省略できます。

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

MERGE ステートメントに複数の NOT MATCHED BY SOURCE 句がある場合、最後の NOT MATCHED BY SOURCE 句のみが条件を省略できます。

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

MERGE ステートメントに複数の NOT MATCHED 句がある場合、最後の NOT MATCHED 句のみが条件を省略できます。

DELTA_NON_PARSABLE_TAG

SQLSTATE: 42601

タグ <tag> を解析できませんでした。

ファイル タグ: <tagList>

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE: KD005

Delta に書き込まれるデータには、パーティション分割されていない列が少なくとも 1 つ含まれている必要があります。<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE: 42P10

述語はパーティション以外の列 ‘<columnName>’ を参照します。 参照できるのはパーティション列のみです: [<columnList>]

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE: 42P10

パーティション分割列以外の列 <columnList> は、パーティション分割列のみが予期される場所で指定します: <fragment>

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE: 42K05

Delta カタログには単一部分の名前空間が必要ですが、<identifier> はマルチパートです。

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE: 42000

<table> は Delta テーブルではありません。 Databricks Delta で再作成する場合は、最初にこのテーブルをドロップしてください。

DELTA_NOT_A_DELTA_TABLE

SQLSTATE: 0AKDD

<tableName> は Delta テーブルではありません。 Delta Lake で再作成する場合は、最初にこのテーブルをドロップしてください。

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE: 42K09

null 許容列が構造体 <struct> に見つかりません

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE: 23502

<columnName> の NOT NULL 制約に違反しています。

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE: 0A000

入れ子の null 非許容フィールドを null 許容の親に追加することはできません。 それに応じて、親列の NULL 値の許容を設定してください。

DELTA_NO_COMMITS_FOUND

SQLSTATE: KD006

<logPath> にコミットが見つかりません

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE: KD006

再作成可能なコミットが <logPath> に見つかりません

DELTA_NO_RELATION_TABLE

SQLSTATE: 42P01

テーブル <tableIdent> が見つかりません

DELTA_NO_START_FOR_CDC_READ

SQLSTATE: 42601

CDC 読み取りのための startingVersion または startingTimestamp が指定されていません。

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE: 42P18

Delta は、ストリーミング書き込みのスキーマで NullTypes を受け入れません。

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE: 42601

タイム トラベル用に 'timestampAsOf' または 'versionAsOf' を指定してください。

DELTA_ONLY_OPERATION

SQLSTATE: 0AKDD

<operation> は、Delta テーブルでのみサポートされます。

DELTA_OPERATION_MISSING_PATH

SQLSTATE: 42601

<operation> のパスまたはテーブル識別子を指定してください。

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE: 0AKDC

操作は許可されていません: <operation> は Delta テーブルではサポートされていません

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE: 0AKDC

操作は許可されていません: <operation> は Delta テーブル <tableName> ではサポートされていません

DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION

SQLSTATE: 0AKDC

既定以外の照合順序 <collation> を持つ列 <colName> に対して <operation> はサポートされません。

DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> は既定以外の照合順序を使用しているため、式 <exprText> ではサポートされません。

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE: 0A000

生成された列を含む Delta テーブルを参照する一時ビューでの <operation> コマンドはサポートされていません。 Delta テーブルで <operation> コマンドを直接実行してください

DELTA_OPERATION_ON_VIEW_NOT_ALLOWED

SQLSTATE: 0AKDC

操作は許可されていません: <operation> はビューで実行できません。

DELTA_OPTIMIZE_FULL_NOT_SUPPORTED

SQLSTATE: 42601

OPTIMIZE FULL は、空でないクラスタリング列を持つクラスター化テーブルでのみサポートされます。

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE: 42000

OVERWRITE = 'true' を設定しないと、コピー オプション overwriteSchema を指定できません。

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

‘overwriteSchema’ は動的パーティション上書きモードで使用できません。

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE: 22525

<value> を パーティション列 <columnName><dataType> にキャストできませんでした

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE: 42703

スキーマ [<schemaMap>] にパーティション列 <columnName> が見つかりません

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE: 42613

Iceberg テーブルの変換時にパーティション スキーマを指定することはできません それは自動的に推論されます。

DELTA_PATH_DOES_NOT_EXIST

SQLSTATE: 42K03

<path> が存在しないか、Delta テーブルではありません。

DELTA_PATH_EXISTS

SQLSTATE: 42K04

OVERWRITE = 'true' を設定しないと、既に存在するパス <path> に書き込めません。

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE: 2DKD0

Delta テーブル バージョン <version> へのコミットは成功しましたが、コミット後フック <name> <message> の実行中にエラーが発生しました

DELTA_PROTOCOL_CHANGED

SQLSTATE: 2D521

ProtocolChangedException: Delta テーブルのプロトコル バージョンが同時更新によって変更されました。 <additionalInfo> <conflictingCommit>

詳細については、「<docLink>」を参照してください。

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE: 42K06

プロトコル プロパティ <key> は整数である必要があります。 <value> が見つかりました

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE: KD004

テーブル機能を使用するためにリーダー プロトコル バージョンのみをアップグレードできません。 続行するには、ライター プロトコルのバージョンが、少なくとも <writerVersion> 以上である必要があります。 テーブル プロトコルのバージョンの詳細については、<docLink> をご覧ください。

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE: 428GU

列がない Delta テーブル <tableName> を読み取ろうとしています。

テーブルを読み取ることができるオプション mergeSchema = true を使用して、新しいデータを書き込みます。

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE: 2201B

<regExpOption>’ の構文を再確認してください

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE: 42613

replaceWhere をフィルターによる上書きと組み合わせて使用することはできません

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE: 44000

書き込まれたデータは、テーブルの部分的な上書き条件または制約 '<replaceWhere>' に準拠していません。

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

DataFrameWriter のオプションで、‘replaceWhere’ 式と ‘partitionOverwriteMode’=’dynamic’ を同時に設定することはできません。

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE: 42613

'dataChange' が false に設定されている場合、replaceWhere' をデータ フィルターで使用することはできません。 フィルター: <dataFilters>

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE: 22000

行数統計なしで行 ID を割り当てることはできません。

Scala ノートブックで次のコードを実行してテーブルの統計を集計してから、以下をもう一度お試しください。

import com.databricks.sql.transaction.tahoe.DeltaLog

import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection

import org.apache.spark.sql.catalyst.TableIdentifier

val log = DeltaLog.forTable(spark, TableIdentifier(table_name))

StatisticsCollection.recompute(spark, log)

DELTA_SCHEMA_CHANGED

SQLSTATE: KD007

スキーマの変更が検出されました:

ストリーミング ソース スキーマ: <readSchema>

データ ファイル スキーマ: <dataSchema>

クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返され、

進展がない場合は、互換性のないスキーマの変更を行い、スキーマの変更を行い、

新しいチェックポイント ディレクトリを使用してクエリを最初から開始する必要があります。

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE: KD007

バージョン <version> で次のスキーマの変更が検出されました:

ストリーミング ソース スキーマ: <readSchema>

データ ファイル スキーマ: <dataSchema>

クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返され、

進展がない場合は、互換性のないスキーマの変更を行い、スキーマの変更を行い、

新しいチェックポイント ディレクトリを使用してクエリを最初から開始する必要があります。 新しいチェックポイントディレクトリに変更した後で問題が解決しない場合は、

既存の

‘startingVersion’ または ‘startingTimestamp’ オプションを変更し、

新しいチェックポイント ディレクトリを使用する、<version> 以降のバージョンから開始する必要がある場合があります。

DELTA_SCHEMA_CHANGED_WITH_VERSION

SQLSTATE: KD007

バージョン <version> で次のスキーマの変更が検出されました:

ストリーミング ソース スキーマ: <readSchema>

データ ファイル スキーマ: <dataSchema>

クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返され、

進展がない場合は、互換性のないスキーマの変更を行い、スキーマの変更を行い、

新しいチェックポイント ディレクトリを使用してクエリを最初から開始する必要があります。

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE: KD007

Delta テーブルのスキーマは、DataFrame または DeltaTable オブジェクトが作成された後に、

互換性のない方法で変更されました。 DataFrame または DeltaTable オブジェクトを再定義してください。

変更点:

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

テーブル スキーマが指定されていません。 REPLACE テーブルを使用し、AS SELECT クエリが指定されていない場合は、テーブルのスキーマ (列定義) を指定してください。

DELTA_SCHEMA_NOT_SET

SQLSTATE: KD008

テーブル スキーマが設定されていません。 データを書き込むか、CREATE TABLE を使用してスキーマを設定します。

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE: 42KD7

新しい Delta の場所のスキーマは、現在のテーブル スキーマとは異なります。

元のスキーマ:

<original>

送信先スキーマ:

<destination>

これが意図した変更である場合は、次を実行してこのチェックをオフにすることができます。

%%sql set <config> = true

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE: 42K03

トランザクション ログで参照されているファイル <filePath> が見つかりません。 これは、テーブルの DELETE ステートメントを使用せずに、ファイル システムからデータを手動で削除した場合に発生することがあります。 このテーブルはシャロー クローンと見なされます。その場合、このエラーは、このテーブルの複製元の元のテーブルが、クローンでまだ使用しているファイルを削除した場合に発生する可能性があります。 元のテーブルに依存しないクローンを作成する場合は、代わりに DEEP クローンを使用します。

DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY

SQLSTATE: 42939

最初から始まる <prefix> 定義済みのプロパティは変更できません。

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE: 42704

データは、セッション内の現在の受信者には適用されない受信者プロパティ <property> によって制限されています。

詳細については、「DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED」を参照してください。

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE: 42887

アカウント間で共有される Delta Sharing ビューでは、<operation> は使用できません。

DELTA_SHARING_INVALID_PROVIDER_AUTH

SQLSTATE: 28000

プロバイダー<provider>の認証の種類<authenticationType>が正しくありません。

DELTA_SHARING_INVALID_RECIPIENT_AUTH

SQLSTATE: 28000

受信者<recipient>の認証の種類<authenticationType>が正しくありません。

DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

共有内を参照 <type> する名前が無効です。 <type>'s name inside the share following the format of [schema].[<type>], or you can also use table's original full name following the format of [catalog].[schema]。[>type>]。

使用する名前がわからない場合は、"SHOW ALL IN SHARE [share]" を実行し、削除する名前 <type> を見つけることができます。列名 "name" は <type>共有内の 's name"、列 "shared_object" は <type>'元のフル ネーム' です。

DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED

SQLSTATE: 54000

受信者 <recipient>には 2 つ以上のトークンがあります。

DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND

SQLSTATE: 42704

Recipient プロパティ <property> が存在しません。

DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND

SQLSTATE: 42704

受信者のトークンが見つかりません <recipient>

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE: 42P10

パーティション分割されていない列 <badCols> が SHOW PARTITIONS に指定されています

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE: 42809

パーティション分割されていない次のテーブルでは、SHOW PARTITIONS は許可されません: <tableName>

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE: 0A000

バージョン <version> のストリーミング ソースから削除されたデータ (<removedFile> など) が検出されました。 現在これはサポートされていません。 削除を無視したい場合は、オプション 'ignoreDeletes' を 'true' に設定してください。 ソース テーブルは、次のパスにあります: <dataPath>

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE: 0A000

バージョン <version> のソース テーブルでデータ更新 (<file> など) を検出しました。 現在これはサポートされていません。 これが定期的に発生し、変更をスキップしても問題ない場合は、‘skipChangeCommits’ オプションを ‘true’ に設定してください。 データの更新を反映する必要があるj場合は、新しいチェックポイント ディレクトリでこのクエリを開始し直すか、DLT を使っている場合は完全な更新を行ってください。 これらの変更を処理する必要がある場合は、MV に切り替えてください。 ソース テーブルは、次のパスにあります: <dataPath>

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE: 42613

'<version>' または '<timestamp>' を指定してください

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE: 42000

Parquet メタデータ内の次の列の <statsType> 統計が見つかりません: <columnPath>

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE: KD002

Delta ストリーミング ソース内の Delta バージョン <previousSchemaChangeVersion><currentSchemaChangeVersion> の間で 1 つ以上の非加法スキーマ変更 (<opType>) が検出されました。

<currentSchemaChangeVersion> で最終スキーマを使用してストリーム処理を続行する前に、このスキーマ変更をシンク テーブルに手動で反映するかどうかを確認してください。

シンク テーブルのスキーマを修正したか、修正する必要がないと判断した場合、次のいずれかの SQL 構成を設定して、非加法スキーマ変更のブロックを解除し、ストリーム処理を続行できます。

この一連のスキーマ変更のためだけにこの特定のストリームのブロックを解除するには、<allowCkptVerKey>` = `<allowCkptVerValue> を設定します。

この特定のストリームのブロックを解除するには、<allowCkptKey>` = `<allowCkptValue> を設定します。

すべてのストリームのブロックを解除するには、<allowAllKey>` = `<allowAllValue> を設定します。

または、該当する場合は、SQL conf で <allowAllMode><opSpecificMode> に置き換えて、このスキーマ変更の種類に対してストリームのブロックを解除することもできます。

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE: KD002

列マッピング スキーマの変更を確認するときに、開始バージョンの Delta ログ スナップショットを取得できませんでした。 別の開始バージョンを選択するか、‘<config>’ を ‘true’ に設定して、ユーザーの責任で、ストリーミング読み取りを強制的に有効にしてください。

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 42KD4

ストリーミング読み取りは、読み取り互換性のないスキーマの変更 (名前の変更、削除、データ型の変更など) を含むテーブルではサポートされていません。

この問題を解決するための詳細と次の手順については、<docLink> のドキュメントをご覧ください

スキーマの読み取り: <readSchema>。 互換性のないデータ スキーマ: <incompatibleSchema>

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE: 42KD4

ストリーミング読み取りは、読み取り互換性のないスキーマの変更 (名前の変更、削除、データ型の変更など) を含むテーブルではサポートされていません。

Delta ストリーム処理の非加法スキーマの進化を有効にするには、'schemaTrackingLocation' を指定してください。

詳細については、 <docLink> をご覧ください。

スキーマの読み取り: <readSchema>。 互換性のないデータ スキーマ: <incompatibleSchema>

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE: 22000

ストリーミング中に、Delta テーブルのスキーマ、テーブルの構成、またはプロトコルが変更されました。

スキーマまたはメタデータ追跡ログが更新されました。

更新されたメタデータを使用して処理を続行するには、ストリームを再起動してください。

更新されたスキーマ: <schema>

更新されたテーブル構成: <config>

更新されたテーブル プロトコル: <protocol>

DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS

SQLSTATE: 22000

スキーマ追跡を使用したソース テーブル <tableId> からのストリーミングでは、行フィルターや列マスクはサポートされていません。

行フィルターまたは列マスクを削除するか、スキーマ追跡を無効にしてください。

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE: 22000

テーブルまたは ‘<table>’ にあるテーブルからのストリーミング中に、競合しているスキーマの場所 '<loc>' が検出されました。

別のストリームが同じスキーマの場所を再利用している可能性がありますが、これは許可されていません。

このテーブルのいずれかのストリームのリーダー オプションとして、新しい一意の schemaTrackingLocation パスを指定するか、streamingSourceTrackingId を指定してください。

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE: 22000

スキーマの場所 '<schemaTrackingLocation>' はチェックポイントの場所 '<checkpointLocation>' の下に配置する必要があります。

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE: 22000

Delta ストリーミング ソース スキーマ ログの '<location>' の不完全なログ ファイル。

スキーマ ログが壊れている可能性があります。 新しいスキーマの場所を選択してください。

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE: 22000

Delta ストリームを読み取ろうとしたときに、互換性のない Delta テーブル ID が検出されました。

永続化されたテーブル ID: <persistedId>、テーブル ID: <tableId>

スキーマ ログが再利用されている可能性があります。 新しいスキーマの場所を選択してください。

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE: 22000

Delta ストリームを読み取ろうとしたときに、互換性のないパーティション スキーマが検出されました。

永続化されたスキーマ: <persistedSchema>、Delta パーティション スキーマ: <partitionSchema>

テーブルのパーティション スキーマを最近手動で変更した場合は、新しいスキーマの場所を選択してスキーマ ログを再初期化してください。

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE: 22000

Delta ストリーミング ソース スキーマ ログを初期化できませんでした。

テーブル バージョン <a> から <b> へのストリーミング バッチの提供中に、互換性のないスキーマまたはプロトコルの変更が検出されました。

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE: 22000

Delta ストリーミング ソース スキーマ ログからスキーマを解析できませんでした。

スキーマ ログが壊れている可能性があります。 新しいスキーマの場所を選択してください。

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

SQLSTATE: 42711

テーブルで変更データ キャプチャを有効にできません。 テーブルには、テーブルの

変更データ フィードのメタデータとして <columnList>

内部的に使用される予約済みの列 が既に含まれています。 セルフサービスによるパスワードのリセットを

テーブルでデータ フィードの変更を有効にするには、これらの列の名前を変更またはドロップします。

DELTA_TABLE_ALREADY_EXISTS

SQLSTATE: 42P07

テーブル <tableName> は既に存在します。

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE: 0AKDC

現在、DeltaTable.forPath では、<allowedPrefixes> 以降の hadoop 構成キーのみがサポートされていますが、<unsupportedOptions> を取得しました

DELTA_TABLE_ID_MISMATCH

SQLSTATE: KD007

このコマンドがテーブルを使用しているときに、<tableLocation> の Delta テーブルが置き換えられました。

テーブル ID は <oldId> でしたが、現在は <newId> です。

現在のコマンドを再試行して、テーブルの一貫性のあるビューが読み取られることを確認してください。

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE: 42613

既存のテーブル <tableName> の場所は <existingTableLocation> です。 指定した場所 <tableLocation> と一致しません。

DELTA_TABLE_NOT_FOUND

SQLSTATE: 42P01

Delta テーブル <tableName> は存在しません。

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE: 42809

<operation> ではテーブルはサポートされていません。 代わりにパスを使用してください。

DELTA_TABLE_ONLY_OPERATION

SQLSTATE: 0AKDD

<tableName> は Delta テーブルではありません。 <operation> は、Delta テーブルでのみサポートされます。

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE: 428GU

ターゲット テーブルの最終スキーマが空です。

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE: 42816

指定された timestamp (<providedTimestamp>) は、

このテーブル (<tableName>) で使用可能な最新バージョンよりも後です。 <maximumTimestamp> 以前の timestamp を使用してください。

DELTA_TIMESTAMP_INVALID

SQLSTATE: 42816

指定されたタイムスタンプ (<expr>) を有効なタイムスタンプに変換できません。

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE: 42604

<timeTravelKey> は有効な開始値である必要があります。

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE: 42K03

<path>: 手動削除またはログ保持ポリシー (<logRetentionKey>=<logRetention>) とチェックポイント保持ポリシー (<checkpointRetentionKey>=<checkpointRetention>) によりトランザクション ログが切り詰められたため、バージョン <version> で状態を再構築することができませんでした。

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE: 0AKDC

操作は許可されていません: Delta テーブルの TRUNCATE TABLE ではパーティション述語がサポートされていません。特定のパーティションまたは行を削除するには DELETE を使用してください。

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE: 42621

<udfExpr> が見つかりました。 生成された列でユーザー定義関数を使用できません

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE: 42601

予期しないアクション式 <expression>

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE: KD009

<expectedColsSize> 個のパーティション列 <expectedCols> が予期されていますが、ファイル名 <path> の解析からは <parsedColsSize> 個のパーティション列 <parsedCols> が見つかりました

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE: KD00A

Delta ソースのフル スキャンを想定していましたが、部分的なスキャンが見つかりました。 パス:<path>

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE: KD009

パーティション列 <expectedCol> が予期されていましたが、ファイル名 <path> の解析からはパーティション列 <parsedCol> が見つかりました

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE: KD009

CONVERT TO DELTA は、カタログから推測されるパーティション スキーマとは異なるパーティション スキーマで呼び出されました。パーティション スキーマをカタログから選択できるようにするために、スキーマを指定することは避けてください。

カタログ パーティション スキーマ:

<catalogPartitionSchema>

指定されたパーティション スキーマ:

<userPartitionSchema>

DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

SQLSTATE: KD00E

Delta Uniform の Iceberg を読み取れませんでした。

詳細については、「DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION」を参照してください

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED

SQLSTATE: 0A000

均一イングレス テーブルの作成または更新はサポートされていません。

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT

SQLSTATE: 0AKDC

形式 <fileFormat> はサポートされていません。 元のファイル形式として iceberg のみサポートされています。

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE: 0AKDC

ユニバーサル形式は、Unity Catalog テーブルでのみサポートされます。

DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED

SQLSTATE: KD00E

テーブル バージョン <version> をユニバーサル形式 <format> に変換できませんでした。 <message>

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE: KD00E

ユニバーサル形式 (<format>) の検証に失敗しました: <violation>

DELTA_UNKNOWN_CONFIGURATION

SQLSTATE: F0000

不明な構成 <config> が指定されました

DELTA_UNKNOWN_PRIVILEGE

SQLSTATE: 42601

不明な特権: <privilege>

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE: 42601

不明な ReadLimit: <limit>

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE: 42601

列の変更 <otherClass> を認識できませんでした。 古い Delta Lake バージョンを実行している可能性があります。

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE: 56038

インバリアントが認識されませんでした。 Spark バージョンをアップグレードしてください。

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE: KD00B

ログ ファイル <fileName> が認識されませんでした

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE: 42616

テーブル <tableName> に存在しないプロパティ ‘<property>’ の設定を解除しようとしました

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE: 0AKDC

<path> は、絶対パスを使用したファイルの追加をサポートしていません

DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP

SQLSTATE: 0AKDC

<fieldPath><oldField> から <newField> に変更する場合、ALTER TABLE CHANGE COLUMN はサポートされていません

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE: 0AKDC

サポートされていない ALTER TABLE REPLACE COLUMNS 操作。 理由: <details>

次のスキーマの変更に失敗しました:

<oldSchema>

を次のように変更します。

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE: 0AKDC

既存のテーブル (<tableName>) を CLONE に置き換えようとしました。 この操作は

サポートされていません。 CLONE の別のターゲットを試すか、現在のターゲットにあるテーブルを削除します。

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE: 0AKDC

列マッピング モードを ‘<oldMode>’ から ‘<newMode>’ に変更することはサポートされていません。

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE: KD004

現在のテーブル プロトコル バージョンは、 を使用した列マッピング モードの変更を

サポートしません <config>

列マッピングに必要な Delta プロトコルのバージョン:

<requiredVersion>

テーブルの現在の Delta プロトコルのバージョン:

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE: 0AKDC

スキーマの変更が検出されました:

以前のスキーマ:

<oldTableSchema>

新しいスキーマ:

<newTableSchema>

列マッピング モードの変更中は、スキーマの変更は許可されません。

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE: 0AKDC

列マッピング モードでのデータの書き込みはサポートされていません。

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

<dataType> の列にブルーム フィルター インデックスを作成することはサポートされていません: <columnName>

DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY

SQLSTATE: 0AKDC

<fieldPath> にはコメントを追加できません。 マップのキーと値または配列要素へのコメントの追加はサポートされていません。

DELTA_UNSUPPORTED_DATA_TYPES

SQLSTATE: 0AKDC

サポートされていないデータ型を使用している列が見つかりました: <dataTypeList>。 型チェックを無効にするには、‘<config>’ を ‘false’ に設定します。 この型チェックを無効にすると、ユーザーがサポートされていない Delta テーブルを作成できてしまう可能性があるため、レガシ テーブルの読み取り/書き込みを試みる場合にのみ使用する必要があります。

DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN

SQLSTATE: 42621

<dataType> は生成された列の結果ではありえません

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE: 0A000

この Delta バージョンでは、ディープ クローンはサポートされていません。

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE: 42809

<view> はビューです。 DESCRIBE DETAIL は、テーブルでのみサポートされています。

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE: 0AKDC

クラスタリング列 (<columnList>) のドロップは許可されていません。

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE: 0AKDC

DROP COLUMN は Delta テーブルではサポートされていません。 <advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE: 0AKDC

入れ子になった列は StructType からのみドロップできます。 <struct> が見つかりました

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE: 0AKDC

パーティション列 (<columnList>) のドロップは許可されていません。

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE: 0A000

<causedBy> でサポートされていない式の型 (<expType>) です。 サポートされている型は [<supportedTypes>] です。

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

<expression> は生成された列では使用できません

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE: 56038

サポートされていない Delta 読み取り機能です: テーブル “<tableNameOrPath>” には、このバージョンの Databricks ではサポートされていないリーダー テーブル機能が必要です: <unsupported>。 Delta Lake 機能の互換性について詳しくは、<link> を参照してください。

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE: 56038

サポートされていない Delta 書き込み機能です: テーブル “<tableNameOrPath>” には、このバージョンの Databricks ではサポートされていないライター テーブル機能が必要です: <unsupported>。 Delta Lake 機能の互換性について詳しくは、<link> を参照してください。

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE: 56038

次の Spark 構成または Delta テーブル プロパティで構成されたテーブル機能は、このバージョンの Databricks では認識されません: <configs>

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE: 0AKDE

テーブル機能 <feature> の状態が "有効" になることが予期されていましたが、“<status>” を取得しました。

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE: 0AKDC

入れ子になったフィールドの更新は StructType でのみサポートされていますが、型が <dataType> である <columnName> のフィールドを更新しようとしています。

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE: 0A000

'FSCK REPAIR TABLE' コマンドは、削除ベクトル ファイルがないテーブル バージョンではサポートされていません。

サポートにお問い合わせください。

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE: 0A000

'GENERATE symlink_format_manifest' コマンドは、削除ベクトルを含むテーブル バージョンではサポートされていません。

削除ベクトルを含まないテーブルのバージョンを生成するには、‘REORG TABLE table APPLY (PURGE)’ を実行します。 その後、'GENERATE' コマンドを再実行します。

削除ベクトルを再び追加する同時トランザクションが REORG と GENERATE の間にないことを確認してください。

マニフェストを定期的に生成する必要がある場合、または同時トランザクションを回避できない場合は、'ALTER TABLE TABLE SET TBLPROPERTIES (delta.enableDeletionVectors = false) を使用して、このテーブルの削除ベクトルを無効にすることを検討してください。

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE: 0AKDC

StructTypes 以外の入れ子になったフィールドのインバリアントはサポートされていません。

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE: 0AKDC

サブクエリは、<operation> 条件ではサポートされていません。

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE: 0A000

listKeywithPrefix は使用できません

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE: 0AKDC

外部リーダーはこれらの Delta テーブルを読み取ることができないため、列マッピングを利用するテーブルではマニフェストの生成はサポートされていません。 詳細については Delta のドキュメントを参照してください。

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE: 0A000

スキーマの展開を伴う MERGE INTO 操作では、現在 CDC 出力の書き込みはサポートされていません。

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE: 0AKDC

<operation> 条件では、複数列に In 述語を使用することはできません。

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

入れ子になった列にブルーム ファイラー インデックスを作成することは現在サポートされていません: <columnName>

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE: 0AKDC

入れ子になったフィールドは、<operation> (field = <fieldName>) ではサポートされていません。

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE: 0AKDC

複製先テーブルが空ではありません。 CLONE を実行する前に、テーブルの TRUNCATE または DELETE FROM を実行してください。

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE: 0AKDC

データ ソース <dataSource> では <mode> 出力モードはサポートされていません

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

パーティション分割列でのブルーム フィルター インデックスの作成はサポートされていません: <columnName>

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE: 0AKDC

列の名前変更は、Delta テーブルではサポートされていません。 <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE: 0AKDC

Delta では、読み取り時のスキーマの指定はサポートされていません。

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE: 0A000

Delta バケット テーブルでは、SORTED BY はサポートされていません

DELTA_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDD

<operation> 宛先では Delta ソースのみがサポートされます。

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE: 0AKDD

挿入時にパーティション仕様で静的パーティションを指定することは現在サポートされていません。

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE: 22023

サポートされていない戦略名: <strategy>

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE: 0AKDC

<operation> (条件 = <cond>) では、サブクエリはサポートされていません。

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE: 0AKDC

サブクエリは、パーティション述語ではサポートされていません。

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE: 42613

タイム トラベルを複数の形式で指定することはできません。

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE: 0AKDC

ビュー、サブクエリ、ストリームをタイム トラベルしたり、データ フィード クエリを変更したりすることはできません。

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE: 0A000

サンプル テーブルの切り詰めはサポートされていません

DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA

SQLSTATE: 0AKDC

サポートされていない型の変更が適用されたため、このテーブルを操作できません。 <fieldName><fromType> から <toType> に変更されました。

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE: 0AKDC

Delta テーブルをバキュームする場合は、基本パス (<baseDeltaPath>) を指定してください。 特定のパーティションをバキュームすることは、現在サポートされていません。

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE: 42807

テーブルの実装では、書き込みがサポートされていません: <tableName>

DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR

SQLSTATE: 0AKDC

コミット コーディネーター <coordinatorName>に登録されているテーブルに対して書き込みを実行しようとしています。 ただし、このコーディネーターの実装は現在の環境では使用できません。また、コーディネーターを使用しない書き込みは許可されません。

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE: 0A000

サンプル テーブルへの書き込みはサポートされていません

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE: 42846

<fromCatalog><toCatalog> にキャストできません。 入れ子になった列はすべて一致する必要があります。

DELTA_VACUUM_COPY_INTO_STATE_FAILED

SQLSTATE: 22000

データ ファイルの VACUUM は成功しましたが、COPY INTO 状態のガベージ コレクションに失敗しました。

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE: KD00C

バージョン (<versionList>) は連続していません。

詳細については、「DELTA_VERSIONS_NOT_CONTIGUOUS」を参照してください。

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE: 23001

次の値を持つ行が CHECK 制約 <constraintName> <expression> に違反しています:

<values>

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE: 0A000

テーブル <table> のプロパティの検証に違反しました:

詳細については、「DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED」を参照してください

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE: 0A000

<viewIdentifier> はビューです。 ビューにデータを書き込むことはできません。

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

Z オーダー列 <columnName> はデータ スキーマに存在しません。

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE: KD00D

<cols> の Z オーダーは

無効になります。理由は、現時点では、これらの列の統計情報は収集されないためです。 以降の手順については、「推奨ドキュメント」に記載されているリンクの

<link>

データのスキップと Z オーダーの詳細については、上記のリンクを参照してください。 次のように設定することで、このチェックを

無効にできます:

‘%%sql set <zorderColStatKey> = false’

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE: 42P10

<colName> はパーティション列です。 Z-Ordering は、データ列でのみ実行できます

オートローダー

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE: 0A000

スキーマが指定されている場合、スキーマ進化モード <addNewColumnsMode> はサポートされません。 このモードを使用するには、代わりに cloudFiles.schemaHints を介してスキーマを提供できます。

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE: 42000

(既定の) ディレクトリ一覧モードの通知設定の認証オプションが

見つかりました:

<options>

ファイル通知モードを使用する場合は、次のように明示的に設定してください:

.option(“cloudFiles.<useNotificationsKey>”, “true”)

または、オプションの検証をスキップしてこれらの認証オプションを無視する場合は、

次のように設定できます:

.option(“cloudFiles.ValidateOptionsKey>”, “false”)

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE: 42000

増分一覧モード (cloudFiles.<useIncrementalListingKey>) と

ファイル通知 (cloudFiles.<useNotificationsKey>) が

同時に有効になりました。

必ず 1 つだけ選択してください。

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE: 42000

Azure には adlsBlobSuffix と adlsDfsSuffix が必要です

CF_BUCKET_MISMATCH

SQLSTATE: 22000

ファイル イベント <fileEvent><storeType> は、ソース <source> によって想定されたものとは異なります。

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE: 22000

スキーマ ログが空の場合、スキーマを進化させることはできません。 スキーマ ログの場所: <logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE: 22000

次のキュー メッセージ: <message> を解析できません

CF_CANNOT_RESOLVE_CONTAINER_NAME

SQLSTATE: 22000

パス <path> からコンテナー名を解決できません。解決された uri: <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING

SQLSTATE: 22000

非同期バックフィル スレッドが実行されている場合、ディレクトリ一覧を実行できません

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE: 42000

cloudFiles.cleanSource と cloudFiles.allowOverwrites を同時に有効にすることはできません。

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE: 42501

自動ローダーは、ソース ディレクトリへの書き込みアクセス許可がないため、処理されたファイルを削除できません。

<reason>

修正するには、次のいずれかを実行します:

  1. ソース ディレクトリに書き込みアクセス許可を付与する OR
  2. cleanSource を 'OFF' に設定する

また、SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors を 'true' に設定することで、ストリームのブロックを解除することもできます。

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE: 22000

テーブルのパーティション スキーマを推測しようとしたときにエラーが発生しました。 データとパーティションのパスに同じ列が重複しています。 パーティション値を無視するには、次を使用してパーティション列を明示的に指定してください: .option(“cloudFiles.<partitionColumnsKey>”, “{comma-separated-list}”)

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE: 42000

入力パス <path> が空の場合、スキーマを推論できません。 入力パスにファイルがある場合はストリームを開始するか、スキーマを指定してください。

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE: 22000

Event Grid サブスクリプションを作成できませんでした。 サービス プリンシパルに Event Grid

<permissionType> サブスクリプションがあることをご確認ください。 詳細については、以下を参照してください。

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE: 22000

Event Grid サブスクリプションを作成できませんでした。 Microsoft.EventGrid がサブスクリプションのリソース

プロバイダーとして登録されていることを確認してください。 詳細については、以下を参照してください。

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE: 22000

Event Grid サブスクリプションを作成できませんでした。 ストレージ アカウント () が

(<storageAccount>) リソース グループ (<resourceGroup>) の下にあり、ストレージ

アカウントが “StorageV2 (汎用 v2)” アカウントであることを確認してください。 詳細については、以下を参照してください。

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE: 0A000

自動ローダー イベント通知モードは <cloudStore> でサポートされません。

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE: 22000

ストリームが新しいかどうかを確認できませんでした

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE: 22000

サブスクリプション <subscriptionName> を作成できませんでした。 同じ名前のサブスクリプションがすでに存在していて、別のトピック <otherTopicName> に関連付けられています。 目的のトピックは <proposedTopicName> です。 既存のサブスクリプションを削除するか、新しいリソース サフィックスを使用してサブスクリプションを作成します。

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE: 22000

トピック <topicName> を作成できませんでした。 同じ名前のトピックが既に存在します。<reason> 既存のトピックを削除するか、別のリソース サフィックスを使用してやり直してください

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

SQLSTATE: 22000

トピック <topicName> のバケット <bucketName> にある ID <notificationId> の通知を削除できませんでした。 GCP コンソールから通知を再試行するか、手動で削除してください。

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE: 22000

文字列 ‘<jsonSchema>’ から永続化されたスキーマを逆シリアル化できませんでした

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE: 22000

スキーマ ログなしでスキーマを進化させることはできません。

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE: 42000

<fileFormatInput> のプロバイダーが見つかりませんでした

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE: 22000

入力パス <path> 内の既存のファイルから形式 <fileFormatInput> のスキーマを推測できませんでした。

詳細については、「CF_FAILED_TO_INFER_SCHEMA」を参照してください

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE: 22000

場所 <path> のスキーマ ログに書き込めませんでした。

CF_FILE_FORMAT_REQUIRED

SQLSTATE: 42000

必要なオプション cloudFiles.format が見つかりませんでした。

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE: 22000

トピック <topicName> の自動ローダー プレフィックスを持つ複数 (<num>) のサブスクリプションが見つかりました:

<subscriptionList>

トピックごとに 1 つのサブスクリプションのみが存在する必要があります。 トピックに複数のサブスクリプションがないことを手動で確認してください。

CF_GCP_AUTHENTICATION

SQLSTATE: 42000

GCP リソースでの認証に既定の GCP 資格情報プロバイダー チェーンを使用するには、<clientEmail><client>

<privateKey><privateKeyId>

のすべてを指定するか、いずれも指定しないでください。

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE: 22000

GCP リソースに対して受け取ったラベルが多すぎます (<num>)。 リソースあたりの最大ラベル数は <maxNum> です。

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE: 22000

GCP リソースに対して受け取ったリソース タグが多すぎます (<num>)。 リソース タグはリソースに GCP ラベルとして保存され、Databricks 固有のタグはこのラベル割り当ての一部を消費するため、リソースあたりの最大リソース タグ数は <maxNum> です。

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE: 22000

パス <path> にあるスキーマ ログ内にある不完全なログ ファイル

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE: 22000

自動ローダー チェックポイント内のメタデータ ファイルが不完全です

CF_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

cloud_files メソッドでは、読み込むためのパスとファイル形式の、2 つの必須文字列パラメータを指定できます。 ファイル リーダーのオプションは、Key-Value 形式の文字列で指定する必要があります。 例: cloud_files(“path”, “json”, map(“option1”, “value1”))。 受信: <params>

CF_INTERNAL_ERROR

SQLSTATE: 42000

内部エラーです。

詳細については、「CF_INTERNAL_ERROR」を参照してください

CF_INVALID_ARN

SQLSTATE: 42000

無効な ARN: <arn>

CF_INVALID_AZURE_CERTIFICATE

SQLSTATE: 42000

オプション cloudFiles.certificate を使って提供される秘密キーは解析できません。 PEM 形式の、有効な公開キーを指定してください。

CF_INVALID_AZURE_CERT_PRIVATE_KEY

SQLSTATE: 42000

オプション cloudFiles.certificatePrivateKey を使って提供される秘密キーは解析できません。 PEM 形式の、有効な秘密キーを指定してください。

CF_INVALID_CHECKPOINT

SQLSTATE: 42000

このチェックポイントは有効な CloudFiles ソースではありません

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE: 42000

クリーン ソース オプション <value> のモードが無効です。

CF_INVALID_GCP_RESOURCE_TAG_KEY

SQLSTATE: 42000

GCP リソースのリソース タグ キー <key> が無効です。 キーは小文字で始まり、1 - 63 文字以内で、小文字、数字、アンダースコア (_)、ハイフン (-) のみを使用できます。

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE: 42000

GCP リソースのリソース タグ値 <value> が無効です。 値の長さは 0 - 63 文字以内で、小文字、数字、アンダースコア (_)、ハイフン (-) のみを使用できます。

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE: 42000

自動ローダーは、マネージド ファイル イベントで使用する場合、次のオプションをサポートしません:

<optionList>

これらのオプションを削除してから、ストリームを再起動することをお勧めします。

CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

SQLSTATE: 22000

マネージド ファイル イベント サービスからの応答が無効です。 サポートについては、Databricks のサポートにお問い合わせください。

詳しくは、CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE に関する記事をご覧ください

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE: 42000

cloudFiles.<schemaEvolutionModeKey> は次のいずれかにする必要があります: {

"<addNewColumns>"

"<failOnNewColumns>"

"<rescue>"

"<noEvolution>"}

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE: 42000

スキーマ ヒントでは、特定の列を 1 回だけ指定できます。

この場合、再定義する列: <columnName>

schemaHints で複数回:

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE: 42000

スキーマ ヒントを使用して、マップと配列の入れ子になった型をオーバーライドすることはできません。

競合する列: <columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE: 22000

latestOffset は、このソースの ReadLimit を使用して呼び出す必要があります。

CF_LOG_FILE_MALFORMED

SQLSTATE: 22000

ログ ファイルの形式が正しくありませんでした: <fileName> から正しいログ バージョンを読み取れませんでした。

CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS

SQLSTATE: 22000

includeExistingFiles を false に設定して、外部の場所にある既存のファイルを無視するように自動ローダーに要求しました。 ただし、マネージド ファイル イベント サービスは、外部の場所にある既存のファイルを引き続き検出しています。 マネージド ファイル イベントが外部の場所にあるすべてのファイルの検出を完了したら、もう一度やり直してください。

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE: 42000

マネージド ファイル イベントで自動ローダーを使用していますが、入力パス '<path>' の外部の場所にファイル イベントが有効になっていないか、入力パスが無効であるようです。 入力パスの外部の場所でファイル イベントを有効にするように Databricks 管理者に依頼してください。

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE: 42000

マネージド ファイル イベントで自動ローダーを使用していますが、入力パス '<path>' の外部の場所またはボリュームにアクセスできないか、入力パスが無効であるようです。 Databricks 管理者に、外部の場所またはボリュームの読み取りアクセス許可を付与するか、既存の外部の場所またはボリューム内に有効な入力パスを指定するように要求してください。

CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS

SQLSTATE: 56038

マネージド ファイル イベントを含む自動ローダーは、Databricks サーバーレスでのみ使用できます。 続行するには、このワークロードを Databricks サーバーレスに移動するか、cloudFiles.useManagedFileEvents オプションをオフにしてください。

CF_MAX_MUST_BE_POSITIVE

SQLSTATE: 42000

max は正である必要があります

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE: 22000

複数のストリーミング クエリが同時に <metadataFile> を使用しています

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE: 42000

ストリーミング ソース チェックポイント ディレクトリ内にメタデータ ファイルがありません。 このメタデータ

ファイルには、ストリームの重要な既定のオプションが含まれているため、現時点でストリームを再開することは

できません。 サポートについては、Databricks のサポートにお問い合わせください。

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE: 42000

パーティション列 <columnName> が次の指定されたスキーマに存在しません:

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE: 42000

ファイル通知モードの使用中に CloudFiles ソースへのパスが指定されていない場合は、.schema() を使用してスキーマを指定してください。 または、自動ローダーを使用してスキーマを推測するには、.load() で基本パスを指定してください。

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE: 22000

バケット <bucketName> で トピック <topicName> の既存の通知が見つかりました:

notification,id

<notificationList>

意図しないイベントでサブスクライバーを汚染しないようにするには、上記の通知を削除して再試行してください。

CF_NEW_PARTITION_ERROR

SQLSTATE: 22000

ファイル [<filesList>] から新しいパーティション列が推論されました。 スキーマ内のすべてのパーティション列を指定するか、次を使用して値を抽出するパーティション列のリストを指定してください: .option(“cloudFiles.partitionColumns”, “{comma-separated-list|empty-string}”)

CF_PARTITON_INFERENCE_ERROR

SQLSTATE: 22000

ファイルの現在のバッチのパーティション スキーマを推測しようとしたときにエラーが発生しました。 次を使用して、パーティション列を明示的に指定してください: .option(“cloudFiles.<partitionColumnOption>”, “{comma-separated-list}”)

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES

SQLSTATE: 42000

入力パス <path> が存在しない場合、ファイルを読み取ることができません。 入力パスが存在することを確認してからやり直してください。

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE: 0A000

非同期バックフィルが無効になっている場合、定期的なバックフィルはサポートされません。 非同期バックフィルまたはディレクトリ一覧を有効にするには、spark.databricks.cloudFiles.asyncDirListing を true に設定します

CF_PREFIX_MISMATCH

SQLSTATE: 22000

不一致のイベントが見つかりました: キー <key> にプレフィックス <prefix> がありません

CF_PROTOCOL_MISMATCH

SQLSTATE: 22000

<message>

コードに他の変更を加える必要がない場合は、SQL 構成を

<sourceProtocolVersionKey> = <value>’ に設定して

ストリームを再開してください。 以下を参照してください。

<docLink>

をご覧ください。

CF_REGION_NOT_FOUND_ERROR

SQLSTATE: 42000

既定の AWS リージョンを取得できませんでした。 cloudFiles.region オプションを使用してリージョンを指定してください。

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE: 42000

通知サービスを作成できませんでした: リソース サフィックスを空にすることはできません。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE: 42000

通知サービスを作成できませんでした: リソース サフィックスに使用できるのは、英数字、ハイフン (-) とアンダースコア (_) のみです。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE: 42000

通知サービスを作成できませんでした: リソース サフィックスに使用できるのは、小文字、数字、ダッシュ (-) のみです。

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE: 42000

通知サービスを作成できませんでした: リソース サフィックスに使用できるのは、英数字、ハイフン (-)、アンダースコア (_)、ピリオド (.)、チルダ (~)、プラス記号 (+)、パーセント記号 (<percentSign>) のみです。

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE: 42000

通知サービスを作成できませんでした: リソース サフィックスは <limit> 文字以内にする必要があります。

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE: 42000

通知サービスを作成できませんでした: リソース サフィックスは、<lowerLimit> から <upperLimit> 文字の間にする必要があります。

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE: 22000

制限された GCP リソース タグ キー (<key>) が見つかりました。 次の GCP リソース タグ キーは自動ローダーに制限されています: [<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE: 42000

cloudFiles.cleanSource.retentionDuration は cloudFiles.maxFileAge より大きくすることはできません。

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE: 22000

プレフィックスが <prefix> のトピック <topic> の通知を作成できませんでした。 同じ名前で別のプレフィックスが付いたトピックが既にあります: <oldPrefix>。 セットアップに別のリソース サフィックスを使用するか、既存のセットアップを削除してみてください。

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE: 42000

ソース ディレクトリ パスにオプション path を指定してください

CF_SOURCE_UNSUPPORTED

SQLSTATE: 0A000

クラウド ファイル ソースでは、現在、S3、Azure Blob Storage (wasb/wasbs)、Azure Data Lake Gen1 (adl) と Gen2 (abfs/abfss) のパスのみがサポートされています。 パス: ‘<path>’、解決された uri: ‘<uri>’。

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

cloud_files_state 関数は、cloudFiles ストリームのチェックポイント ディレクトリを表す文字列パラメーターか、ストリーミング テーブルを識別するマルチパートの tableName と、オプションとして、状態を読み込むチェックポイント バージョンを表す 2 番目の整数パラメーターを受け取ります。 2 番目のパラメーターは、最新のチェックポイントを読み取るために 'latest' を使用することもできます。 受信: <params>

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE: 42000

入力チェックポイント パス <path> が無効です。 パスが存在しないか、cloud_files ソースが見つかりません。

CF_STATE_INVALID_VERSION

SQLSTATE: 42000

指定したバージョン <version> が存在しないか、分析中に削除されました。

CF_THREAD_IS_DEAD

SQLSTATE: 22000

<threadName> スレッドが動作していません。

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE: 42000

ソース チェックポイントの場所 <checkPointLocation> からストリーム チェックポイントの場所を派生できません

CF_UNABLE_TO_DETECT_FILE_FORMAT

SQLSTATE: 42000

<fileSize> 個のサンプリングされたファイルからソース ファイル形式を検出できません。次のものが見つかりました: <formats>。 形式を指定してください。

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE: 42000

バケット情報を抽出できません。 パス: ‘<path>’、解決された uri: ‘<uri>’。

CF_UNABLE_TO_EXTRACT_KEY_INFO

SQLSTATE: 42000

キー情報を抽出できません。 パス: ‘<path>’、解決された uri: ‘<uri>’。

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE: 42000

ストレージ アカウント情報を抽出できません。パス: ‘<path>’、解決された uri: ‘<uri>

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE: 22000

パス <path> のディレクトリ名前変更イベントを受け取りましたが、このディレクトリを効率的に一覧表示できません。 ストリームを続けるには、オプション ‘cloudFiles.ignoreDirRenames’ を true に設定し、このデータを処理するために cloudFiles.backfillInterval を使用して通常のバックフィルを有効にすることを検討してください。

CF_UNEXPECTED_READ_LIMIT

SQLSTATE: 22000

予期しない ReadLimit: <readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE: 42000

不明なオプション キーが見つかりました:

<optionList>

指定されたすべてのオプション キーが正しいことを確認してください。 オプションの検証をスキップして、

これらの不明なオプションを無視する場合は、次のように設定できます:

.option(“cloudFiles.<validateOptions>”, “false”)

CF_UNKNOWN_READ_LIMIT

SQLSTATE: 22000

不明な ReadLimit: <readLimit>

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION

SQLSTATE: 0A000

自動ローダー ストリーミング ソースを作成するための SQL 関数 ‘cloud_files’ は、Delta Live Tables パイプラインでのみサポートされます。 詳細については、以下を参照してください。

<docLink>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE: 0A000

形式 <format> ではスキーマ推論はサポートされていません。 スキーマを指定してください。

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE: 0A000

UnsupportedLogVersion: サポートされているログの最大バージョンは v<maxVersion>``, but encountered v``<version> です。 ログ ファイルは新しい方のバージョンの DBR によって生成されたため、このバージョンで読み取ることができません。 アップグレードしてください。

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE: 0A000

スキーマ進化モード <mode> は、形式 <format> ではサポートされていません。 スキーマの進化モードを 'none' に設定してください。

CF_USE_DELTA_FORMAT

SQLSTATE: 42000

Delta テーブルからの読み取りは、この構文ではサポートされていません。 Delta のデータを使用する場合は、Delta テーブルの読み取り (<deltaDocLink>) またはストリーム ソースとしての Delta テーブルの読み取り (<streamDeltaDocLink>) に関するドキュメントをご覧ください。 Delta からのストリーミング ソースは、データの増分消費用に既に最適化されています。

地理空間

EWKB_PARSE_ERROR

SQLSTATE: 22023

EWKB の解析中にエラーが発生しました: 位置 <pos><parseError>

GEOJSON_PARSE_ERROR

SQLSTATE: 22023

GeoJSON の解析中にエラーが発生しました: 位置 <pos><parseError>

詳細については、「GEOJSON_PARSE_ERROR」をご覧ください

H3_INVALID_CELL_ID

SQLSTATE: 22023

<h3Cell> が有効な H3 セル ID ではありません

詳細については、「H3_INVALID_CELL_ID」をご覧ください

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE: 22023

H3 グリッド距離 <k> は負でない値にする必要があります

詳細については、「H3_INVALID_GRID_DISTANCE_VALUE」をご覧ください

H3_INVALID_RESOLUTION_VALUE

SQLSTATE: 22023

H3 の解像度 <r> は、<minR><maxR> の間 (両端を含む) である必要があります

詳細については、「H3_INVALID_RESOLUTION_VALUE」をご覧ください

H3_NOT_ENABLED

SQLSTATE: 0A000

<h3Expression> が無効になっているか、サポートされていません。 Photon を有効にするか、H3 式をサポートするレベルに切り替えることを検討してください

詳細については、「H3_NOT_ENABLED」をご覧ください

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE: 22023

グリッド距離 <k><h3Cell> の 16 進リングを計算中に五角形が検出されました

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE: 22023

<h3Cell1><h3Cell2> の間の H3 グリッド距離が未定義です

ST_DIFFERENT_SRID_VALUES

SQLSTATE: 22023

"<sqlFunction>" の引数の SRID 値は同じである必要があります。 SRID 値が見つかりました: <srid1><srid2>

ST_INVALID_ARGUMENT

SQLSTATE: 22023

"<sqlFunction>": <reason>

ST_INVALID_ARGUMENT_TYPE

SQLSTATE: 22023

"<sqlFunction>" の引数は <validTypes> 型である必要があります

ST_INVALID_CRS_TRANSFORMATION_ERROR

SQLSTATE: 22023

<sqlFunction>: SRID <srcSrid> から SRID <trgSrid> への無効な CRS 変換またはサポートされていない CRS 変換

ST_INVALID_ENDIANNESS_VALUE

SQLSTATE: 22023

エンディアン <e> は、'NDR' (リトル エンディアン) または 'XDR' (ビッグ エンディアン) である必要があります

ST_INVALID_GEOHASH_VALUE

SQLSTATE: 22023

<sqlFunction>: 無効な geohash 値: ‘<geohash>’。 geohash 値は、https://en.wikipedia.org/wiki/Geohash#Textual_representation で説明されているように、有効な小文字の base32 文字列である必要があります

ST_INVALID_PRECISION_VALUE

SQLSTATE: 22023

精度 <p> は、<minP><maxP> の間 (両端を含む) である必要があります

ST_INVALID_SRID_VALUE

SQLSTATE: 22023

無効またはサポートされていない SRID <srid>

ST_NOT_ENABLED

SQLSTATE: 0A000

<stExpression> が無効になっているか、サポートされていません。 Photon を有効にするか、ST 式をサポートするレベルに切り替えることを検討してください

ST_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

GEOGRAPHY データ型と GEOMETRY データ型をクエリで返すことはできません。 次のいずれかの SQL 式を使用して、標準のインターチェンジ形式: <projectionExprs> に変換してください。

WKB_PARSE_ERROR

SQLSTATE: 22023

WKB の解析中にエラーが発生しました: 位置 <pos><parseError>

詳細については、「WKB_PARSE_ERROR」をご覧ください

WKT_PARSE_ERROR

SQLSTATE: 22023

WKT の解析中にエラーが発生しました: 位置 <pos><parseError>

詳細については、「WKT_PARSE_ERROR」をご覧ください