次の方法で共有


explode_outer テーブル値ジェネレーター関数

適用対象: 「はい」のチェック マーク Databricks SQL 「はい」のチェック マーク Databricks Runtime

外部セマンティクスを使用して入れ子を解除した collection により、行のセットを返します。

Databricks SQL および Databricks Runtime 13.3 LTS 以降では、この関数は名前付きパラメータ呼び出しをサポートしています。

構文

explode_outer(collection)

引数

  • collection: ARRAY または MAP 式。

返品

配列の要素、またはマップのキーと値で構成される行のセット。 配列の explode_outer によって生成される列の名前は col です。 マップの列は、keyvalue と呼ばれます。

collectionNULL の場合は、配列またはマップ値に NULL が含まれる単一の行が生成されます。 collectionNULLされたときに行を返さない場合は、explode()関数を使用します。

  • 適用対象: 「はい」のチェック マーク Databricks Runtime 12.1 以前:

    explode_outer は式のルートとして、または LATERAL VIEW に続く場合にのみ、SELECT リストに配置できます。 関数を SELECT リストに配置する場合、同じ SELECT リストに他のジェネレーター関数が存在してはいけません。存在する場合は、UNSUPPORTED_GENERATOR.MULTI_GENERATOR が発生します。

  • 適用対象: check marked yes Databricks SQL 「はい」のチェック マーク Databricks Runtime 12.2 LTS 以上:

    LATERAL VIEW 句または SELECT リストからの呼び出しは非推奨です。 代わりに、table_reference として explode_outer を呼び出します。

適用対象: Databricks Runtime 12.1 以前:

> SELECT explode_outer(array(10, 20)) AS elem, 'Spark';
 10 Spark
 20 Spark

> SELECT explode_outer(collection => array(10, 20)) AS elem, 'Spark';
 10 Spark
 20 Spark

> SELECT explode_outer(map(1, 'a', 2, 'b')) AS (num, val), 'Spark';
 1   a   Spark
 2   b   Spark

> SELECT explode_outer(cast(NULL AS array<int>)), 'Spark';
 NULL   Spark

> SELECT explode_outer(array(1, 2)), explode_outer(array(3, 4));
  Error: UNSUPPORTED_GENERATOR.MULTI_GENERATOR

-- The difference between explode() and explode_outer() is that explode_outer() returns NULL if the array is NULL.
> SELECT explode_outer(c1) AS elem, 'Spark' FROM VALUES(array(10, 20)), (null) AS T(c1);
 10   Spark
 20   Spark
 NULL Spark

> SELECT explode(c1) AS elem, 'Spark' FROM VALUES(array(10, 20)), (null) AS T(c1);
 10 Spark
 20 Spark

適用対象: check marked yes Databricks SQL 「はい」のチェック マーク Databricks Runtime 12.2 LTS 以降:

> SELECT elem, 'Spark' FROM explode_outer(array(10, 20)) AS t(elem);
 10 Spark
 20 Spark

> SELECT num, val, 'Spark' FROM explode_outer(map(1, 'a', 2, 'b')) AS t(num, val);
 1   a   Spark
 2   b   Spark

> SELECT * FROM explode_outer(array(1, 2)), explode_outer(array(3, 4));
 1   3
 1   4
 2   3
 2   4

> SELECT * FROM explode_outer(cast(NULL AS array<int>));
 NULL

-- Using lateral correlation in Databricks 12.2 and above
> SELECT * FROM explode_outer(array(1, 2)) AS t, LATERAL explode_outer(array(3 * t.col, 4 * t.col));
 1   3
 1   4
 2   6
 2   8