функция-генератор, возвращающая табличное значение explode
Область применения: Databricks SQL Databricks Runtime
Возвращает набор строк путем отмены вложения collection
.
В Databricks SQL и Databricks Runtime 13.3 LTS и выше эта функция поддерживает вызов именованных параметров.
Синтаксис
explode(collection)
Аргументы
-
collection
: выражение илиARRAY
выражениеMAP
.
Возвраты
Набор строк, состоящих из элементов массива или ключей и значений карты.
Столбец, образованный из explode
массива, называется col
.
Столбцы карты называются key
и value
.
collection
Если NULL
строки не создаются. Чтобы вернуть одну строку с NULL
для значений массива или отображения, используйте функцию explode_outer().
Применимо к: Databricks Runtime 12.1 и более ранних версий:
explode
можно поместить только в списокSELECT
в качестве корневого элемента выражения или следуя за LATERAL VIEW. При размещении функции в спискеSELECT
не должно быть другой функции генератора в том же спискеSELECT
, иначе возникает ошибка UNSUPPORTED_GENERATOR.MULTI_GENERATOR.Применимо к: Databricks SQL Databricks Runtime 12.2 LTS и выше:
Вызов из предложения LATERAL VIEW или списка
SELECT
не рекомендуется. Вместо этого вызовитеexplode
как table_reference.
Примеры
Область применения: Databricks SQL Databricks Runtime 12.1 и более ранних версий:
> SELECT explode(array(10, 20)) AS elem, 'Spark';
10 Spark
20 Spark
> SELECT explode(map(1, 'a', 2, 'b')) AS (num, val), 'Spark';
1 a Spark
2 b Spark
> SELECT explode(array(1, 2)), explode(array(3, 4));
Error: UNSUPPORTED_GENERATOR.MULTI_GENERATOR
-- The difference between explode() and explode_outer() is that explode_outer() returns NULL if the array is NULL.
> SELECT explode_outer(c1) AS elem, 'Spark' FROM VALUES(array(10, 20)), (null) AS T(c1);
10 Spark
20 Spark
NULL Spark
> SELECT explode(c1) AS elem, 'Spark' FROM VALUES(array(10, 20)), (null) AS T(c1);
10 Spark
20 Spark
Применимо к: Databricks SQL Databricks Runtime 12.2 LTS и выше:
> SELECT elem, 'Spark' FROM explode(array(10, 20)) AS t(elem);
10 Spark
20 Spark
> SELECT num, val, 'Spark' FROM explode(map(1, 'a', 2, 'b')) AS t(num, val);
1 a Spark
2 b Spark
> SELECT * FROM explode(array(1, 2)), explode(array(3, 4));
1 3
1 4
2 3
2 4
-- Using lateral correlation in Databricks 12.2 and above
> SELECT * FROM explode(array(1, 2)) AS t, LATERAL explode(array(3 * t.col, 4 * t.col));
1 3
1 4
2 6
2 8