Compartir a través de


explode (función de generador con valores de tabla)

Se aplica a: casilla marcada como Sí Databricks SQL casilla marcada como Sí Databricks Runtime

Devuelve un conjunto de filas anulando el anidamiento de collection.

En Databricks SQL y Databricks Runtime 13.3 LTS y versiones posteriores, esta función admite la invocación de parámetros con nombre.

Sintaxis

explode(collection)

Argumentos

  • collection: una expresión ARRAY o MAP.

Devoluciones

Un conjunto de filas compuestas por los elementos de la matriz o las claves y los valores del mapa. La columna generada por explode de una matriz se denomina col. Las columnas de un mapa se denominan key y value.

Si collection es NULL, no se genera ninguna fila.

  • Se aplica a: check marked yes Databricks Runtime 12.1 y versiones posteriores:

    explode solo se puede colocar en la lista SELECT como la raíz de una expresión o después de una VISTA LATERAL. Al colocar la función en la lista SELECT, no debe haber ninguna otra función generadora en la misma lista SELECT o se genera UNSUPPORTED_GENERATOR. MULTI_GENERATOR.

  • Se aplica a casilla marcada como sí Databricks SQL casilla marcada como Sí Databricks Runtime 12.2 LTS y versiones posteriores:

    La invocación de la cláusula LATERAL VIEW o la lista SELECT está en desuso. En su lugar, invoca explode como un table_reference.

Ejemplos

Se aplica a: casilla marcada como Sí Databricks SQL casilla marcada como SíDatabricks Runtime 12.1 y versiones posteriores:

> SELECT explode(array(10, 20)) AS elem, 'Spark';
 10 Spark
 20 Spark

> SELECT explode(map(1, 'a', 2, 'b')) AS (num, val), 'Spark';
 1   a   Spark
 2   b   Spark

> SELECT explode(array(1, 2)), explode(array(3, 4));
  Error: UNSUPPORTED_GENERATOR.MULTI_GENERATOR

Se aplica a casilla marcada como sí Databricks SQL casilla marcada como Sí Databricks Runtime 12.2 LTS y versiones posteriores:

> SELECT elem, 'Spark' FROM explode(array(10, 20)) AS t(elem);
 10 Spark
 20 Spark

> SELECT num, val, 'Spark' FROM explode(map(1, 'a', 2, 'b')) AS t(num, val);
 1   a   Spark
 2   b   Spark

> SELECT * FROM explode(array(1, 2)), explode(array(3, 4));
 1   3
 1   4
 2   3
 2   4

-- Using lateral correlation in Databricks 12.2 and above
> SELECT * FROM explode(array(1, 2)) AS t, LATERAL explode(array(3 * t.col, 4 * t.col));
 1   3
 1   4
 2   6
 2   8