Compartir vía


Uso de funciones definidas por el usuario (UDF) de Python con Apache Hive y Apache Pig en HDInsight

Aprenda a usar funciones definidas por el usuario (UDF) de Python con Apache Hive y Apache Pig en Apache Hadoop en Azure HDInsight.

Python en HDInsight

Python2.7 se instala de forma predeterminada en HDInsight 3.0 y versiones posteriores. Apache Hive puede usarse con esta versión de Python para el procesamiento de streaming. El procesamiento de streaming utiliza STDOUT y STDIN para pasar datos entre Hive y UDF.

HDInsight incluye también Jython, que es una implementación de Python escrita en Java. Jython se ejecuta directamente en la Máquina virtual Java y no utiliza streaming. Jython es el intérprete de Python recomendado cuando se usa Python con Pig.

Requisitos previos

Nota:

La cuenta de almacenamiento utilizada en este artículo ha sido Azure Storage con la transferencia segura habilitada y, por tanto, usaremos wasbs a lo largo del artículo.

Configuración de almacenamiento

No se requiere acción alguna si la cuenta de almacenamiento utilizada es de tipo Storage (general purpose v1) o StorageV2 (general purpose v2). El proceso en este artículo genera una salida al menos en /tezstaging. Una configuración de Hadoop predeterminada contiene /tezstaging en la variable de configuración fs.azure.page.blob.dir en core-site.xml para el servicio HDFS. Esta configuración hace que la salida al directorio sean blobs en páginas, que no se admiten en el tipo de cuenta de almacenamiento BlobStorage. Para usar BlobStorage en este artículo, quite /tezstaging de la variable de configuración fs.azure.page.blob.dir. Se puede acceder a la configuración desde la IU de Ambari. De lo contrario, recibirá el mensaje de error: Page blob is not supported for this account type.

Advertencia

En los pasos de este documento se realizan las hipótesis siguientes:

  • Se crean los scripts de Python en el entorno de desarrollo local.
  • Se cargan los scripts en HDInsight con el comando scp o el script de PowerShell proporcionado.

Si desea utilizar Azure Cloud Shell (bash) para trabajar con HDInsight, debe:

  • Crear los scripts dentro del entorno de Cloud Shell.
  • Usar scp para cargar los archivos de Cloud Shell a HDInsight.
  • Usar ssh de Cloud Shell para conectarse a HDInsight y ejecutar los ejemplos.

UDF de Apache Hive

Python se puede usar como UDF desde Hive a través de la instrucción TRANSFORM de HiveQL. Por ejemplo, el siguiente archivo HiveQL invoca el archivo hiveudf.py almacenado en la cuenta de Azure Storage predeterminada para el clúster.

add file wasbs:///hiveudf.py;

SELECT TRANSFORM (clientid, devicemake, devicemodel)
    USING 'python hiveudf.py' AS
    (clientid string, phoneLabel string, phoneHash string)
FROM hivesampletable
ORDER BY clientid LIMIT 50;

A continuación se muestra lo que hace este ejemplo:

  1. La instrucción add file al comienzo del archivo agrega el archivo hiveudf.py a la memoria caché distribuida, de modo que todos los nodos del clúster puedan acceder a él.
  2. La instrucción SELECT TRANSFORM ... USING selecciona datos desde hivesampletable. También pasa los valores clientid, devicemake y devicemodel al script hiveudf.py.
  3. La cláusula AS describe los campos devueltos por hiveudf.py.

Crear archivo

En el entorno de desarrollo, cree un archivo de texto denominado hiveudf.py. Use el siguiente código como contenido del archivo:

#!/usr/bin/env python
import sys
import string
import hashlib

while True:
    line = sys.stdin.readline()
    if not line:
        break

    line = string.strip(line, "\n ")
    clientid, devicemake, devicemodel = string.split(line, "\t")
    phone_label = devicemake + ' ' + devicemodel
    print "\t".join([clientid, phone_label, hashlib.md5(phone_label).hexdigest()])

Este script realiza las acciones siguientes:

  1. Lee una línea de datos de STDIN.
  2. El carácter de nueva línea final se quita mediante string.strip(line, "\n ").
  3. Al realizar el procesamiento por secuencias, una sola línea contiene todos los valores con un carácter de tabulación entre cada uno. Por tanto se puede usar string.split(line, "\t") para dividir la entrada en cada tabulación y que solo se devuelvan los campos.
  4. Cuando el procesamiento haya finalizado, la salida se debe escribir en STDOUT como una sola línea, con una tabulación entre cada campo. Por ejemplo, print "\t".join([clientid, phone_label, hashlib.md5(phone_label).hexdigest()]).
  5. El bucle while se repite hasta que no se lee ningún line.

La salida del script es una concatenación de los valores de entrada de devicemake y devicemodel, y un hash del valor concatenado.

Cargar archivo (shell)

El siguiente comando reemplaza sshuser por el nombre de usuario real, en caso de que no sea el mismo. Reemplace mycluster por el nombre de clúster real. Asegúrese de que el archivo se encuentra en el directorio de trabajo.

  1. Use scp para copiar los archivos en el clúster de HDInsight. Edite y escriba el comando:

    scp hiveudf.py sshuser@mycluster-ssh.azurehdinsight.net:
    
  2. Use SSH para conectarse al clúster. Edite y escriba el comando:

    ssh sshuser@mycluster-ssh.azurehdinsight.net
    
  3. En la sesión de SSH, agregue los archivos de Python cargados anteriormente en el almacenamiento del clúster.

    hdfs dfs -put hiveudf.py /hiveudf.py
    

Usar la UDF de Hive (shell)

  1. Para conectarse a Hive, use el siguiente comando en la sesión SSH abierta:

    beeline -u 'jdbc:hive2://headnodehost:10001/;transportMode=http'
    

    Este comando inicia al cliente de Beeline.

  2. En el símbolo del sistema 0: jdbc:hive2://headnodehost:10001/>, escriba la siguiente consulta:

    add file wasbs:///hiveudf.py;
    SELECT TRANSFORM (clientid, devicemake, devicemodel)
        USING 'python hiveudf.py' AS
        (clientid string, phoneLabel string, phoneHash string)
    FROM hivesampletable
    ORDER BY clientid LIMIT 50;
    
  3. Después de escribir la última línea, debe iniciarse el trabajo. Cuando el trabajo se completa, devuelve una salida similar al siguiente ejemplo:

    100041    RIM 9650    d476f3687700442549a83fac4560c51c
    100041    RIM 9650    d476f3687700442549a83fac4560c51c
    100042    Apple iPhone 4.2.x    375ad9a0ddc4351536804f1d5d0ea9b9
    100042    Apple iPhone 4.2.x    375ad9a0ddc4351536804f1d5d0ea9b9
    100042    Apple iPhone 4.2.x    375ad9a0ddc4351536804f1d5d0ea9b9
    
  4. Para salir de Beeline, escriba el comando siguiente:

    !q
    

Cargar archivo (PowerShell)

PowerShell también puede utilizarse para ejecutar consultas de Hive de forma remota. Asegúrese de que el directorio de trabajo es donde se encuentra hiveudf.py. Use el siguiente script de PowerShell para ejecutar una consulta de Hive que use el script hiveudf.py:

# Login to your Azure subscription
# Is there an active Azure subscription?
$sub = Get-AzSubscription -ErrorAction SilentlyContinue
if(-not($sub))
{
    Connect-AzAccount
}

# If you have multiple subscriptions, set the one to use
# Select-AzSubscription -SubscriptionId "<SUBSCRIPTIONID>"

# Revise file path as needed
$pathToStreamingFile = ".\hiveudf.py"

# Get cluster info
$clusterName = Read-Host -Prompt "Enter the HDInsight cluster name"
$clusterInfo = Get-AzHDInsightCluster -ClusterName $clusterName
$resourceGroup = $clusterInfo.ResourceGroup
$storageAccountName=$clusterInfo.DefaultStorageAccount.split('.')[0]
$container=$clusterInfo.DefaultStorageContainer
$storageAccountKey=(Get-AzStorageAccountKey `
   -ResourceGroupName $resourceGroup `
   -Name $storageAccountName)[0].Value

# Create an Azure Storage context
$context = New-AzStorageContext `
    -StorageAccountName $storageAccountName `
    -StorageAccountKey $storageAccountKey

# Upload local files to an Azure Storage blob
Set-AzStorageBlobContent `
    -File $pathToStreamingFile `
    -Blob "hiveudf.py" `
    -Container $container `
    -Context $context

Nota

Para obtener más información sobre la carga de archivos, consulte el documento Carga de datos para trabajos de Apache Hadoop en HDInsight.

Usar UDF de Hive

# Script should stop on failures
$ErrorActionPreference = "Stop"

# Login to your Azure subscription
# Is there an active Azure subscription?
$sub = Get-AzSubscription -ErrorAction SilentlyContinue
if(-not($sub))
{
    Connect-AzAccount
}

# If you have multiple subscriptions, set the one to use
# Select-AzSubscription -SubscriptionId "<SUBSCRIPTIONID>"

# Get cluster info
$clusterName = Read-Host -Prompt "Enter the HDInsight cluster name"
$creds=Get-Credential -UserName "admin" -Message "Enter the login for the cluster"

$HiveQuery = "add file wasbs:///hiveudf.py;" +
                "SELECT TRANSFORM (clientid, devicemake, devicemodel) " +
                "USING 'python hiveudf.py' AS " +
                "(clientid string, phoneLabel string, phoneHash string) " +
                "FROM hivesampletable " +
                "ORDER BY clientid LIMIT 50;"

# Create Hive job object
$jobDefinition = New-AzHDInsightHiveJobDefinition `
    -Query $HiveQuery

# For status bar updates
$activity="Hive query"

# Progress bar (optional)
Write-Progress -Activity $activity -Status "Starting query..."

# Start defined Azure HDInsight job on specified cluster.
$job = Start-AzHDInsightJob `
    -ClusterName $clusterName `
    -JobDefinition $jobDefinition `
    -HttpCredential $creds

# Progress bar (optional)
Write-Progress -Activity $activity -Status "Waiting on query to complete..."

# Wait for completion or failure of specified job
Wait-AzHDInsightJob `
    -JobId $job.JobId `
    -ClusterName $clusterName `
    -HttpCredential $creds

# Uncomment the following to see stderr output
<#
Get-AzHDInsightJobOutput `
   -Clustername $clusterName `
   -JobId $job.JobId `
   -HttpCredential $creds `
   -DisplayOutputType StandardError
#>

# Progress bar (optional)
Write-Progress -Activity $activity -Status "Retrieving output..."

# Gets the log output
Get-AzHDInsightJobOutput `
    -Clustername $clusterName `
    -JobId $job.JobId `
    -HttpCredential $creds

La salida del trabajo de Hive debe parecerse al siguiente ejemplo:

100041    RIM 9650    d476f3687700442549a83fac4560c51c
100041    RIM 9650    d476f3687700442549a83fac4560c51c
100042    Apple iPhone 4.2.x    375ad9a0ddc4351536804f1d5d0ea9b9
100042    Apple iPhone 4.2.x    375ad9a0ddc4351536804f1d5d0ea9b9
100042    Apple iPhone 4.2.x    375ad9a0ddc4351536804f1d5d0ea9b9

UDF de Apache Pig

Un script de Python se puede usar como UDF desde Pig a través de la instrucción GENERATE. Puede ejecutar el script mediante Jython o C Python.

  • Jython se ejecuta en JVM y se puede llamar de forma nativa desde Pig.
  • C Python es un proceso externo, por lo que los datos de Pig en JVM se envían al script que se ejecuta en un proceso de Python. La salida del script de Python se devuelve a Pig.

Para especificar el intérprete de Python, use register al hacer referencia al script de Python. Los ejemplos siguientes registran scripts con Pig como myfuncs:

  • Para usar Jython: register '/path/to/pigudf.py' using jython as myfuncs;
  • Para usar C Python: register '/path/to/pigudf.py' using streaming_python as myfuncs;

Importante

Al usar Jython, la ruta de acceso al archivo pig_jython puede ser una ruta de acceso local o una ruta de acceso WASBS://. Sin embargo, cuando se usa C Python, se debe hacer referencia a un archivo local en el sistema de archivos local del nodo que se usa para enviar el trabajo de Pig.

Pasado el registro, el Pig Latin en este ejemplo es el mismo para ambos:

LOGS = LOAD 'wasbs:///example/data/sample.log' as (LINE:chararray);
LOG = FILTER LOGS by LINE is not null;
DETAILS = FOREACH LOG GENERATE myfuncs.create_structure(LINE);
DUMP DETAILS;

A continuación se muestra lo que hace este ejemplo:

  1. La primera línea carga el archivo de datos de ejemplo sample.log en LOGS. También define cada registro como chararray.
  2. La siguiente línea filtra los valores nulos y almacena el resultado de la operación en LOG.
  3. A continuación, recorre en iteración los registros de LOG y usa GENERATE para invocar el método create_structure en el script de Python/Jython cargado como myfuncs. LINE se usa para pasar el registro actual a la función.
  4. Por último, los resultados se vuelcan en STDOUT con el comando DUMP. Este comando muestra los resultados una vez finalizada la operación.

Crear archivo

En el entorno de desarrollo, cree un archivo de texto denominado pigudf.py. Use el siguiente código como contenido del archivo:

# Uncomment the following if using C Python
#from pig_util import outputSchema


@outputSchema("log: {(date:chararray, time:chararray, classname:chararray, level:chararray, detail:chararray)}")
def create_structure(input):
    if (input.startswith('java.lang.Exception')):
        input = input[21:len(input)] + ' - java.lang.Exception'
    date, time, classname, level, detail = input.split(' ', 4)
    return date, time, classname, level, detail

En el ejemplo de Pig Latin, la entrada LINE se define como chararray porque no hay un esquema coherente para la entrada. El script de Python transforma los datos en un esquema coherente para la salida.

  1. La instrucción @outputSchema define el formato de los datos que se devuelven a Pig. En este caso es un contenedor de datos, que es un tipo de datos de Pig. El contenedor contiene los siguientes campos, los cuales son todos chararray (cadenas):

    • date: la fecha en la que se creó la entrada del registro
    • time: la hora a la que se creó la entrada del registro
    • classname: el nombre de la clase para la que se creó la entrada
    • level: el nivel de registro
    • detail: los detalles de la entrada del registro
  2. A continuación, def create_structure(input) define la función a la que Pig pasa elementos de línea.

  3. En los datos de ejemplo, sample.log, se ajusta principalmente al esquema de date, time, classname, level y detail. Sin embargo, contiene unas pocas líneas que comienzan por *java.lang.Exception*. Estas líneas deben modificarse para que coincidan con el esquema. La instrucción if las busca y luego modifica los datos de entrada para mover la cadena *java.lang.Exception* al final, de forma que pone los datos en línea con el esquema de salida esperado.

  4. A continuación, se usa el comando split para dividir los datos en los primeros cuatro caracteres de espacio. La salida se asigna a date, time, classname, level y detail.

  5. Finalmente, los valores se devuelven a Pig.

Entonces tendremos un esquema coherente tal y como se define en la instrucción @outputSchema.

Cargar archivo (shell)

En los siguientes comandos, reemplace sshuser por el nombre de usuario real, si es distinto. Reemplace mycluster por el nombre de clúster real. Asegúrese de que el archivo se encuentra en el directorio de trabajo.

  1. Use scp para copiar los archivos en el clúster de HDInsight. Edite y escriba el comando:

    scp pigudf.py sshuser@mycluster-ssh.azurehdinsight.net:
    
  2. Use SSH para conectarse al clúster. Edite y escriba el comando:

    ssh sshuser@mycluster-ssh.azurehdinsight.net
    
  3. En la sesión de SSH, agregue los archivos de Python cargados anteriormente en el almacenamiento del clúster.

    hdfs dfs -put pigudf.py /pigudf.py
    

Usar UDF de Pig (shell)

  1. Para conectarse a Pig, use el siguiente comando en la sesión SSH abierta:

    pig
    
  2. En el símbolo del sistema grunt>, escriba las siguientes instrucciones:

    Register wasbs:///pigudf.py using jython as myfuncs;
    LOGS = LOAD 'wasbs:///example/data/sample.log' as (LINE:chararray);
    LOG = FILTER LOGS by LINE is not null;
    DETAILS = foreach LOG generate myfuncs.create_structure(LINE);
    DUMP DETAILS;
    
  3. Después de escribir la siguiente línea, el trabajo debería iniciarse. Cuando el trabajo se completa, devuelve una salida similar a los datos siguientes:

    ((2012-02-03,20:11:56,SampleClass5,[TRACE],verbose detail for id 990982084))
    ((2012-02-03,20:11:56,SampleClass7,[TRACE],verbose detail for id 1560323914))
    ((2012-02-03,20:11:56,SampleClass8,[DEBUG],detail for id 2083681507))
    ((2012-02-03,20:11:56,SampleClass3,[TRACE],verbose detail for id 1718828806))
    ((2012-02-03,20:11:56,SampleClass3,[INFO],everything normal for id 530537821))
    
  4. Use quit para salir del shell de Grunt y use lo siguiente para editar el archivo pigudf.py en el sistema de archivos local:

    nano pigudf.py
    
  5. Una vez en el editor, quite la siguiente línea de comentario eliminando el carácter # del principio de la línea:

    #from pig_util import outputSchema
    

    Esta línea modifica el script de Python para trabajar con Python C, en lugar de con Jython. Cuando se haya realizado el cambio, use Ctrl + X para salir del editor. Seleccione Y y, a continuación, Intro para guardar los cambios.

  6. Use el comando pig para iniciar de nuevo el shell. Cuando esté en el símbolo del sistema grunt> , use lo siguiente para ejecutar el script de Python con el intérprete de C Python.

    Register 'pigudf.py' using streaming_python as myfuncs;
    LOGS = LOAD 'wasbs:///example/data/sample.log' as (LINE:chararray);
    LOG = FILTER LOGS by LINE is not null;
    DETAILS = foreach LOG generate myfuncs.create_structure(LINE);
    DUMP DETAILS;
    

    Una vez completado este trabajo, verá la misma salida que cuando anteriormente ejecutó el script mediante Jython.

Cargar archivo (PowerShell)

PowerShell también puede utilizarse para ejecutar consultas de Hive de forma remota. Asegúrese de que el directorio de trabajo es donde se encuentra pigudf.py. Use el siguiente script de PowerShell para ejecutar una consulta de Hive que use el script pigudf.py:

# Login to your Azure subscription
# Is there an active Azure subscription?
$sub = Get-AzSubscription -ErrorAction SilentlyContinue
if(-not($sub))
{
    Connect-AzAccount
}

# If you have multiple subscriptions, set the one to use
# Select-AzSubscription -SubscriptionId "<SUBSCRIPTIONID>"

# Revise file path as needed
$pathToJythonFile = ".\pigudf.py"


# Get cluster info
$clusterName = Read-Host -Prompt "Enter the HDInsight cluster name"
$clusterInfo = Get-AzHDInsightCluster -ClusterName $clusterName
$resourceGroup = $clusterInfo.ResourceGroup
$storageAccountName=$clusterInfo.DefaultStorageAccount.split('.')[0]
$container=$clusterInfo.DefaultStorageContainer
$storageAccountKey=(Get-AzStorageAccountKey `
   -ResourceGroupName $resourceGroup `
   -Name $storageAccountName)[0].Value

# Create an Azure Storage context
$context = New-AzStorageContext `
    -StorageAccountName $storageAccountName `
    -StorageAccountKey $storageAccountKey

# Upload local files to an Azure Storage blob
Set-AzStorageBlobContent `
    -File $pathToJythonFile `
    -Blob "pigudf.py" `
    -Container $container `
    -Context $context

Usar UDF de Pig (PowerShell)

Nota

Al enviar de forma remota un trabajo mediante PowerShell, no es posible usar Python C como intérprete.

PowerShell también puede utilizarse para ejecutar trabajos de Pig Latin. Para ejecutar un trabajo de Pig Latin que utilice el script pigudf.py, use el siguiente script de PowerShell:

# Script should stop on failures
$ErrorActionPreference = "Stop"

# Login to your Azure subscription
# Is there an active Azure subscription?
$sub = Get-AzSubscription -ErrorAction SilentlyContinue
if(-not($sub))
{
    Connect-AzAccount
}

# Get cluster info
$clusterName = Read-Host -Prompt "Enter the HDInsight cluster name"
$creds=Get-Credential -UserName "admin" -Message "Enter the login for the cluster"


$PigQuery = "Register wasbs:///pigudf.py using jython as myfuncs;" +
            "LOGS = LOAD 'wasbs:///example/data/sample.log' as (LINE:chararray);" +
            "LOG = FILTER LOGS by LINE is not null;" +
            "DETAILS = foreach LOG generate myfuncs.create_structure(LINE);" +
            "DUMP DETAILS;"

# Create Pig job object
$jobDefinition = New-AzHDInsightPigJobDefinition -Query $PigQuery

# For status bar updates
$activity="Pig job"

# Progress bar (optional)
Write-Progress -Activity $activity -Status "Starting job..."

# Start defined Azure HDInsight job on specified cluster.
$job = Start-AzHDInsightJob `
    -ClusterName $clusterName `
    -JobDefinition $jobDefinition `
    -HttpCredential $creds

# Progress bar (optional)
Write-Progress -Activity $activity -Status "Waiting for the Pig job to complete..."

# Wait for completion or failure of specified job
Wait-AzHDInsightJob `
    -Job $job.JobId `
    -ClusterName $clusterName `
    -HttpCredential $creds

# Uncomment the following to see stderr output
<#
Get-AzHDInsightJobOutput `
    -Clustername $clusterName `
    -JobId $job.JobId `
    -HttpCredential $creds `
    -DisplayOutputType StandardError
#>

# Progress bar (optional)
Write-Progress -Activity $activity "Retrieving output..."

# Gets the log output
Get-AzHDInsightJobOutput `
    -Clustername $clusterName `
    -JobId $job.JobId `
    -HttpCredential $creds

La salida del trabajo de Pig debe parecerse a los datos siguientes:

((2012-02-03,20:11:56,SampleClass5,[TRACE],verbose detail for id 990982084))
((2012-02-03,20:11:56,SampleClass7,[TRACE],verbose detail for id 1560323914))
((2012-02-03,20:11:56,SampleClass8,[DEBUG],detail for id 2083681507))
((2012-02-03,20:11:56,SampleClass3,[TRACE],verbose detail for id 1718828806))
((2012-02-03,20:11:56,SampleClass3,[INFO],everything normal for id 530537821))

Solución de problemas

Errores en la ejecución de trabajos

Al ejecutar el trabajo de Hive, es posible que se produzca un error similar al texto siguiente:

Caused by: org.apache.hadoop.hive.ql.metadata.HiveException: [Error 20001]: An error occurred while reading or writing to your custom script. It may have crashed with an error.

Este problema puede deberse a los finales de línea del archivo de Python. De forma predeterminada, muchos editores de Windows usan CRLF como final de línea, pero las aplicaciones Linux normalmente esperan caracteres LF.

Puede usar las siguientes instrucciones de PowerShell para quitar los caracteres CR antes de cargar el archivo en HDInsight:

Write-Progress -Activity $activity -Status "Waiting for the Pig job to complete..."

# Wait for completion or failure of specified job

Scripts de PowerShell

Ambos scripts de ejemplo de PowerShell usados para ejecutar los ejemplos contienen una línea comentada que muestra una salida con error para el trabajo. Si no ve la salida esperada para el trabajo, quite la marca de comentario de la siguiente línea y compruebe si la información de error indica un problema.

$activity="Pig job"

# Progress bar (optional)
Write-Progress -Activity $activity -Status "Starting job..."

La información de error (STDERR) y el resultado del trabajo (STDOUT) también se registran en el almacenamiento para HDInsight.

Para este trabajo... Examine estos archivos en el contenedor de blobs.
Hive /HivePython/stderr

/HivePython/stdout

Pig /PigPython/stderr

/PigPython/stdout

Pasos siguientes

Si necesita cargar módulos de Python que no se proporcionan de forma predeterminada, consulte How to deploy a module to Azure HDInsight (Implementación de un módulo en HDInsight de Azure).

Para conocer otras formas de usar Pig y Hive, y para obtener información sobre el uso de MapReduce, consulte los siguientes documentos: