Compartir a través de


Entrenamiento de modelos con conjuntos de datos de Azure Machine Learning

SE APLICA A: Azure ML del SDK de Python v1

En este artículo va a aprender a usar conjuntos de datos de Azure Machine Learning para entrenar modelos de Machine Learning. Puede usar conjuntos de datos en el destino de proceso local o remoto sin preocuparse por las cadenas de conexión o las rutas de acceso a datos.

Los conjuntos de datos de Azure Machine Learning proporcionan una integración perfecta con funcionalidades de entrenamiento de Azure Machine Learning como ScriptRunConfig, HyperDrive y canalizaciones de Azure Machine Learning.

Si no está preparado para poner los datos a disposición del entrenamiento del modelo, pero quiere cargarlos en el cuaderno para la exploración de datos, vea cómo explorar los datos del conjunto de datos.

Prerrequisitos

Para crear conjuntos de datos y entrenar con ellos, necesita:

Nota

Algunas clases Dataset tienen dependencias del paquete azureml dataprep. Para los usuarios de Linux, estas clases son compatibles solo en las siguientes distribuciones: Red Hat Enterprise Linux, Ubuntu y Fedora.

Consumo de conjuntos de datos en scripts de entrenamiento de aprendizaje automático

Si tiene datos estructurados que aún no se han registrado como un conjunto de datos, cree un conjunto de datos TabularDataset y úselo directamente en el script de entrenamiento para su experimento local o remoto.

En este ejemplo, se crea un elemento TabularDataset no registrado y se especifica como un argumento de script en el objeto ScriptRunConfig para el entrenamiento. Si desea volver a usar este conjunto de datos TabularDataset con otros experimentos en su área de trabajo, consulte Registro de conjuntos de registros en su área de trabajo.

Creación de un objeto TabularDataset

En el código siguiente se crea un objeto TabularDataset no registrado a partir de una dirección URL web.

from azureml.core.dataset import Dataset

web_path ='https://dprepdata.blob.core.windows.net/demo/Titanic.csv'
titanic_ds = Dataset.Tabular.from_delimited_files(path=web_path)

Los objetos TabularDataset ofrecen la posibilidad de cargar los datos de su conjunto de datos TabularDataset en un DataFrame de Pandas o Spark para que pueda trabajar con bibliotecas conocidas de entrenamiento y preparación de datos sin tener que salir del cuaderno.

Acceso al conjunto de datos en el script de entrenamiento

El código siguiente configura el argumento de script --input-data que se especificará al configurar la ejecución del entrenamiento (consulte la sección siguiente). Cuando se pasa el conjunto de datos tabular como valor del argumento, Azure Machine Learning lo resuelve al id. del conjunto de datos. Después podrá usar ese valor de argumento para acceder al conjunto de datos en su script de entrenamiento (sin tener que codificar de forma rígida el nombre o el id. del conjunto de datos en su script). A continuación, se usa el método to_pandas_dataframe() para cargar ese conjunto de datos en un dataframe de Pandas para la exploración y preparación de los datos antes del entrenamiento.

Nota:

Si el origen de datos original contiene NaN, cadenas vacías o valores en blanco, cuando se utiliza to_pandas_dataframe(), esos valores se reemplazan como valor Null.

Si necesita cargar los datos preparados en un nuevo conjunto de datos a partir de un dataframe de Pandas en memoria, escriba los datos en un archivo local, como un archivo Parquet, y cree el nuevo conjunto de datos a partir de ese archivo. Más información sobre cómo crear conjuntos de datos.

%%writefile $script_folder/train_titanic.py

import argparse
from azureml.core import Dataset, Run

parser = argparse.ArgumentParser()
parser.add_argument("--input-data", type=str)
args = parser.parse_args()

run = Run.get_context()
ws = run.experiment.workspace

# get the input dataset by ID
dataset = Dataset.get_by_id(ws, id=args.input_data)

# load the TabularDataset to pandas DataFrame
df = dataset.to_pandas_dataframe()

Configuración de la ejecución de entrenamiento

Se usa un objeto ScriptRunConfig para configurar y enviar la ejecución de entrenamiento.

Este código crea un objeto ScriptRunConfig, src, que especifica:

  • Un directorio de script para los scripts. Todos los archivos de este directorio se cargan en los nodos del clúster para su ejecución.
  • El script de entrenamiento, train_titanic. .
  • El conjunto de datos de entrada del entrenamiento, titanic_ds, como un argumento de script. Azure Machine Learning lo resolverá en el identificador correspondiente del conjunto de datos cuando se pase al script.
  • El destino de proceso de la ejecución.
  • El entorno de la ejecución.
from azureml.core import ScriptRunConfig

src = ScriptRunConfig(source_directory=script_folder,
                      script='train_titanic.py',
                      # pass dataset as an input with friendly name 'titanic'
                      arguments=['--input-data', titanic_ds.as_named_input('titanic')],
                      compute_target=compute_target,
                      environment=myenv)
                             
# Submit the run configuration for your training run
run = experiment.submit(src)
run.wait_for_completion(show_output=True)                             

Montar los archivos en destinos de proceso remotos

Si tiene datos no estructurados, cree un conjunto de datos FileDataset y monte o descargue los archivos de datos para que estén disponibles para el destino de proceso remoto para el entrenamiento. Obtenga información acerca de cuándo usar el montaje frente a la descarga para los experimentos de entrenamiento remoto.

El ejemplo siguiente

  • Se crea un objeto FileDataset de entrada, mnist_ds, para los datos de entrenamiento.
  • Se especifica dónde escribir los resultados del entrenamiento y promover esos resultados como un objeto FileDataset.
  • Se monta el conjunto de datos de entrada en el destino de proceso.

Nota

Si usa una imagen base de Docker personalizada, tendrá que instalar Fuse a través de apt-get install -y fuse como una dependencia para que el montaje del conjunto de datos funcione. Obtenga información sobre cómo compilar una imagen de compilación personalizada.

Para obtener el ejemplo de cuaderno, consulte Configuración de una ejecución de entrenamiento con entrada y salida de datos.

Creación de un objeto FileDataset

En el ejemplo siguiente se crea un objeto FileDataset no registrado, mnist_data, a partir de direcciones URL web. Este objeto FileDataset son los datos de entrada de la ejecución de entrenamiento.

Más información sobre cómo crear conjuntos de datos desde otros orígenes.


from azureml.core.dataset import Dataset

web_paths = [
            'http://yann.lecun.com/exdb/mnist/train-images-idx3-ubyte.gz',
            'http://yann.lecun.com/exdb/mnist/train-labels-idx1-ubyte.gz',
            'http://yann.lecun.com/exdb/mnist/t10k-images-idx3-ubyte.gz',
            'http://yann.lecun.com/exdb/mnist/t10k-labels-idx1-ubyte.gz'
            ]

mnist_ds = Dataset.File.from_files(path = web_paths)

Dónde escribir la salida del entrenamiento

Puede especificar dónde escribir los resultados del entrenamiento con un objeto OutputFileDatasetConfig.

Los objetos OutputFileDatasetConfig permiten:

  • Montar o cargar la salida de una ejecución en el almacenamiento en la nube que especifique.
  • Guardar la salida como un objeto FileDataset en estos tipos de almacenamiento admitidos:
    • Blob de Azure
    • Recurso compartido de archivos de Azure
    • Azure Data Lake Storage Gen 1 y Gen 2
  • Realizar un seguimiento del linaje de datos entre las ejecuciones de entrenamiento.

El código siguiente especifica que los resultados del entrenamiento se deben guardar como un objeto FileDataset en la carpeta outputdataset del almacén de datos de blobs predeterminado, def_blob_store.

from azureml.core import Workspace
from azureml.data import OutputFileDatasetConfig

ws = Workspace.from_config()

def_blob_store = ws.get_default_datastore()
output = OutputFileDatasetConfig(destination=(def_blob_store, 'sample/outputdataset'))

Configuración de la ejecución de entrenamiento

Se recomienda pasar el conjunto de datos como argumento cuando se realiza el montaje mediante el parámetro arguments del constructor de ScriptRunConfig. Al hacerlo, tendrá la ruta de acceso de los datos (punto de montaje) en el script de entrenamiento mediante argumentos. En otras palabras, podrá usar el mismo script de entrenamiento para la depuración local y el entrenamiento remoto en todas las plataformas en la nube.

En el ejemplo siguiente se crea un objeto ScriptRunConfig que pasa el conjunto de datos FileDataset mediante arguments. Después de enviar la ejecución, los archivos de datos a los que hace referencia el conjunto de datos mnist_ds se montan en el destino de proceso y los resultados del entrenamiento se guardan en la carpeta outputdataset especificada en el almacén de datos predeterminado.

from azureml.core import ScriptRunConfig

input_data= mnist_ds.as_named_input('input').as_mount()# the dataset will be mounted on the remote compute 

src = ScriptRunConfig(source_directory=script_folder,
                      script='dummy_train.py',
                      arguments=[input_data, output],
                      compute_target=compute_target,
                      environment=myenv)

# Submit the run configuration for your training run
run = experiment.submit(src)
run.wait_for_completion(show_output=True)

Script de entrenamiento simple

El siguiente script se envía con ScriptRunConfig. Lee el conjunto de datos mnist_ds como entrada y escribe el archivo en la carpeta outputdataset del almacén de datos de blobs predeterminado, def_blob_store.

%%writefile $source_directory/dummy_train.py

# Copyright (c) Microsoft Corporation. All rights reserved.
# Licensed under the MIT License.
import sys
import os

print("*********************************************************")
print("Hello Azure Machine Learning!")

mounted_input_path = sys.argv[1]
mounted_output_path = sys.argv[2]

print("Argument 1: %s" % mounted_input_path)
print("Argument 2: %s" % mounted_output_path)
    
with open(mounted_input_path, 'r') as f:
    content = f.read()
    with open(os.path.join(mounted_output_path, 'output.csv'), 'w') as fw:
        fw.write(content)

Montaje frente a descarga

Tanto el montaje como la descarga de archivos de cualquier formato se admiten en los conjuntos de datos creados desde Azure Blob Storage, Azure Files, Azure Data Lake Storage Gen1, Azure Data Lake Storage Gen2, Azure SQL Database y Azure Database for PostgreSQL.

Al montar un conjunto de datos, se asocian a un directorio (punto de montaje) los archivos a los que hace referencia en el conjunto de datos, y este se vuelve disponible en el destino de proceso. El montaje se admite en procesos basados en Linux, como Proceso de Azure Machine Learning, máquinas virtuales y HDInsight. Si el tamaño de los datos supera el tamaño del disco de proceso, no es posible realizar la descarga. En este escenario, se recomienda el montaje, ya que en el momento del procesamiento solo se cargan los archivos de datos usados por el script.

Al descargar un conjunto de datos, todos los archivos a los que se hace referencia en él se descargarán en el destino de proceso. La descarga se admite con todos los tipos de proceso. Si el script procesa todos los archivos a los que se hace referencia en el conjunto de datos y el disco de proceso puede caber en el conjunto de datos completo, se recomienda la descarga para evitar la sobrecarga de la transmisión de datos desde los servicios de almacenamiento. Para descargas de varios nodos, consulte cómo evitar la limitación.

Nota

El nombre de la ruta de acceso de descarga no debe tener más de 255 caracteres alfanuméricos para el sistema operativo Windows. En el caso de Linux, el nombre de la ruta de acceso de descarga no debe tener más de 4096 caracteres alfanuméricos. Además, para el sistema operativo Linux, el nombre de archivo (que es el último segmento de la ruta de acceso de descarga /path/to/file/{filename}) no debe tener más de 255 caracteres alfanuméricos.

El siguiente código monta el elemento dataset en el directorio temporal de mounted_path.

import tempfile
mounted_path = tempfile.mkdtemp()

# mount dataset onto the mounted_path of a Linux-based compute
mount_context = dataset.mount(mounted_path)

mount_context.start()

import os
print(os.listdir(mounted_path))
print (mounted_path)

Obtención de conjuntos de datos en scripts de aprendizaje automático

A los conjuntos de bases de datos registrados se puede acceder de local y remota en clústeres de proceso como el proceso de Azure Machine Learning. Para tener acceso a un conjunto de datos registrado en los experimentos, use el siguiente código para acceder al área de trabajo y obtener el conjunto de datos usado en la anterior ejecución enviada. De forma predeterminada, el método get_by_name() de la clase Dataset devuelve la versión más reciente del conjunto de datos registrada en el área de trabajo.

%%writefile $script_folder/train.py

from azureml.core import Dataset, Run

run = Run.get_context()
workspace = run.experiment.workspace

dataset_name = 'titanic_ds'

# Get a dataset by name
titanic_ds = Dataset.get_by_name(workspace=workspace, name=dataset_name)

# Load a TabularDataset into pandas DataFrame
df = titanic_ds.to_pandas_dataframe()

Acceso al código fuente durante el entrenamiento

Azure Blob Storage presenta mayores velocidades de rendimiento que un recurso compartido de archivos de Azure y se escala a un gran número de trabajos iniciados en paralelo. Por esta razón, se recomienda configurar las ejecuciones de manera que usen Blob Storage para transferir archivos de código fuente.

En el ejemplo de código siguiente se especifica en la configuración de ejecución el almacén de datos de blobs que se usará para las transferencias de código fuente.

# workspaceblobstore is the default blob storage
src.run_config.source_directory_data_store = "workspaceblobstore" 

Ejemplos de cuadernos

Solución de problemas

Error al inicializar el conjunto de datos: se ha agotado el tiempo de espera a que el punto de montaje estuviera listo:

  • Si no tiene ninguna regla de grupos de seguridad de red y usa azureml-sdk>=1.12.0, actualice azureml-dataset-runtime y sus dependencias a las más recientes para la versión secundaria específica, o bien, si la usa en una ejecución, vuelva a crear el entorno para que pueda tener la revisión más reciente con la corrección.
  • Si usa azureml-sdk<1.12.0, actualice a la versión más reciente.
  • Si tiene reglas de grupos de seguridad de red de salida, asegúrese de que haya una regla de salida que permita todo el tráfico de la etiqueta de servicio AzureResourceMonitor.

Error de inicialización del conjunto de datos: StreamAccessException fue causado por ThrottlingException

En el caso de las descargas de archivos de varios nodos, todos los nodos pueden intentar descargar todos los archivos del conjunto de datos de archivos desde el servicio Azure Storage, lo que produce un error de limitación. Para evitar la limitación, establezca inicialmente la variable de entorno AZUREML_DOWNLOAD_CONCURRENCY en un valor de ocho veces el número de núcleos de CPU dividido por el número de nodos. La configuración de un valor para esta variable de entorno puede requerir cierta experimentación, por lo que la guía mencionada anteriormente es un punto de partida.

En el ejemplo siguiente, se supone que hay 32 núcleos y 4 nodos.

from azureml.core.environment import Environment 
myenv = Environment(name="myenv")
myenv.environment_variables = {"AZUREML_DOWNLOAD_CONCURRENCY":64}

Almacenamiento en AzureFile

No se pueden cargar archivos de proyecto en el directorio de trabajo en AzureFile porque el almacenamiento está sobrecargado:

  • Si usa un recurso compartido de archivos para otras cargas de trabajo, como la transferencia de datos, se recomienda usar blobs para que el recurso compartido de archivos se pueda usar para el envío de ejecuciones.

  • También puede dividir la carga de trabajo entre dos áreas de trabajo diferentes.

ConfigException: no se pudo crear una conexión a AzureFileService debido a que faltan credenciales. Una clave de cuenta o un token de SAS deben vincularse al almacén de blobs del área de trabajo predeterminado.

Para asegurarse de que las credenciales de acceso de almacenamiento están vinculadas al área de trabajo y al almacén de datos de archivos asociado, complete los pasos siguientes:

  1. Vaya al área de trabajo en Azure Portal.
  2. Seleccione el vínculo de almacenamiento en la página Información general del área de trabajo.
  3. En la página de almacenamiento, seleccione Claves de acceso en el menú de la izquierda.
  4. Copie la clave.
  5. Vaya a la instancia de Estudio de Azure Machine Learning del área de trabajo.
  6. En el estudio, seleccione el almacén de datos de archivos para el que desea proporcionar credenciales de autenticación.
  7. Seleccione Actualizar autenticación.
  8. Pegue la clave de los pasos anteriores.
  9. Seleccione Guardar.

Paso de datos como entrada

TypeError: FileNotFound: no se encontró el archivo o directorio: Este error se produce si la ruta de acceso al archivo que se proporcionó no es donde se encuentra el archivo. Debe asegurarse de que la forma en que hace referencia al archivo es coherente con la ubicación en la que montó el conjunto de archivos en el destino de proceso. Para garantizar un estado determinista, se recomienda usar la ruta de acceso abstracta al montar un conjunto de datos en un destino de proceso. Por ejemplo, en el código siguiente se monta el conjunto de datos en la raíz del sistema de archivos del destino de proceso, /tmp.

# Note the leading / in '/tmp/dataset'
script_params = {
    '--data-folder': dset.as_named_input('dogscats_train').as_mount('/tmp/dataset'),
} 

Si no incluye la barra diagonal inicial ("/"), tendrá que prefijar el directorio de trabajo (por ejemplo, /mnt/batch/.../tmp/dataset) en el destino de proceso para indicar dónde quiere que se monte el conjunto de datos.

Pasos siguientes