Usare un processo di sweep per l'ottimizzazione degli iperparametri

Completato

In Azure Machine Learning è possibile ottimizzare gli iperparametri eseguendo un processo di sweep.

Creare uno script di training per l'ottimizzazione degli iperparametri

Per eseguire un processo di sweep, è necessario creare uno script di training nello stesso modo in cui si farebbe per qualsiasi altro processo di training, ad eccezione del fatto che lo script deve:

  • Includere un argomento per ogni iperparametro da modificare.
  • Registrare la metrica delle prestazioni di destinazione con MLflow. Una metrica registrata consente al processo di sweep di valutare le prestazioni delle prove avviate e di identificare quella che produce il modello con prestazioni migliori.

Ad esempio, lo script di esempio seguente esegue il training di un modello di regressione logistica usando un --regularization argomento per impostare l'iperparametro della frequenza di regolarizzazione e registra la metrica di accuratezza con il nome Accuracy:

import argparse
import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
import mlflow

# get regularization hyperparameter
parser = argparse.ArgumentParser()
parser.add_argument('--regularization', type=float, dest='reg_rate', default=0.01)
args = parser.parse_args()
reg = args.reg_rate

# load the training dataset
data = pd.read_csv("data.csv")

# separate features and labels, and split for training/validatiom
X = data[['feature1','feature2','feature3','feature4']].values
y = data['label'].values
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.30)

# train a logistic regression model with the reg hyperparameter
model = LogisticRegression(C=1/reg, solver="liblinear").fit(X_train, y_train)

# calculate and log accuracy
y_hat = model.predict(X_test)
acc = np.average(y_hat == y_test)
mlflow.log_metric("Accuracy", acc)

Configurare ed eseguire un processo di sweep

Per preparare il processo di sweep è prima necessario creare un processo di comando di base che specifica quale script eseguire e definisce i parametri usati dallo script:

from azure.ai.ml import command

# configure command job as base
job = command(
    code="./src",
    command="python train.py --regularization ${{inputs.reg_rate}}",
    inputs={
        "reg_rate": 0.01,
    },
    environment="AzureML-sklearn-0.24-ubuntu18.04-py37-cpu@latest",
    compute="aml-cluster",
    )

È quindi possibile eseguire l'override dei parametri di input con lo spazio di ricerca:

from azure.ai.ml.sweep import Choice

command_job_for_sweep = job(
    reg_rate=Choice(values=[0.01, 0.1, 1]),
)

Infine, chiamare sweep() nel processo di comando per eseguire lo sweep nello spazio di ricerca:

from azure.ai.ml import MLClient

# apply the sweep parameter to obtain the sweep_job
sweep_job = command_job_for_sweep.sweep(
    compute="aml-cluster",
    sampling_algorithm="grid",
    primary_metric="Accuracy",
    goal="Maximize",
)

# set the name of the sweep job experiment
sweep_job.experiment_name="sweep-example"

# define the limits for this sweep
sweep_job.set_limits(max_total_trials=4, max_concurrent_trials=2, timeout=7200)

# submit the sweep
returned_sweep_job = ml_client.create_or_update(sweep_job)

Monitorare ed esaminare i processi di sweep

È possibile monitorare i processi di sweep in studio di Azure Machine Learning. Il processo di sweep avvierà le prove per ogni combinazione di iperparametri da provare. Per ogni prova è possibile esaminare tutte le metriche registrate.

È anche possibile valutare e confrontare i modelli visualizzando le prove in studio di Azure Machine Learning. È possibile modificare ogni grafico per mostrare e confrontare i valori e le metriche degli iperparametri per ogni prova.

Suggerimento

Altre informazioni su come visualizzare i processi di ottimizzazione degli iperparametri.