次の方法で共有


ハイパーパラメーターのチューニング (プレビュー)

ハイパーパラメーター調整は、トレーニング中に機械学習モデルによって学習されず、トレーニング プロセスが開始される前にユーザーによって設定されるパラメーターの最適な値を見つけるプロセスです。 これらのパラメーターは一般にハイパーパラメーターと呼ばれ、例として学習率、ニューラル ネットワーク内の隠れ層の数、正則化の強さ、バッチ サイズなどがあります。

機械学習モデルのパフォーマンスは、ハイパーパラメーターの選択に対して非常に機密性が高く、最適なハイパーパラメーターのセットは、特定の問題とデータセットによって大きく異なる場合があります。 そのため、ハイパーパラメーターのチューニングは、モデルの精度と一般化のパフォーマンスに大きな影響を与える可能性があるため、機械学習パイプラインの重要なステップです。

Fabric では、データ サイエンティストは、ハイパーパラメーター調整要件のために、機械学習と AI 操作を効率的に自動化するための軽量 Python ライブラリである FLAMLを活用できます。 Fabric ノートブック内では、ユーザーは flaml.tune を呼び出して、経済的なハイパーパラメーター調整を行うことができます。

重要

この機能は、プレビュー 段階にあります。

チューニング ワークフロー

flaml.tune を使用して基本的なチューニング タスクを完了するには、次の 3 つの重要な手順があります。

  1. ハイパーパラメーターに関してチューニング目標を指定します。
  2. ハイパーパラメーターの検索スペースを指定します。
  3. チューニングを行うリソース予算の制約、構成に対する制約、または (または複数の) 特定のメトリックに対する制約など、チューニング制約を指定します。

チューニング目標

最初の手順では、チューニング目標を指定します。 これを行うには、まず、ユーザー定義関数 evaluation_functionのハイパーパラメーターに関して評価手順を指定する必要があります。 この関数には、入力としてハイパーパラメーター構成が必要です。 スカラーでメトリック値を返すか、メトリック名とメトリック値のペアのディクショナリを返すことができます。

次の例では、xyという名前の 2 つのハイパーパラメーターに対して評価関数を定義できます。

import time

def evaluate_config(config: dict):
    """evaluate a hyperparameter configuration"""
    score = (config["x"] - 85000) ** 2 - config["x"] / config["y"]


    faked_evaluation_cost = config["x"] / 100000
    time.sleep(faked_evaluation_cost)
    # we can return a single float as a score on the input config:
    # return score
    # or, we can return a dictionary that maps metric name to metric value:
    return {"score": score, "evaluation_cost": faked_evaluation_cost, "constraint_metric": config["x"] * config["y"]}

探索空間

次に、ハイパーパラメーターの検索空間を指定します。 検索空間では、ハイパーパラメーターの有効な値と、それらの値のサンプリング方法を指定する必要があります (たとえば、均一分布やログ均一分布から)。 次の例では、ハイパーパラメーターの xyの検索領域を指定できます。 両方の有効な値は、[1, 100,000] の範囲の整数です。 これらのハイパーパラメーターは、指定された範囲で均一にサンプリングされます。

from flaml import tune

# construct a search space for the hyperparameters x and y.
config_search_space = {
    "x": tune.lograndint(lower=1, upper=100000),
    "y": tune.randint(lower=1, upper=100000)
}

# provide the search space to tune.run
tune.run(..., config=config_search_space, ...)

FLAML を使用すると、ユーザーは特定のハイパーパラメーターのドメインをカスタマイズできます。 これにより、ユーザーは 型の を指定し、サンプル パラメーターの有効な範囲できます。 FLAML では、float、integer、およびカテゴリのハイパーパラメーター型がサポートされています。 一般的に使用されるドメインについては、次の例を参照してください。

config = {
    # Sample a float uniformly between -5.0 and -1.0
    "uniform": tune.uniform(-5, -1),

    # Sample a float uniformly between 3.2 and 5.4,
    # rounding to increments of 0.2
    "quniform": tune.quniform(3.2, 5.4, 0.2),

    # Sample a float uniformly between 0.0001 and 0.01, while
    # sampling in log space
    "loguniform": tune.loguniform(1e-4, 1e-2),

    # Sample a float uniformly between 0.0001 and 0.1, while
    # sampling in log space and rounding to increments of 0.00005
    "qloguniform": tune.qloguniform(1e-4, 1e-1, 5e-5),

    # Sample a random float from a normal distribution with
    # mean=10 and sd=2
    "randn": tune.randn(10, 2),

    # Sample a random float from a normal distribution with
    # mean=10 and sd=2, rounding to increments of 0.2
    "qrandn": tune.qrandn(10, 2, 0.2),

    # Sample a integer uniformly between -9 (inclusive) and 15 (exclusive)
    "randint": tune.randint(-9, 15),

    # Sample a random uniformly between -21 (inclusive) and 12 (inclusive (!))
    # rounding to increments of 3 (includes 12)
    "qrandint": tune.qrandint(-21, 12, 3),

    # Sample a integer uniformly between 1 (inclusive) and 10 (exclusive),
    # while sampling in log space
    "lograndint": tune.lograndint(1, 10),

    # Sample a integer uniformly between 2 (inclusive) and 10 (inclusive (!)),
    # while sampling in log space and rounding to increments of 2
    "qlograndint": tune.qlograndint(2, 10, 2),

    # Sample an option uniformly from the specified choices
    "choice": tune.choice(["a", "b", "c"]),
}

検索空間内のドメインをカスタマイズする方法の詳細については、検索スペース のカスタマイズに関する FLAML ドキュメント参照してください。

チューニング制約

最後の手順では、チューニング タスクの制約を指定します。 flaml.tune の重要なプロパティの 1 つは、必要なリソース制約内でチューニング プロセスを完了できることです。 これを行うには、ユーザーは、time_budget_s 引数を使用して、または num_samples 引数を使用した試行回数の観点から、壁時計の時間 (秒単位) の観点からリソースの制約を提供できます。

# Set a resource constraint of 60 seconds wall-clock time for the tuning.
flaml.tune.run(..., time_budget_s=60, ...)

# Set a resource constraint of 100 trials for the tuning.
flaml.tune.run(..., num_samples=100, ...)

# Use at most 60 seconds and at most 100 trials for the tuning.
flaml.tune.run(..., time_budget_s=60, num_samples=100, ...)

追加構成の制約の詳細については、高度なチューニング オプション については、FLAML ドキュメント参照してください。

まとめ

チューニング条件を定義したら、チューニング試用版を実行できます。 試用版の結果を追跡するために、MLFlow 自動ログ記録 を利用して、これらの各実行のメトリックとパラメーターをキャプチャできます。 このコードでは、ハイパーパラメーター調整試用版全体がキャプチャされ、FLAML によって探索された各ハイパーパラメーターの組み合わせが強調表示されます。

import mlflow
mlflow.set_experiment("flaml_tune_experiment")
mlflow.autolog(exclusive=False)

with mlflow.start_run(nested=True, run_name="Child Run: "):
    analysis = tune.run(
        evaluate_config,  # the function to evaluate a config
        config=config_search_space,  # the search space defined
        metric="score",
        mode="min",  # the optimization mode, "min" or "max"
        num_samples=-1,  # the maximal number of configs to try, -1 means infinite
        time_budget_s=10,  # the time budget in seconds
    )

手記

MLflow 自動ログ記録を有効にすると、MLFlow の実行時にメトリック、パラメーター、モデルが自動的にログに記録されます。 ただし、これはフレームワークによって異なります。 特定のモデルのメトリックとパラメーターがログに記録されない場合があります。 たとえば、XGBoost、LightGBM、Spark、SynapseML モデルのメトリックはログに記録されません。 各フレームワークからキャプチャされるメトリックとパラメーターの詳細については、MLFlow の自動ログ記録に関するドキュメントを使用します。

Apache Spark を使用した並列チューニング

flaml.tune 機能では、Apache Spark と単一ノード学習者の両方のチューニングがサポートされています。 また、単一ノード学習者 (Scikit-Learn 学習者など) をチューニングする場合は、use_spark = Trueを設定してチューニング プロセスを高速化するようにチューニングを並列化することもできます。 Spark クラスターの場合、既定では、FLAML は Executor ごとに 1 つの試用版を起動します。 n_concurrent_trials 引数を使用して、同時試行回数をカスタマイズすることもできます。


analysis = tune.run(
    evaluate_config,  # the function to evaluate a config
    config=config_search_space,  # the search space defined
    metric="score",
    mode="min",  # the optimization mode, "min" or "max"
    num_samples=-1,  # the maximal number of configs to try, -1 means infinite
    time_budget_s=10,  # the time budget in seconds
    use_spark=True,
)
print(analysis.best_trial.last_result)  # the best trial's result
print(analysis.best_config)  # the best config

チューニングトレイルを並列化する方法の詳細については、FLAML の並列 Spark ジョブのドキュメント を参照してください

結果を視覚化する

flaml.visualization モジュールには、Plotly を使用して最適化プロセスをプロットするためのユーティリティ関数が用意されています。 Plotly を利用することで、ユーザーは AutoML の実験結果を対話的に調べることができます。 これらのプロット関数を使用するには、単に最適化された flaml.AutoML または flaml.tune.tune.ExperimentAnalysis オブジェクトを入力として指定します。

ノートブック内で次の関数を使用できます。

  • plot_optimization_history: 実験内のすべての試行の最適化履歴をプロットします。
  • plot_feature_importance: データセット内の各特徴の重要度をプロットします。
  • plot_parallel_coordinate: 実験内の高次元パラメーターのリレーションシップをプロットします。
  • plot_contour: パラメーターの関係を実験のコンター プロットとしてプロットします。
  • plot_edf: 実験の目標値EDF(経験分布関数)をプロットします。
  • plot_timeline: 実験のタイムラインをプロットします。
  • plot_slice: スタディのスライス プロットとしてパラメーター リレーションシップをプロットします。
  • plot_param_importance: 実験のハイパーパラメーターの重要度をプロットします。