Udostępnij za pośrednictwem


AutoMLExperiment Klasa

Definicja

Klasa eksperymentu automatycznego uczenia maszynowego

public class AutoMLExperiment
type AutoMLExperiment = class
Public Class AutoMLExperiment
Dziedziczenie
AutoMLExperiment

Przykłady

using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using Microsoft.ML.Data;

namespace Microsoft.ML.AutoML.Samples
{
    public static class AutoMLExperiment
    {
        public static async Task RunAsync()
        {
            var seed = 0;

            // Create a new context for ML.NET operations. It can be used for
            // exception tracking and logging, as a catalog of available operations
            // and as the source of randomness. Setting the seed to a fixed number
            // in this example to make outputs deterministic.
            var context = new MLContext(seed);

            // Create a list of training data points and convert it to IDataView.
            var data = GenerateRandomBinaryClassificationDataPoints(100, seed);
            var dataView = context.Data.LoadFromEnumerable(data);

            var trainTestSplit = context.Data.TrainTestSplit(dataView);

            // Define the sweepable pipeline using predefined binary trainers and search space.
            var pipeline = context.Auto().BinaryClassification(labelColumnName: "Label", featureColumnName: "Features");

            // Create an AutoML experiment
            var experiment = context.Auto().CreateExperiment();

            // Redirect AutoML log to console
            context.Log += (object o, LoggingEventArgs e) =>
            {
                if (e.Source == nameof(AutoMLExperiment) && e.Kind > Runtime.ChannelMessageKind.Trace)
                {
                    Console.WriteLine(e.RawMessage);
                }
            };

            // Config experiment to optimize "Accuracy" metric on given dataset.
            // This experiment will run hyper-parameter optimization on given pipeline
            experiment.SetPipeline(pipeline)
                      .SetDataset(trainTestSplit.TrainSet, fold: 5) // use 5-fold cross validation to evaluate each trial
                      .SetBinaryClassificationMetric(BinaryClassificationMetric.Accuracy, "Label")
                      .SetMaxModelToExplore(100); // explore 100 trials

            // start automl experiment
            var result = await experiment.RunAsync();

            // Expected output samples during training:
            //      Update Running Trial - Id: 0
            //      Update Completed Trial - Id: 0 - Metric: 0.5536912515402218 - Pipeline: FastTreeBinary - Duration: 595 - Peak CPU: 0.00 % -Peak Memory in MB: 35.81
            //      Update Best Trial - Id: 0 - Metric: 0.5536912515402218 - Pipeline: FastTreeBinary

            // evaluate test dataset on best model.
            var bestModel = result.Model;
            var eval = bestModel.Transform(trainTestSplit.TestSet);
            var metrics = context.BinaryClassification.Evaluate(eval);

            PrintMetrics(metrics);

            // Expected output:
            //  Accuracy: 0.67
            //  AUC: 0.75
            //  F1 Score: 0.33
            //  Negative Precision: 0.88
            //  Negative Recall: 0.70
            //  Positive Precision: 0.25
            //  Positive Recall: 0.50

            //  TEST POSITIVE RATIO: 0.1667(2.0 / (2.0 + 10.0))
            //  Confusion table
            //            ||======================
            //  PREDICTED || positive | negative | Recall
            //  TRUTH     ||======================
            //   positive || 1 | 1 | 0.5000
            //   negative || 3 | 7 | 0.7000
            //            ||======================
            //  Precision || 0.2500 | 0.8750 |
        }

        private static IEnumerable<BinaryClassificationDataPoint> GenerateRandomBinaryClassificationDataPoints(int count,
            int seed = 0)

        {
            var random = new Random(seed);
            float randomFloat() => (float)random.NextDouble();
            for (int i = 0; i < count; i++)
            {
                var label = randomFloat() > 0.5f;
                yield return new BinaryClassificationDataPoint
                {
                    Label = label,
                    // Create random features that are correlated with the label.
                    // For data points with false label, the feature values are
                    // slightly increased by adding a constant.
                    Features = Enumerable.Repeat(label, 50)
                        .Select(x => x ? randomFloat() : randomFloat() +
                        0.1f).ToArray()

                };
            }
        }

        // Example with label and 50 feature values. A data set is a collection of
        // such examples.
        private class BinaryClassificationDataPoint
        {
            public bool Label { get; set; }

            [VectorType(50)]
            public float[] Features { get; set; }
        }

        // Class used to capture predictions.
        private class Prediction
        {
            // Original label.
            public bool Label { get; set; }
            // Predicted label from the trainer.
            public bool PredictedLabel { get; set; }
        }

        // Pretty-print BinaryClassificationMetrics objects.
        private static void PrintMetrics(BinaryClassificationMetrics metrics)
        {
            Console.WriteLine($"Accuracy: {metrics.Accuracy:F2}");
            Console.WriteLine($"AUC: {metrics.AreaUnderRocCurve:F2}");
            Console.WriteLine($"F1 Score: {metrics.F1Score:F2}");
            Console.WriteLine($"Negative Precision: " +
                $"{metrics.NegativePrecision:F2}");

            Console.WriteLine($"Negative Recall: {metrics.NegativeRecall:F2}");
            Console.WriteLine($"Positive Precision: " +
                $"{metrics.PositivePrecision:F2}");

            Console.WriteLine($"Positive Recall: {metrics.PositiveRecall:F2}\n");
            Console.WriteLine(metrics.ConfusionMatrix.GetFormattedConfusionTable());
        }
    }
}

Konstruktory

AutoMLExperiment(MLContext, AutoMLExperiment+AutoMLExperimentSettings)

Klasa eksperymentu automatycznego uczenia maszynowego

Metody

AddSearchSpace(String, SearchSpace)

Klasa eksperymentu automatycznego uczenia maszynowego

Run()

Uruchom eksperyment i zsynchronizuj najlepszy wynik próbny.

RunAsync(CancellationToken)

Uruchom eksperyment i zwróć najlepszy wynik próbny asynchronicznie. Eksperyment zwraca bieżący najlepszy wynik próbny, jeśli po anulowaniu wersji próbnej nie zostanie ukończona ct żadna wersja próbna, i zostanie zgłoszony TimeoutException komunikat "Czas trenowania zakończony bez ukończenia przebiegu wersji próbnej", gdy wersja próbna nie została ukończona. Należy zauważyć, że ta funkcja nie zostanie natychmiast zwrócona po ct anulowaniu. Zamiast tego wywoła anulowanie Microsoft.ML.MLContext.CancelExecution całego procesu trenowania i oczekiwanie na anulowanie lub ukończenie wszystkich uruchomionych prób.

SetMaximumMemoryUsageInMegaByte(Double)

Klasa eksperymentu automatycznego uczenia maszynowego

SetMaxModelToExplore(Int32)

Klasa eksperymentu automatycznego uczenia maszynowego

SetMonitor<TMonitor>()

Klasa eksperymentu automatycznego uczenia maszynowego

SetMonitor<TMonitor>(Func<IServiceProvider,TMonitor>)

Klasa eksperymentu automatycznego uczenia maszynowego

SetMonitor<TMonitor>(TMonitor)

Klasa eksperymentu automatycznego uczenia maszynowego

SetTrainingTimeInSeconds(UInt32)

Klasa eksperymentu automatycznego uczenia maszynowego

SetTrialRunner<TTrialRunner>()

Klasa eksperymentu automatycznego uczenia maszynowego

SetTrialRunner<TTrialRunner>(Func<IServiceProvider,TTrialRunner>)

Klasa eksperymentu automatycznego uczenia maszynowego

SetTrialRunner<TTrialRunner>(TTrialRunner)

Klasa eksperymentu automatycznego uczenia maszynowego

SetTuner<TTuner>()

Klasa eksperymentu automatycznego uczenia maszynowego

SetTuner<TTuner>(Func<IServiceProvider,TTuner>)

Klasa eksperymentu automatycznego uczenia maszynowego

SetTuner<TTuner>(TTuner)

Klasa eksperymentu automatycznego uczenia maszynowego

Metody rozszerzania

SetBinaryClassificationMetric(AutoMLExperiment, BinaryClassificationMetric, String, String)

Ustaw Microsoft.ML.AutoML.BinaryMetricManager jako menedżera oceny dla parametru AutoMLExperiment. Spowoduje AutoMLExperiment to użycie metric jako metryki oceny.

SetCheckpoint(AutoMLExperiment, String)

Ustaw folder punktu kontrolnego dla parametru AutoMLExperiment. Folder punktu kontrolnego będzie używany do zapisywania tymczasowych danych wyjściowych, historii uruchamiania i wielu innych elementów, które będą używane do przywracania procesu trenowania z ostatniego punktu kontrolnego i kontynuowania trenowania.

SetCostFrugalTuner(AutoMLExperiment)

Ustaw Microsoft.ML.AutoML.CostFrugalTuner jako host na potrzeby optymalizacji hiperparametrów.

SetDataset(AutoMLExperiment, DataOperationsCatalog+TrainTestData)

Ustaw zestaw danych trenowania i sprawdzania poprawności dla parametru AutoMLExperiment. Spowoduje AutoMLExperiment to użycie metody w trainValidationSplitTrainSet celu wytrenowania modelu i użycia metody TestSet do trainValidationSplit oceny modelu.

SetDataset(AutoMLExperiment, IDataView, IDataView, Boolean)

Ustaw zestaw danych trenowania i sprawdzania poprawności dla parametru AutoMLExperiment. Spowoduje AutoMLExperiment to użycie train do trenowania modelu i użycia validation go do oceny modelu.

SetDataset(AutoMLExperiment, IDataView, Int32, String)

Ustaw zestaw danych weryfikacji krzyżowej dla parametru AutoMLExperiment. Spowoduje AutoMLExperiment to użycie metody n=fold podziału krzyżowego walidacji w dataset celu wytrenowania i oceny modelu.

SetEciCostFrugalTuner(AutoMLExperiment)

ustawić Microsoft.ML.AutoML.EciCostFrugalTuner jako optymalizacja parametrów hiperparametrów. Ten folder działa tylko z przestrzenią wyszukiwania z SweepablePipeline.

SetGridSearchTuner(AutoMLExperiment, Int32)

ustawić Microsoft.ML.AutoML.GridSearchTuner jako optymalizator parametrów hiperparametrów.

SetMulticlassClassificationMetric(AutoMLExperiment, MulticlassClassificationMetric, String, String)

Ustaw Microsoft.ML.AutoML.MultiClassMetricManager jako menedżera oceny dla parametru AutoMLExperiment. Spowoduje AutoMLExperiment to użycie metric jako metryki oceny.

SetPerformanceMonitor(AutoMLExperiment, Int32)

Ustaw DefaultPerformanceMonitor jako IPerformanceMonitor dla parametru AutoMLExperiment.

SetPerformanceMonitor<TPerformanceMonitor>(AutoMLExperiment, Func<IServiceProvider,TPerformanceMonitor>)

Ustaw niestandardowy monitor wydajności jako IPerformanceMonitor dla elementu AutoMLExperiment.

SetPerformanceMonitor<TPerformanceMonitor>(AutoMLExperiment)

Ustaw niestandardowy monitor wydajności jako IPerformanceMonitor dla elementu AutoMLExperiment.

SetPipeline(AutoMLExperiment, SweepablePipeline)

Ustaw pipeline na potrzeby trenowania. W tym celu należy również używać AutoMLExperimentMicrosoft.ML.AutoML.SweepablePipelineRunner parametrów i Microsoft.ML.AutoML.MLContextMonitorMicrosoft.ML.AutoML.EciCostFrugalTuner do trenowania automl.

SetRandomSearchTuner(AutoMLExperiment, Nullable<Int32>)

ustawić Microsoft.ML.AutoML.RandomSearchTuner jako optymalizator parametrów hiperparametrów. Jeśli seed zostanie podany, użyje tego nasion do zainicjowania Microsoft.ML.AutoML.RandomSearchTuner. Seed W przeciwnym razie zostanie użyty.

SetRegressionMetric(AutoMLExperiment, RegressionMetric, String, String)

Ustaw Microsoft.ML.AutoML.RegressionMetricManager jako menedżera oceny dla parametru AutoMLExperiment. Spowoduje AutoMLExperiment to użycie metric jako metryki oceny.

SetSmacTuner(AutoMLExperiment, Int32, Int32, Int32, Int32, Single, Int32, Int32, Double, Int32)

Ustaw Microsoft.ML.AutoML.SmacTuner jako host na potrzeby optymalizacji hiperparametrów. Wydajność smac jest w dużym rozszerzeniu określonym przez numberOfTrees, nMinForSpit i splitRatio, które są używane do dopasowania regresji wewnętrznej smac.

Dotyczy