AutoMLExperiment Klasa
Definicja
Ważne
Niektóre informacje odnoszą się do produktu w wersji wstępnej, który może zostać znacząco zmodyfikowany przed wydaniem. Firma Microsoft nie udziela żadnych gwarancji, jawnych lub domniemanych, w odniesieniu do informacji podanych w tym miejscu.
Klasa eksperymentu automatycznego uczenia maszynowego
public class AutoMLExperiment
type AutoMLExperiment = class
Public Class AutoMLExperiment
- Dziedziczenie
-
AutoMLExperiment
Przykłady
using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using Microsoft.ML.Data;
namespace Microsoft.ML.AutoML.Samples
{
public static class AutoMLExperiment
{
public static async Task RunAsync()
{
var seed = 0;
// Create a new context for ML.NET operations. It can be used for
// exception tracking and logging, as a catalog of available operations
// and as the source of randomness. Setting the seed to a fixed number
// in this example to make outputs deterministic.
var context = new MLContext(seed);
// Create a list of training data points and convert it to IDataView.
var data = GenerateRandomBinaryClassificationDataPoints(100, seed);
var dataView = context.Data.LoadFromEnumerable(data);
var trainTestSplit = context.Data.TrainTestSplit(dataView);
// Define the sweepable pipeline using predefined binary trainers and search space.
var pipeline = context.Auto().BinaryClassification(labelColumnName: "Label", featureColumnName: "Features");
// Create an AutoML experiment
var experiment = context.Auto().CreateExperiment();
// Redirect AutoML log to console
context.Log += (object o, LoggingEventArgs e) =>
{
if (e.Source == nameof(AutoMLExperiment) && e.Kind > Runtime.ChannelMessageKind.Trace)
{
Console.WriteLine(e.RawMessage);
}
};
// Config experiment to optimize "Accuracy" metric on given dataset.
// This experiment will run hyper-parameter optimization on given pipeline
experiment.SetPipeline(pipeline)
.SetDataset(trainTestSplit.TrainSet, fold: 5) // use 5-fold cross validation to evaluate each trial
.SetBinaryClassificationMetric(BinaryClassificationMetric.Accuracy, "Label")
.SetMaxModelToExplore(100); // explore 100 trials
// start automl experiment
var result = await experiment.RunAsync();
// Expected output samples during training:
// Update Running Trial - Id: 0
// Update Completed Trial - Id: 0 - Metric: 0.5536912515402218 - Pipeline: FastTreeBinary - Duration: 595 - Peak CPU: 0.00 % -Peak Memory in MB: 35.81
// Update Best Trial - Id: 0 - Metric: 0.5536912515402218 - Pipeline: FastTreeBinary
// evaluate test dataset on best model.
var bestModel = result.Model;
var eval = bestModel.Transform(trainTestSplit.TestSet);
var metrics = context.BinaryClassification.Evaluate(eval);
PrintMetrics(metrics);
// Expected output:
// Accuracy: 0.67
// AUC: 0.75
// F1 Score: 0.33
// Negative Precision: 0.88
// Negative Recall: 0.70
// Positive Precision: 0.25
// Positive Recall: 0.50
// TEST POSITIVE RATIO: 0.1667(2.0 / (2.0 + 10.0))
// Confusion table
// ||======================
// PREDICTED || positive | negative | Recall
// TRUTH ||======================
// positive || 1 | 1 | 0.5000
// negative || 3 | 7 | 0.7000
// ||======================
// Precision || 0.2500 | 0.8750 |
}
private static IEnumerable<BinaryClassificationDataPoint> GenerateRandomBinaryClassificationDataPoints(int count,
int seed = 0)
{
var random = new Random(seed);
float randomFloat() => (float)random.NextDouble();
for (int i = 0; i < count; i++)
{
var label = randomFloat() > 0.5f;
yield return new BinaryClassificationDataPoint
{
Label = label,
// Create random features that are correlated with the label.
// For data points with false label, the feature values are
// slightly increased by adding a constant.
Features = Enumerable.Repeat(label, 50)
.Select(x => x ? randomFloat() : randomFloat() +
0.1f).ToArray()
};
}
}
// Example with label and 50 feature values. A data set is a collection of
// such examples.
private class BinaryClassificationDataPoint
{
public bool Label { get; set; }
[VectorType(50)]
public float[] Features { get; set; }
}
// Class used to capture predictions.
private class Prediction
{
// Original label.
public bool Label { get; set; }
// Predicted label from the trainer.
public bool PredictedLabel { get; set; }
}
// Pretty-print BinaryClassificationMetrics objects.
private static void PrintMetrics(BinaryClassificationMetrics metrics)
{
Console.WriteLine($"Accuracy: {metrics.Accuracy:F2}");
Console.WriteLine($"AUC: {metrics.AreaUnderRocCurve:F2}");
Console.WriteLine($"F1 Score: {metrics.F1Score:F2}");
Console.WriteLine($"Negative Precision: " +
$"{metrics.NegativePrecision:F2}");
Console.WriteLine($"Negative Recall: {metrics.NegativeRecall:F2}");
Console.WriteLine($"Positive Precision: " +
$"{metrics.PositivePrecision:F2}");
Console.WriteLine($"Positive Recall: {metrics.PositiveRecall:F2}\n");
Console.WriteLine(metrics.ConfusionMatrix.GetFormattedConfusionTable());
}
}
}
Konstruktory
AutoMLExperiment(MLContext, AutoMLExperiment+AutoMLExperimentSettings) |
Klasa eksperymentu automatycznego uczenia maszynowego |
Metody
AddSearchSpace(String, SearchSpace) |
Klasa eksperymentu automatycznego uczenia maszynowego |
Run() |
Uruchom eksperyment i zsynchronizuj najlepszy wynik próbny. |
RunAsync(CancellationToken) |
Uruchom eksperyment i zwróć najlepszy wynik próbny asynchronicznie. Eksperyment zwraca bieżący najlepszy wynik próbny, jeśli po anulowaniu wersji próbnej nie zostanie ukończona |
SetMaximumMemoryUsageInMegaByte(Double) |
Klasa eksperymentu automatycznego uczenia maszynowego |
SetMaxModelToExplore(Int32) |
Klasa eksperymentu automatycznego uczenia maszynowego |
SetMonitor<TMonitor>() |
Klasa eksperymentu automatycznego uczenia maszynowego |
SetMonitor<TMonitor>(Func<IServiceProvider,TMonitor>) |
Klasa eksperymentu automatycznego uczenia maszynowego |
SetMonitor<TMonitor>(TMonitor) |
Klasa eksperymentu automatycznego uczenia maszynowego |
SetTrainingTimeInSeconds(UInt32) |
Klasa eksperymentu automatycznego uczenia maszynowego |
SetTrialRunner<TTrialRunner>() |
Klasa eksperymentu automatycznego uczenia maszynowego |
SetTrialRunner<TTrialRunner>(Func<IServiceProvider,TTrialRunner>) |
Klasa eksperymentu automatycznego uczenia maszynowego |
SetTrialRunner<TTrialRunner>(TTrialRunner) |
Klasa eksperymentu automatycznego uczenia maszynowego |
SetTuner<TTuner>() |
Klasa eksperymentu automatycznego uczenia maszynowego |
SetTuner<TTuner>(Func<IServiceProvider,TTuner>) |
Klasa eksperymentu automatycznego uczenia maszynowego |
SetTuner<TTuner>(TTuner) |
Klasa eksperymentu automatycznego uczenia maszynowego |
Metody rozszerzania
SetBinaryClassificationMetric(AutoMLExperiment, BinaryClassificationMetric, String, String) |
Ustaw Microsoft.ML.AutoML.BinaryMetricManager jako menedżera oceny dla parametru AutoMLExperiment. Spowoduje AutoMLExperiment to użycie |
SetCheckpoint(AutoMLExperiment, String) |
Ustaw folder punktu kontrolnego dla parametru AutoMLExperiment. Folder punktu kontrolnego będzie używany do zapisywania tymczasowych danych wyjściowych, historii uruchamiania i wielu innych elementów, które będą używane do przywracania procesu trenowania z ostatniego punktu kontrolnego i kontynuowania trenowania. |
SetCostFrugalTuner(AutoMLExperiment) |
Ustaw Microsoft.ML.AutoML.CostFrugalTuner jako host na potrzeby optymalizacji hiperparametrów. |
SetDataset(AutoMLExperiment, DataOperationsCatalog+TrainTestData) |
Ustaw zestaw danych trenowania i sprawdzania poprawności dla parametru AutoMLExperiment. Spowoduje AutoMLExperiment to użycie metody w |
SetDataset(AutoMLExperiment, IDataView, IDataView, Boolean) |
Ustaw zestaw danych trenowania i sprawdzania poprawności dla parametru AutoMLExperiment. Spowoduje AutoMLExperiment to użycie |
SetDataset(AutoMLExperiment, IDataView, Int32, String) |
Ustaw zestaw danych weryfikacji krzyżowej dla parametru AutoMLExperiment. Spowoduje AutoMLExperiment to użycie metody n= |
SetEciCostFrugalTuner(AutoMLExperiment) |
ustawić Microsoft.ML.AutoML.EciCostFrugalTuner jako optymalizacja parametrów hiperparametrów. Ten folder działa tylko z przestrzenią wyszukiwania z SweepablePipeline. |
SetGridSearchTuner(AutoMLExperiment, Int32) |
ustawić Microsoft.ML.AutoML.GridSearchTuner jako optymalizator parametrów hiperparametrów. |
SetMulticlassClassificationMetric(AutoMLExperiment, MulticlassClassificationMetric, String, String) |
Ustaw Microsoft.ML.AutoML.MultiClassMetricManager jako menedżera oceny dla parametru AutoMLExperiment. Spowoduje AutoMLExperiment to użycie |
SetPerformanceMonitor(AutoMLExperiment, Int32) |
Ustaw DefaultPerformanceMonitor jako IPerformanceMonitor dla parametru AutoMLExperiment. |
SetPerformanceMonitor<TPerformanceMonitor>(AutoMLExperiment, Func<IServiceProvider,TPerformanceMonitor>) |
Ustaw niestandardowy monitor wydajności jako IPerformanceMonitor dla elementu AutoMLExperiment. |
SetPerformanceMonitor<TPerformanceMonitor>(AutoMLExperiment) |
Ustaw niestandardowy monitor wydajności jako IPerformanceMonitor dla elementu AutoMLExperiment. |
SetPipeline(AutoMLExperiment, SweepablePipeline) |
Ustaw |
SetRandomSearchTuner(AutoMLExperiment, Nullable<Int32>) |
ustawić Microsoft.ML.AutoML.RandomSearchTuner jako optymalizator parametrów hiperparametrów. Jeśli |
SetRegressionMetric(AutoMLExperiment, RegressionMetric, String, String) |
Ustaw Microsoft.ML.AutoML.RegressionMetricManager jako menedżera oceny dla parametru AutoMLExperiment. Spowoduje AutoMLExperiment to użycie |
SetSmacTuner(AutoMLExperiment, Int32, Int32, Int32, Int32, Single, Int32, Int32, Double, Int32) |
Ustaw Microsoft.ML.AutoML.SmacTuner jako host na potrzeby optymalizacji hiperparametrów. Wydajność smac jest w dużym rozszerzeniu określonym przez |