FastTreeRankingTrainer.Options Klasse
Definition
Wichtig
Einige Informationen beziehen sich auf Vorabversionen, die vor dem Release ggf. grundlegend überarbeitet werden. Microsoft übernimmt hinsichtlich der hier bereitgestellten Informationen keine Gewährleistungen, seien sie ausdrücklich oder konkludent.
Optionen für, FastTreeRankingTrainer wie in FastTree(Optionen) verwendet.
public sealed class FastTreeRankingTrainer.Options : Microsoft.ML.Trainers.FastTree.BoostedTreeOptions, Microsoft.ML.Runtime.IComponentFactory<Microsoft.ML.ITrainer>
type FastTreeRankingTrainer.Options = class
inherit BoostedTreeOptions
interface IComponentFactory<ITrainer>
interface IComponentFactory
Public NotInheritable Class FastTreeRankingTrainer.Options
Inherits BoostedTreeOptions
Implements IComponentFactory(Of ITrainer)
- Vererbung
-
FastTreeRankingTrainer.Options
- Implementiert
-
IComponentFactory IComponentFactory<Microsoft.ML.ITrainer>
Konstruktoren
FastTreeRankingTrainer.Options() |
Erstellen Sie ein neues FastTreeRankingTrainer.Options Objekt mit Standardwerten. |
Felder
AllowEmptyTrees |
Wenn eine Stammaufteilung nicht möglich ist, lassen Sie das Training fort. (Geerbt von TreeOptions) |
BaggingExampleFraction |
Prozentsatz der Trainingsbeispiele, die in jeder Tasche verwendet werden. Der Standardwert ist 0,7 (70 %). (Geerbt von TreeOptions) |
BaggingSize |
Anzahl der Strukturen in jeder Tasche (0 zum Deaktivieren des Absackens). (Geerbt von TreeOptions) |
BestStepRankingRegressionTrees |
Option für die Verwendung der besten Regressionsschrittstrukturen. (Geerbt von BoostedTreeOptions) |
Bias |
Bias zum Berechnen des Farbverlaufs für jeden Featurebehälter für ein kategorisches Feature. (Geerbt von TreeOptions) |
Bundling |
Bündeln Sie Behälter mit geringer Anzahl. Bundle.None(0): keine Bündelung, Bundle.AggregateLowPopulation(1): Bundle low population, Bundle.Adjacent(2): Neighbor low population bundle. (Geerbt von TreeOptions) |
CategoricalSplit |
Gibt an, ob eine Aufteilung basierend auf mehreren kategorischen Featurewerten durchgeführt werden soll. (Geerbt von TreeOptions) |
CompressEnsemble |
Komprimieren Sie das Strukturensemble. (Geerbt von TreeOptions) |
CustomGains |
Durch Trennzeichen getrennte Liste der Gewinne, die den einzelnen Relevanzbezeichnungen zugeordnet sind. |
DiskTranspose |
Gibt an, ob der Datenträger oder die nativen Umsetzungsmöglichkeiten der Daten (sofern zutreffend) verwendet werden sollen, wenn die Transponierung durchgeführt wird. (Geerbt von TreeOptions) |
DropoutRate |
Abbruchrate für die Strukturermäßigung. (Geerbt von BoostedTreeOptions) |
EnablePruning |
Aktivieren Sie die Strukturbereinigung nach dem Training, um eine Überanpassung zu vermeiden. Es ist ein Validierungssatz erforderlich. (Geerbt von BoostedTreeOptions) |
EntropyCoefficient |
Der Entropiekoeffizienten (Regularisierung) zwischen 0 und 1. (Geerbt von TreeOptions) |
ExampleWeightColumnName |
Spalte, die als Beispielgewichtung verwendet werden soll. (Geerbt von TrainerInputBaseWithWeight) |
ExecutionTime |
Aufschlüsselung der Druckausführungszeit in ML.NET Kanal. (Geerbt von TreeOptions) |
FeatureColumnName |
Spalte, die für Features verwendet werden soll. (Geerbt von TrainerInputBase) |
FeatureFirstUsePenalty |
Das Feature verwendet zuerst den Strafkoeffizienten. (Geerbt von TreeOptions) |
FeatureFlocks |
Gibt an, ob Features während der Datasetvorbereitung gesammelt werden sollen, um das Training zu beschleunigen. (Geerbt von TreeOptions) |
FeatureFraction |
Der Anteil der Features (zufällig ausgewählt), die bei jeder Iteration verwendet werden sollen. Verwenden Sie 0,9, wenn nur 90 % der Features benötigt werden. Niedrigere Zahlen tragen dazu bei, die Überanpassung zu reduzieren. (Geerbt von TreeOptions) |
FeatureFractionPerSplit |
Der Anteil der Features (zufällig ausgewählt), die bei jeder Aufteilung verwendet werden sollen. Wenn der Wert 0,9 ist, würden 90 % aller Features in Erwartung gelöscht. (Geerbt von TreeOptions) |
FeatureReusePenalty |
Der Koeffizienten für die Wiederverwendung von Strafen (Regularisierung). (Geerbt von TreeOptions) |
FeatureSelectionSeed |
Der Startwert der aktiven Featureauswahl. (Geerbt von TreeOptions) |
FilterZeroLambdas |
Filtern Von 0 Lambdas während des Trainings. (Geerbt von BoostedTreeOptions) |
GainConfidenceLevel |
Strukturanpassung gewinnt Vertrauensanforderung. Berücksichtigen Sie nur einen Gewinn, wenn seine Wahrscheinlichkeit im Vergleich zu einem zufälligen Auswahlgewinn über diesem Wert liegt. (Geerbt von TreeOptions) |
GetDerivativesSampleRate |
Beispielen Sie jede Abfrage 1 in k in der GetDerivatives-Funktion. (Geerbt von BoostedTreeOptions) |
HistogramPoolSize |
Die Anzahl der Histogramme im Pool (zwischen 2 und NumLeaves). (Geerbt von TreeOptions) |
LabelColumnName |
Spalte, die für Bezeichnungen verwendet werden soll. (Geerbt von TrainerInputBaseWithLabel) |
LearningRate |
Die Lernrate. (Geerbt von BoostedTreeOptions) |
MaximumBinCountPerFeature |
Maximale Anzahl unterschiedlicher Werte (Bins) pro Feature. (Geerbt von TreeOptions) |
MaximumCategoricalGroupCountPerNode |
Maximale kategoriebezogene Aufteilung von Gruppen, die beim Aufteilen für ein kategorisches Feature berücksichtigt werden müssen. Geteilte Gruppen sind eine Sammlung von geteilten Punkten. Dies wird verwendet, um die Überanpassung zu reduzieren, wenn viele kategorische Features vorhanden sind. (Geerbt von TreeOptions) |
MaximumCategoricalSplitPointCount |
Maximal zu berücksichtigende kategorische Teilungspunkte bei der Aufteilung für ein kategorisches Feature. (Geerbt von TreeOptions) |
MaximumNumberOfLineSearchSteps |
Anzahl der Suchschritte nach Klammern. (Geerbt von BoostedTreeOptions) |
MaximumTreeOutput |
Obere Grenze für den absoluten Wert der Ausgabe einer einzelnen Struktur. (Geerbt von BoostedTreeOptions) |
MemoryStatistics |
Drucken von Speicherstatistiken in ML.NET Kanal. (Geerbt von TreeOptions) |
MinimumExampleCountPerLeaf |
Die minimale Anzahl von Datenpunkten, die zum Bilden eines neuen Strukturblatts erforderlich sind. (Geerbt von TreeOptions) |
MinimumExampleFractionForCategoricalSplit |
Minimaler kategorischer Beispielprozentsatz in einem Behälter, der für eine Aufteilung berücksichtigt werden soll. Der Standardwert ist 0,1 % aller Trainingsbeispiele. (Geerbt von TreeOptions) |
MinimumExamplesForCategoricalSplit |
Minimale kategorische Beispielanzahl in einem Behälter, der für eine Aufteilung berücksichtigt werden soll. (Geerbt von TreeOptions) |
MinimumStepSize |
Minimale Zeilensuchschrittgröße. (Geerbt von BoostedTreeOptions) |
NdcgTruncationLevel |
Die maximale NDCG-Abschneidung, die im LambdaMAR-Algorithmus verwendet werden soll. |
NumberOfLeaves |
Die maximale Anzahl von Blättern in jeder Regressionsstruktur. (Geerbt von TreeOptions) |
NumberOfThreads |
Die Anzahl der zu verwendenden Threads. (Geerbt von TreeOptions) |
NumberOfTrees |
Gesamtanzahl der Entscheidungsstrukturen, die im Ensemble erstellt werden sollen. (Geerbt von TreeOptions) |
OptimizationAlgorithm |
Zu verwendende Optimierungsalgorithmus. (Geerbt von BoostedTreeOptions) |
PruningThreshold |
Der Toleranzschwellenwert für die Beschneidung. (Geerbt von BoostedTreeOptions) |
PruningWindowSize |
Die größe des verschiebten Fensters für die Beschneidung. (Geerbt von BoostedTreeOptions) |
RandomStart |
Das Training beginnt mit der zufälligen Reihenfolge (bestimmt durch /r1). (Geerbt von BoostedTreeOptions) |
RowGroupColumnName |
Zu verwendende Spalte, z. B. groupId. (Geerbt von TrainerInputBaseWithGroupId) |
Seed |
Der Startwert des Zufallszahlengenerators. (Geerbt von TreeOptions) |
Shrinkage |
Schrumpfung. (Geerbt von BoostedTreeOptions) |
Smoothing |
Glättungsparameter für die Regularisierung der Struktur. (Geerbt von TreeOptions) |
SoftmaxTemperature |
Die Temperatur der randomisierten Softmax-Verteilung für die Auswahl des Features. (Geerbt von TreeOptions) |
SparsifyThreshold |
Sparsity level erforderlich, um die Darstellung von Sparsefeatures zu verwenden. (Geerbt von TreeOptions) |
TestFrequency |
Berechnen Sie Metrikwerte für train/valid/test every k rounds. (Geerbt von TreeOptions) |
UseDcg |
Gibt an, ob mithilfe von discounted cumulative gain (DCG) anstelle von normalisierten DCG (NDCG) trainiert werden soll. |
UseLineSearch |
Bestimmt, ob die Zeilensuche für eine Schrittgröße verwendet werden soll. (Geerbt von BoostedTreeOptions) |
UseTolerantPruning |
Verwenden Sie Fenster und Toleranz für die Beschneidung. (Geerbt von BoostedTreeOptions) |
WriteLastEnsemble |
Schreiben Sie das letzte Ensemble anstelle des ensembles, das durch frühzeitiges Beenden bestimmt wurde. (Geerbt von BoostedTreeOptions) |
Eigenschaften
EarlyStoppingMetric |
Metriken für frühzeitiges Beenden. |
EarlyStoppingRule |
Die Regel zum vorzeitigen Beenden, die verwendet wird, um den Trainingsprozess zu beenden, sobald ein angegebenes Kriterium erfüllt wurde. Mögliche Optionen sind EarlyStoppingRuleBaseImplementierungen wie TolerantEarlyStoppingRule und GeneralityLossRule. (Geerbt von BoostedTreeOptions) |
Explizite Schnittstellenimplementierungen
IComponentFactory<ITrainer>.CreateComponent(IHostEnvironment) |
Optionen für, FastTreeRankingTrainer wie in FastTree(Optionen) verwendet. |