FastTreeRankingTrainer.Options Classe
Définition
Important
Certaines informations portent sur la préversion du produit qui est susceptible d’être en grande partie modifiée avant sa publication. Microsoft exclut toute garantie, expresse ou implicite, concernant les informations fournies ici.
Options pour le FastTreeRankingTrainer telles qu’utilisées dans FastTree(Options).
public sealed class FastTreeRankingTrainer.Options : Microsoft.ML.Trainers.FastTree.BoostedTreeOptions, Microsoft.ML.Runtime.IComponentFactory<Microsoft.ML.ITrainer>
type FastTreeRankingTrainer.Options = class
inherit BoostedTreeOptions
interface IComponentFactory<ITrainer>
interface IComponentFactory
Public NotInheritable Class FastTreeRankingTrainer.Options
Inherits BoostedTreeOptions
Implements IComponentFactory(Of ITrainer)
- Héritage
-
FastTreeRankingTrainer.Options
- Implémente
-
IComponentFactory IComponentFactory<Microsoft.ML.ITrainer>
Constructeurs
FastTreeRankingTrainer.Options() |
Créez un FastTreeRankingTrainer.Options objet avec des valeurs par défaut. |
Champs
AllowEmptyTrees |
Lorsqu’un fractionnement racine est impossible, autorisez l’entraînement à continuer. (Hérité de TreeOptions) |
BaggingExampleFraction |
Pourcentage d’exemples d’entraînement utilisés dans chaque sac. La valeur par défaut est 0,7 (70 %). (Hérité de TreeOptions) |
BaggingSize |
Nombre d’arborescences dans chaque sac (0 pour la désactivation de l’ensachage). (Hérité de TreeOptions) |
BestStepRankingRegressionTrees |
Option permettant d’utiliser les meilleures arborescences d’étapes de régression. (Hérité de BoostedTreeOptions) |
Bias |
Biais pour le calcul du gradient pour chaque compartiment de fonctionnalités pour une fonctionnalité catégorielle. (Hérité de TreeOptions) |
Bundling |
Regroupez des bacs à faible population. Bundle.None(0) : pas de regroupement, Bundle.AggregateLowPopulation(1) : Group faible population, Bundle.Adjacent(2) : lot de population faible voisin. (Hérité de TreeOptions) |
CategoricalSplit |
S’il faut effectuer un fractionnement en fonction de plusieurs valeurs de caractéristiques catégorielles. (Hérité de TreeOptions) |
CompressEnsemble |
Compressez l’ensemble d’arborescences. (Hérité de TreeOptions) |
CustomGains |
Liste séparée par des virgules des gains associés à chaque étiquette de pertinence. |
DiskTranspose |
S’il faut utiliser le disque ou les fonctionnalités de transposition natives des données (le cas échéant) lors de l’exécution de la transposition. (Hérité de TreeOptions) |
DropoutRate |
Taux de décrochage pour la régularisation de l’arborescence. (Hérité de BoostedTreeOptions) |
EnablePruning |
Activez l’élagage d’arbre post-entraînement pour éviter le surajustement. Il nécessite un jeu de validation. (Hérité de BoostedTreeOptions) |
EntropyCoefficient |
Coefficient d’entropie (régularisation) compris entre 0 et 1. (Hérité de TreeOptions) |
ExampleWeightColumnName |
Colonne à utiliser pour l’exemple de poids. (Hérité de TrainerInputBaseWithWeight) |
ExecutionTime |
Imprimer la répartition du temps d’exécution sur ML.NET canal. (Hérité de TreeOptions) |
FeatureColumnName |
Colonne à utiliser pour les fonctionnalités. (Hérité de TrainerInputBase) |
FeatureFirstUsePenalty |
La caractéristique utilise tout d’abord le coefficient de pénalité. (Hérité de TreeOptions) |
FeatureFlocks |
S’il faut collecter des fonctionnalités pendant la préparation du jeu de données pour accélérer l’entraînement. (Hérité de TreeOptions) |
FeatureFraction |
Fraction des fonctionnalités (choisies au hasard) à utiliser sur chaque itération. Utilisez 0,9 si seulement 90 % des fonctionnalités sont nécessaires. Des nombres plus faibles permettent de réduire le surajustement. (Hérité de TreeOptions) |
FeatureFractionPerSplit |
Fraction des fonctionnalités (choisies au hasard) à utiliser sur chaque fractionnement. Si la valeur est 0,9, 90 % de toutes les fonctionnalités seraient supprimées dans l’attente. (Hérité de TreeOptions) |
FeatureReusePenalty |
Coefficient de pénalité de réutilisation de fonctionnalité (régularisation). (Hérité de TreeOptions) |
FeatureSelectionSeed |
Seed de la sélection de fonctionnalité active. (Hérité de TreeOptions) |
FilterZeroLambdas |
Filtrez zéro lambda pendant l’entraînement. (Hérité de BoostedTreeOptions) |
GainConfidenceLevel |
L’ajustement d’arborescence gagne en confiance. Considérez uniquement un gain si sa probabilité par rapport à un gain de choix aléatoire est supérieure à cette valeur. (Hérité de TreeOptions) |
GetDerivativesSampleRate |
Échantillonner chaque requête 1 en k fois dans la fonction GetDerivatives. (Hérité de BoostedTreeOptions) |
HistogramPoolSize |
Nombre d’histogrammes dans le pool (entre 2 et numLeaves). (Hérité de TreeOptions) |
LabelColumnName |
Colonne à utiliser pour les étiquettes. (Hérité de TrainerInputBaseWithLabel) |
LearningRate |
Taux d’apprentissage. (Hérité de BoostedTreeOptions) |
MaximumBinCountPerFeature |
Nombre maximal de valeurs distinctes (emplacements) par caractéristique. (Hérité de TreeOptions) |
MaximumCategoricalGroupCountPerNode |
Nombre maximal de groupes de fractionnements catégoriels à prendre en compte lors du fractionnement sur une fonctionnalité catégorielle. Les groupes fractionnés sont une collection de points de fractionnement. Cela permet de réduire le surajustement lorsqu’il existe de nombreuses fonctionnalités catégorielles. (Hérité de TreeOptions) |
MaximumCategoricalSplitPointCount |
Nombre maximal de points de fractionnement catégoriels à prendre en compte lors du fractionnement sur une fonctionnalité catégorielle. (Hérité de TreeOptions) |
MaximumNumberOfLineSearchSteps |
Nombre d’étapes de recherche de ligne entre crochets. (Hérité de BoostedTreeOptions) |
MaximumTreeOutput |
Limite supérieure sur la valeur absolue de la sortie d’arborescence unique. (Hérité de BoostedTreeOptions) |
MemoryStatistics |
Imprimez les statistiques de mémoire sur ML.NET canal. (Hérité de TreeOptions) |
MinimumExampleCountPerLeaf |
Nombre minimal de points de données requis pour former une nouvelle feuille d’arborescence. (Hérité de TreeOptions) |
MinimumExampleFractionForCategoricalSplit |
Pourcentage d’exemple catégoriel minimal dans un bac à prendre en compte pour un fractionnement. La valeur par défaut est de 0,1 % de tous les exemples d’entraînement. (Hérité de TreeOptions) |
MinimumExamplesForCategoricalSplit |
Nombre minimal d’exemples catégoriels dans un bac à prendre en compte pour un fractionnement. (Hérité de TreeOptions) |
MinimumStepSize |
Taille minimale de l’étape de recherche de ligne. (Hérité de BoostedTreeOptions) |
NdcgTruncationLevel |
Troncation NDCG maximale à utiliser dans l’algorithme LambdaMAR. |
NumberOfLeaves |
Nombre maximal de feuilles dans chaque arborescence de régression. (Hérité de TreeOptions) |
NumberOfThreads |
Nombre de threads à utiliser. (Hérité de TreeOptions) |
NumberOfTrees |
Nombre total d’arborescences de décision à créer dans l’ensemble. (Hérité de TreeOptions) |
OptimizationAlgorithm |
Algorithme d’optimisation à utiliser. (Hérité de BoostedTreeOptions) |
PruningThreshold |
Seuil de tolérance pour l’élagage. (Hérité de BoostedTreeOptions) |
PruningWindowSize |
Taille de fenêtre mobile pour l’élagage. (Hérité de BoostedTreeOptions) |
RandomStart |
L’entraînement commence à partir d’un classement aléatoire (déterminé par /r1). (Hérité de BoostedTreeOptions) |
RowGroupColumnName |
Colonne à utiliser par exemple groupId. (Hérité de TrainerInputBaseWithGroupId) |
Seed |
Seed du générateur de nombres aléatoires. (Hérité de TreeOptions) |
Shrinkage |
Retrait. (Hérité de BoostedTreeOptions) |
Smoothing |
Paramètre de lissage pour la régularisation de l’arborescence. (Hérité de TreeOptions) |
SoftmaxTemperature |
Température de la distribution softmax aléatoire pour le choix de la fonctionnalité. (Hérité de TreeOptions) |
SparsifyThreshold |
Niveau d’éparse nécessaire pour utiliser la représentation des caractéristiques éparses. (Hérité de TreeOptions) |
TestFrequency |
Calculez les valeurs de métriques pour l’apprentissage/la validité/le test de chaque série k. (Hérité de TreeOptions) |
UseDcg |
S’il faut effectuer l’apprentissage à l’aide du gain cumulé réduit (DCG) au lieu de DCG normalisé (NDCG). |
UseLineSearch |
Détermine s’il faut utiliser la recherche en ligne pour une taille d’étape. (Hérité de BoostedTreeOptions) |
UseTolerantPruning |
Utilisez la fenêtre et la tolérance pour l’élagage. (Hérité de BoostedTreeOptions) |
WriteLastEnsemble |
Écrivez le dernier ensemble au lieu de celui déterminé par l’arrêt précoce. (Hérité de BoostedTreeOptions) |
Propriétés
EarlyStoppingMetric |
Métriques d’arrêt précoces. |
EarlyStoppingRule |
Règle d’arrêt précoce utilisée pour mettre fin au processus d’entraînement une fois qu’elle répond à un critère spécifié. Les choix possibles sont EarlyStoppingRuleBaseles implémentations de telles que TolerantEarlyStoppingRule et GeneralityLossRule. (Hérité de BoostedTreeOptions) |
Implémentations d’interfaces explicites
IComponentFactory<ITrainer>.CreateComponent(IHostEnvironment) |
Options pour le FastTreeRankingTrainer telles qu’utilisées dans FastTree(Options). |