LightGbmRegressionModelParameters Classe
Définition
Important
Certaines informations portent sur la préversion du produit qui est susceptible d’être en grande partie modifiée avant sa publication. Microsoft exclut toute garantie, expresse ou implicite, concernant les informations fournies ici.
Paramètres de modèle pour LightGbmRegressionTrainer.
public sealed class LightGbmRegressionModelParameters : Microsoft.ML.Trainers.FastTree.TreeEnsembleModelParametersBasedOnRegressionTree
type LightGbmRegressionModelParameters = class
inherit TreeEnsembleModelParametersBasedOnRegressionTree
Public NotInheritable Class LightGbmRegressionModelParameters
Inherits TreeEnsembleModelParametersBasedOnRegressionTree
- Héritage
-
LightGbmRegressionModelParameters
Propriétés
TrainedTreeEnsemble |
Ensemble d’arbres exposés aux utilisateurs. Il s’agit d’un wrapper sur le |
Méthodes
GetFeatureWeights(VBuffer<Single>) |
Obtenez les gains de fractionnement cumulés pour chaque fonctionnalité sur toutes les arborescences. (Hérité de TreeEnsembleModelParameters) |
Implémentations d’interfaces explicites
ICalculateFeatureContribution.FeatureContributionCalculator |
Utilisé pour déterminer la contribution de chaque fonctionnalité au score d’un exemple par FeatureContributionCalculatingTransformer. Le calcul de la contribution des caractéristiques consiste essentiellement à déterminer les fractionnements dans l’arborescence qui ont le plus d’impact sur le score final et à affecter la valeur de l’impact aux caractéristiques déterminant le fractionnement. Plus précisément, la contribution d’une fonctionnalité est égale à la modification du score produite par l’exploration de la sous-arborescence opposée chaque fois qu’un nœud de décision pour la fonctionnalité donnée est rencontré. Considérez un cas simple avec un arbre de décision unique qui a un nœud de décision pour la fonctionnalité binaire F1. Étant donné un exemple qui a la fonctionnalité F1 égale à true, nous pouvons calculer le score qu’il aurait obtenu si nous avons choisi la sous-arborescence correspondant à la fonctionnalité F1 étant égale à false tout en conservant les autres caractéristiques constantes. La contribution de la fonctionnalité F1 pour l’exemple donné est la différence entre le score d’origine et le score obtenu en prenant la décision opposée au nœud correspondant à la fonctionnalité F1. Cet algorithme s’étend naturellement aux modèles avec de nombreux arbres de décision. (Hérité de TreeEnsembleModelParameters) |
ICanSaveModel.Save(ModelSaveContext) |
Paramètres de modèle pour LightGbmRegressionTrainer. (Hérité de ModelParametersBase<TOutput>) |