TreeEnsembleModelParametersBasedOnRegressionTree Classe

Définition

TreeEnsembleModelParametersBasedOnRegressionTree est dérivé d’un TreeEnsembleModelParameters attribut public fortement typé, TrainedTreeEnsemblepour exposer les détails du modèle entraîné aux utilisateurs. Sa fonction, Microsoft.ML.Trainers.FastTree.TreeEnsembleModelParametersBasedOnRegressionTree.CreateTreeEnsembleFromInternalDataStructureest appelée pour créer TrainedTreeEnsemble à l’intérieur TreeEnsembleModelParameters. Notez que la principale différence entre TreeEnsembleModelParametersBasedOnQuantileRegressionTree et TreeEnsembleModelParametersBasedOnRegressionTree est le type de TrainedTreeEnsemble.

public abstract class TreeEnsembleModelParametersBasedOnRegressionTree : Microsoft.ML.Trainers.FastTree.TreeEnsembleModelParameters
type TreeEnsembleModelParametersBasedOnRegressionTree = class
    inherit TreeEnsembleModelParameters
Public MustInherit Class TreeEnsembleModelParametersBasedOnRegressionTree
Inherits TreeEnsembleModelParameters
Héritage
TreeEnsembleModelParametersBasedOnRegressionTree
Dérivé

Propriétés

TrainedTreeEnsemble

Ensemble d’arbres exposés aux utilisateurs. Il s’agit d’un wrapper dans .internalMicrosoft.ML.Trainers.FastTree.InternalTreeEnsembleTreeEnsemble<T>

Méthodes

GetFeatureWeights(VBuffer<Single>)

Obtenez les gains cumulés de fractionnement pour chaque fonctionnalité sur toutes les arborescences.

(Hérité de TreeEnsembleModelParameters)

Implémentations d’interfaces explicites

ICalculateFeatureContribution.FeatureContributionCalculator

Permet de déterminer la contribution de chaque fonctionnalité au score d’un exemple par FeatureContributionCalculatingTransformer. Le calcul de la contribution des caractéristiques consiste essentiellement à déterminer les fractionnements de l’arborescence ayant le plus d’impact sur le score final et à attribuer la valeur de l’impact aux caractéristiques déterminant la division. Plus précisément, la contribution d’une fonctionnalité est égale à la modification du score produit en explorant la sous-arborescence opposée chaque fois qu’un nœud de décision pour la fonctionnalité donnée est rencontré. Considérez un cas simple avec un arbre de décision unique qui a un nœud de décision pour la fonctionnalité binaire F1. Étant donné un exemple qui a la fonctionnalité F1 égale à true, nous pouvons calculer le score obtenu si nous avons choisi la sous-arborescence correspondant à la fonctionnalité F1 étant égale à false tout en conservant la constante des autres fonctionnalités. La contribution de la fonctionnalité F1 pour l’exemple donné est la différence entre le score d’origine et le score obtenu en prenant la décision opposée au nœud correspondant à la fonctionnalité F1. Cet algorithme s’étend naturellement aux modèles avec de nombreux arbres de décision.

(Hérité de TreeEnsembleModelParameters)
ICanSaveModel.Save(ModelSaveContext)

TreeEnsembleModelParametersBasedOnRegressionTree est dérivé d’un TreeEnsembleModelParameters attribut public fortement typé, TrainedTreeEnsemblepour exposer les détails du modèle entraîné aux utilisateurs. Sa fonction, Microsoft.ML.Trainers.FastTree.TreeEnsembleModelParametersBasedOnRegressionTree.CreateTreeEnsembleFromInternalDataStructureest appelée pour créer TrainedTreeEnsemble à l’intérieur TreeEnsembleModelParameters. Notez que la principale différence entre TreeEnsembleModelParametersBasedOnQuantileRegressionTree et TreeEnsembleModelParametersBasedOnRegressionTree est le type de TrainedTreeEnsemble.

(Hérité de ModelParametersBase<TOutput>)

S’applique à