MulticlassClassificationMetrics Classe
Définition
Important
Certaines informations portent sur la préversion du produit qui est susceptible d’être en grande partie modifiée avant sa publication. Microsoft exclut toute garantie, expresse ou implicite, concernant les informations fournies ici.
Résultats de l’évaluation pour les formateurs de classification multiclasse.
public sealed class MulticlassClassificationMetrics
type MulticlassClassificationMetrics = class
Public NotInheritable Class MulticlassClassificationMetrics
- Héritage
-
MulticlassClassificationMetrics
Propriétés
ConfusionMatrix |
Matrice de confusion donnant le nombre des classes prédites par rapport aux classes réelles. |
LogLoss |
Obtient la perte moyenne de journal du classifieur. La perte de journal mesure les performances d’un classifieur en ce qui concerne la quantité de probabilités prédites divergent de l’étiquette de classe true. La perte de journal inférieure indique un meilleur modèle. Un modèle parfait, qui prédit une probabilité de 1 pour la classe vraie, aura une perte de journal de 0. |
LogLossReduction |
Obtient la réduction de la perte de journal (également appelée perte de journal relative, ou réduction du gain d’informations - RIG) du classifieur. Il donne une mesure de la quantité d’amélioration d’un modèle sur un modèle qui donne des prédictions aléatoires. La réduction de la perte de journal plus proche de 1 indique un meilleur modèle. |
MacroAccuracy |
Obtient la précision moyenne des macros du modèle. |
MicroAccuracy |
Obtient la précision micro-moyenne du modèle. |
PerClassLogLoss |
Obtient la perte de journal du classifieur pour chaque classe. La perte de journal mesure les performances d’un classifieur en ce qui concerne la quantité de probabilités prédites divergent de l’étiquette de classe true. La perte de journal inférieure indique un meilleur modèle. Un modèle parfait, qui prédit une probabilité de 1 pour la classe vraie, aura une perte de journal de 0. |
TopKAccuracy |
Méthode pratique pour « TopKAccuracyForAllK[TopKPredictionCount - 1] ». Si TopKPredictionCount elle est positive, il s’agit du nombre relatif d’exemples où l’étiquette true est l’une des étiquettes prédites K supérieures par le prédicteur. |
TopKAccuracyForAllK |
Retourne la précision K supérieure pour toutes les K comprises entre 1 et la valeur de TopKPredictionCount. |
TopKPredictionCount |
Si positif, cela indique le K dans TopKAccuracy et TopKAccuracyForAllK. |