SystemGetAccuracyResults (Analysis Services - Exploration de données)
Retourne les mesures de précision de validation croisée d'une structure d'exploration de données et de tous les modèles connexes, à l'exclusion des modèles de clustering.
Cette procédure stockée retourne les mesures du jeu de données dans son ensemble sous forme de partition unique. Pour partitionner le jeu de données en sections croisées et retourner les mesures de chaque partition, utilisez SystemGetCrossValidationResults (Analysis Services - Exploration de données).
[!REMARQUE]
Cette procédure stockée n'est pas prise en charge pour les modèles créés à l'aide de l'algorithme MTS (Microsoft Time Series) ou de l'algorithme MSC (Microsoft Sequence Clustering). Par ailleurs, pour les modèles de clustering, utilisez la procédure stockée distincte, SystemGetClusterAccuracyResults (Analysis Services - Exploration de données).
Syntaxe
SystemGetAccuracyResults(<mining structure>,
[,<mining model list>]
,<data set>
,<target attribute>
[,<target state>]
[,<target threshold>]
[,<test list>])
Arguments
mining structure
Nom d'une structure d'exploration de données dans la base de données active.(Obligatoire)
model list
Liste séparée par des virgules des modèles à valider.La valeur par défaut est null. Tous les modèles applicables sont alors utilisés. Lorsque la valeur par défaut est utilisée, les modèles de clustering sont automatiquement exclus de la liste des candidats au traitement.
(Facultatif)
data set
Valeur entière indiquant quelle partition de la structure d'exploration de données est utilisée pour le test. Cette valeur est dérivée d'un masque de bits qui représente la somme des valeurs suivantes, où chaque valeur individuelle est facultative :Cas d'apprentissage
0x0001
Scénarios de test
0x0002
Filtre de modèle
0x0004
Pour obtenir la liste complète des valeurs possibles, consultez la section Remarques de cette rubrique.
(obligatoire)
target attribute
Chaîne qui contient le nom d'un objet prévisible. Un objet prévisible peut être une colonne, une colonne de table imbriquée ou une colonne de clé de table imbriquée d'un modèle d'exploration de données.(obligatoire)
target state
Chaîne qui contient une valeur spécifique à prédire.Si une valeur est spécifiée, les mesures sont collectées pour cet état spécifique.
Si aucune valeur n'est spécifiée, ou si la valeur null est spécifiée, les mesures sont calculées pour l'état le plus probable pour chaque prédiction.
La valeur par défaut est null.
(facultatif)
target threshold
Nombre compris entre 0.0 et 1 qui spécifie la probabilité minimale pour que la valeur de prédiction soit comptabilisée comme correcte.La valeur par défaut est null, ce qui signifie que toutes les prédictions sont comptabilisées comme correctes.
(facultatif)
test list
Chaîne qui spécifie les options de test. Ce paramètre est réservé à un usage futur.(facultatif)
Type de valeur renvoyée
L'ensemble de lignes retourné contient des scores pour chaque partition et des agrégats pour tous les modèles.
Le tableau suivant répertorie les colonnes retournées par GetValidationResults.
Nom de colonne |
Description |
---|---|
Model |
Nom du modèle qui a été testé. All indique que le résultat est un agrégat de tous les modèles. |
AttributeName |
Nom de la colonne prévisible. |
AttributeState |
Une valeur cible dans la colonne prévisible. Si cette colonne contient une valeur, les mesures sont collectées uniquement pour l'état spécifié. Si cette valeur n'est spécifiée, ou si la valeur null est spécifiée, les mesures sont calculées pour l'état le plus probable pour chaque prédiction. |
PartitionIndex |
Indique la partition à laquelle le résultat s'applique. Pour cette procédure, toujours 0. |
PartitionCases |
Entier qui indique le nombre de lignes dans le cas défini, en fonction du paramètre <data set>. |
Test |
Type de test qui a été effectué. |
Measure |
Nom de la mesure retournée par le test. Les mesures de chaque modèle dépendent du type de modèle et du type de valeur prévisible. Pour obtenir la liste des mesures retournées pour chaque type prévisible, consultez Rapport de validation croisée (Analysis Services - Exploration de données). Pour obtenir une définition de chaque mesure, consultez Validation croisée (Analysis Services - Exploration de données). |
Value |
Valeur de la mesure spécifiée. |
Notes
Le tableau suivant fournit des exemples des valeurs que vous pouvez utiliser pour spécifier les données de la structure d'exploration de données qui sont utilisées pour la validation croisée. Si vous souhaitez utiliser des scénarios de test pour la validation croisée, la structure d'exploration de données doit déjà contenir un jeu de données de test. Pour plus d'informations sur la définition d'un jeu de données de test lorsque vous créez une structure d'exploration de données, consultez Partitionnement des données en jeux d'apprentissage et jeux de test (Analysis Services – Exploration de données).
Valeur de type entier |
Description |
---|---|
1 |
Seuls les cas d'apprentissage sont utilisés. |
2 |
Seuls les scénarios de test sont utilisés. |
3 |
Les cas d'apprentissage et les scénarios de test sont utilisés. |
4 |
Combinaison incorrecte. |
5 |
Seuls les cas d'apprentissage sont utilisés. Le filtre de modèle est appliqué. |
6 |
Seuls les scénarios de test sont utilisés. Le filtre de modèle est appliqué. |
7 |
Les cas d'apprentissage et les scénarios de test sont utilisés. Le filtre de modèle est appliqué. |
Pour plus d'informations sur les scénarios dans lesquels utiliser la validation croisée, consultez Validation des modèles d'exploration de données (Analysis Services - Exploration de données).
Exemples
Cet exemple retourne les mesures de précision d'un modèle d'arbre de décision unique, v Target Mail DT, associé à la structure d'exploration de données vTargetMail. Le code de la ligne quatre indique que les résultats doivent être basés sur les scénarios de test, filtrés pour chaque modèle par le filtre spécifique à ce modèle. [Bike Buyer] spécifie la colonne qui doit être prédite, et le 1 sur la ligne suivante indique que le modèle sera évalué uniquement pour la valeur 1 spécifique, qui signifie « Oui, achètera ».
La dernière ligne du code spécifie que la valeur de seuil d'état est 0,5. Cela signifie que les prédictions dont la probabilité est supérieure à 50 pour cent doivent être comptabilisées comme de « bonnes » prédictions lors du calcul de la précision.
CALL SystemGetAccuracyResults (
[vTargetMail],
[vTargetMail DT],
6,
'Bike Buyer',
1,
0.5
)
Exemples de résultats :
ModelName |
AttributeName |
AttributeState |
PartitionIndex |
PartitionSize |
Test |
Measure |
Value |
---|---|---|---|---|---|---|---|
v Target Mail DT |
Bike Buyer |
1 |
0 |
1638 |
Classification |
True Positive |
605 |
v Target Mail DT |
Bike Buyer |
1 |
0 |
1638 |
Classification |
False Positive |
177 |
v Target Mail DT |
Bike Buyer |
1 |
0 |
1638 |
Classification |
True Negative |
501 |
v Target Mail DT |
Bike Buyer |
1 |
0 |
1638 |
Classification |
False Negative |
355 |
v Target Mail DT |
Bike Buyer |
1 |
0 |
1638 |
Likelihood |
Log Score |
-0.598454638753028 |
v Target Mail DT |
Bike Buyer |
1 |
0 |
1638 |
Likelihood |
Lift |
0.0936717116894395 |
v Target Mail DT |
Bike Buyer |
1 |
0 |
1638 |
Likelihood |
Root Mean Square Error |
0.361630800104946 |
Spécifications
La validation croisée est uniquement disponible dans SQL Server 2008 Enterprise.
Voir aussi