Partager via


SystemGetAccuracyResults (Analysis Services - Exploration de données)

Retourne les mesures de précision de validation croisée d'une structure d'exploration de données et de tous les modèles connexes, à l'exclusion des modèles de clustering.

Cette procédure stockée retourne les mesures du jeu de données dans son ensemble sous forme de partition unique. Pour partitionner le jeu de données en sections croisées et retourner les mesures de chaque partition, utilisez SystemGetCrossValidationResults (Analysis Services - Exploration de données).

[!REMARQUE]

Cette procédure stockée n'est pas prise en charge pour les modèles créés à l'aide de l'algorithme MTS (Microsoft Time Series) ou de l'algorithme MSC (Microsoft Sequence Clustering). Par ailleurs, pour les modèles de clustering, utilisez la procédure stockée distincte, SystemGetClusterAccuracyResults (Analysis Services - Exploration de données).

Syntaxe

SystemGetAccuracyResults(<mining structure>, 
[,<mining model list>]
,<data set>
,<target attribute>
[,<target state>]
[,<target threshold>]
[,<test list>])

Arguments

  • mining structure
    Nom d'une structure d'exploration de données dans la base de données active.

    (Obligatoire)

  • model list
    Liste séparée par des virgules des modèles à valider.

    La valeur par défaut est null. Tous les modèles applicables sont alors utilisés. Lorsque la valeur par défaut est utilisée, les modèles de clustering sont automatiquement exclus de la liste des candidats au traitement.

    (Facultatif)

  • data set
    Valeur entière indiquant quelle partition de la structure d'exploration de données est utilisée pour le test. Cette valeur est dérivée d'un masque de bits qui représente la somme des valeurs suivantes, où chaque valeur individuelle est facultative :

    Cas d'apprentissage

    0x0001

    Scénarios de test

    0x0002

    Filtre de modèle

    0x0004

    Pour obtenir la liste complète des valeurs possibles, consultez la section Remarques de cette rubrique.

    (obligatoire)

  • target attribute
    Chaîne qui contient le nom d'un objet prévisible. Un objet prévisible peut être une colonne, une colonne de table imbriquée ou une colonne de clé de table imbriquée d'un modèle d'exploration de données.

    (obligatoire)

  • target state
    Chaîne qui contient une valeur spécifique à prédire.

    Si une valeur est spécifiée, les mesures sont collectées pour cet état spécifique.

    Si aucune valeur n'est spécifiée, ou si la valeur null est spécifiée, les mesures sont calculées pour l'état le plus probable pour chaque prédiction.

    La valeur par défaut est null.

    (facultatif)

  • target threshold
    Nombre compris entre 0.0 et 1 qui spécifie la probabilité minimale pour que la valeur de prédiction soit comptabilisée comme correcte.

    La valeur par défaut est null, ce qui signifie que toutes les prédictions sont comptabilisées comme correctes.

    (facultatif)

  • test list
    Chaîne qui spécifie les options de test. Ce paramètre est réservé à un usage futur.

    (facultatif)

Type de valeur renvoyée

L'ensemble de lignes retourné contient des scores pour chaque partition et des agrégats pour tous les modèles.

Le tableau suivant répertorie les colonnes retournées par GetValidationResults.

Nom de colonne

Description

Model

Nom du modèle qui a été testé. All indique que le résultat est un agrégat de tous les modèles.

AttributeName

Nom de la colonne prévisible.

AttributeState

Une valeur cible dans la colonne prévisible.

Si cette colonne contient une valeur, les mesures sont collectées uniquement pour l'état spécifié.

Si cette valeur n'est spécifiée, ou si la valeur null est spécifiée, les mesures sont calculées pour l'état le plus probable pour chaque prédiction.

PartitionIndex

Indique la partition à laquelle le résultat s'applique.

Pour cette procédure, toujours 0.

PartitionCases

Entier qui indique le nombre de lignes dans le cas défini, en fonction du paramètre <data set>.

Test

Type de test qui a été effectué.

Measure

Nom de la mesure retournée par le test. Les mesures de chaque modèle dépendent du type de modèle et du type de valeur prévisible.

Pour obtenir la liste des mesures retournées pour chaque type prévisible, consultez Rapport de validation croisée (Analysis Services - Exploration de données).

Pour obtenir une définition de chaque mesure, consultez Validation croisée (Analysis Services - Exploration de données).

Value

Valeur de la mesure spécifiée.

Notes

Le tableau suivant fournit des exemples des valeurs que vous pouvez utiliser pour spécifier les données de la structure d'exploration de données qui sont utilisées pour la validation croisée. Si vous souhaitez utiliser des scénarios de test pour la validation croisée, la structure d'exploration de données doit déjà contenir un jeu de données de test. Pour plus d'informations sur la définition d'un jeu de données de test lorsque vous créez une structure d'exploration de données, consultez Partitionnement des données en jeux d'apprentissage et jeux de test (Analysis Services – Exploration de données).

Valeur de type entier

Description

1

Seuls les cas d'apprentissage sont utilisés.

2

Seuls les scénarios de test sont utilisés.

3

Les cas d'apprentissage et les scénarios de test sont utilisés.

4

Combinaison incorrecte.

5

Seuls les cas d'apprentissage sont utilisés. Le filtre de modèle est appliqué.

6

Seuls les scénarios de test sont utilisés. Le filtre de modèle est appliqué.

7

Les cas d'apprentissage et les scénarios de test sont utilisés. Le filtre de modèle est appliqué.

Pour plus d'informations sur les scénarios dans lesquels utiliser la validation croisée, consultez Validation des modèles d'exploration de données (Analysis Services - Exploration de données).

Exemples

Cet exemple retourne les mesures de précision d'un modèle d'arbre de décision unique, v Target Mail DT, associé à la structure d'exploration de données vTargetMail. Le code de la ligne quatre indique que les résultats doivent être basés sur les scénarios de test, filtrés pour chaque modèle par le filtre spécifique à ce modèle. [Bike Buyer] spécifie la colonne qui doit être prédite, et le 1 sur la ligne suivante indique que le modèle sera évalué uniquement pour la valeur 1 spécifique, qui signifie « Oui, achètera ».

La dernière ligne du code spécifie que la valeur de seuil d'état est 0,5. Cela signifie que les prédictions dont la probabilité est supérieure à 50 pour cent doivent être comptabilisées comme de « bonnes » prédictions lors du calcul de la précision.

CALL SystemGetAccuracyResults (
[vTargetMail],
[vTargetMail DT],
6,
'Bike Buyer',
1,
0.5
)

Exemples de résultats :

ModelName

AttributeName

AttributeState

PartitionIndex

PartitionSize

Test

Measure

Value

v Target Mail DT

Bike Buyer

1

0

1638

Classification

True Positive

605

v Target Mail DT

Bike Buyer

1

0

1638

Classification

False Positive

177

v Target Mail DT

Bike Buyer

1

0

1638

Classification

True Negative

501

v Target Mail DT

Bike Buyer

1

0

1638

Classification

False Negative

355

v Target Mail DT

Bike Buyer

1

0

1638

Likelihood

Log Score

-0.598454638753028

v Target Mail DT

Bike Buyer

1

0

1638

Likelihood

Lift

0.0936717116894395

v Target Mail DT

Bike Buyer

1

0

1638

Likelihood

Root Mean Square Error

0.361630800104946

Spécifications

La validation croisée est uniquement disponible dans SQL Server 2008 Enterprise.