SystemGetClusterCrossValidationResults (Analysis Services - Exploration de données)
Partitionne la structure d'exploration de données dans le nombre spécifié de sections croisées, effectue l'apprentissage d'un modèle pour chaque partition, puis retourne les mesures de précision de chaque partition.
Remarque Cette procédure stockée ne peut être utilisée qu'avec une structure d'exploration de données qui contient au moins un modèle de clustering. Pour effectuer une validation croisée des autres modèles, vous devez utiliser SystemGetCrossValidationResults (Analysis Services - Exploration de données).
Syntaxe
SystemGetClusterCrossValidationResults(
<structure name>,
[,<mining model list>]
,<fold count>}
,<max cases>
<test list>])
Arguments
mining structure
Nom d'une structure d'exploration de données dans la base de données active.(obligatoire)
mining model list
Liste séparée par des virgules des modèles d'exploration de données à valider.Si une liste de modèles d'exploration de données n'est pas spécifiée, la validation croisée est effectuée par rapport à tous les modèles de clustering associés à la structure spécifiée.
[!REMARQUE]
Pour effectuer la validation croisée des autres modèles, vous devez utiliser une procédure stockée distincte, SystemGetCrossValidationResults (Analysis Services - Exploration de données).
(facultatif)
fold count
Entier qui spécifie en combien de partitions séparer le jeu de données. La valeur minimale est 2. Le nombre maximal de replis est maximum integer ou le nombre de cas, la valeur la plus petite étant retenue.Chaque partition contiendra environ le nombre de cas suivants : max cases/fold count.
Il n'y a pas de valeur par défaut.
[!REMARQUE]
Le nombre de replis affecte considérablement le temps nécessaire pour effectuer la validation croisée. Si vous sélectionnez un nombre trop élevé, la requête risque de s'exécuter très longtemps et dans certains cas le serveur peut ne plus répondre ou dépasser le délai d'attente.
(obligatoire)
max cases
Entier qui spécifie le nombre maximal de cas qui peuvent être testés.La valeur 0 indique que tous les cas de la source de données seront utilisés.
Si vous spécifiez un nombre supérieur au nombre réel de cas dans le jeu de données, tous les cas de la source de données sont utilisés.
(obligatoire)
test list
Chaîne qui spécifie les options de test.Remarque Ce paramètre est réservé à un usage futur.
(facultatif)
Type de valeur renvoyée
Le tableau Type de valeur renvoyée contient des scores pour chaque partition individuelle et des agrégats pour tous les modèles.
Le tableau suivant décrit les colonnes retournées.
Nom de colonne |
Description |
---|---|
ModelName |
Nom du modèle qui a été testé. |
AttributeName |
Nom de la colonne prévisible. Pour les modèles de cluster, toujours null. |
AttributeState |
Valeur cible spécifiée dans la colonne prévisible. Pour les modèles de cluster, toujours null.. |
PartitionIndex |
Index de base 1 qui identifie la partition à laquelle s'appliquent les résultats. |
PartitionSize |
Entier qui indique combien de cas ont été inclus dans chaque partition. |
Test |
Type de test qui a été effectué. |
Measure |
Nom de la mesure retournée par le test. Les mesures de chaque modèle dépendent du type de valeur prévisible. Pour obtenir la définition de chaque mesure, consultez Validation croisée (Analysis Services - Exploration de données). Pour obtenir la liste des mesures retournées pour chaque type prévisible, consultez Rapport de validation croisée (Analysis Services - Exploration de données). |
Value |
Valeur de la mesure de test spécifiée. |
Notes
Pour retourner des mesures de précision pour le jeu de données dans son ensemble, utilisez SystemGetClusterAccuracyResults (Analysis Services - Exploration de données).
Par ailleurs, si le modèle d'exploration de données a déjà été partitionné en replis, vous pouvez contourner le traitement et retourner uniquement les résultats de la validation croisée en utilisant SystemGetClusterAccuracyResults (Analysis Services - Exploration de données).
Exemples
L'exemple suivant montre comment partitionner une structure d'exploration de données en trois replis, puis comment tester deux modèles de clustering associés à la structure d'exploration de données.
La ligne trois du code répertorie les modèles d'exploration de données spécifiques que vous souhaitez tester. Si vous ne spécifiez pas la liste, tous les modèles de clustering associés à la structure sont utilisés.
La ligne quatre du code spécifie le nombre de replis, et la ligne cinq spécifie le nombre maximal de cas à utiliser.
Étant donné qu'il s'agit de modèles de clustering, vous n'avez pas besoin de spécifier un attribut ou une valeur prévisible.
CALL SystemGetClusterCrossValidationResults(
[v Target Mail],
[Cluster 1], [Cluster 2],
3,
10000
)
Exemples de résultats :
ModelName |
AttributeName |
AttributeState |
PartitionIndex |
PartitionSize |
Test |
Measure |
Value |
---|---|---|---|---|---|---|---|
Cluster 1 |
|
|
1 |
3025 |
Clustering |
Case Likelihood |
0.930524511864121 |
Cluster 1 |
|
|
2 |
3025 |
Clustering |
Case Likelihood |
0.919184178430778 |
Cluster 1 |
|
|
3 |
3024 |
Clustering |
Case Likelihood |
0.929651120490248 |
Cluster 2 |
|
|
1 |
1289 |
Clustering |
Case Likelihood |
0.922789726933607 |
Cluster 2 |
|
|
2 |
1288 |
Clustering |
Case Likelihood |
0.934865535691068 |
Cluster 2 |
|
|
3 |
1288 |
Clustering |
Case Likelihood |
0.924724595688798 |
Spécifications
La validation croisée est uniquement disponible dans SQL Server 2008 Enterprise.
Voir aussi