Analizzare e generare rapporti sui risultati dei test tramite la prospettiva Test nel database di Analysis Services per Visual Studio ALM
Utilizzando la prospettiva Test nel cubo di Analysis Services di SQL Server per Visual Studio Team Foundation Server, si possono visualizzare solo le misure, le dimensioni e gli attributi relativi alla segnalazione dei risultati e alle esecuzioni dei test.Ad esempio, si possono utilizzare queste misure per determinare la qualità complessiva di ogni compilazione, i test che hanno interessato una particolare compilazione e il numero di test case eseguiti.È possibile rispondere anche ad altre domande relative alla modifica dei risultati.
Il gruppo di misure di test è basato sulla tabella relazionale dei risultati del test, che consente la segnalazione dei risultati del test come una proprietà del test o come un risultato indipendente.Per ulteriori informazioni, vedere Tabella dei fatti del test.
Utilizzando la prospettiva Test, si possono creare rapporti che rispondono alle seguenti domande: Rapporti di stato:
Rapporti tendenza:
Nota
Se il data warehouse per Visual Studio Application Lifecycle Management (ALM) utilizza SQL Server Enterprise Edition, l'elenco di cubi includerà Team System e un set di prospettive.Le prospettive forniscono una visualizzazione dettagliata dei dati così che non è necessario scorrere tramite tutte le dimensioni e tutti i gruppi di misura nell'intero cubo di Team System.
|
Per utilizzare molte misure di test e attributi di dimensione, il team di test deve pubblicare i risultati del test nell'archivio dati per Team Foundation Server.Per ulteriori informazioni, vedere Attività obbligatorie per la gestione dei test e delle compilazioni più avanti in questo argomento.
In questo argomento
Esempio: Rapporto sullo stato di avanzamento per il testing delle storie utente
Misure di test
Dimensioni e attributi nella prospettiva Test che supporta il filtraggio e la categorizzazione
Dimensioni Compila, Versione build e Piattaforma di compilazione
Dimensioni Test case, Configurazione di test, Piano di test e Gruppo di test
Dimensione Risultato del test
Dimensione Esecuzione dei test
Dimensioni Elemento di lavoro e Elemento di lavoro collegato
Attività obbligatorie per la gestione dei test e delle compilazioni
Esempio: Rapporto sullo stato di avanzamento per il testing delle storie utente
Utilizzando i rapporti di tabella pivot e di grafico pivot in Excel, è possibile creare un rapporto sullo stato che mostri lo stato di avanzamento del test nelle storie utente, in modo simile al rapporto illustrato nella figura di seguito.
I modelli di processo per Microsoft Solutions Framework (MSF) v5.0 includono il rapporto stato test storia utente e il rapporto stato test requisito in Excel.Per ulteriori informazioni, vedere Rapporto Stato test storia utente di Excel (Agile) e Rapporto di Excel Stato test requisito (CMMI).
Torna all'inizio
Specificare e filtrare i campi pivot
Eseguendo i passaggi seguenti, è possibile creare un rapporto sullo stato di avanzamento per il testing delle storie utente:
In Excel, connettersi al cubo di Analysis Services per Team Foundation Server e quindi inserire un rapporto di grafico pivot.
Per ulteriori informazioni, vedere Creare un rapporto in Microsoft Excel per Visual Studio ALM.
Fare clic con il pulsante destro del mouse sul grafico, scegliere Modifica tipo di grafico, fare clic su Area e quindi scegliere Barre in pila.
Per ogni filtro di rapporto, fare clic con il pulsante destro del mouse su ognuno dei seguenti campi, specificare le gerarchie o gli elementi di interesse e trascinare il campo nell'area Filtro report.
Gerarchia progetto team dalla dimensione Progetto Team
Percorso area dalla dimensione Progetto Team
Percorso iterazione dalla dimensione Test case
Tipo di elemento di lavoro dalla dimensione Elemento di lavoro collegato
Specificare il tipo della storia utente, il tipo requisito o un altro tipo per l'elemento di lavoro che dispone dei test case collegati che si desiderano riportare.
Trascinare il campo Tendenza conteggio punti dal gruppo di misure Test nell'area Valori.
Trascinare il campo Risultato dalla dimensione Risultato test nell'area Etichette di colonna.
Torna all'inizio
Misure di test
Nella tabella seguente vengono descritte le misure che il gruppo di misure di test include.È possibile analizzare i risultati dei test dell'aggregazione dei risultati dei test e del rispettivo esito per una compilazione specifica o come esito della modifica per un risultato del test.
Misura |
Descrizione |
---|---|
Tendenza conteggio risultati compilazione |
Calcola la versione più recente di ogni risultato in una particolare compilazione. Per un esempio di un rapporto che utilizza questa misura, vedere Rapporto Excel Qualità di compilazione. |
Tendenza conteggio punti |
Calcolo della versione più recente di ogni risultato del test in una particolare compilazione.Se un test viene eseguito più volte in una compilazione, tramite Tendenza conteggio punti viene conteggiato il risultato più recente per il test utilizzando tale compilazione.Se un test case non è incluso nella compilazione, il test case viene conteggiato come "Mai eseguito". Utilizzare questa misura per determinare quali test o quanti test hanno avuto esito negativo nella compilazione corrente. |
Conteggio risultati |
Calcola la versione più recente di ogni risultato del test.Utilizzare questo metodo quando si desidera determinare il numero complessivo di test. Per un esempio di un rapporto che utilizza questa misura, vedere Rapporto Indicatori di qualità di compilazione. |
Conteggio transizioni risultati |
Conta tutti i risultati il cui risultato è stato modificato in una particolare compilazione.Utilizzare questa misura quando si devono determinare i test influenzati da una particolare compilazione. |
Conteggio test case |
Numero di test case.Utilizzare questa misura quando si desidera determinare il numero di test case eseguiti per un'esecuzione particolare di un test o per un particolare compilazione. |
Dimensioni e attributi nella prospettiva Test che supporta il filtraggio e la categorizzazione
Utilizzando gli attributi descritti in questa sezione, è possibile aggregare una misura, filtrare un rapporto, o specificare un asse del rapporto.Questi attributi sono in più rispetto alle dimensioni condivise Progetto team e Data descritte in Utilizzo di dimensioni condivise.
Contenuto della sezione
Dimensioni Compila, Versione build e Piattaforma di compilazione
Dimensioni Test case, Configurazione di test, Piano di test e Gruppo di test
Dimensione Risultato del test
Dimensione Esecuzione dei test
Dimensioni Elemento di lavoro e Elemento di lavoro collegato
Torna all'inizio
Dimensioni Compila, Versione build e Piattaforma di compilazione
È possibile filtrare i rapporti di test basandosi sulla definizione di compilazione, sulla versione della build, o sulla piattaforma di compilazione utilizzando gli attributi descritti nella seguente tabella.
Dimensione |
Attributo |
Descrizione |
---|---|---|
Compila |
Nome della definizione di compilazione |
Il nome assegnato alla definizione di compilazione per la quale una compilazione è stata eseguita. Per un esempio di un rapporto che utilizza questo attributo, vedere Rapporto Excel Qualità di compilazione. |
ID compilazione |
Il numero che viene assegnato alla compilazione.Ogni volta che una particolare definizione di compilazione viene eseguita , l'ID compilazione viene incrementato di 1. |
|
Nome compilazione |
Il nome o l'espressione che identifica in modo univoco una compilazione.Per ulteriori informazioni, vedere Utilizzare numeri di compilazione. |
|
Ora di inizio compilazione |
La data e l'ora in cui la compilazione è stata avviata. |
|
Tipo di compilazione |
La ragione per la quale la compilazione è stata eseguita.I tipi di compilazione vengono associati al trigger definito per la compilazione.Team Foundation Server supporta i seguenti tipi di compilazione: manuale, continua (attivata da ogni archiviazione), sequenziale (vengono accumulate archiviazioni fino al termine della compilazione precedente), archiviazione gestita e pianificata.Per ulteriori informazioni, vedere Specificare trigger e motivi di compilazione. |
|
Destinazione finale |
La cartella di destinazione definita per la compilazione e specificata tramite un URL (Uniform Resource Locator).Un URL specifica il protocollo con cui i browser web possono trovare le risorse di internet.L'URL include anche il nome del server presso il quale si trova la risorsa.È inoltre possibile includere il percorso ad una risorsa. Per ulteriori informazioni, vedere Impostare cartelle a sola scrittura. |
|
Versione build |
Versione build |
(solo per la pubblicazione dei risultati dei test) Un nome che definisce la categoria di compilazione assegnata ad un set di compilazioni completate pubblicate come parte di un'esecuzione di un test.Ad esempio, una versione della build può essere utilizzata per definire una versione beta o una versione finale.Per ulteriori informazioni, vedere Opzioni della riga di comando per la pubblicazione dei risultati del test. |
Piattaforma di compilazione |
Piattaforma di compilazione |
Il nome della piattaforma del computer per la quale una compilazione end-to-end (non desktop) è stata fatta (ad esempio x86 o Qualsiasi CPU).Per ulteriori informazioni, vedere Definire un processo di compilazione basato sul modello predefinito. |
Torna all'inizio
Dimensioni Test case, Configurazione di test, Piano di test e Gruppo di test
Le dimensioni Test case, Configurazione di test, Piano di test e Gruppo di test corrispondono a come è possibile organizzare, configurare, automatizzare ed eseguire test tramite Microsoft Test Manager da Visual Studio 2010 Ultimate o Visual Studio Test Professional.
Il test case corrisponde a un tipo di elemento di lavoro che il team di test utilizza per definire test manuali ed automatizzati che possono essere eseguiti e gestiti dal team utilizzando Microsoft Test Manager.Un piano di test è costituito dalle configurazioni di test e dai gruppi di test.Una configurazione di test consente di definire il software o l'hardware sul quale si desiderano eseguire dei test.Un gruppo di test definisce una gerarchia nel piano in modo da poter raggruppare insieme i test case.
Per ulteriori informazioni, vedere i seguenti argomenti:
Dimensione |
Attributo |
Descrizione |
---|---|---|
Test case |
Gerarchia area ed altro |
Le dimensioni Elemento di lavoro e Test case contengono tutti gli attributi relativi agli elementi di lavoro, come ad esempio lo stato, il tipo dell'elemento di lavoro e l'ID dell'elemento di lavoro.Per informazioni sulla struttura della dimensione dei test case, vedere Analizzare e generare rapporti su dati relativi agli elementi di lavoro e ai test case tramite la prospettiva Elemento di lavoro. Per una descrizione di ciascun attributo, vedere Riferimento ai campi degli elementi di lavoro per ALM di Visual Studio. Per informazioni su come utilizzare la data, l'area e le gerarchie d'iterazione, vedere Utilizzo di dimensioni condivise nel cubo di Analysis Services. Questo gruppo di misure contiene attributi aggiuntivi quando i campi personalizzati nella definizione per un tipo dell'elemento di lavoro specificano Dimension come attributo segnalabile.Per ulteriori informazioni su come utilizzare l'attributo facoltativo reportable e i relativi valori, vedere Aggiungere e modificare campi elemento di lavoro per supportare la creazione di rapporti. |
Configurazione di test |
ID configurazione e Nome configurazione |
Il numero assegnato dal sistema e il nome di una configurazione di test. |
Piano di test |
Gerarchia area, percorso area, gerarchia iterazione e percorso iterazione |
L'area del prodotto e le attività cardine assegnate al piano di test. Per ulteriori informazioni, vedere Analizzare e generare rapporti su dati relativi agli elementi di lavoro e ai test case tramite la prospettiva Elemento di lavoro. |
Gerarchia data di fine dal mese o dalla settimana Gerarchia data di inizio dal mese o dalla settimana |
Valori facoltativi che il proprietario del piano di test può assegnare al piano di test.Questi rappresentano la data in cui il piano di test verrà avviato e la data in cui il piano di test sarà completato. Per ulteriori informazioni su come utilizzare le gerarchie date, vedere Utilizzo di dimensioni condivise nel cubo di Analysis Services. |
|
ID piano di test e il nome piano di test |
Il numero assegnato dal sistema e il nome che il proprietario del piano di test gli ha assegnato. |
|
Proprietario piano di test |
Il nome del membro del team di test che ha creato o che è attualmente assegnato come proprietario del piano di test. |
|
ID e stato piano di test |
Il numero e il nome dello stato assegnato dal sistema per il piano di test.Ad esempio, Inattivo indica che il piano di test è in fase di definizione e Attivo indica che il piano di test è pronto per essere rivisto ed eseguito. |
|
Gruppo di test |
Gerarchia dei gruppi di test |
Fornisce un meccanismo per specificare più filtri basati sulla raccolta di progetti, sul progetto team e sul gruppo di test. |
Percorso gruppo |
Corrisponde alla gerarchia dei gruppi di test configurati per tutti i progetti team definiti in tutte le raccolte di progetti team. |
Torna all'inizio
Dimensione Risultato del test
Nella seguente tabella sono elencate tutte le dimensioni e gli attributi specifici per le misure di test nel cubo.Prima di poter creare rapporti sul Tipo di errore o sulla Risoluzione, il team di test deve inserire queste informazioni come parte delle loro attività di test.
Attributo |
Descrizione |
---|---|
Tipo di errore e ID del tipo di errore |
Corrisponde a uno dei motivi per cui un test non viene superato: Nessuno, Problema noto, Nuovo problema, o Regressione. Microsoft Test Manager assegna automaticamente un numero o un ID per ogni motivo.Il team di test può, ma non è obbligato ad, assegnare un tipo di errore ad ogni test non superato.
Nota
Non è possibile aggiungere o modificare l'insieme dei tipi di errore.
Per un esempio di un rapporto tendenza che mostra l'esito dei risultati di test basati sul tipo di errore, vedere Rapporto Analisi degli errori di Excel. |
Risultato e ID del risultato |
Il risultato del test (ad esempio, Superato, Non superato, o Senza risultati). Per un esempio di un rapporto tendenza che mostra il risultato dei piani di test e delle configurazioni di test, vedere Rapporto Stato di avanzamento piano test. |
Stato di conformità e ID dello stato di conformità |
Lo stato di un particolare test in un'esecuzione dei test.I valori validi sono Completato, InEsecuzione, Nessuno, NonPronto e Pronto. |
Stato risoluzione |
(Facoltativo) il nome della Risoluzione con cui un tester ha identificato la causa di un test non superato.Per impostazione predefinita, tutti i modelli di processo MSF includono i seguenti stati di risoluzione: Analisi necessaria, Problema test, Problema prodotto e Problema configurazione.Il team di test può, ma non è obbligato ad, assegnare lo stato di risoluzione ad ogni test non superato.
Nota
Non è possibile modificare questi stati o aggiungere stati dopo la creazione del progetto team.Per ulteriori informazioni, vedere Defining Resolution States for Test.
|
Risultato test eseguito da |
Il nome dell'utente o di un altro account presso il quale il test è stato eseguito. Per un esempio di un rapporto che utilizza questo attributo, vedere Rapporto Excel sulla produttività del team di test. |
Proprietario risultato test |
Il nome dell'utente o di un altro account assegnato come proprietario del risultato del test.L'assegnazione corrisponde al valore impostato utilizzando l'opzione tcm /resultowner. |
Priorità risultato test |
La priorità di un determinato test in un'esecuzione dei test. |
Torna all'inizio
Dimensione Esecuzione dei test
Nella tabella seguente vengono descritti gli attributi definiti per la dimensione Esecuzione dei test.Molti di questi attributi corrispondono ai parametri che il team di test specifica quando esegue e pubblica i test.Per ulteriori informazioni, vedere tcm: esecuzione di test da un piano di test tramite l'utilità della riga di comando.
Attributo |
Descrizione |
---|---|
Data completamento, data creazione, gerarchia data di inizio dal mese o dalla settimana |
Le date in cui il test è stato creato, completato, o avviato.È possibile utilizzare questi attributi per filtrare o per strutturare un rapporto.Per ulteriori informazioni, vedere Utilizzo di dimensioni condivise nel cubo di Analysis Services. |
Automatizzato |
Flag che indica se l'esecuzione dei test contiene uno o più test automatizzati. Per un esempio di un rapporto che utilizza questo attributo, vedere Rapporto Excel Qualità di compilazione. |
Esecuzione verifica compilazione |
Flag che indica se l'esecuzione dei test contiene i test di verifica della compilazione che controllano le funzionalità di base della compilazione.Questa flag corrisponde all'opzione tcm /buildverification. Per un esempio di un rapporto che utilizza questo attributo, vedere Rapporto Excel Qualità di compilazione. |
ID di esecuzione test. |
Il numero assegnato dal sistema all'esecuzione dei test. |
Proprietario dell'esecuzione test |
Corrisponde al proprietario assegnato all'esecuzione dei test che il team di test ha creato o pubblicato.Corrisponde all'opzione tcm /owner. |
Stato e ID dell'esecuzione dei test. |
Nome o numero assegnato allo stato dell'esecuzione dei test (ad esempio Interrotto, Completato, In corso, Non iniziato o Sconosciuto). |
Titolo dell'esecuzione dei test |
Corrisponde al titolo assegnato all'esecuzione dei test che il team di test ha creato o pubblicato.Corrisponde all'opzione tcm /title. |
Torna all'inizio
Dimensioni Elemento di lavoro e Elemento di lavoro collegato
È possibile collegare i test case ad altri elementi di lavoro come le storie utente, i requisiti e i bug.Con l'utilizzo della dimensione Elemento di lavoro collegato, è possibile creare un rapporto che fornisce i risultati dei test relativi agli elementi di lavoro collegati.Il rapporto sullo stato di avanzamento del testing delle storie utente, descritto in precedenza in questo argomento, fornisce un esempio di utilizzo dell'elemento di lavoro collegato.
Per una descrizione di ciascun attributo, vedere Riferimento ai campi degli elementi di lavoro per ALM di Visual Studio.
Attività obbligatorie per la gestione dei test e delle compilazioni
Per creare dei rapporti di test che contengono dati utili, i membri del team devono effettuare le attività seguenti per gestire le compilazioni e i test:
Attività di compilazione
Configurare un sistema di compilazione.Per utilizzare Team Foundation Build, il team deve configurare un sistema di compilazione.
Per ulteriori informazioni, vedere Configure Your Build System.
Creare definizioni di compilazione.Il team deve creare almeno una definizione di compilazione.Il team può creare diverse definizioni di compilazione, ognuna delle quali può essere eseguita per produrre codice per una piattaforma diversa.Il team può anche eseguire ogni compilazione per una configurazione diversa.
Per ulteriori informazioni, vedere Creare una definizione di compilazione.
(Consigliato) Eseguire regolarmente delle compilazioni.Il team può eseguire automaticamente delle compilazioni ad intervalli specificati o dopo ogni archiviazione.Utilizzando il trigger di pianificazione, il team può eseguire automaticamente le compilazioni simultaneamente o in una certa ora dello stesso giorno o nei giorni specificati.
Per ulteriori informazioni, vedere Specificare trigger e motivi di compilazione e Eseguire, monitorare e gestire compilazioni.
Per ulteriori informazioni, vedere Attività di Team Foundation Build.
Attività di gestione test
Definire test case, piani di test e configurazioni di test.Per generare rapporti sui test case e sui piani di test, il team di test deve definire questi elementi.Il team di test può inoltre definire gruppi di test e assegnare i test case ai piani di test.
(Facoltativo) Assegnare le aree del prodotto e le attività cardine ai test e tenere traccia dello stato.Il team di test può specificare i percorsi Area e Iterazione per ogni test case e piano di test.Specificare lo Stato di ogni test case e Stato del piano di test di ciascun piano di test.
(Facoltativo) Collegare i test case agli elementi di lavoro.Ad esempio, il team di test può monitorare lo stato di avanzamento dei test per ogni storia utilizzando il tipo di collegamento Testato da per collegare i test case alle storie utente.
(Facoltativo) Contrassegnare i risultati dei test.Per i test manuali, il team di test può contrassegnare come Superato o Non superato i risultati di ciascun passaggio di convalida nel test case.
Importante I tester devono contrassegnare ogni passo del test di convalida con uno stato.Il risultato complessivo di un test riflette lo stato di tutti i passi di test contrassegnati.Pertanto, se un passo di test è stato contrassegnato dal tester come Non superato oppure il tester non ha contrassegnato tutti i passi, lo stato del test sarà Non superato.
Ogni test automatico viene contrassegnato automaticamente come Superato o Non superato.
(Facoltativo) Configurare i test per raggruppare i dati di code coverage.Affinché dati di code coverage siano visibili nel rapporto, i membri del team devono instrumentare i test per raccogliere tali dati.
Importante Per raccogliere i dati di code coverage, è necessario installare Visual Studio Premium o Visual Studio Ultimate nel computer dell'agente di compilazione.Per ulteriori informazioni, vedere Distribuire e configurare gli agenti di compilazione.
Per ulteriori informazioni, vedere La configurazione di code coverage mediante impostazioni test è deprecata e How to: Gather Code-Coverage Data with Generic Tests.
Definire i test da eseguire automaticamente come parte della compilazione.Come parte della definizione di compilazione, si possono definire i test automatici affinché siano eseguiti come parte della compilazione e affinché analizzino l'impatto delle modifiche al codice nei test.
Per ulteriori informazioni, vedere Definire un processo di compilazione basato sul modello predefinito.
Pubblicare i test.Come parte delle attività di compilazione e di esecuzione dei test, il team di test dovrebbe pubblicare i risultati del test nell'archivio dati per Team Foundation Server.
Per ulteriori informazioni, vedere Opzioni della riga di comando per la pubblicazione dei risultati del test.
Torna all'inizio
Vedere anche
Concetti
Prospettive e gruppi di misure forniti nel cubo di Analysis Services per Team System