Dela via


Aktivera loggning i Azure Machine Learning-designerpipelines

I den här artikeln får du lära dig hur du lägger till loggningskod i designerpipelines. Du får också lära dig hur du visar loggarna med hjälp av Azure Machine Learning-studio webbportalen.

Mer information om loggningsmått med hjälp av SDK-redigeringsmiljön finns i Övervaka Azure Machine Learning-experimentkörningar och mått.

Aktivera loggning med Kör Python-skript

Använd komponenten Kör Python-skript för att aktivera loggning i designerpipelines. Även om du kan logga valfritt värde med det här arbetsflödet är det särskilt användbart att logga mått från komponenten Utvärdera modell för att spåra modellprestanda mellan körningar.

I följande exempel visas hur du loggar det genomsnittliga kvadratfelet för två tränade modeller med hjälp av komponenterna Utvärdera modell och Kör Python-skript.

  1. Anslut en Execute Python Script-komponent till utdata från komponenten Utvärdera modell .

    Ansluta Kör Python-skriptkomponent för att utvärdera modellkomponenten

  2. Klistra in följande kod i kör Python-skriptkodredigeraren för att logga det genomsnittliga absoluta felet för din tränade modell. Du kan använda ett liknande mönster för att logga andra värden i designern:

    GÄLLER FÖR: Python SDK azureml v1

    # dataframe1 contains the values from Evaluate Model
    def azureml_main(dataframe1=None, dataframe2=None):
        print(f'Input pandas.DataFrame #1: {dataframe1}')
    
        from azureml.core import Run
    
        run = Run.get_context()
    
        # Log the mean absolute error to the parent run to see the metric in the run details page.
        # Note: 'run.parent.log()' should not be called multiple times because of performance issues.
        # If repeated calls are necessary, cache 'run.parent' as a local variable and call 'log()' on that variable.
        parent_run = Run.get_context().parent
    
        # Log left output port result of Evaluate Model. This also works when evaluate only 1 model.
        parent_run.log(name='Mean_Absolute_Error (left port)', value=dataframe1['Mean_Absolute_Error'][0])
        # Log right output port result of Evaluate Model. The following line should be deleted if you only connect one Score component to the` left port of Evaluate Model component.
        parent_run.log(name='Mean_Absolute_Error (right port)', value=dataframe1['Mean_Absolute_Error'][1])
    
        return dataframe1,
    

Den här koden använder Azure Machine Learning Python SDK för att logga värden. Den använder Run.get_context() för att hämta kontexten för den aktuella körningen. Sedan loggar den värden till den kontexten med metoden run.parent.log(). Den använder parent för att logga värden till den överordnade pipelinekörningen i stället för komponentkörningen.

Mer information om hur du använder Python SDK för att logga värden finns i Aktivera loggning i Azure Machine Learning-träningskörningar.

Visa loggar

När pipelinekörningen är klar kan du se Mean_Absolute_Error på sidan Experiment.

  1. Gå till avsnittet Jobb .

  2. Välj experimentet.

  3. Välj det jobb i experimentet som du vill visa.

  4. Välj Mått.

    Visa jobbmått i studion

Nästa steg

I den här artikeln har du lärt dig hur du använder loggar i designern. Nästa steg finns i följande relaterade artiklar: