在 Azure Machine Learning 設計工具管線中啟用記錄
在本文中,您將了解如何將記錄程式碼新增至設計工具管線。 您也將了解如何使用 Azure Machine Learning 工作室入口網站來檢視這些記錄。
如需有關使用 SDK 製作體驗來記錄計量的詳細資訊,請參閱監視 Azure Machine Learning 實驗執行和計量。
使用執行 Python 指令碼來啟用記錄
使用執行 Python 指令碼元件在設計工具管線中啟用記錄。 雖然您可以使用此工作流程來記錄任何值,但從評估模型元件來記錄計量,以跨執行來追蹤模型效能特別有用。
下列範例示範如何使用「評估模型」和「執行 Python 指令碼」元件,以記錄兩個已定型模型的平均平方誤差。
將執行 Python 指令碼元件連線至評估模型元件的輸出。
將下列程式碼貼到執行 Python 指令碼程式碼編輯器中,以記錄已定型模型的平均絕對誤差。 您可以使用類似的模式,在設計工具中記錄任何其他值:
適用於:
Python SDK azureml v1 (部分機器翻譯)
# dataframe1 contains the values from Evaluate Model def azureml_main(dataframe1=None, dataframe2=None): print(f'Input pandas.DataFrame #1: {dataframe1}') from azureml.core import Run run = Run.get_context() # Log the mean absolute error to the parent run to see the metric in the run details page. # Note: 'run.parent.log()' should not be called multiple times because of performance issues. # If repeated calls are necessary, cache 'run.parent' as a local variable and call 'log()' on that variable. parent_run = Run.get_context().parent # Log left output port result of Evaluate Model. This also works when evaluate only 1 model. parent_run.log(name='Mean_Absolute_Error (left port)', value=dataframe1['Mean_Absolute_Error'][0]) # Log right output port result of Evaluate Model. The following line should be deleted if you only connect one Score component to the` left port of Evaluate Model component. parent_run.log(name='Mean_Absolute_Error (right port)', value=dataframe1['Mean_Absolute_Error'][1]) return dataframe1,
此程式碼使用 Azure Machine Learning Python SDK 來記錄值。 使用 Run.get_context() 來取得目前執行的內容。 接著,使用 run.parent.log() 方法將值記錄到該內容。 使用 parent
將值記錄到父管線執行,而不是元件執行。
如需如何使用 Python SDK 來記錄值的詳細資訊,請參閱在 Azure Machine Learning 定型執行中啟用記錄。
檢視記錄
管線執行完成之後,您可以在 [實驗] 頁面中看到 Mean_Absolute_Error。
瀏覽至 [作業] 區段。
選取實驗。
在實驗中選取您要檢視的作業。
選取 [計量]。
下一步
在本文中,您已了解如何在設計工具中使用記錄。 關於後續步驟,請參閱下列相關文章:
- 了解如何針對設計工具管線進行疑難排解,請參閱針對 ML 管線進行偵錯和疑難排解。
- 了解如何在 SDK 製作體驗中使用 Python SDK 來記錄計量,請參閱在 Azure Machine Learning 定型執行中啟用記錄。
- 了解如何在設計工具中使用執行 Python 指令碼。