PipelineData クラス
Azure Machine Learning パイプライン内の中間データを表します。
パイプラインで使用するデータは、あるステップで生成し、別のステップで使用することができます。そのためには、PipelineData オブジェクトをある 1 つのステップの出力および 1 つ以上の後続ステップの入力として指定します。
注: パイプライン データを使用する場合は、使用するディレクトリが存在している必要があります。
ディレクトリが存在していることを確認する Python の例として、ある 1 つのパイプライン ステップに output_folder という名前の出力ポートが含まれていて、このフォルダー内の相対パスにデータを書き込む場合があります。
import os
os.makedirs(args.output_folder, exist_ok=True)
f = open(args.output_folder + '/relative_path/file_name', 'w+')
PipelineData では基になる DataReference を使用します。これは、データのアクセスと配信のための推奨されるアプローチではなくなりました。代わりに OutputFileDatasetConfig を使用してください。サンプルについては、OutputFileDatasetConfig を使用したパイプラインに関するページを参照してください。
PipelineData を初期化します。
- 継承
-
builtins.objectPipelineData
コンストラクター
PipelineData(name, datastore=None, output_name=None, output_mode='mount', output_path_on_compute=None, output_overwrite=None, data_type=None, is_directory=None, pipeline_output_name=None, training_output=None)
パラメーター
名前 | 説明 |
---|---|
name
必須
|
PipelineData オブジェクトの名前。文字、数字、アンダースコアのみを含めることができます。 PipelineData 名は、ステップの出力を識別するために使用されます。 パイプラインの実行が完了したら、ステップ名と出力名を使用して、特定の出力にアクセスできます。 名前は、パイプラインの 1 つのステップ内で一意である必要があります。 |
datastore
|
PipelineData が置かれるデータストア。 指定されなかった場合は、既定のデータストアが使用されます。 規定値: None
|
output_name
|
None の名前が使用されている場合は、出力の名前。 文字、数字、アンダースコアのみを含めることができます。 規定値: None
|
output_mode
|
生成ステップで、データにアクセスするために "upload" メソッドと "mount" メソッドのどちらを使用するかを指定します。 規定値: mount
|
output_path_on_compute
|
規定値: None
|
output_overwrite
|
規定値: None
|
data_type
|
任意。 データ型を使用すると、予想される出力の型を指定したり、使用ステップでのデータの使用方法の詳細を指定したりできます。 任意のユーザー定義文字列にすることができます。 規定値: None
|
is_directory
|
データがディレクトリか、単一のファイルかを指定します。 これは、 規定値: None
|
pipeline_output_name
|
指定された場合、 規定値: None
|
training_output
|
トレーニング結果の出力を定義します。 これは、メトリックやモデルなどの異なる種類の出力を生成する、特定のトレーニングに対してのみ必要です。 たとえば、AutoMLStep はメトリックとモデルを生成します。 また、最適なモデルを取得するために使用される、特定のトレーニング イテレーションまたはメトリックを定義することもできます。 HyperDriveStep では、出力に含める特定のモデル ファイルを定義することもできます。 規定値: None
|
name
必須
|
PipelineData オブジェクトの名前。文字、数字、アンダースコアのみを含めることができます。 PipelineData 名は、ステップの出力を識別するために使用されます。 パイプラインの実行が完了したら、ステップ名と出力名を使用して、特定の出力にアクセスできます。 名前は、パイプラインの 1 つのステップ内で一意である必要があります。 |
datastore
必須
|
PipelineData が置かれるデータストア。 指定されなかった場合は、既定のデータストアが使用されます。 |
output_name
必須
|
None の名前が使用されている場合は、出力の名前。 文字、数字、アンダースコアのみを含めることができます。 |
output_mode
必須
|
生成ステップで、データにアクセスするために "upload" メソッドと "mount" メソッドのどちらを使用するかを指定します。 |
output_path_on_compute
必須
|
|
output_overwrite
必須
|
|
data_type
必須
|
任意。 データ型を使用すると、予想される出力の型を指定したり、使用ステップでのデータの使用方法の詳細を指定したりできます。 任意のユーザー定義文字列にすることができます。 |
is_directory
必須
|
データがディレクトリか、単一のファイルかを指定します。 これは、 |
pipeline_output_name
必須
|
指定された場合、 |
training_output
必須
|
トレーニング結果の出力を定義します。 これは、メトリックやモデルなどの異なる種類の出力を生成する、特定のトレーニングに対してのみ必要です。 たとえば、AutoMLStep はメトリックとモデルを生成します。 また、最適なモデルを取得するために使用される、特定のトレーニング イテレーションまたはメトリックを定義することもできます。 HyperDriveStep では、出力に含める特定のモデル ファイルを定義することもできます。 |
注釈
PipelineData は、実行時にステップによって生成されるデータ出力を表します。 ステップの作成時に PipelineData を使用して、ステップによって生成されるファイルまたはディレクトリを記述します。 これらのデータ出力は、指定されたデータストアに追加され、後で取得して表示することができます。
たとえば、次のパイプライン ステップでは、"model" という名前の出力が 1 つ生成されます。
from azureml.pipeline.core import PipelineData
from azureml.pipeline.steps import PythonScriptStep
datastore = ws.get_default_datastore()
step_output = PipelineData("model", datastore=datastore)
step = PythonScriptStep(script_name="train.py",
arguments=["--model", step_output],
outputs=[step_output],
compute_target=aml_compute,
source_directory=source_directory)
このケースでは、train.py スクリプトが、生成されたモデルを、–model 引数を介してスクリプトに提供される場所に書き込みます。
PipelineData オブジェクトは、パイプラインの構築時にステップの依存関係を記述するためにも使用されます。 あるステップの入力として別のステップの出力が必要なことを指定するには、両方のステップのコンストラクターで PipelineData オブジェクトを使用します。
たとえば、パイプライン トレーニング ステップは、パイプライン プロセス ステップの process_step_output 出力に依存します。
from azureml.pipeline.core import Pipeline, PipelineData
from azureml.pipeline.steps import PythonScriptStep
datastore = ws.get_default_datastore()
process_step_output = PipelineData("processed_data", datastore=datastore)
process_step = PythonScriptStep(script_name="process.py",
arguments=["--data_for_train", process_step_output],
outputs=[process_step_output],
compute_target=aml_compute,
source_directory=process_directory)
train_step = PythonScriptStep(script_name="train.py",
arguments=["--data_for_train", process_step_output],
inputs=[process_step_output],
compute_target=aml_compute,
source_directory=train_directory)
pipeline = Pipeline(workspace=ws, steps=[process_step, train_step])
ここでは、2 つのステップを持つパイプラインを作成します。 最初にプロセス ステップが実行され、その完了後にトレーニング ステップが実行されます。 Azure ML では、プロセス ステップによって生成された出力がトレーニング ステップに提供されます。
パイプラインを構築するために PipelineData を使用するその他の例については、次のページを参照してください: https://aka.ms/pl-data-dep
サポートされているコンピューティングの種類では、PipelineData を使用して、実行によるデータの生成方法と使用方法を指定することもできます。 サポートされている 2 つの方法があります。
マウント (既定値): 入力データまたは出力データが、コンピューティング ノード上のローカル ストレージにマウントされ、環境変数が、このデータのパスを指すように設定されます ($AZUREML _DATAREFERENCE_name)。 便宜上、PipelineData オブジェクトを引数の 1 つとしてスクリプトに渡すことができます。たとえば PythonScriptStep の
arguments
パラメーターを使用します。オブジェクトはデータへのパスに解決されます。 出力については、コンピューティング スクリプトで、この出力パスにファイルまたはディレクトリを作成する必要があります。 パイプライン オブジェクトを引数として渡すときに使用される環境変数の値を確認するには、get_env_variable_name メソッドを使用します。アップロード: スクリプトによって生成されるファイル名またはディレクトリ名に対応する
output_path_on_compute
を指定します。 (この場合、環境変数は使用されません。)
メソッド
as_dataset |
中間出力をデータセットに昇格させます。 このデータセットは、ステップが実行された後に存在します。 後続の入力をデータセットとして使用するためには、出力をデータセットに昇格させる必要があることに注意してください。 as_dataset が出力に対して呼び出されず、入力に対してのみ呼び出された場合は、noop になり、入力はデータセットとして使用されません。 次のコード例は、as_dataset の正しい使用方法を示しています。
|
as_download |
PipelineData をダウンロードとして使用します。 |
as_input |
InputPortBinding を作成し、入力名を指定します (ただし、既定のモードを使用)。 |
as_mount |
PipelineData をマウントとして使用します。 |
create_input_binding |
入力バインディングを作成します。 |
get_env_variable_name |
この PipelineData の環境変数の名前を返します。 |
as_dataset
中間出力をデータセットに昇格させます。
このデータセットは、ステップが実行された後に存在します。 後続の入力をデータセットとして使用するためには、出力をデータセットに昇格させる必要があることに注意してください。 as_dataset が出力に対して呼び出されず、入力に対してのみ呼び出された場合は、noop になり、入力はデータセットとして使用されません。 次のコード例は、as_dataset の正しい使用方法を示しています。
# as_dataset is called here and is passed to both the output and input of the next step.
pipeline_data = PipelineData('output').as_dataset()
step1 = PythonScriptStep(..., outputs=[pipeline_data])
step2 = PythonScriptStep(..., inputs=[pipeline_data])
as_dataset()
戻り値
型 | 説明 |
---|---|
データセットとしての中間出力。 |
as_download
PipelineData をダウンロードとして使用します。
as_download(input_name=None, path_on_compute=None, overwrite=None)
パラメーター
名前 | 説明 |
---|---|
input_name
|
この入力の名前を指定するために使用します。 規定値: None
|
path_on_compute
|
ダウンロード先となるコンピューティング上のパス。 規定値: None
|
overwrite
|
既存のデータを上書きするかどうかを示すために使用します。 規定値: None
|
戻り値
型 | 説明 |
---|---|
この PipelineData をソースとする InputPortBinding。 |
as_input
InputPortBinding を作成し、入力名を指定します (ただし、既定のモードを使用)。
as_input(input_name)
パラメーター
名前 | 説明 |
---|---|
input_name
必須
|
この入力の名前を指定するために使用します。 |
戻り値
型 | 説明 |
---|---|
この PipelineData をソースとする InputPortBinding。 |
as_mount
PipelineData をマウントとして使用します。
as_mount(input_name=None)
パラメーター
名前 | 説明 |
---|---|
input_name
|
この入力の名前を指定するために使用します。 規定値: None
|
戻り値
型 | 説明 |
---|---|
この PipelineData をソースとする InputPortBinding。 |
create_input_binding
入力バインディングを作成します。
create_input_binding(input_name=None, mode=None, path_on_compute=None, overwrite=None)
パラメーター
名前 | 説明 |
---|---|
input_name
|
入力の名前。 規定値: None
|
mode
|
PipelineData にアクセスするためのモード ("mount" または "download")。 規定値: None
|
path_on_compute
|
"ダウンロード" モードの場合は、データが格納されるコンピューティング上のパス。 規定値: None
|
overwrite
|
"ダウンロード" モードの場合は、既存のデータを上書きするかどうか。 規定値: None
|
戻り値
型 | 説明 |
---|---|
この PipelineData をソースとする InputPortBinding。 |
get_env_variable_name
属性
data_type
datastore
PipelineData が置かれるデータストア。
戻り値
型 | 説明 |
---|---|
データストア オブジェクト。 |