次の方法で共有


Azure Blob Storage を使って DAG をインポートする

Note

この機能はパブリック プレビュー段階にあります。 ワークフロー オーケストレーション マネージャーは Apache Airflow を利用しています。

この記事では、Azure Blob Storage を使用して有向非巡回グラフ (DAG) をワークフロー オーケストレーション マネージャーにインポートする詳細な手順について説明します。

前提条件

プレビュー期間中、仮想ネットワークの背後にある Blob Storage はサポートされていません。 storageLinkedServices の Azure Key Vault の構成では、DAG のインポートはサポートされていません。

DAG のインポート

  1. 設定した Airflow 環境に基づいて、Apache Airflow v2.x DAG のサンプルまたは Apache Airflow v1.10 DAG のサンプルのいずれかをコピーします。 tutorial.py という名前の新しいファイルにコンテンツを貼り付けます。

    tutorial.py ファイルを Blob Storage にアップロードします。 詳細については、ファイルの BLOB へのアップロードに関するページを参照してください。

    Note

    dags および plugins という名前のフォルダーを含むディレクトリ パスを Blob Storage アカウントから選択して、それらを Airflow 環境にインポートする必要があります。 プラグインは必須ではありません。 dags という名前のコンテナーを作成し、すべての Airflow ファイルをその中にアップロードすることもできます。

  2. [管理] ハブで、[Apache Airflow] を選択します。 次に、以前に作成した Airflow 環境にマウス ポインターを合わせて [ファイルのインポート] を選択し、すべての DAG と依存関係を Airflow 環境にインポートします。

    [管理] ハブでのファイルのインポートを示すスクリーンショット。

  3. 「前提条件」セクションで説明されている、アクセス可能なストレージ アカウントへの新しいリンク サービスを作成します。 独自の DAG が既にある場合は、既存のものを使用することもできます。

    新しいリンク サービスの作成方法を示すスクリーンショット。

  4. DAG をアップロードしたストレージ アカウントを使用します。 (「前提条件」セクションを確認してください)。接続をテストし、[作成] を選択します。

    いくつかのリンク サービスの詳細を示すスクリーンショット。

  5. サンプルの SAS URL を使用している場合は、airflow を参照して選択します。 DAG ファイルを含む dags フォルダーが格納されたフォルダーを選択することもできます。

    Note

    このインターフェイスを使用して、DAG とその依存関係をインポートできます。 dags および plugins という名前のフォルダーを含むディレクトリ パスを Blob Storage アカウントから選択して、それらを Airflow 環境にインポートする必要があります。 プラグインは必須ではありません。

    [ファイルのインポート] 画面の [ストレージの参照] ボタンを示すスクリーンショット。

    [参照] の airflow ルート フォルダーを示すスクリーンショット。

  6. [インポート] を選択してファイルをインポートします。

    [ファイルのインポート] 画面の [インポート] ボタンを示すスクリーンショット。

    DAG のインポートを示すスクリーンショット。

プレビュー期間中は、DAG のインポートに数分かかる場合があります。 通知センター (Data Factory UI のベル アイコン) を使用して、インポート状態の更新を追跡できます。