次の方法で共有


Azure HPC Cache のデータ取り込み - msrsync を使用した方法

この記事では、Azure HPC Cache で使用する Azure Blob Storage コンテナーに対し、msrsync ユーティリティを使用してデータをコピーする手順を詳しく説明します。

Azure HPC Cache の Blob Storage にデータを移動する方法について詳しくは、「Azure Blob Storage にデータを移動する」を参照してください。

msrsync ツールを使用すると、Azure HPC Cache のバックエンド ストレージ ターゲットにデータを移動することができます。 このツールは、複数の rsync プロセスを並列実行して帯域幅の使用を最適化することを目的に設計されています。 GitHub (https://github.com/jbd/msrsync) で入手できます。

msrsync では、ソース ディレクトリを別々の "バケット" に分割したうえで、個々の rsync プロセスを各バケットに対して実行します。

4 コアの VM を使用した予備テストでは、64 個のプロセスを使用したときに最適な効率が示されました。 msrsync-p オプションを使用して、プロセスの数を 64 に設定します。

msrsync では、ローカル ボリュームへの書き込み、およびローカル ボリュームからの書き出しのみが可能であることに注意してください。 コピー元とコピー先は、コマンドの発行に使用するワークステーション上のローカル マウントとしてアクセスできることが必要です。

msrsync を使用して Azure HPC Cache の Azure Blob Storage にデータを事前設定するには、次の手順に従います。

  1. msrsync とその前提条件 (rsync および Python 2.6 以降) をインストールします。

  2. コピーするファイルおよびディレクトリの合計数を確認します。

    たとえば、「prime.py --directory /path/to/some/directory」のように引数を指定して、prime.py ユーティリティを使用します (https://github.com/Azure/Avere/blob/main/src/clientapps/dataingestor/prime.py からのダウンロードによって入手可能)。

    prime.py を使用しない場合は、次のように GNU の find ツールを使用して項目数を計算できます。

    find <path> -type f |wc -l         # (counts files)
    find <path> -type d |wc -l         # (counts directories)
    find <path> |wc -l                 # (counts both)
    
  3. 項目の数を 64 で除算してプロセスごとの項目数を決定します。 この数字を -f オプションに指定して、コマンドを実行するときのバケットのサイズを設定します。

  4. msrsync コマンドを発行してファイルをコピーします。

    msrsync -P --stats -p64 -f<ITEMS_DIV_64> --rsync "-ahv --inplace" <SOURCE_PATH> <DESTINATION_PATH>
    

    たとえば、このコマンドは /test/source-repository から /mnt/hpccache/repository に 64 プロセスで 11,000 ファイルを移動するように指定されています。

    mrsync -P --stats -p64 -f170 --rsync "-ahv --inplace" /test/source-repository/ /mnt/hpccache/repository