次の方法で共有


オンプレミスの Linux コンピューティング ノードの概要

手記

このドキュメントは HPC Pack 2012 R2 Update 3 用です。HPC Pack 2016 または HPC Pack 2019 を実行している場合は、こちら を参照してください。

HPC Pack 2012 R2 Update 3 以降では、オンプレミスの Linux コンピューティング ノードを HPC Pack クラスターに追加できます。 この記事では、HPC Pack ヘッド ノードと複数の Linux コンピューティング ノードで構成されるオンプレミスの Linux クラスターを設定する方法について説明します。 このクラスターを使用して、Linux HPC ワークロードを実行できます。

この記事では、次の操作を行います。

前提 条件

  • Windows Server がインストールされている 1 台のコンピューター - HPC Pack クラスターを展開するには、ヘッド ノードとして機能するコンピューター (またはコンピューター) に、サポートされているエディションの Windows Server 2012 R2 または Windows Server 2012 をインストールする必要があります。

  • Active Directory ドメイン - HPC Pack クラスターのヘッド ノードはドメインに参加している必要があります。 Active Directory ドメインを準備し、クラスターにヘッド ノードを追加するのに十分な特権を持つ既存のドメイン アカウントを選択します。 クラスターの Active Directory ドメインを選択し、ノードを追加するためのドメイン アカウントを選択する方法については、「概要」ガイドの「手順 1: 展開 の準備」のセクション 1.6 と 1.7 を参照してください。

    新しい Active Directory ドメイン サービスを展開する手順については、「エンタープライズでの Active Directory Domain Services (AD DS) の展開 」を参照してください。

  • HPC Pack 2012 R2 Update 3 - HPC Pack 2012 R2 Update 3 インストール パッケージ、オンプレミスの Linux コンピューティング ノードのインストール ファイルが含まれています。 Linux ノード インストール バイナリの場所とインストール手順については、この記事の残りのセクションを参照してください。

  • サポートされている Linux OS ディストリビューション を実行している コンピューター - HPC Pack は現在、CentOS 6.6、CentOS 7.0、Red Hat Enterprise Linux 6.6、Red Hat Enterprise Linux 7.1、および x64 プラットフォーム上の Ubuntu 14.04.2 の Linux ディストリビューションを検証し、サポートしています。

ヘッド ノードをデプロイする

ヘッド ノードをデプロイしてインストールするには、「概要ガイド 手順 2: ヘッド ノード をデプロイする」を参照してください。

ヘッド ノードを構成するには、「概要ガイド」の「手順 3: ヘッド ノード を構成する」の手順に従います。

手記

現時点では、展開 To Do リストネットワーク を構成するでクラスター ネットワーク トポロジを選択する場合は、トポロジ 5: エンタープライズ ネットワーク上のすべてのノードのみをお勧めします。

Linux ノードのインストールを準備する

このセクションでは、Linux コンピューティング ノードのインストールを準備する手順について説明します。

  1. Linux コンピューティング ノードのインストール バイナリをフェッチする

  2. インストール バイナリを Linux コンピューティング ノードと共有するようにファイル共有を設定する

  3. ヘッド ノードと Linux コンピューティング ノード間の通信に使用する証明書を準備する

手順 1. Linux コンピューティング ノードのインストール バイナリをフェッチする

ヘッド ノードをデプロイした後、次のフォルダーにあるオンプレミスの Linux ノード インストール バイナリを見つけます。
\LinuxNodeAgent を %CCP_DATA%InstallShareします。

hpcnodeagent.tar.gzファイルと setup.py ファイルは、オンプレミスの Linux コンピューティング ノードをインストールするために必要なバイナリです。

手順 2. インストール バイナリを Linux コンピューティング ノードと共有するようにファイル共有を設定する

ヘッド ノードと Linux コンピューティング ノードの間でデータを移動するには、SMB 共有や NFS 共有など、いくつかの選択肢があります。 次の手順では、Linux コンピューティング ノードとバイナリを共有するように、ヘッド ノードに SMB 共有を設定します。

バイナリを一元化された共有にコピーすることもできます。 インストール ファイルに Linux コンピューティング ノードからアクセスできることを確認し、Linux コンピューティング ノードにログインする必要があるユーザーが実行可能であることを確認します。

先端

Linux コンピューティング ノードからアクセスできるファイル共有にバイナリをデプロイする方法がわかっている場合は、次の手順をスキップできます。

ヘッド ノードで SMB 共有を設定するには
  1. ヘッド ノードにフォルダーを作成し、読み取り/書き込みアクセス許可レベル Everyone に共有します。 たとえば、ヘッド ノードで C:\SmbShare を \\<HeadNodeName>\SmbShareとして共有します。 例: \\LN15-UB14-HN1\SmbShare。

  2. 各 Linux ノードに SMB 共有をマウントします。 たとえば、次のコマンドを使用して、パス/smbshareに共有をマウントします。

    mkdir –p /smbshare  
    
    mount -t cifs //LN15-UB14-HN1/SmbShare /smbshare -o vers=2.1,domain=<domainname>,username=<username>,password='<password>',dir_mode=0777,file_mode=0777  
    
    

    手記

    linux コンピューティング ノードから SMB 共有をマウントするには、cifs-utils を使用する必要があります。 CentOS および Red Hat ディストリビューションでは、yum installを実行して cifs-utils パッケージ インストールします。

  3. バイナリhpcnodeagent.tar.gzコピーし、ヘッド ノードの \\LN15-UB14-HN1\SmbShare に setup.py し、Linux コンピューティング ノードからのパス/smbshare にファイルが表示されることを確認します。

手順 3. ヘッド ノードと Linux コンピューティング ノード間の通信に使用する証明書を準備する

セキュリティ上の理由から、HPC Pack は HTTPS を使用して Linux コンピューティング ノードとヘッド ノード間で通信します。 通信に使用する証明書を準備するには、次の手順に従います。
ヘッド ノードのインストール中に、HPC Pack は、テスト目的で使用できる Microsoft HPC Linux Communicationという名前の自己署名証明書をローカル コンピューター\個人用ストアに生成します。 運用環境では、独自の証明書に置き換えることができます。

通信に使用する証明書には、次の属性が必要です。

  • サブジェクト名はヘッド ノードの FQDN と同じか、サブジェクトの別名にヘッド ノードの FQDN が含まれています

  • 証明書に秘密キーが含まれている

  • 証明書はエクスポート可能です

  • 証明書が自己署名されている場合は、キー使用法 (デジタル署名、キー暗号化、キー契約、証明書署名) が含まれている必要があります。拡張キー使用法 (openssl では extendedKeyUsage とも表されます): サーバー認証とクライアント認証

独自の証明書を構成するには、Windows PowerShell ウィンドウで次のコマンドを実行します。

PS > add-pssnapin Microsoft.HPC  
  
PS > Set-HpcLinuxCertificate –FilePath <My.pfx>  
  

手記

前のコマンドではパスワードが指定されていないため、証明書のパスワードを入力するように求められます。 Set-HpcLinuxCertificateの詳細については、「」と入力します。

HPC Pack によって生成された証明書を使用するには、Windows PowerShell ウィンドウで次のコマンドを実行して、Linux コンピューティング ノードからアクセスできる共有に証明書をエクスポートします。 たとえば、証明書を SMB パス C:\SmbShare\hpclinuxagent.pfxにエクスポートするには、次のように入力します。

PS > add-pssnapin Microsoft.HPC  
  
PS > Export-HpcLinuxCertificate –FilePath C:\SmbShare\hpclinuxagent.pfx  
  

手記

前のコマンドではパスワードが指定されていないため、証明書のパスワードを入力するように求められます。 Export-HpcLinuxCertificateの詳細については、「get-help Export-HpcLinuxCertificate」と入力します。

PFX ファイル (この例では hpclinuxagent.pfx) は、Linux コンピューティング ノードからのパス /smbshare で確認できるようになりました。

Linux コンピューティング ノードをインストールする

Python スクリプト setup.pyを実行して、Linux コンピューティング ノードをインストールします。 Linux ノードに Python がインストールされていることを確認し、インストールしない場合はインストールします。
setup.pyの詳細な使用方法については、「python setup.py –help」と入力します。

たとえば、Linux ノードをクラスターに追加するには、各 Linux ノードの Bash シェルで次のようなコマンドを入力します。

python setup.py -install -clusname:<FQDN of head node> -certfile:'<path to PFX certificate>'  

構成を確認する

Linux ノードを正常にインストールしたら、HPC クラスター マネージャーを開いて HPC Pack クラスターの状態を確認します。 Linux コンピューティング ノードは、Windows ノードを操作するさまざまな方法で管理および監視します。

  • リソース管理で、LinuxNode テンプレート > ノード テンプレート別 をクリックして Linux ノードを一覧表示します。

  • Resource Managementヒート マップ ビューに切り替えて、Linux ノードのヒート マップを表示します。

  • ジョブ管理のアクションを使用して、Linux ノード ジョブを送信します。

テスト パラメトリック スイープ ジョブを Linux ノードに送信するには

  1. リソース管理で Linux ノードを選択した後、ジョブ管理にピボットし、 し、[新しいパラメトリック スイープ ジョブ] をクリックします。

  2. [新しいパラメトリック スイープ ジョブ を ]ダイアログ ボックスで、などの単純なコマンド ラインを指定します。 残りの設定の既定値をそのまま使用し、[送信] をクリックします。

  3. ジョブが完了したら、項目をダブルクリックして、各タスクの出力を表示します。 この例では、各 Linux ノードはホスト名を返します。

データを移動してクラスターにジョブを送信する方法の詳細については、「Azureの HPC Pack クラスターで Linux コンピューティング ノードの使用を開始する」を参照してください。 一般的な手順は、Linux コンピューティング ノードを使用するオンプレミス クラスターで同じです。

考慮事項と制限事項

  • Linux ディストリビューションの - HPC Pack との互換性について現在テストされている Linux ディストリビューションの 前提条件の を参照してください。

  • 単一ヘッド ノード構成 - 現在、HPC Pack では、Linux コンピューティング ノードを持つクラスター内の 1 つのヘッド ノードのみがサポートされています。 高可用性用に構成されたヘッド ノードは使用できません。

  • MPI - Linux ノードで MPI アプリケーションを実行するには、独自の MPI ディストリビューションをノードにインストールする必要があります。 HPC Pack に含まれている Microsoft MPI (MS-MPI) は、Windows ノードでのみ実行されます。 スケジューラは、Linux ノード間の相互信頼も設定する必要があります。 例については、「Azureの Linux コンピューティング ノードで Microsoft HPC Pack を使用して NAMD を実行する 」を参照してください。

  • GPU ワークロードと SOA ワークロードは、 サポートされていません。 現時点では、HPC Pack では、GPU へのスケジュール設定や Linux ノードでの SOA ワークロードの実行はサポートされていません。

関連項目