HBv4 系列虛擬機器概觀
適用於: ✔️ Linux VM ✔️ Windows VM ✔️ 彈性擴展集 ✔️ 統一擴展集
HBv4 系列伺服器具有 2 * 96 核心 EPYC 9V33X CPU,總共有 192 個實體「Zen4」核心和 AMD 3D V-Cache。 HBv4 上的同步多執行緒 (SMT) 已停用。 這些 192 核心分割為 24 個區段 (每個通訊端 12 個區段),每個區段包含 8 個處理器核心,並且能統一存取 96 MB L3 快取。 Azure HBv4 伺服器也會執行下列 AMD BIOS 設定:
Nodes per Socket (NPS) = 2
L3 as NUMA = Disabled
NUMA domains within VM OS = 4
C-states = Enabled
如此一來,伺服器就會以 4 個 NUMA 網域啟動 (每個通訊端 2 個),每個網域大小為 48 核心。 每個 NUMA 都能直接存取 6 個實體 DRAM 通道。
為了讓 Azure Hypervisor 擁有足夠空間,在不干擾 VM 的情況下運作,我們會為每個伺服器保留 16 個實體核心。
VM 拓撲
下圖說明伺服器的拓撲。 我們會在兩個 CPU 通訊端上以對稱方式保留這 16 個 Hypervisor 主機核心 (黃色),從每個 NUMA 網域上的特定 Core Complex Dies (CCD) 中取用前 2 個核心,其餘核心用於 HBv4 系列 VM (綠色)。
CCD 界限與 NUMA 界限不同。 在 HBv4 上,六個 (6) 連續 CCD 的群組會設為 NUMA 網域,並位於主機伺服器層級和客體 VM 內。 因此,所有 HBv4 VM 大小都會公開 4 個統一 NUMA 網域,並顯示在 OS 和應用程式中 (如下所示),每個網域都有不同核心數目,取決於特定的 HBv4 VM 大小。
每個 HBv4 VM 大小在實體配置、功能和效能上,與 AMD EPYC 9V33X 系列中不同的 CPU 相似,如下所示:
HBv4 系列 VM 大小 | NUMA 網域 | 每個 NUMA 網域的核心 | 與 AMD EPYC 的相似性 |
---|---|---|---|
Standard_HB176rs_v4 | 4 | 44 | 雙通訊端 EPYC 9V33X |
Standard_HB176-144rs_v4 | 4 | 36 | 雙通訊端 EPYC 9V33X |
Standard_HB176-96rs_v4 | 4 | 24 | 雙通訊端 EPYC 9V33X |
Standard_HB176-48rs_v4 | 4 | 12 | 雙通訊端 EPYC 9V33X |
Standard_HB176-24rs_v4 | 4 | 6 | 雙通訊端 EPYC 9V33X |
注意
受限核心的 VM 大小只會減少向 VM 公開的實體核心數目。 所有全域共用資產 (RAM、記憶體頻寬、L3 快取、GMI 和 xGMI 連線能力、InfiniBand、Azure 乙太網路、本地 SSD) 均保持不變。 因此,客戶能根據特定的工作負載或軟體授權需求,挑選最適合的 VM 大小。
每個 HBv4 VM 大小的虛擬 NUMA 對應會對應至基礎實體 NUMA 拓撲。 對硬體拓撲沒有潛在的誤導性抽象概念。
使用 lstopo 的輸出,各 HBv4 VM 大小 的確切拓撲如下所示:
lstopo-no-graphics --no-io --no-legend --of txt
按一下即可檢視 Standard_HB176rs_v4 的 lstopo 輸出
按一下即可檢視 Standard_HB176-144rs_v4 的 lstopo 輸出
按一下即可檢視 Standard_HB176-96rs_v4 的 lstopo 輸出
按一下即可檢視 Standard_HB176-48rs_v4 的 lstopo 輸出
按一下即可檢視 Standard_HB176-24rs_v4 的 lstopo 輸出
Infiniband 網路功能
HBv4 VM 也提供 NVIDIA Mellanox NDR InfiniBand 網路介面卡 (ConnectX-7),最高能以 400 Gb/秒運作。NIC 會透過 SRIOV 傳遞至 VM,讓網路流量略過 Hypervisor。 因此,客戶能如同在裸機環境中一般,在 HBv4 VM 上載入標準的 Mellanox OFED 驅動程式。
HBv4 VM 支援自適性路由、動態連線傳輸 (DCT,除了標準 RC 和 UD 傳輸以外),以及 MPI 集合硬體型卸載至 ConnectX-7 介面卡的板面處理器。 這些功能會增強應用程式效能、可擴縮性和一致性,我們建議使用這些功能。
暫存位置
HBv4 VM 具有 3 個實體的本地 SSD 裝置。 系統會將裝置預先格式化作為分頁檔,在您的 VM 中顯示為一般「SSD」裝置。
另外兩個較大的 SSD,會透過 NVMeDirect 提供為未格式化的區塊 NVMe 裝置。 當區塊 NVMe 裝置略過 Hypervisor 時,會有更高的頻寬與 IOPS,以及較低的每 IOP 延遲。
在等量陣列中配對時,NVMe SSD 最多能提供 7 GB/秒的讀取和 12 GB/秒的寫入,以及最高 186,000 IOPS (讀取) 和 201,000 IOPS (寫入),可取得較深的佇列深度。
硬體規格
硬體規格 | HBv4 系列 VM |
---|---|
核心 | 176、144、96、48 或 24 (停用 SMT) |
CPU | AMD EPYC 9V33X |
CPU 頻率 (非 AVX) | 2.4 GHz 基底、3.7 GHz 尖峰提升 |
記憶體 | 768 GB (每個核心的 RAM 取決於 VM 大小) |
本機磁碟 | 2 * 1.8 TB NVMe (區塊)、480 GB SSD (分頁檔) |
InfiniBand | 400 Gb/秒 Mellanox ConnectX-7 NDR InfiniBand |
網路 | 80 Gb/秒 乙太網路 (40 Gb/秒 可用) Azure 第二代 SmartNIC |
軟體規格
軟體規格 | HBv4 系列 VM |
---|---|
MPI 工作大小上限 | 52,800 核心 (singlePlacementGroup=true 的單一虛擬機器擴展集中的 300 個 VM) |
MPI 支援 | HPC-X (2.13 或更高版本)、Intel MPI (2021.7.0 或更高版本)、OpenMPI (4.1.3 或更高版本)、MVAPICH2 (2.3.7 或更高版本)、MPICH (4.1 或更高版本) |
其他架構 | UCX、libfabric、PGAS 或其他以 InfiniBand 為基礎的執行階段 |
Azure 儲存體支援 | 標準和進階磁碟 (最多 32 個磁碟)、Azure NetApp Files、Azure 檔案儲存體、Azure HPC Cache、Azure Managed Lustre 檔案系統 |
支援和已驗證的 OS | AlmaLinux 8.6、8.7、Ubuntu 20.04+ |
效能建議作業系統 | AlmaLinux HPC 8.7、Ubuntu-HPC 20.04+ |
協調器支援 | Azure CycleCloud、Azure Batch、AKS;叢集設定選項 |
注意
- 這些 VM 僅支援第二代。
- AMD 的官方核心層級支援從 RHEL 8.6 和 AlmaLinux 8.6 (RHEL 的衍生版本)。
- HBv4 和其他具有超過 64 個 (虛擬或實體) 核心的 VM 均不支援 Windows Server 2012 R2。 如需詳細資訊,請參閱 Windows Server 上 Hyper-V 支援的 Windows 客體作業系統。 Windows Server 2022 需要 144 和 176 核心大小,Windows Server 2016 也適用於 24、48 和 96 核心大小,Windows Server 僅適用於 24 和 48 核心大小。
重要
建議的映像 URN:almalinux:almalinux-hpc:8_7-hpc-gen2:8.7.2023060101,若要透過 Azure CLI 部署此映像,請確定已包含下列參數 --plan 8_7-hpc-gen2 --product almalinux-hpc --publisher almalinux。 如需調整測試,請使用建議的 URN 和新 HPC-X Tarball。
注意
- NDR 支援會新增在 UCX 1.13 或更新版本。 較舊的 UCX 版本會回報上述執行階段錯誤。 UCX 錯誤:不正確使用中速度
[1677010492.951559] [updsb-vm-0:2754 :0] ib_iface.c:1549 UCX ERROR Invalid active_speed on mlx5_ib0:1: 128
。 - Ibstat 顯示低速 (SDR):較舊的 Mellanox OFED (MOFED) 版本不支援 NDR,而且可能回報較慢的 IB 速度。 請使用 MOFED 5.6-1.0.3.3 版本或更新版本。
下一步
- 請參閱 Azure 計算技術社群部落格的最新公告、HPC 工作負載範例和效能結果。
- 如需執行中 HPC 工作負載較高階的架構檢視,請參閱 Azure 上的高效能運算 (HPC)。