共用方式為


適用於 Azure VMware 解決方案的 Azure NetApp Files 資料存放區效能效能評定

本文說明 Azure NetApp Files 資料存放區針對 Azure VMware 解決方案 (AVS) 上的虛擬機器所提供的效能基準。

測試的案例如下所示:

  • 在單一 AVS 主機和單一 Azure NetApp Files 資料存放區上執行的一對多虛擬機器
  • 具有單一 AVS 主機的一對多 Azure NetApp Files 資料存放區
  • 使用多個 AVS 主機擴增 Azure NetApp Files 資料存放區

已針對每個案例測試下列 read:write I/O 比率:100:0, 75:25, 50:50, 25:75, 0:100

本文所記載的基準是以足夠的磁碟區輸送量來執行,以防止軟性限制影響效能。 您可使用 Azure NetApp Files Premium 和 Ultra 服務等級來達到基準,而在某些情況下使用標準服務等級。 如需磁碟區輸送量詳細資訊,請參閱 Azure NetApp Files 的效能考量

請參閱 Azure VMware 解決方案 TCO 估算器的 Azure NetApp Files 資料存放區以了解 Azure NetApp Files 資料存放區的重設大小和相關成本優勢。

環境詳細資料

本文所述結果是以下列環境組態達成:

  • Azure VMware 解決方案主機大小:AV36
  • Azure VMware 解決方案私人雲端連線:具有 FastPath 的 UltraPerformance 網路閘道
  • 客體虛擬機:Ubuntu 21.04、16 vCPU、64 GB 記憶體
  • 工作負載產生器:fio

Latency

從 AVS 到 Azure NetApp Files 資料存放區的流量延遲從次毫秒 (針對最低負載下的環境) 到 2-3 毫秒 (針對中到重負載下的環境) 不等。 嘗試推送超過各種元件的輸送量限制的環境,延遲可能會更高。 延遲和輸送量可能因數個因素而有所不同,包括 I/O 大小、讀取/寫入比率、競爭的網路流量等等。

在單一 AVS 主機和單一 Azure NetApp Files 資料存放區上執行的一對多虛擬機器

在單一 AVS 主機案例中,AVS 至 Azure NetApp Files 資料存放區 I/O 會透過單一網路流程發生。 下圖比較單一虛擬機器的輸送量和 IOPS 與四部虛擬機器的彙總輸送量和 IOPS。 在後續的案例中,隨著新增更多主機和資料存放區,網路流程數目會增加。

Graphs comparing a single virtual machine with four virtual machines over a single network flow.

具有單一 AVS 主機的一對多 Azure NetApp Files 資料存放區

下圖比較單一 Azure NetApp Files 資料存放區上單一虛擬機器的輸送量與四個 Azure NetApp Files 資料存放區的彙總輸送量。 在這兩種情況下,每部虛擬機器在每個 Azure NetApp Files 資料存放區上都有 VMDK。

Graphs comparing a single virtual machine on a single datastore with four datastores.

下圖比較單一 Azure NetApp Files 資料存放區上單一虛擬機器的 IOP 與八個 Azure NetApp Files 資料存放區的彙總 IOP。 在這兩種情況下,每部虛擬機器在每個 Azure NetApp Files 資料存放區上都有 VMDK。

Graphs comparing a single virtual machine on a single datastore with eight datastores.

使用多個 AVS 主機擴增 Azure NetApp Files 資料存放區

下圖顯示分散於四個 AVS 主機的 16 部虛擬機器的彙總輸送量和 IOPS。 每個 AVS 主機有四部虛擬機器,每部虛擬機器位於不同的 Azure NetApp Files 資料存放區上。

使用每個主機上的單一虛擬機器 (每部虛擬機器有四個 VMDK) 與個別資料存放區上的每個 VMDK,達到了幾乎相同的結果。

Graphs showing aggregated throughput and IOPs of 16 virtual machines distributed across four AVS hosts.

下一步