你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

“NC”子系列 GPU 加速的 VM 大小系列

适用于:✔️ Linux VM ✔️ Windows VM ✔️ 灵活规模集 ✔️ 统一规模集

VM 大小系列的“NC”子系列是 Azure 的 GPU 优化 VM 实例之一。 它们专为计算密集型工作负载而设计,例如 AI 和机器学习模型训练、高性能计算 (HPC) 和图形密集型应用程序。 NC 系列 VM 配备强大的 NVIDIA GPU,为需要大量计算能力(包括深度学习、科学模拟和 3D 渲染)的进程提供大量加速。 这使得它们特别适合技术研究、娱乐和工程等行业,在这些行业中,渲染和处理速度对生产力和创新至关重要。

工作负载和用例

AI 和机器学习:NC 系列 VM 非常适合训练复杂的机器学习模型和运行 AI 应用程序。 NVIDIA GPU 为深度学习和其他密集训练任务通常涉及的计算提供显著加速。

高性能计算 (HPC):这些 VM 适用于可由 GPU 加速的科学模拟、渲染和其他 HPC 工作负载。 工程、医学研究和财务建模等领域通常使用 NC 系列 VM 高效处理其计算需求。

图形渲染:NC 系列 VM 也用于图形密集型应用程序,包括视频编辑、3D 渲染和实时图形处理。 它们在游戏开发和电影制作等行业特别有用。

远程可视化:对于需要高端可视化功能(如 CAD 和视觉效果)的应用程序,NC 系列 VM 可以远程提供必要的 GPU 功能,使用户无需强大的本地硬件即可处理复杂的图形任务。

模拟和分析:这些 VM 还适用于汽车碰撞测试、计算流体动力学和天气建模等领域的详细模拟和分析,GPU 功能可以显著加快处理时间。

系列中的系列

NC 系列 V1

重要

NC 和 NC_Promo 系列 Azure 虚拟机 (VM) 将于 2023 年 9 月 6 日停用。 有关详细信息,请参阅 NC 和 NC_Promo 停用信息。 有关如何将工作负载迁移到其他 VM 大小的详细说明,请参阅 GPU 计算迁移指南

此停用公告不适用于 NCv3、NCasT4v3 和 NC A100 v4 系列 VM。

NC 系列 VM 由 NVIDIA Tesla K80 卡和 Intel Xeon E5-2690 v3 (Haswell) 处理器提供支持。 通过将 CUDA 用于能源勘探应用、碰撞模拟、光线跟踪渲染、深度学习等领域,用户可以更快地分析数据。 NC24r 配置提供了针对紧密耦合的并行计算工作负荷优化的低延迟、高吞吐量网络接口。

查看完整的 NC 系列页面

组成部分 数量
计数单位
规格
SKU ID、性能单位等
处理器 6 - 24 个 vCPU Intel Xeon E5-2690 v3 (Haswell) [x86-64]
内存 56 - 224 GiB
本地存储 1 个磁盘 340 - 1440 GiB
远程存储 24 - 64 个磁盘
网络 1 - 4 个 NIC Mbps
加速器 1 - 4 GPU Nvidia Tesla K80 GPU (24GB)

NCads_H100_v5 系列

NCads H100 v5 系列虚拟机 (VM) 是 Azure GPU 系列的新增成员。 此系列可用于实际的 Azure 应用 AI 训练和批处理推理工作负载。 NCads H100 v5 系列虚拟机由 NVIDIA H100 NVL GPU 和第 4 代 AMD EPYC™ Genoa 处理器提供支持。 VM 配置最多 2 个 NVIDIA H100 NVL GPU(每个具有 94 GB 的内存)、多达 96 个非多线程 AMD EPYC Genoa 处理器核心,以及 640 GiB 的系统内存。 这些 VM 非常适合实际的应用 AI 工作负载,例如:

  • GPU 加速分析和数据库
  • 具有大量预处理和后期处理工作的批处理推理
  • 自治模型训练
  • 油气储层模拟
  • 机器学习 (ML) 开发
  • 视频处理
  • AI/ML Web 服务

查看完整的 NCads_H100_v5 系列页面

组成部分 数量
计数单位
规格
SKU ID、性能单位等
处理器 40 - 80 个 vCPU AMD EPYC (Genoa) [x86-64]
内存 320 - 640 GiB
本地存储 1 个磁盘 3576 - 7152 GiB
IOPS (RR)
MBps (RR)
远程存储 8 - 16 个磁盘 100000 - 240000 IOPS
3000 - 7000 MBps
网络 2 - 4 个 NIC 40,000 - 80,000 Mbps
加速器 1 - 2 个 GPU Nvidia PCIe H100 GPU (94GB)

NCCads_H100_v5 系列

NCCads H100 v5 系列虚拟机是 Azure GPU 系列的新增成员。 在此 VM SKU 中,受信任执行环境 (TEE) 可跨越 CPU 和附加 GPU 上的机密 VM,从而安全地将数据、模型和计算卸载到 GPU。 NCCads H100 v5 系列由第四代 AMD EPYC™ Genoa 处理器和 NVIDIA H100 Tensor Core GPU 提供支持。 这些 VM 配置了 1 个 94 GB 内存的 NVIDIA H100 NVL GPU、40 个非多线程 AMD EPYC Genoa 处理器核心,以及 320 GiB 的系统内存。 这些 VM 非常适合实际的应用 AI 工作负载,例如:

  • GPU 加速分析和数据库
  • 具有大量预处理和后期处理工作的批处理推理
  • 机器学习 (ML) 开发
  • 视频处理
  • AI/ML Web 服务

查看完整的 NCCads_H100_v5 系列页面

组成部分 数量
计数单位
规格
SKU ID、性能单位等
处理器 40 个 vCPU AMD EPYC (Genoa) [x86-64]
内存 320 GiB
本地存储 1 个磁盘 800 GiB
远程存储 8 个磁盘 100000 IOPS
3000 MBps
网络 2 个 NIC 40000 Mbps
加速器 1 GPU Nvidia H100 GPU (94GB)

NCv2 系列

重要

NCv2 系列 Azure 虚拟机 (VM) 将于 2023 年 9 月 6 日停用。 有关详细信息,请参阅 NCv2 停用信息。 有关如何将工作负载迁移到其他 VM 大小的详细说明,请参阅 GPU 计算迁移指南

此停用公告不适用于 NCv3、NCasT4v3 和 NC A100 v4 系列 VM。

NCv2 系列 VM 采用 NVIDIA Tesla P100 GPU。 这些 GPU 可提供比 NC 系列高 2 倍以上的计算性能。 客户可将这些更新的 GPU 用于传统的 HPC 工作负荷,例如油藏模拟、DNA 测序、蛋白质分析、Monte Carlo 模拟和其他工作负荷。 除了 GPU 之外,NCv2 系列虚拟机还由 Intel Xeon E5-2690 v4 (Broadwell) CPU 提供支持。 NC24rs v2 配置提供了针对紧密耦合的并行计算工作负荷优化的低延迟、高吞吐量网络接口。

查看完整的 NCv2-series 页面

组成部分 数量
计数单位
规格
SKU ID、性能单位等
处理器 6 - 24 个 vCPU Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
内存 112 - 448 GiB
本地存储 1 个磁盘 736 - 2948 GiB
远程存储 12 - 32 个磁盘 20000 - 80000 IOPS
200 - 800 MBps
网络 4 - 8 NIC
加速器 1 - 4 GPU Nvidia Tesla P100 GPU (16GB)

NCv3 系列

NCv3 系列 VM 采用 NVIDIA Tesla V100 GPU。 这些 GPU 可提供 NCv2 系列的 1.5 倍计算性能。 客户可将这些更新的 GPU 用于传统的 HPC 工作负荷,例如油藏模拟、DNA 测序、蛋白质分析、Monte Carlo 模拟和其他工作负荷。 NC24rs v3 配置提供了针对紧密耦合的并行计算工作负荷优化的低延迟、高吞吐量网络接口。 除了 GPU 之外,NCv3 系列 VM 还采用 Intel Xeon E5-2690 v4 (Broadwell) CPU。

重要

对于此 VM 系列,订阅中的 vCPU(核心)配额最初在每个区域中设置为 0。 在可用区域中为此系列请求 vCPU 配额增加。 这些 SKU 不可用于试用版或 Visual Studio 订阅服务器 Azure 订阅。 你的订阅级别可能不支持选择或部署这些 SKU。

查看完整的 NCv3-series 页面

组成部分 数量
计数单位
规格
SKU ID、性能单位等
处理器 6 - 24 个 vCPU Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
内存 112 - 448 GiB
本地存储 1 个磁盘 736 - 2948 GiB
IOPS (RR)
MBps (RR)
远程存储 12 - 32 个磁盘 20000 - 80000 IOPS
200 - 800 MBps
网络 4 - 8 NIC Mbps
加速器 1 - 4 Nvidia Tesla V100 GPU (16GB)

NCasT4_v3 系列

NCasT4_v3 系列虚拟机采用 Nvidia Tesla T4 GPU 和 AMD EPYC 7V12(Rome) CPU。 VM 最多具有 4 个 NVIDIA T4 GPU,其中每个 GPU 具有 16 GB 内存,多达 64 个非多线程 AMD EPYC 7V12 (Rome) 处理器内核(基础频率为 2.45 GHz,全核峰值频率为 3.1 GHz,单核峰值频率为 3.3 GHz)和 440 GiB 系统内存。 这些虚拟机非常适合用于部署 AI 服务(例如对用户生成的请求的实时推断)或使用 NVIDIA 的 GRID 驱动程序和虚拟 GPU 技术的交互式图形和可视化工作负载。 基于 CUDA、TensorRT、Caffe、ONNX 和其他框架的标准 GPU 计算工作负载,或基于 OpenGL 和 DirectX 的 GPU 加速图形应用程序,可以在 NCasT4_v3 系列上以经济实惠的方式部署,并与用户非常接近。

查看完整的 NCasT4_v3-series 页面

组成部分 数量
计数单位
规格
SKU ID、性能单位等
处理器 4 - 64 个 vCPU AMD EPYC 7V12 (Rome) [x86-64]
内存 28 - 440 GiB
本地存储 1 个磁盘 176 - 2816 GiB
IOPS (RR)
MBps (RR)
远程存储 8 - 32 个磁盘 IOPS
MBps
网络 2 - 8 个 NIC 8000 - 32000 Mbps
加速器 1 - 4 GPU Nvidia Tesla T4 GPU (16GB)

NC_A100_v4 系列

NC A100 v4 系列虚拟机 (VM) 是 Azure GPU 系列的新增成员。 此系列可用于实际的 Azure 应用 AI 训练和批处理推理工作负载。 NC A100 v4 系列由 NVIDIA A100 PCIe GPU 和第三代 AMD EPYC™ 7V13 (Milan) 处理器提供技术支持。 VM 配置最多 4 个 NVIDIA A100 PCIe GPU(每个具有 80 GB 的内存)、多达 96 个非多线程 AMD EPYC Milan 处理器核心,以及 880 GiB 的系统内存。 这些 VM 非常适合实际的应用 AI 工作负载,例如:

GPU 加速分析和数据库;凭借强大的预处理和后处理能力进行批量推理;自主模型训练;油气储层模拟;机器学习 (ML) 开发;视频处理;AI/ML Web 服务

查看完整的 NC_A100_v4-series 页面

组成部分 数量
计数单位
规格
SKU ID、性能单位等
处理器 24 - 96 个 vCPU AMD EPYC 7V13 (Milan) [x86-64]
内存 220 - 880 GiB
本地存储 1 个临时磁盘
1 - 4 个 NVMe 磁盘
64 - 256 GiB 临时磁盘
960 GiB NVMe 磁盘
远程存储 8 - 32 个磁盘 30000 - 120000 IOPS
1000 - 4000 MBps
网络 2 - 8 个 NIC 20,000 - 80,000 Mbps
加速器 1 - 4 GPU Nvidia PCIe A100 GPU (80GB)

上一代 NC 系列

有关较早系列的大小,请参阅上一代大小

其他大小信息

所有可用大小的列表:大小

定价计算器:定价计算器

有关磁盘类型的信息:磁盘类型

后续步骤

了解有关 Azure 计算单元 (ACU) 如何帮助跨 Azure SKU 比较计算性能的详细信息。

请参阅 Azure 专用主机,了解能够托管一个或多个分配给一个 Azure 订阅的虚拟机的物理服务器。

了解如何监视 Azure 虚拟机