管理 AKS 群集的节点池
适用于:Azure 本地版本 23H2
注意
有关在 Azure 本地 22H2 上的 AKS 中管理节点池的信息,请参阅 “管理节点池”。
在 Azure Arc 启用的 AKS 中,同一配置的节点将分组到 节点池中。 这些节点池包含运行应用程序的底层 VM。 本文介绍如何为 AKS 群集创建和管理节点池。
创建 Kubernetes 群集
若要开始,请使用单个节点池创建 Kubernetes 群集:
az aksarc create -n <cluster name> -g <resource group> --custom-location <custom location Id> --vnet-ids <vnet id> --generate-ssh-keys
添加节点池
可以使用命令将节点池添加到现有群集 az aksarc nodepool add
。 确保节点池的名称与现有节点池的名称不同:
az aksarc nodepool add --name <node pool name> -g <resource group> --cluster-name <cluster name> --os-sku <Linux or Windows> --node-count <count> --node-vm-size <vm size>
获取节点池的配置信息
若要查看节点池的配置,请使用 az aksarc nodepool show
以下命令:
az aksarc nodepool show --cluster-name <cluster name> -n <node pool name> -g <resource group>
示例输出:
{
"availabilityZones": null,
"count": 1,
"extendedLocation": null,
"id":
"/subscriptions/<subscription>/resourceGroups/edgeci-registration-rr1s46r1710<resource
group>/providers/Microsoft.Kubernetes/connectedClusters/<cluster
name>/providers/Microsoft.HybridContainerService/provisionedClusterInstances/default/agentPools/<nodepoolname>",
"location": "westeurope",
"name": "nodepoolname",
"nodeImageVersion": null,
"osSku": "CBLMariner",
"osType": "Linux",
"provisioningState": "Succeeded",
"resourceGroup": "resourcegroup",
"status": {
"errorMessage": null,
"operationStatus": null,
"readyReplicas": [
{
"count": 1,
"vmSize": "Standard\_A4\_v2"
}
]
},
"systemData": {
…
},
"tags": null,
"type":
"microsoft.hybridcontainerservice/provisionedclusterinstances/agentpools",
"vmSize": "Standard\_A4\_v2"
}
指定部署到节点池的最大 Pod 数
可以在群集创建时或创建新节点池时配置可部署到节点的最大 Pod 数。 如果未指定 maxPods
创建节点池时,将部署节点池,默认值为 110 个 Pod:
az aksarc nodepool add --cluster-name <cluster name> -n <node pool name> -g <resource group> --max-pods 50 --yes
缩放节点池
可以在节点池中纵向扩展或缩减节点数。
若要缩放节点池中的节点数,请使用 az aksarc nodepool scale
命令。 以下示例将节点数缩放为名为 nodepool1
的节点池中的 2 个节点数:
az aksarc nodepool scale --cluster-name <cluster name> -n nodepool1 -g <resource group> --node-count 2 --yes
删除节点池
如果需要删除节点池,请使用 az aksarc nodepool delete
以下命令:
az aksarc nodepool delete --cluster-name <cluster name> -n <node pool name> -g <resource group> --yes