你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

az hdinsight-on-aks cluster

注意

此参考是 Azure CLI(版本 2.57.0 或更高版本)的 hdinsightonaks 扩展的一部分。 该扩展将在首次运行 az hdinsight-on-aks cluster 命令时自动安装。 详细了解扩展。

此命令组处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus

群集操作。

命令

名称 说明 类型 Status
az hdinsight-on-aks cluster create

创建群集。

扩展 预览
az hdinsight-on-aks cluster delete

删除群集。

扩展 预览
az hdinsight-on-aks cluster instance-view

获取群集实例的状态。

扩展 预览
az hdinsight-on-aks cluster instance-view list

列出实例视图的列表。

扩展 预览
az hdinsight-on-aks cluster instance-view show

获取群集实例的状态。

扩展 预览
az hdinsight-on-aks cluster job

群集作业操作。

扩展 预览
az hdinsight-on-aks cluster job list

列出 AKS 群集上的 HDInsight 作业。

扩展 预览
az hdinsight-on-aks cluster job run

对 AKS 群集上的 HDInsight 作业的操作。

扩展 预览
az hdinsight-on-aks cluster library

管理群集的库。

扩展 预览
az hdinsight-on-aks cluster library list

列出 AKS 群集上 HDInsight 的所有库。

扩展 预览
az hdinsight-on-aks cluster library manage

AKS 群集上的 HDInsight 上的库管理操作。

扩展 预览
az hdinsight-on-aks cluster list

列出资源组下的 HDInsight 群集池。

扩展 预览
az hdinsight-on-aks cluster list-service-config

列出群集中运行的所有服务的配置转储。

扩展 预览
az hdinsight-on-aks cluster node-profile

管理计算节点配置文件。

扩展 预览
az hdinsight-on-aks cluster node-profile create

创建包含 SKU 和辅助角色计数的节点配置文件。

扩展 预览
az hdinsight-on-aks cluster resize

调整现有群集的大小。

扩展 预览
az hdinsight-on-aks cluster show

获取 HDInsight 群集。

扩展 预览
az hdinsight-on-aks cluster update

更新群集。

扩展 预览
az hdinsight-on-aks cluster upgrade

升级群集。

扩展 预览
az hdinsight-on-aks cluster upgrade history

列出升级历史记录的列表。

扩展 预览
az hdinsight-on-aks cluster upgrade list

列出群集可用的升级。

扩展 预览
az hdinsight-on-aks cluster upgrade rollback

群集的手动回滚升级。

扩展 预览
az hdinsight-on-aks cluster upgrade run

升级群集。

扩展 预览
az hdinsight-on-aks cluster wait

将 CLI 置于等待状态,直到满足条件。

扩展 预览

az hdinsight-on-aks cluster create

预览

命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus

创建群集。

az hdinsight-on-aks cluster create --cluster-name
                                   --cluster-pool-name
                                   --resource-group
                                   [--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--assigned-identity-client-id]
                                   [--assigned-identity-id]
                                   [--assigned-identity-object-id]
                                   [--authorization-group-id]
                                   [--authorization-user-id]
                                   [--autoscale-profile-graceful-decommission-timeout]
                                   [--autoscale-profile-type {LoadBased, ScheduleBased}]
                                   [--availability-zones]
                                   [--cluster-type]
                                   [--cluster-version]
                                   [--cooldown-period]
                                   [--coord-debug-port]
                                   [--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
                                   [--deployment-mode {Application, Session}]
                                   [--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--flink-db-auth-mode {IdentityAuth, SqlAuth}]
                                   [--flink-hive-catalog-db-connection-password-secret]
                                   [--flink-hive-catalog-db-connection-url]
                                   [--flink-hive-catalog-db-connection-user-name]
                                   [--flink-storage-key]
                                   [--flink-storage-uri]
                                   [--history-server-cpu]
                                   [--history-server-memory]
                                   [--identity-list]
                                   [--internal-ingress {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--job-manager-cpu]
                                   [--job-manager-memory]
                                   [--job-spec]
                                   [--kafka-profile]
                                   [--key-vault-id]
                                   [--llap-profile]
                                   [--loadbased-config-max-nodes]
                                   [--loadbased-config-min-nodes]
                                   [--loadbased-config-poll-interval]
                                   [--loadbased-config-scaling-rules]
                                   [--location]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--nodes]
                                   [--num-replicas]
                                   [--oss-version]
                                   [--ranger-plugin-profile]
                                   [--ranger-profile]
                                   [--schedule-based-config-default-count]
                                   [--schedule-based-config-schedule]
                                   [--schedule-based-config-time-zone]
                                   [--script-action-profiles]
                                   [--secret-reference]
                                   [--service-configs]
                                   [--spark-hive-catalog-db-name]
                                   [--spark-hive-catalog-db-password-secret]
                                   [--spark-hive-catalog-db-server-name]
                                   [--spark-hive-catalog-db-user-name]
                                   [--spark-hive-catalog-key-vault-id]
                                   [--spark-hive-catalog-thrift-url]
                                   [--spark-storage-url]
                                   [--ssh-profile-count]
                                   [--stub-profile]
                                   [--tags]
                                   [--task-manager-cpu]
                                   [--task-manager-memory]
                                   [--trino-hive-catalog]
                                   [--trino-plugins-spec]
                                   [--trino-profile-user-plugins-telemetry-spec]
                                   [--user-plugins-spec]
                                   [--vm-size]
                                   [--worker-debug-port]
                                   [--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]

示例

创建简单的 Trino 群集。

az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type trino --cluster-version {1.2.0} --oss-version {0.440.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"

创建简单的 Flink 群集。

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016}

创建简单的 Spark 群集。

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"

创建简单的 Kafka 群集。

az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type kafka --cluster-version {1.2.0} --oss-version {3.6.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --kafka-profile '{"disk-storage":{"data-disk-size":8,"data-disk-type":"Standard_SSD_LRS"}}'

使用自定义 Hive 元存储创建 Spark 群集。

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"  --secret-reference '[{reference-name:sqlpassword,secret-name:sqlpassword,type:Secret}]' --key-vault-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-hive-kv-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-db-auth-mode SqlAuth --spark-hive-db-name {sparkhms} --spark-hive-db-secret {sqlpassword} --spark-hive-db-server {yourserver.database.windows.net} --spark-hive-db-user {username}

创建具有可用性区域的 Flink 群集。

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016} --availability-zones [1,2]

必需参数

--cluster-name --name -n

HDInsight 群集的名称。

--cluster-pool-name

群集池的名称。

--resource-group -g

资源组的名称。 可以使用 az configure --defaults group=<name> 配置默认组。

可选参数

--application-log-std-error-enabled --enable-log-std-error

如果启用了应用程序标准错误,则为 True,否则为 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--application-log-std-out-enabled --enable-log-std-out

如果启用了应用程序标准退出,则为 True,否则为 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--assigned-identity-client-id --msi-client-id

MSI 的 ClientId。

--assigned-identity-id --msi-id

MSI 的 ResourceId。

--assigned-identity-object-id --msi-object-id

MSI 的 ObjectId。

--authorization-group-id

有权访问数据平面的 AAD 组 ID。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--authorization-user-id

有权访问数据平面的 AAD 用户 ID。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--autoscale-profile-graceful-decommission-timeout --decommission-time

此属性用于正常解除授权超时;它在强制关闭前的默认设置为 3600 秒。 这是在将解除授权节点转换为 DECOMMISSIONED 之前等待运行容器和应用程序完成的最大时间。 默认值为 3600 秒。 负值(如 -1)作为无限超时处理。

--autoscale-profile-type

用户指定要实现的自动缩放类型 - 基于计划的或基于负载的。

接受的值: LoadBased, ScheduleBased
--availability-zones

用于 AKS VMSS 节点的可用性区域列表。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--cluster-type

群集的类型。

--cluster-version

3/4 部分的版本。

--cooldown-period --loadbased-config-cooldown-period

这是一个冷却期,这是一个以秒为单位的时间段,它确定在规则启动的缩放活动与下一个缩放活动的开始之间必须经过的时间量,而不考虑触发它的规则。 默认值为 300 秒。

--coord-debug-port --coordinator-debug-port

如果启用调试或不启用的标志。 默认值:8008。

--coord-debug-suspend --coordinator-debug-suspend

如果暂停调试或不进行调试的标志。 默认值:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-debug-enabled --enable-coord-debug

如果启用协调器 HA,则使用具有自动故障转移的多个协调器副本,每个头节点各有一个。 默认值:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-high-availability-enabled --enable-coord-ha

如果启用协调器 HA,则使用具有自动故障转移的多个协调器副本,每个头节点各有一个。 默认值:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--db-connection-authentication-mode --spark-db-auth-mode

用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

接受的值: IdentityAuth, SqlAuth
--deployment-mode

一个字符串属性,指示 Flink 群集的部署模式。 它可以具有以下枚举值之一 => Application, Session。 默认值为 Session。

接受的值: Application, Session
--enable-autoscale

这表示是否在 AKS 群集上的 HDInsight 上启用自动缩放。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-la-metrics --log-analytic-profile-metrics-enabled

如果启用了指标,则为 True,否则为 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-log-analytics

如果为群集启用了 Log Analytics,则为 True,否则为 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-prometheu

为群集启用 Prometheus。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
默认值: False
--enable-worker-debug

如果 trino 群集启用调试或不启用的标志。 默认值:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--flink-db-auth-mode --metastore-db-connection-authentication-mode

用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

接受的值: IdentityAuth, SqlAuth
--flink-hive-catalog-db-connection-password-secret --flink-hive-db-secret

包含数据库连接密码的 secretsProfile.secrets 的机密引用名称。

--flink-hive-catalog-db-connection-url --flink-hive-db-url

hive 元存储数据库的连接字符串。

--flink-hive-catalog-db-connection-user-name --flink-hive-db-user

数据库连接的用户名。

--flink-storage-key

只有 wasb(s) 存储需要存储密钥。

--flink-storage-uri

用于保存点和检查点状态的存储帐户 URI。

--history-server-cpu

历史记录服务器 CPU 计数。

--history-server-memory

历史记录服务器内存大小。

--identity-list

托管标识列表。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--internal-ingress --internal-ingress-enabled

是否使用专用 IP 而不是公共 IP 创建群集。 必须在创建时设置此属性。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--job-manager-cpu

作业管理器 CPU 计数。

--job-manager-memory

作业管理器内存大小。

--job-spec

应用程序部署模式下 flink 群集的作业规范。 即使通过调用 RunJob API 更改作业属性,规范也不可变,请使用 ListJob API 获取最新的作业信息。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--kafka-profile

Kafka 群集配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--key-vault-id

存储所有群集特定用户机密的用户密钥库的名称。

--llap-profile

LLAP 群集配置文件。 支持 json-file 和 yaml-file。

--loadbased-config-max-nodes --loadbased-max-nodes

用户需要设置基于负载的缩放的最大节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。

--loadbased-config-min-nodes --loadbased-min-nodes

用户需要为基于负载的缩放设置最小节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。

--loadbased-config-poll-interval --loadbased-interval

用户可以指定轮询间隔,这是在轮询缩放指标以触发缩放操作之后的时间段(以秒为单位)。

--loadbased-config-scaling-rules --loadbased-rules

缩放规则。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--location -l

未指定资源所在的地理位置,将使用资源组的位置。

--no-wait

不等待长时间运行的操作完成。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--nodes

节点定义。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--num-replicas

任务管理器的数量。

--oss-version

具有三个部分的版本。

--ranger-plugin-profile

群集 Ranger 插件配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--ranger-profile

ranger 群集配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--schedule-based-config-default-count --schedule-default-count

设置当前计划配置的默认节点计数。 默认节点计数指定执行指定缩放操作时默认的节点数(纵向扩展/缩减)。

--schedule-based-config-schedule --schedule-schedules

这指定要启用基于计划的自动缩放的计划,用户可以选择在计划内跨天数和时间(开始/结束)设置多个规则。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--schedule-based-config-time-zone --schedule-time-zone

用户必须指定必须为其设置基于计划的自动缩放配置的时区。

--script-action-profiles

脚本操作配置文件列表。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--secret-reference

密钥库机密的属性。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--service-configs --service-configs-profiles

服务配置配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--spark-hive-catalog-db-name --spark-hive-db-name

数据库名称。

--spark-hive-catalog-db-password-secret --spark-hive-db-secret

包含数据库用户密码的机密名称。

--spark-hive-catalog-db-server-name --spark-hive-db-server

数据库服务器主机。

--spark-hive-catalog-db-user-name --spark-hive-db-user

数据库用户名。

--spark-hive-catalog-key-vault-id --spark-hive-kv-id

密钥保管库资源 ID。

--spark-hive-catalog-thrift-url --spark-hive-thrift-url

节俭 URL。

--spark-storage-url

默认存储 URL。

--ssh-profile-count

每个群集的 ssh Pod 数。

--stub-profile

存根群集配置文件。 支持 json-file 和 yaml-file。

--tags

资源标记。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--task-manager-cpu

任务管理器 CPU 计数。

--task-manager-memory

任务管理器内存大小。

--trino-hive-catalog

Trino 群集配置单元目录选项。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--trino-plugins-spec --trino-profile-user-plugins-plugin-spec

Trino 用户插件规范支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--trino-profile-user-plugins-telemetry-spec --trino-telemetry-spec

Trino 用户遥测规范。支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--user-plugins-spec

Spark 用户插件规范支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--vm-size

虚拟机 SKU。

--worker-debug-port

调试端口。 默认值:8008。

--worker-debug-suspend

如果 trino 群集挂起调试或不进行调试的标志。 默认值:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
全局参数
--debug

提高日志记录详细程度以显示所有调试日志。

--help -h

显示此帮助消息并退出。

--only-show-errors

只显示错误,取消显示警告。

--output -o

输出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
默认值: json
--query

JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/

--subscription

订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID 配置默认订阅。

--verbose

提高日志记录详细程度。 使用 --debug 获取完整的调试日志。

az hdinsight-on-aks cluster delete

预览

命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus

删除群集。

az hdinsight-on-aks cluster delete [--cluster-name]
                                   [--cluster-pool-name]
                                   [--ids]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--resource-group]
                                   [--subscription]
                                   [--yes]

示例

删除群集。

az hdinsight-on-aks cluster delete  -n {clusterName} --cluster-pool-name {poolName} -g {RG}

可选参数

--cluster-name --name -n

HDInsight 群集的名称。

--cluster-pool-name

群集池的名称。

--ids

一个或多个资源 ID(以空格分隔)。 它应该是包含“Resource Id”参数的所有信息的完整资源 ID。 应提供 --ids 或其他“Resource Id”参数。

--no-wait

不等待长时间运行的操作完成。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--resource-group -g

资源组的名称。 可以使用 az configure --defaults group=<name> 配置默认组。

--subscription

订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID 配置默认订阅。

--yes -y

不提示确认。

默认值: False
全局参数
--debug

提高日志记录详细程度以显示所有调试日志。

--help -h

显示此帮助消息并退出。

--only-show-errors

只显示错误,取消显示警告。

--output -o

输出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
默认值: json
--query

JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/

--subscription

订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID 配置默认订阅。

--verbose

提高日志记录详细程度。 使用 --debug 获取完整的调试日志。

az hdinsight-on-aks cluster list

预览

命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus

列出资源组下的 HDInsight 群集池。

az hdinsight-on-aks cluster list --cluster-pool-name
                                 --resource-group
                                 [--max-items]
                                 [--next-token]

示例

列出群集池中的所有群集。

az hdinsight-on-aks cluster list --cluster-pool-name {poolName}-g {RG}

必需参数

--cluster-pool-name

群集池的名称。

--resource-group -g

资源组的名称。 可以使用 az configure --defaults group=<name> 配置默认组。

可选参数

--max-items

命令输出中要返回的项总数。 如果可用的项总数大于指定的值,则会在命令的输出中提供令牌。 若要恢复分页,请在后续命令的参数中 --next-token 提供令牌值。

--next-token

用于指定开始分页的位置的令牌。 这是先前截断的响应中的令牌值。

全局参数
--debug

提高日志记录详细程度以显示所有调试日志。

--help -h

显示此帮助消息并退出。

--only-show-errors

只显示错误,取消显示警告。

--output -o

输出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
默认值: json
--query

JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/

--subscription

订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID 配置默认订阅。

--verbose

提高日志记录详细程度。 使用 --debug 获取完整的调试日志。

az hdinsight-on-aks cluster list-service-config

预览

命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus

列出群集中运行的所有服务的配置转储。

az hdinsight-on-aks cluster list-service-config --cluster-name
                                                --cluster-pool-name
                                                --resource-group
                                                [--max-items]
                                                [--next-token]

示例

列出群集中运行的所有服务的配置转储。

az hdinsight-on-aks cluster list-service-config  --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG}

必需参数

--cluster-name

HDInsight 群集的名称。

--cluster-pool-name

群集池的名称。

--resource-group -g

资源组的名称。 可以使用 az configure --defaults group=<name> 配置默认组。

可选参数

--max-items

命令输出中要返回的项总数。 如果可用的项总数大于指定的值,则会在命令的输出中提供令牌。 若要恢复分页,请在后续命令的参数中 --next-token 提供令牌值。

--next-token

用于指定开始分页的位置的令牌。 这是先前截断的响应中的令牌值。

全局参数
--debug

提高日志记录详细程度以显示所有调试日志。

--help -h

显示此帮助消息并退出。

--only-show-errors

只显示错误,取消显示警告。

--output -o

输出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
默认值: json
--query

JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/

--subscription

订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID 配置默认订阅。

--verbose

提高日志记录详细程度。 使用 --debug 获取完整的调试日志。

az hdinsight-on-aks cluster resize

预览

命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus

调整现有群集的大小。

az hdinsight-on-aks cluster resize [--cluster-name]
                                   [--cluster-pool-name]
                                   [--ids]
                                   [--location]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--resource-group]
                                   [--subscription]
                                   [--tags]
                                   [--target-worker-node-count]

示例

重设群集大小。

az hdinsight-on-aks cluster resize --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG} -l {westus3} --target-worker-node-count {6}

可选参数

--cluster-name

HDInsight 群集的名称。

--cluster-pool-name

群集池的名称。

--ids

一个或多个资源 ID(以空格分隔)。 它应该是包含“Resource Id”参数的所有信息的完整资源 ID。 应提供 --ids 或其他“Resource Id”参数。

--location -l

未指定资源所在的地理位置,将使用资源组的位置。

--no-wait

不等待长时间运行的操作完成。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--resource-group -g

资源组的名称。 可以使用 az configure --defaults group=<name> 配置默认组。

--subscription

订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID 配置默认订阅。

--tags

资源标记。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--target-worker-node-count --worker-node-count

工作器节点的目标节点计数。

全局参数
--debug

提高日志记录详细程度以显示所有调试日志。

--help -h

显示此帮助消息并退出。

--only-show-errors

只显示错误,取消显示警告。

--output -o

输出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
默认值: json
--query

JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/

--subscription

订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID 配置默认订阅。

--verbose

提高日志记录详细程度。 使用 --debug 获取完整的调试日志。

az hdinsight-on-aks cluster show

预览

命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus

获取 HDInsight 群集。

az hdinsight-on-aks cluster show [--cluster-name]
                                 [--cluster-pool-name]
                                 [--ids]
                                 [--resource-group]
                                 [--subscription]

示例

获取群集名称为群集。

az hdinsight-on-aks cluster show  -n {clusterName} --cluster-pool-name {poolName} -g {RG}

可选参数

--cluster-name --name -n

HDInsight 群集的名称。

--cluster-pool-name

群集池的名称。

--ids

一个或多个资源 ID(以空格分隔)。 它应该是包含“Resource Id”参数的所有信息的完整资源 ID。 应提供 --ids 或其他“Resource Id”参数。

--resource-group -g

资源组的名称。 可以使用 az configure --defaults group=<name> 配置默认组。

--subscription

订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID 配置默认订阅。

全局参数
--debug

提高日志记录详细程度以显示所有调试日志。

--help -h

显示此帮助消息并退出。

--only-show-errors

只显示错误,取消显示警告。

--output -o

输出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
默认值: json
--query

JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/

--subscription

订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID 配置默认订阅。

--verbose

提高日志记录详细程度。 使用 --debug 获取完整的调试日志。

az hdinsight-on-aks cluster update

预览

命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus

更新群集。

az hdinsight-on-aks cluster update [--add]
                                   [--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--assigned-identity-client-id]
                                   [--assigned-identity-id]
                                   [--assigned-identity-object-id]
                                   [--authorization-group-id]
                                   [--authorization-user-id]
                                   [--autoscale-profile-graceful-decommission-timeout]
                                   [--autoscale-profile-type {LoadBased, ScheduleBased}]
                                   [--availability-zones]
                                   [--cluster-name]
                                   [--cluster-pool-name]
                                   [--cluster-version]
                                   [--cooldown-period]
                                   [--coord-debug-port]
                                   [--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
                                   [--deployment-mode {Application, Session}]
                                   [--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--flink-db-auth-mode {IdentityAuth, SqlAuth}]
                                   [--flink-hive-catalog-db-connection-password-secret]
                                   [--flink-hive-catalog-db-connection-url]
                                   [--flink-hive-catalog-db-connection-user-name]
                                   [--flink-storage-key]
                                   [--flink-storage-uri]
                                   [--force-string {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--history-server-cpu]
                                   [--history-server-memory]
                                   [--identity-list]
                                   [--ids]
                                   [--job-manager-cpu]
                                   [--job-manager-memory]
                                   [--job-spec]
                                   [--kafka-profile]
                                   [--key-vault-id]
                                   [--llap-profile]
                                   [--loadbased-config-max-nodes]
                                   [--loadbased-config-min-nodes]
                                   [--loadbased-config-poll-interval]
                                   [--loadbased-config-scaling-rules]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--nodes]
                                   [--num-replicas]
                                   [--oss-version]
                                   [--ranger-plugin-profile]
                                   [--ranger-profile]
                                   [--remove]
                                   [--resource-group]
                                   [--schedule-based-config-default-count]
                                   [--schedule-based-config-schedule]
                                   [--schedule-based-config-time-zone]
                                   [--script-action-profiles]
                                   [--secret-reference]
                                   [--service-configs]
                                   [--set]
                                   [--spark-hive-catalog-db-name]
                                   [--spark-hive-catalog-db-password-secret]
                                   [--spark-hive-catalog-db-server-name]
                                   [--spark-hive-catalog-db-user-name]
                                   [--spark-hive-catalog-key-vault-id]
                                   [--spark-hive-catalog-thrift-url]
                                   [--spark-storage-url]
                                   [--ssh-profile-count]
                                   [--stub-profile]
                                   [--subscription]
                                   [--tags]
                                   [--task-manager-cpu]
                                   [--task-manager-memory]
                                   [--trino-hive-catalog]
                                   [--trino-plugins-spec]
                                   [--trino-profile-user-plugins-telemetry-spec]
                                   [--user-plugins-spec]
                                   [--vm-size]
                                   [--worker-debug-port]
                                   [--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]

示例

更新群集服务配置。

az hdinsight-on-aks cluster update -n {clusterName} --cluster-pool-name {poolName} -g {RG} -service-configs {"[{service-name:yarn-service,configs:[{component:hadoop-config-client,files:[{file-name:yarn-site.xml,values:{yarn.nodemanager.resource.memory-mb:33333}}]}]}]"}

可选参数

--add

通过指定路径和键值对将对象添加到对象列表。 示例:--add property.listProperty <key=value、string 或 JSON 字符串>。

--application-log-std-error-enabled --enable-log-std-error

如果启用了应用程序标准错误,则为 True,否则为 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--application-log-std-out-enabled --enable-log-std-out

如果启用了应用程序标准退出,则为 True,否则为 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--assigned-identity-client-id --msi-client-id

MSI 的 ClientId。

--assigned-identity-id --msi-id

MSI 的 ResourceId。

--assigned-identity-object-id --msi-object-id

MSI 的 ObjectId。

--authorization-group-id

有权访问数据平面的 AAD 组 ID。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--authorization-user-id

有权访问数据平面的 AAD 用户 ID。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--autoscale-profile-graceful-decommission-timeout --decommission-time

此属性用于正常解除授权超时;它在强制关闭前的默认设置为 3600 秒。 这是在将解除授权节点转换为 DECOMMISSIONED 之前等待运行容器和应用程序完成的最大时间。 默认值为 3600 秒。 负值(如 -1)作为无限超时处理。

--autoscale-profile-type

用户指定要实现的自动缩放类型 - 基于计划的或基于负载的。

接受的值: LoadBased, ScheduleBased
--availability-zones

用于 AKS VMSS 节点的可用性区域列表。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--cluster-name --name -n

HDInsight 群集的名称。

--cluster-pool-name

群集池的名称。

--cluster-version

3/4 部分的版本。

--cooldown-period --loadbased-config-cooldown-period

这是一个冷却期,这是一个以秒为单位的时间段,它确定在规则启动的缩放活动与下一个缩放活动的开始之间必须经过的时间量,而不考虑触发它的规则。 默认值为 300 秒。

--coord-debug-port --coordinator-debug-port

如果启用调试或不启用的标志。 默认值:8008。

--coord-debug-suspend --coordinator-debug-suspend

如果暂停调试或不进行调试的标志。 默认值:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-debug-enabled --enable-coord-debug

如果启用协调器 HA,则使用具有自动故障转移的多个协调器副本,每个头节点各有一个。 默认值:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-high-availability-enabled --enable-coord-ha

如果启用协调器 HA,则使用具有自动故障转移的多个协调器副本,每个头节点各有一个。 默认值:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--db-connection-authentication-mode --spark-db-auth-mode

用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

接受的值: IdentityAuth, SqlAuth
--deployment-mode

一个字符串属性,指示 Flink 群集的部署模式。 它可以具有以下枚举值之一 => Application, Session。 默认值为 Session。

接受的值: Application, Session
--enable-autoscale

这表示是否在 AKS 群集上的 HDInsight 上启用自动缩放。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-la-metrics --log-analytic-profile-metrics-enabled

如果启用了指标,则为 True,否则为 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-log-analytics

如果为群集启用了 Log Analytics,则为 True,否则为 false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-prometheu

为群集启用 Prometheus。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--enable-worker-debug

如果 trino 群集启用调试或不启用的标志。 默认值:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--flink-db-auth-mode --metastore-db-connection-authentication-mode

用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

接受的值: IdentityAuth, SqlAuth
--flink-hive-catalog-db-connection-password-secret --flink-hive-db-secret

包含数据库连接密码的 secretsProfile.secrets 的机密引用名称。

--flink-hive-catalog-db-connection-url --flink-hive-db-url

hive 元存储数据库的连接字符串。

--flink-hive-catalog-db-connection-user-name --flink-hive-db-user

数据库连接的用户名。

--flink-storage-key

只有 wasb(s) 存储需要存储密钥。

--flink-storage-uri

用于保存点和检查点状态的存储帐户 URI。

--force-string

使用“set”或“add”时,保留字符串文本,而不是尝试转换为 JSON。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--history-server-cpu

历史记录服务器 CPU 计数。

--history-server-memory

历史记录服务器内存大小。

--identity-list

托管标识列表。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--ids

一个或多个资源 ID(以空格分隔)。 它应该是包含“Resource Id”参数的所有信息的完整资源 ID。 应提供 --ids 或其他“Resource Id”参数。

--job-manager-cpu

作业管理器 CPU 计数。

--job-manager-memory

作业管理器内存大小。

--job-spec

应用程序部署模式下 flink 群集的作业规范。 即使通过调用 RunJob API 更改作业属性,规范也不可变,请使用 ListJob API 获取最新的作业信息。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--kafka-profile

Kafka 群集配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--key-vault-id

存储所有群集特定用户机密的用户密钥库的名称。

--llap-profile

LLAP 群集配置文件。 支持 json-file 和 yaml-file。

--loadbased-config-max-nodes --loadbased-max-nodes

用户需要设置基于负载的缩放的最大节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。

--loadbased-config-min-nodes --loadbased-min-nodes

用户需要为基于负载的缩放设置最小节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。

--loadbased-config-poll-interval --loadbased-interval

用户可以指定轮询间隔,这是在轮询缩放指标以触发缩放操作之后的时间段(以秒为单位)。

--loadbased-config-scaling-rules --loadbased-rules

缩放规则。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--no-wait

不等待长时间运行的操作完成。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
--nodes

节点定义。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--num-replicas

任务管理器的数量。

--oss-version

具有三个部分的版本。

--ranger-plugin-profile

群集 Ranger 插件配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--ranger-profile

ranger 群集配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--remove

从列表中删除属性或元素。 示例:--remove property.list OR --remove propertyToRemove。

--resource-group -g

资源组的名称。 可以使用 az configure --defaults group=<name> 配置默认组。

--schedule-based-config-default-count --schedule-default-count

设置当前计划配置的默认节点计数。 默认节点计数指定执行指定缩放操作时默认的节点数(纵向扩展/缩减)。

--schedule-based-config-schedule --schedule-schedules

这指定要启用基于计划的自动缩放的计划,用户可以选择在计划内跨天数和时间(开始/结束)设置多个规则。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--schedule-based-config-time-zone --schedule-time-zone

用户必须指定必须为其设置基于计划的自动缩放配置的时区。

--script-action-profiles

脚本操作配置文件列表。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--secret-reference

密钥库机密的属性。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--service-configs --service-configs-profiles

服务配置配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--set

通过指定要设置的属性路径和值来更新对象。 示例:--set property1.property2=。

--spark-hive-catalog-db-name --spark-hive-db-name

数据库名称。

--spark-hive-catalog-db-password-secret --spark-hive-db-secret

包含数据库用户密码的机密名称。

--spark-hive-catalog-db-server-name --spark-hive-db-server

数据库服务器主机。

--spark-hive-catalog-db-user-name --spark-hive-db-user

数据库用户名。

--spark-hive-catalog-key-vault-id --spark-hive-kv-id

密钥保管库资源 ID。

--spark-hive-catalog-thrift-url --spark-hive-thrift-url

节俭 URL。

--spark-storage-url

默认存储 URL。

--ssh-profile-count

每个群集的 ssh Pod 数。

--stub-profile

存根群集配置文件。 支持 json-file 和 yaml-file。

--subscription

订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID 配置默认订阅。

--tags

资源标记。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--task-manager-cpu

任务管理器 CPU 计数。

--task-manager-memory

任务管理器内存大小。

--trino-hive-catalog

Hive 目录选项。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--trino-plugins-spec --trino-profile-user-plugins-plugin-spec

Trino 用户插件规范支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--trino-profile-user-plugins-telemetry-spec --trino-telemetry-spec

Trino 用户遥测规范。支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--user-plugins-spec

Spark 用户插件规范支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。

--vm-size

虚拟机 SKU。

--worker-debug-port

调试端口。 默认值:8008。

--worker-debug-suspend

如果 trino 群集挂起调试或不进行调试的标志。 默认值:false。

接受的值: 0, 1, f, false, n, no, t, true, y, yes
全局参数
--debug

提高日志记录详细程度以显示所有调试日志。

--help -h

显示此帮助消息并退出。

--only-show-errors

只显示错误,取消显示警告。

--output -o

输出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
默认值: json
--query

JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/

--subscription

订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID 配置默认订阅。

--verbose

提高日志记录详细程度。 使用 --debug 获取完整的调试日志。

az hdinsight-on-aks cluster wait

预览

命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus

将 CLI 置于等待状态,直到满足条件。

az hdinsight-on-aks cluster wait [--cluster-name]
                                 [--cluster-pool-name]
                                 [--created]
                                 [--custom]
                                 [--deleted]
                                 [--exists]
                                 [--ids]
                                 [--interval]
                                 [--resource-group]
                                 [--subscription]
                                 [--timeout]
                                 [--updated]

可选参数

--cluster-name --name -n

HDInsight 群集的名称。

--cluster-pool-name

群集池的名称。

--created

等待在“Succeeded”中使用“provisioningState”创建。

默认值: False
--custom

等待条件满足自定义 JMESPath 查询。 例如 provisioningState!='InProgress', instanceView.statuses[?code=='PowerState/running']。

--deleted

等到删除为止。

默认值: False
--exists

等待资源存在。

默认值: False
--ids

一个或多个资源 ID(以空格分隔)。 它应该是包含“Resource Id”参数的所有信息的完整资源 ID。 应提供 --ids 或其他“Resource Id”参数。

--interval

轮询间隔(以秒为单位)。

默认值: 30
--resource-group -g

资源组的名称。 可以使用 az configure --defaults group=<name> 配置默认组。

--subscription

订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID 配置默认订阅。

--timeout

最大等待(以秒为单位)。

默认值: 3600
--updated

等到 provisioningState 更新为“Succeeded”。

默认值: False
全局参数
--debug

提高日志记录详细程度以显示所有调试日志。

--help -h

显示此帮助消息并退出。

--only-show-errors

只显示错误,取消显示警告。

--output -o

输出格式。

接受的值: json, jsonc, none, table, tsv, yaml, yamlc
默认值: json
--query

JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/

--subscription

订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID 配置默认订阅。

--verbose

提高日志记录详细程度。 使用 --debug 获取完整的调试日志。