你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
az hdinsight-on-aks cluster
注意
此参考是 Azure CLI(版本 2.57.0 或更高版本)的 hdinsightonaks 扩展的一部分。 该扩展将在首次运行 az hdinsight-on-aks cluster 命令时自动安装。 详细了解扩展。
此命令组处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus
群集操作。
命令
az hdinsight-on-aks cluster create
命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus
创建群集。
az hdinsight-on-aks cluster create --cluster-name
--cluster-pool-name
--resource-group
[--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--assigned-identity-client-id]
[--assigned-identity-id]
[--assigned-identity-object-id]
[--authorization-group-id]
[--authorization-user-id]
[--autoscale-profile-graceful-decommission-timeout]
[--autoscale-profile-type {LoadBased, ScheduleBased}]
[--availability-zones]
[--cluster-type]
[--cluster-version]
[--cooldown-period]
[--coord-debug-port]
[--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
[--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
[--deployment-mode {Application, Session}]
[--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
[--flink-db-auth-mode {IdentityAuth, SqlAuth}]
[--flink-hive-catalog-db-connection-password-secret]
[--flink-hive-catalog-db-connection-url]
[--flink-hive-catalog-db-connection-user-name]
[--flink-storage-key]
[--flink-storage-uri]
[--history-server-cpu]
[--history-server-memory]
[--identity-list]
[--internal-ingress {0, 1, f, false, n, no, t, true, y, yes}]
[--job-manager-cpu]
[--job-manager-memory]
[--job-spec]
[--kafka-profile]
[--key-vault-id]
[--llap-profile]
[--loadbased-config-max-nodes]
[--loadbased-config-min-nodes]
[--loadbased-config-poll-interval]
[--loadbased-config-scaling-rules]
[--location]
[--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
[--nodes]
[--num-replicas]
[--oss-version]
[--ranger-plugin-profile]
[--ranger-profile]
[--schedule-based-config-default-count]
[--schedule-based-config-schedule]
[--schedule-based-config-time-zone]
[--script-action-profiles]
[--secret-reference]
[--service-configs]
[--spark-hive-catalog-db-name]
[--spark-hive-catalog-db-password-secret]
[--spark-hive-catalog-db-server-name]
[--spark-hive-catalog-db-user-name]
[--spark-hive-catalog-key-vault-id]
[--spark-hive-catalog-thrift-url]
[--spark-storage-url]
[--ssh-profile-count]
[--stub-profile]
[--tags]
[--task-manager-cpu]
[--task-manager-memory]
[--trino-hive-catalog]
[--trino-plugins-spec]
[--trino-profile-user-plugins-telemetry-spec]
[--user-plugins-spec]
[--vm-size]
[--worker-debug-port]
[--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
示例
创建简单的 Trino 群集。
az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type trino --cluster-version {1.2.0} --oss-version {0.440.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"
创建简单的 Flink 群集。
az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016}
创建简单的 Spark 群集。
az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"
创建简单的 Kafka 群集。
az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type kafka --cluster-version {1.2.0} --oss-version {3.6.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --kafka-profile '{"disk-storage":{"data-disk-size":8,"data-disk-type":"Standard_SSD_LRS"}}'
使用自定义 Hive 元存储创建 Spark 群集。
az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --secret-reference '[{reference-name:sqlpassword,secret-name:sqlpassword,type:Secret}]' --key-vault-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-hive-kv-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-db-auth-mode SqlAuth --spark-hive-db-name {sparkhms} --spark-hive-db-secret {sqlpassword} --spark-hive-db-server {yourserver.database.windows.net} --spark-hive-db-user {username}
创建具有可用性区域的 Flink 群集。
az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016} --availability-zones [1,2]
必需参数
HDInsight 群集的名称。
群集池的名称。
资源组的名称。 可以使用 az configure --defaults group=<name>
配置默认组。
可选参数
如果启用了应用程序标准错误,则为 True,否则为 false。
如果启用了应用程序标准退出,则为 True,否则为 false。
MSI 的 ClientId。
MSI 的 ResourceId。
MSI 的 ObjectId。
有权访问数据平面的 AAD 组 ID。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
有权访问数据平面的 AAD 用户 ID。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
此属性用于正常解除授权超时;它在强制关闭前的默认设置为 3600 秒。 这是在将解除授权节点转换为 DECOMMISSIONED 之前等待运行容器和应用程序完成的最大时间。 默认值为 3600 秒。 负值(如 -1)作为无限超时处理。
用户指定要实现的自动缩放类型 - 基于计划的或基于负载的。
用于 AKS VMSS 节点的可用性区域列表。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
群集的类型。
3/4 部分的版本。
这是一个冷却期,这是一个以秒为单位的时间段,它确定在规则启动的缩放活动与下一个缩放活动的开始之间必须经过的时间量,而不考虑触发它的规则。 默认值为 300 秒。
如果启用调试或不启用的标志。 默认值:8008。
如果暂停调试或不进行调试的标志。 默认值:false。
如果启用协调器 HA,则使用具有自动故障转移的多个协调器副本,每个头节点各有一个。 默认值:false。
如果启用协调器 HA,则使用具有自动故障转移的多个协调器副本,每个头节点各有一个。 默认值:false。
用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.
一个字符串属性,指示 Flink 群集的部署模式。 它可以具有以下枚举值之一 => Application, Session。 默认值为 Session。
这表示是否在 AKS 群集上的 HDInsight 上启用自动缩放。
如果启用了指标,则为 True,否则为 false。
如果为群集启用了 Log Analytics,则为 True,否则为 false。
为群集启用 Prometheus。
如果 trino 群集启用调试或不启用的标志。 默认值:false。
用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.
包含数据库连接密码的 secretsProfile.secrets 的机密引用名称。
hive 元存储数据库的连接字符串。
数据库连接的用户名。
只有 wasb(s) 存储需要存储密钥。
用于保存点和检查点状态的存储帐户 URI。
历史记录服务器 CPU 计数。
历史记录服务器内存大小。
托管标识列表。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
是否使用专用 IP 而不是公共 IP 创建群集。 必须在创建时设置此属性。
作业管理器 CPU 计数。
作业管理器内存大小。
应用程序部署模式下 flink 群集的作业规范。 即使通过调用 RunJob API 更改作业属性,规范也不可变,请使用 ListJob API 获取最新的作业信息。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
Kafka 群集配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
存储所有群集特定用户机密的用户密钥库的名称。
LLAP 群集配置文件。 支持 json-file 和 yaml-file。
用户需要设置基于负载的缩放的最大节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。
用户需要为基于负载的缩放设置最小节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。
用户可以指定轮询间隔,这是在轮询缩放指标以触发缩放操作之后的时间段(以秒为单位)。
缩放规则。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
未指定资源所在的地理位置,将使用资源组的位置。
不等待长时间运行的操作完成。
节点定义。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
任务管理器的数量。
具有三个部分的版本。
群集 Ranger 插件配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
ranger 群集配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
设置当前计划配置的默认节点计数。 默认节点计数指定执行指定缩放操作时默认的节点数(纵向扩展/缩减)。
这指定要启用基于计划的自动缩放的计划,用户可以选择在计划内跨天数和时间(开始/结束)设置多个规则。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
用户必须指定必须为其设置基于计划的自动缩放配置的时区。
脚本操作配置文件列表。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
密钥库机密的属性。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
服务配置配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
数据库名称。
包含数据库用户密码的机密名称。
数据库服务器主机。
数据库用户名。
密钥保管库资源 ID。
节俭 URL。
默认存储 URL。
每个群集的 ssh Pod 数。
存根群集配置文件。 支持 json-file 和 yaml-file。
资源标记。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
任务管理器 CPU 计数。
任务管理器内存大小。
Trino 群集配置单元目录选项。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
Trino 用户插件规范支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
Trino 用户遥测规范。支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
Spark 用户插件规范支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
虚拟机 SKU。
调试端口。 默认值:8008。
如果 trino 群集挂起调试或不进行调试的标志。 默认值:false。
全局参数
提高日志记录详细程度以显示所有调试日志。
显示此帮助消息并退出。
只显示错误,取消显示警告。
输出格式。
JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/。
订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID
配置默认订阅。
提高日志记录详细程度。 使用 --debug 获取完整的调试日志。
az hdinsight-on-aks cluster delete
命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus
删除群集。
az hdinsight-on-aks cluster delete [--cluster-name]
[--cluster-pool-name]
[--ids]
[--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
[--resource-group]
[--subscription]
[--yes]
示例
删除群集。
az hdinsight-on-aks cluster delete -n {clusterName} --cluster-pool-name {poolName} -g {RG}
可选参数
HDInsight 群集的名称。
群集池的名称。
一个或多个资源 ID(以空格分隔)。 它应该是包含“Resource Id”参数的所有信息的完整资源 ID。 应提供 --ids 或其他“Resource Id”参数。
不等待长时间运行的操作完成。
资源组的名称。 可以使用 az configure --defaults group=<name>
配置默认组。
订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID
配置默认订阅。
不提示确认。
全局参数
提高日志记录详细程度以显示所有调试日志。
显示此帮助消息并退出。
只显示错误,取消显示警告。
输出格式。
JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/。
订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID
配置默认订阅。
提高日志记录详细程度。 使用 --debug 获取完整的调试日志。
az hdinsight-on-aks cluster list
命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus
列出资源组下的 HDInsight 群集池。
az hdinsight-on-aks cluster list --cluster-pool-name
--resource-group
[--max-items]
[--next-token]
示例
列出群集池中的所有群集。
az hdinsight-on-aks cluster list --cluster-pool-name {poolName}-g {RG}
必需参数
群集池的名称。
资源组的名称。 可以使用 az configure --defaults group=<name>
配置默认组。
可选参数
命令输出中要返回的项总数。 如果可用的项总数大于指定的值,则会在命令的输出中提供令牌。 若要恢复分页,请在后续命令的参数中 --next-token
提供令牌值。
用于指定开始分页的位置的令牌。 这是先前截断的响应中的令牌值。
全局参数
提高日志记录详细程度以显示所有调试日志。
显示此帮助消息并退出。
只显示错误,取消显示警告。
输出格式。
JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/。
订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID
配置默认订阅。
提高日志记录详细程度。 使用 --debug 获取完整的调试日志。
az hdinsight-on-aks cluster list-service-config
命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus
列出群集中运行的所有服务的配置转储。
az hdinsight-on-aks cluster list-service-config --cluster-name
--cluster-pool-name
--resource-group
[--max-items]
[--next-token]
示例
列出群集中运行的所有服务的配置转储。
az hdinsight-on-aks cluster list-service-config --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG}
必需参数
HDInsight 群集的名称。
群集池的名称。
资源组的名称。 可以使用 az configure --defaults group=<name>
配置默认组。
可选参数
命令输出中要返回的项总数。 如果可用的项总数大于指定的值,则会在命令的输出中提供令牌。 若要恢复分页,请在后续命令的参数中 --next-token
提供令牌值。
用于指定开始分页的位置的令牌。 这是先前截断的响应中的令牌值。
全局参数
提高日志记录详细程度以显示所有调试日志。
显示此帮助消息并退出。
只显示错误,取消显示警告。
输出格式。
JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/。
订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID
配置默认订阅。
提高日志记录详细程度。 使用 --debug 获取完整的调试日志。
az hdinsight-on-aks cluster resize
命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus
调整现有群集的大小。
az hdinsight-on-aks cluster resize [--cluster-name]
[--cluster-pool-name]
[--ids]
[--location]
[--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
[--resource-group]
[--subscription]
[--tags]
[--target-worker-node-count]
示例
重设群集大小。
az hdinsight-on-aks cluster resize --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG} -l {westus3} --target-worker-node-count {6}
可选参数
HDInsight 群集的名称。
群集池的名称。
一个或多个资源 ID(以空格分隔)。 它应该是包含“Resource Id”参数的所有信息的完整资源 ID。 应提供 --ids 或其他“Resource Id”参数。
未指定资源所在的地理位置,将使用资源组的位置。
不等待长时间运行的操作完成。
资源组的名称。 可以使用 az configure --defaults group=<name>
配置默认组。
订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID
配置默认订阅。
资源标记。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
工作器节点的目标节点计数。
全局参数
提高日志记录详细程度以显示所有调试日志。
显示此帮助消息并退出。
只显示错误,取消显示警告。
输出格式。
JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/。
订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID
配置默认订阅。
提高日志记录详细程度。 使用 --debug 获取完整的调试日志。
az hdinsight-on-aks cluster show
命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus
获取 HDInsight 群集。
az hdinsight-on-aks cluster show [--cluster-name]
[--cluster-pool-name]
[--ids]
[--resource-group]
[--subscription]
示例
获取群集名称为群集。
az hdinsight-on-aks cluster show -n {clusterName} --cluster-pool-name {poolName} -g {RG}
可选参数
HDInsight 群集的名称。
群集池的名称。
一个或多个资源 ID(以空格分隔)。 它应该是包含“Resource Id”参数的所有信息的完整资源 ID。 应提供 --ids 或其他“Resource Id”参数。
资源组的名称。 可以使用 az configure --defaults group=<name>
配置默认组。
订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID
配置默认订阅。
全局参数
提高日志记录详细程度以显示所有调试日志。
显示此帮助消息并退出。
只显示错误,取消显示警告。
输出格式。
JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/。
订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID
配置默认订阅。
提高日志记录详细程度。 使用 --debug 获取完整的调试日志。
az hdinsight-on-aks cluster update
命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus
更新群集。
az hdinsight-on-aks cluster update [--add]
[--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--assigned-identity-client-id]
[--assigned-identity-id]
[--assigned-identity-object-id]
[--authorization-group-id]
[--authorization-user-id]
[--autoscale-profile-graceful-decommission-timeout]
[--autoscale-profile-type {LoadBased, ScheduleBased}]
[--availability-zones]
[--cluster-name]
[--cluster-pool-name]
[--cluster-version]
[--cooldown-period]
[--coord-debug-port]
[--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
[--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
[--deployment-mode {Application, Session}]
[--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
[--flink-db-auth-mode {IdentityAuth, SqlAuth}]
[--flink-hive-catalog-db-connection-password-secret]
[--flink-hive-catalog-db-connection-url]
[--flink-hive-catalog-db-connection-user-name]
[--flink-storage-key]
[--flink-storage-uri]
[--force-string {0, 1, f, false, n, no, t, true, y, yes}]
[--history-server-cpu]
[--history-server-memory]
[--identity-list]
[--ids]
[--job-manager-cpu]
[--job-manager-memory]
[--job-spec]
[--kafka-profile]
[--key-vault-id]
[--llap-profile]
[--loadbased-config-max-nodes]
[--loadbased-config-min-nodes]
[--loadbased-config-poll-interval]
[--loadbased-config-scaling-rules]
[--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
[--nodes]
[--num-replicas]
[--oss-version]
[--ranger-plugin-profile]
[--ranger-profile]
[--remove]
[--resource-group]
[--schedule-based-config-default-count]
[--schedule-based-config-schedule]
[--schedule-based-config-time-zone]
[--script-action-profiles]
[--secret-reference]
[--service-configs]
[--set]
[--spark-hive-catalog-db-name]
[--spark-hive-catalog-db-password-secret]
[--spark-hive-catalog-db-server-name]
[--spark-hive-catalog-db-user-name]
[--spark-hive-catalog-key-vault-id]
[--spark-hive-catalog-thrift-url]
[--spark-storage-url]
[--ssh-profile-count]
[--stub-profile]
[--subscription]
[--tags]
[--task-manager-cpu]
[--task-manager-memory]
[--trino-hive-catalog]
[--trino-plugins-spec]
[--trino-profile-user-plugins-telemetry-spec]
[--user-plugins-spec]
[--vm-size]
[--worker-debug-port]
[--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
示例
更新群集服务配置。
az hdinsight-on-aks cluster update -n {clusterName} --cluster-pool-name {poolName} -g {RG} -service-configs {"[{service-name:yarn-service,configs:[{component:hadoop-config-client,files:[{file-name:yarn-site.xml,values:{yarn.nodemanager.resource.memory-mb:33333}}]}]}]"}
可选参数
通过指定路径和键值对将对象添加到对象列表。 示例:--add property.listProperty <key=value、string 或 JSON 字符串>。
如果启用了应用程序标准错误,则为 True,否则为 false。
如果启用了应用程序标准退出,则为 True,否则为 false。
MSI 的 ClientId。
MSI 的 ResourceId。
MSI 的 ObjectId。
有权访问数据平面的 AAD 组 ID。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
有权访问数据平面的 AAD 用户 ID。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
此属性用于正常解除授权超时;它在强制关闭前的默认设置为 3600 秒。 这是在将解除授权节点转换为 DECOMMISSIONED 之前等待运行容器和应用程序完成的最大时间。 默认值为 3600 秒。 负值(如 -1)作为无限超时处理。
用户指定要实现的自动缩放类型 - 基于计划的或基于负载的。
用于 AKS VMSS 节点的可用性区域列表。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
HDInsight 群集的名称。
群集池的名称。
3/4 部分的版本。
这是一个冷却期,这是一个以秒为单位的时间段,它确定在规则启动的缩放活动与下一个缩放活动的开始之间必须经过的时间量,而不考虑触发它的规则。 默认值为 300 秒。
如果启用调试或不启用的标志。 默认值:8008。
如果暂停调试或不进行调试的标志。 默认值:false。
如果启用协调器 HA,则使用具有自动故障转移的多个协调器副本,每个头节点各有一个。 默认值:false。
如果启用协调器 HA,则使用具有自动故障转移的多个协调器副本,每个头节点各有一个。 默认值:false。
用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.
一个字符串属性,指示 Flink 群集的部署模式。 它可以具有以下枚举值之一 => Application, Session。 默认值为 Session。
这表示是否在 AKS 群集上的 HDInsight 上启用自动缩放。
如果启用了指标,则为 True,否则为 false。
如果为群集启用了 Log Analytics,则为 True,否则为 false。
为群集启用 Prometheus。
如果 trino 群集启用调试或不启用的标志。 默认值:false。
用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.
包含数据库连接密码的 secretsProfile.secrets 的机密引用名称。
hive 元存储数据库的连接字符串。
数据库连接的用户名。
只有 wasb(s) 存储需要存储密钥。
用于保存点和检查点状态的存储帐户 URI。
使用“set”或“add”时,保留字符串文本,而不是尝试转换为 JSON。
历史记录服务器 CPU 计数。
历史记录服务器内存大小。
托管标识列表。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
一个或多个资源 ID(以空格分隔)。 它应该是包含“Resource Id”参数的所有信息的完整资源 ID。 应提供 --ids 或其他“Resource Id”参数。
作业管理器 CPU 计数。
作业管理器内存大小。
应用程序部署模式下 flink 群集的作业规范。 即使通过调用 RunJob API 更改作业属性,规范也不可变,请使用 ListJob API 获取最新的作业信息。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
Kafka 群集配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
存储所有群集特定用户机密的用户密钥库的名称。
LLAP 群集配置文件。 支持 json-file 和 yaml-file。
用户需要设置基于负载的缩放的最大节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。
用户需要为基于负载的缩放设置最小节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。
用户可以指定轮询间隔,这是在轮询缩放指标以触发缩放操作之后的时间段(以秒为单位)。
缩放规则。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
不等待长时间运行的操作完成。
节点定义。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
任务管理器的数量。
具有三个部分的版本。
群集 Ranger 插件配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
ranger 群集配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
从列表中删除属性或元素。 示例:--remove property.list OR --remove propertyToRemove。
资源组的名称。 可以使用 az configure --defaults group=<name>
配置默认组。
设置当前计划配置的默认节点计数。 默认节点计数指定执行指定缩放操作时默认的节点数(纵向扩展/缩减)。
这指定要启用基于计划的自动缩放的计划,用户可以选择在计划内跨天数和时间(开始/结束)设置多个规则。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
用户必须指定必须为其设置基于计划的自动缩放配置的时区。
脚本操作配置文件列表。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
密钥库机密的属性。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
服务配置配置文件。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
通过指定要设置的属性路径和值来更新对象。 示例:--set property1.property2=。
数据库名称。
包含数据库用户密码的机密名称。
数据库服务器主机。
数据库用户名。
密钥保管库资源 ID。
节俭 URL。
默认存储 URL。
每个群集的 ssh Pod 数。
存根群集配置文件。 支持 json-file 和 yaml-file。
订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID
配置默认订阅。
资源标记。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
任务管理器 CPU 计数。
任务管理器内存大小。
Hive 目录选项。 支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
Trino 用户插件规范支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
Trino 用户遥测规范。支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
Spark 用户插件规范支持速记语法、json-file 和 yaml-file。 请尝试“??” 以显示更多内容。
虚拟机 SKU。
调试端口。 默认值:8008。
如果 trino 群集挂起调试或不进行调试的标志。 默认值:false。
全局参数
提高日志记录详细程度以显示所有调试日志。
显示此帮助消息并退出。
只显示错误,取消显示警告。
输出格式。
JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/。
订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID
配置默认订阅。
提高日志记录详细程度。 使用 --debug 获取完整的调试日志。
az hdinsight-on-aks cluster wait
命令组“az hdinsight-on-aks cluster”处于预览状态,正在开发中。 参考和支持级别: https://aka.ms/CLI_refstatus
将 CLI 置于等待状态,直到满足条件。
az hdinsight-on-aks cluster wait [--cluster-name]
[--cluster-pool-name]
[--created]
[--custom]
[--deleted]
[--exists]
[--ids]
[--interval]
[--resource-group]
[--subscription]
[--timeout]
[--updated]
可选参数
HDInsight 群集的名称。
群集池的名称。
等待在“Succeeded”中使用“provisioningState”创建。
等待条件满足自定义 JMESPath 查询。 例如 provisioningState!='InProgress', instanceView.statuses[?code=='PowerState/running']。
等到删除为止。
等待资源存在。
一个或多个资源 ID(以空格分隔)。 它应该是包含“Resource Id”参数的所有信息的完整资源 ID。 应提供 --ids 或其他“Resource Id”参数。
轮询间隔(以秒为单位)。
资源组的名称。 可以使用 az configure --defaults group=<name>
配置默认组。
订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID
配置默认订阅。
最大等待(以秒为单位)。
等到 provisioningState 更新为“Succeeded”。
全局参数
提高日志记录详细程度以显示所有调试日志。
显示此帮助消息并退出。
只显示错误,取消显示警告。
输出格式。
JMESPath 查询字符串。 有关更多信息和示例,请参阅 http://jmespath.org/。
订阅的名称或 ID。 可以使用 az account set -s NAME_OR_ID
配置默认订阅。
提高日志记录详细程度。 使用 --debug 获取完整的调试日志。