你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

Microsoft.HDInsight clusterpools/clusters 2023-11-01-preview

Bicep 资源定义

可以使用目标操作部署 clusterpools/clusters 资源类型:

有关每个 API 版本中已更改属性的列表,请参阅 更改日志

资源格式

若要创建 Microsoft.HDInsight/clusterpools/clusters 资源,请将以下 Bicep 添加到模板。

resource symbolicname 'Microsoft.HDInsight/clusterpools/clusters@2023-11-01-preview' = {
  parent: resourceSymbolicName
  location: 'string'
  name: 'string'
  properties: {
    clusterProfile: {
      authorizationProfile: {
        groupIds: [
          'string'
        ]
        userIds: [
          'string'
        ]
      }
      autoscaleProfile: {
        autoscaleType: 'string'
        enabled: bool
        gracefulDecommissionTimeout: int
        loadBasedConfig: {
          cooldownPeriod: int
          maxNodes: int
          minNodes: int
          pollInterval: int
          scalingRules: [
            {
              actionType: 'string'
              comparisonRule: {
                operator: 'string'
                threshold: int
              }
              evaluationCount: int
              scalingMetric: 'string'
            }
          ]
        }
        scheduleBasedConfig: {
          defaultCount: int
          schedules: [
            {
              count: int
              days: [
                'string'
              ]
              endTime: 'string'
              startTime: 'string'
            }
          ]
          timeZone: 'string'
        }
      }
      clusterAccessProfile: {
        enableInternalIngress: bool
      }
      clusterVersion: 'string'
      flinkProfile: {
        catalogOptions: {
          hive: {
            metastoreDbConnectionAuthenticationMode: 'string'
            metastoreDbConnectionPasswordSecret: 'string'
            metastoreDbConnectionURL: 'string'
            metastoreDbConnectionUserName: 'string'
          }
        }
        deploymentMode: 'string'
        historyServer: {
          cpu: int
          memory: int
        }
        jobManager: {
          cpu: int
          memory: int
        }
        jobSpec: {
          args: 'string'
          entryClass: 'string'
          jarName: 'string'
          jobJarDirectory: 'string'
          savePointName: 'string'
          upgradeMode: 'string'
        }
        numReplicas: int
        storage: {
          storagekey: 'string'
          storageUri: 'string'
        }
        taskManager: {
          cpu: int
          memory: int
        }
      }
      identityProfile: {
        msiClientId: 'string'
        msiObjectId: 'string'
        msiResourceId: 'string'
      }
      kafkaProfile: {
        diskStorage: {
          dataDiskSize: int
          dataDiskType: 'string'
        }
        enableKRaft: bool
        enablePublicEndpoints: bool
        remoteStorageUri: 'string'
      }
      llapProfile: {
        {customized property}: any(Azure.Bicep.Types.Concrete.AnyType)
      }
      logAnalyticsProfile: {
        applicationLogs: {
          stdErrorEnabled: bool
          stdOutEnabled: bool
        }
        enabled: bool
        metricsEnabled: bool
      }
      ossVersion: 'string'
      prometheusProfile: {
        enabled: bool
      }
      rangerPluginProfile: {
        enabled: bool
      }
      rangerProfile: {
        rangerAdmin: {
          admins: [
            'string'
          ]
          database: {
            host: 'string'
            name: 'string'
            passwordSecretRef: 'string'
            username: 'string'
          }
        }
        rangerAudit: {
          storageAccount: 'string'
        }
        rangerUsersync: {
          enabled: bool
          groups: [
            'string'
          ]
          mode: 'string'
          userMappingLocation: 'string'
          users: [
            'string'
          ]
        }
      }
      scriptActionProfiles: [
        {
          name: 'string'
          parameters: 'string'
          services: [
            'string'
          ]
          shouldPersist: bool
          timeoutInMinutes: int
          type: 'string'
          url: 'string'
        }
      ]
      secretsProfile: {
        keyVaultResourceId: 'string'
        secrets: [
          {
            keyVaultObjectName: 'string'
            referenceName: 'string'
            type: 'string'
            version: 'string'
          }
        ]
      }
      serviceConfigsProfiles: [
        {
          configs: [
            {
              component: 'string'
              files: [
                {
                  content: 'string'
                  encoding: 'string'
                  fileName: 'string'
                  path: 'string'
                  values: {
                    {customized property}: 'string'
                  }
                }
              ]
            }
          ]
          serviceName: 'string'
        }
      ]
      sparkProfile: {
        defaultStorageUrl: 'string'
        metastoreSpec: {
          dbConnectionAuthenticationMode: 'string'
          dbName: 'string'
          dbPasswordSecretName: 'string'
          dbServerHost: 'string'
          dbUserName: 'string'
          keyVaultId: 'string'
          thriftUrl: 'string'
        }
        userPluginsSpec: {
          plugins: [
            {
              path: 'string'
            }
          ]
        }
      }
      sshProfile: {
        count: int
      }
      stubProfile: {
        {customized property}: any(Azure.Bicep.Types.Concrete.AnyType)
      }
      trinoProfile: {
        catalogOptions: {
          hive: [
            {
              catalogName: 'string'
              metastoreDbConnectionAuthenticationMode: 'string'
              metastoreDbConnectionPasswordSecret: 'string'
              metastoreDbConnectionURL: 'string'
              metastoreDbConnectionUserName: 'string'
              metastoreWarehouseDir: 'string'
            }
          ]
        }
        coordinator: {
          debug: {
            enable: bool
            port: int
            suspend: bool
          }
          highAvailabilityEnabled: bool
        }
        userPluginsSpec: {
          plugins: [
            {
              enabled: bool
              name: 'string'
              path: 'string'
            }
          ]
        }
        userTelemetrySpec: {
          storage: {
            hivecatalogName: 'string'
            hivecatalogSchema: 'string'
            partitionRetentionInDays: int
            path: 'string'
          }
        }
        worker: {
          debug: {
            enable: bool
            port: int
            suspend: bool
          }
        }
      }
    }
    clusterType: 'string'
    computeProfile: {
      nodes: [
        {
          count: int
          type: 'string'
          vmSize: 'string'
        }
      ]
    }
  }
  tags: {
    {customized property}: 'string'
  }
}

属性值

AuthorizationProfile

名字 描述 价值
groupIds 有权访问数据平面的 AAD 组 ID。 string[]
userIds 有权访问数据平面的 AAD 用户 ID。 string[]

AutoscaleProfile

名字 描述 价值
autoscaleType 用户指定要实现的自动缩放类型 - 基于计划的或基于负载的。 “LoadBased”
“ScheduleBased”
启用 这表示是否在 AKS 群集上的 HDInsight 上启用自动缩放。 bool (必需)
gracefulDecommissionTimeout 此属性用于正常解除授权超时;它在强制关闭前的默认设置为 3600 秒。 这是在将解除授权节点转换为 DECOMMISSIONED 之前等待运行容器和应用程序完成的最大时间。 默认值为 3600 秒。 负值(如 -1)作为无限超时处理。 int
loadBasedConfig 基于负载的自动缩放配置文件。 LoadBasedConfig
scheduleBasedConfig 基于计划的自动缩放配置文件。 ScheduleBasedConfig

CatalogOptions

名字 描述 价值
蜂房 hive 目录选项。 HiveCatalogOption[]

ClusterAccessProfile

名字 描述 价值
enableInternalIngress 是否使用专用 IP 而不是公共 IP 创建群集。 必须在创建时设置此属性。 bool (必需)

ClusterConfigFile

名字 描述 价值
内容 整个配置文件的自由形式内容。 字符串
编码 此属性指示内容是否已编码且不区分大小写。 如果内容经过 base64 编码,请将该值设置为 base64。 如果内容为纯文本,则将其设置为“无”或“跳过”。 “Base64”
“None”
文件名 配置文件名称。 string (必需)
路径 如果指定了内容,配置文件的路径。 字符串
键值对列表
其中,键表示有效的服务配置名称和值表示配置的值。
ClusterConfigFileValues

ClusterConfigFileValues

名字 描述 价值

ClusterLogAnalyticsApplicationLogs

名字 描述 价值
stdErrorEnabled 如果启用了 stderror,则为 True,否则为 false。 bool
stdOutEnabled 如果启用了 stdout,则为 True,否则为 false。 bool

ClusterLogAnalyticsProfile

名字 描述 价值
applicationLogs 要为日志分析启用或禁用的日志集合。 ClusterLogAnalyticsApplicationLogs
启用 如果为群集启用了 Log Analytics,则为 True,否则为 false。 bool (必需)
metricsEnabled 如果启用了指标,则为 True,否则为 false。 bool

ClusterProfile

名字 描述 价值
authorizationProfile 授权配置文件,其中包含授权用于数据平面访问的 AAD 用户 ID 和组 ID 的详细信息。 AuthorizationProfile(必需)
autoscaleProfile 这是群集的自动缩放配置文件。 这将允许客户创建启用了自动缩放的群集。 AutoscaleProfile
clusterAccessProfile 群集访问配置文件。 ClusterAccessProfile
clusterVersion 3/4 部分的版本。 字符串

约束:
模式 = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (必需)
flinkProfile Flink 群集配置文件。 FlinkProfile
identityProfile Trino、Spark 和 Flink 群集需要此属性,但对于 Kafka 群集是可选的。 IdentityProfile
kafkaProfile Kafka 群集配置文件。 KafkaProfile
llapProfile LLAP 群集配置文件。 ClusterProfileLlapProfile
logAnalyticsProfile 群集日志分析配置文件,用于启用或禁用群集的 OMS 代理。 ClusterLogAnalyticsProfile
ossVersion 具有三个部分的版本。 字符串

约束:
模式 = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (必需)
prometheusProfile 群集 Prometheus 配置文件。 ClusterPrometheusProfile
rangerPluginProfile 群集 Ranger 插件配置文件。 ClusterRangerPluginProfile
rangerProfile ranger 群集配置文件。 RangerProfile
scriptActionProfiles 脚本操作配置文件列表。 ScriptActionProfile[]
secretsProfile 群集机密配置文件。 SecretsProfile
serviceConfigsProfiles 服务配置配置文件。 ClusterServiceConfigsProfile[]
sparkProfile Spark 群集配置文件。 SparkProfile
sshProfile 群集的 Ssh 配置文件。 SshProfile
stubProfile 存根群集配置文件。 ClusterProfileStubProfile
trinoProfile Trino 群集配置文件。 TrinoProfile

ClusterProfileLlapProfile

名字 描述 价值

ClusterProfileStubProfile

名字 描述 价值

ClusterPrometheusProfile

名字 描述 价值
启用 为群集启用 Prometheus。 bool (必需)

ClusterRangerPluginProfile

名字 描述 价值
启用 为群集启用 Ranger。 bool (必需)

ClusterResourceProperties

名字 描述 价值
clusterProfile 群集配置文件。 ClusterProfile (必需)
clusterType 群集的类型。 字符串

约束:
模式 = ^[a-zA-Z][a-zA-Z0-9]{0,31}$ (必需)
computeProfile 计算配置文件。 ComputeProfile (必需)

ClusterServiceConfig

名字 描述 价值
元件 配置文件应应用于的组件的名称。 string (必需)
文件 配置文件列表。 ClusterConfigFile[] (必需)

ClusterServiceConfigsProfile

名字 描述 价值
配置 服务配置列表。 ClusterServiceConfig[] (必需)
serviceName 配置应应用于的服务的名称。 string (必需)

ComparisonRule

名字 描述 价值
算子 比较运算符。 “greaterThan”
“greaterThanOrEqual”
“lessThan”
“lessThanOrEqual”(必需)
门槛 阈值设置。 int (必需)

ComputeProfile

名字 描述 价值
节点 节点定义。 NodeProfile[] (必需)

ComputeResourceDefinition

名字 描述 价值
中央处理器 所需的 CPU。 int (必需)
记忆 所需的内存(以 MB 为单位)的容器内存将为 110 百分点 int (必需)

DiskStorageProfile

名字 描述 价值
dataDiskSize 托管磁盘大小(以 GB 为单位)。 标准版和高级 HDD/SSD 支持的最大磁盘大小为 32TB,高级 SSD v2 支持最多 64TB。 int (必需)
dataDiskType 托管磁盘类型。 “Premium_SSD_LRS”
“Premium_SSD_v2_LRS”
“Premium_SSD_ZRS”
“Standard_HDD_LRS”
“Standard_SSD_LRS”
“Standard_SSD_ZRS”(必需)

FlinkCatalogOptions

名字 描述 价值
蜂房 Flink 群集的 Hive 目录选项。 FlinkHiveCatalogOption

FlinkHiveCatalogOption

名字 描述 价值
metastoreDbConnectionAuthenticationMode 用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization “IdentityAuth”
“SqlAuth”
metastoreDbConnectionPasswordSecret 包含数据库连接密码的 secretsProfile.secrets 的机密引用名称。 字符串
metastoreDbConnectionURL hive 元存储数据库的连接字符串。 string (必需)
metastoreDbConnectionUserName 数据库连接的用户名。 字符串

FlinkJobProfile

名字 描述 价值
args 表示 Flink 作业的其他 JVM 参数的字符串属性。 它应为空格分隔值。 字符串
entryClass 一个字符串属性,指定 Flink 作业的条目类。 如果未指定,则从 flink 作业 jar 包自动检测入口点。 字符串
jarName 一个表示作业 JAR 名称的字符串属性。 string (必需)
jobJarDirectory 一个字符串属性,指定作业 JAR 所在的目录。 string (必需)
savePointName 一个字符串属性,表示 Flink 作业的保存点的名称 字符串
upgradeMode 一个字符串属性,指示要对 Flink 作业执行的升级模式。 它可以具有以下枚举值之一 => STATELESS_UPDATE,UPDATE,LAST_STATE_UPDATE。 “LAST_STATE_UPDATE”
“STATELESS_UPDATE”
“UPDATE”(必需)

FlinkProfile

名字 描述 价值
catalogOptions Flink 群集目录选项。 FlinkCatalogOptions
deploymentMode 一个字符串属性,指示 Flink 群集的部署模式。 它可以具有以下枚举值之一 => Application, Session。 默认值为 Session “Application”
“Session”
historyServer 历史记录服务器容器/进程 CPU 和内存要求 ComputeResourceDefinition
jobManager 作业管理器容器/处理 CPU 和内存要求 ComputeResourceDefinition (必需)
jobSpec 应用程序部署模式下 flink 群集的作业规范。 即使通过调用 RunJob API 更改作业属性,规范也不可变,请使用 ListJob API 获取最新的作业信息。 FlinkJobProfile
numReplicas 任务管理器的数量。 int
存储 存储配置文件 FlinkStorageProfile (必需)
taskManager 任务管理器容器/处理 CPU 和内存要求 ComputeResourceDefinition (必需)

FlinkStorageProfile

名字 描述 价值
storagekey 只有 wasb(s) 存储需要存储密钥。 字符串

约束:
敏感值。 以安全参数的形式传入。
storageUri 用于保存点和检查点状态的存储帐户 URI。 字符串

约束:
模式 = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b.*$ (必需)

HiveCatalogOption

名字 描述 价值
catalogName 应使用指定 hive 元存储的 trino 目录的名称。 字符串

约束:
最小长度 = 1 (必需)
metastoreDbConnectionAuthenticationMode 用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization “IdentityAuth”
“SqlAuth”
metastoreDbConnectionPasswordSecret 包含数据库连接密码的 secretsProfile.secrets 的机密引用名称。 字符串
metastoreDbConnectionURL hive 元存储数据库的连接字符串。 string (必需)
metastoreDbConnectionUserName 数据库连接的用户名。 字符串
metastoreWarehouseDir 元存储根目录 URI,格式:abfs[s]://<容器>@<account_name>.dfs.core.windows.net/<路径>。 更多详细信息:/azure/storage/blobs/data-lake-storage-introduction-abfs-uri string (必需)

IdentityProfile

名字 描述 价值
msiClientId MSI 的 ClientId。 字符串

约束:
模式 = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (必需)
msiObjectId MSI 的 ObjectId。 字符串

约束:
模式 = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (必需)
msiResourceId MSI 的 ResourceId。 string (必需)

KafkaProfile

名字 描述 价值
diskStorage Kafka 磁盘存储配置文件。 DiskStorageProfile (必需)
enableKRaft 在 KRaft 模式下公开 Kafka 群集。 bool
enablePublicEndpoints 将工作器节点公开为公共终结点。 bool
remoteStorageUri 用于分层存储的 Azure 存储容器的完全限定路径。 字符串

约束:
Pattern = ^(https?|abfss?):\/\/[^/]+(?:\/|$)

LoadBasedConfig

名字 描述 价值
cooldownPeriod 这是一个冷却期,这是一个以秒为单位的时间段,它确定在规则启动的缩放活动与下一个缩放活动的开始之间必须经过的时间量,而不考虑触发它的规则。 默认值为 300 秒。 int
maxNodes 用户需要设置基于负载的缩放的最大节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。 int (必需)
minNodes 用户需要为基于负载的缩放设置最小节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。 int (必需)
pollInterval 用户可以指定轮询间隔,这是在轮询缩放指标以触发缩放操作之后的时间段(以秒为单位)。 int
scalingRules 缩放规则。 ScalingRule[] (必需)

Microsoft.HDInsight/clusterpools/clusters

名字 描述 价值
位置 资源所在的地理位置 string (必需)
名字 资源名称 string (必需)
父母 在 Bicep 中,可以为子资源指定父资源。 仅当子资源在父资源外部声明时,才需要添加此属性。

有关详细信息,请参阅 父资源外部的子资源
类型资源的符号名称:群集池
性能 获取或设置属性。 定义特定于群集的属性。 ClusterResourceProperties
标签 资源标记 标记名称和值的字典。 请参阅模板 中的 标记

NodeProfile

名字 描述 价值
计数 虚拟机数。 int

约束:
最小值 = 1 (必需)
类型 节点类型。 字符串

约束:
模式 = ^(head|Head|HEAD|worker|Worker|WORKER)$ (必需)
vmSize 虚拟机 SKU。 字符串

约束:
模式 = ^[a-zA-Z0-9_\-]{0,256}$ (必需)

RangerAdminSpec

名字 描述 价值
管理员 应标记为 ranger 管理员的用户名列表。 这些用户名应与相应 AAD 用户的用户主体名称(UPN)匹配。 string[] (必需)
数据库 RangerAdminSpecDatabase (必需)

RangerAdminSpecDatabase

名字 描述 价值
主机 数据库 URL string (必需)
名字 数据库名称 string (必需)
passwordSecretRef 数据库密码参考 字符串
username 数据库用户的名称 字符串

RangerAuditSpec

名字 描述 价值
storageAccount Blob 的 Azure 存储位置。 MSI 应具有对此存储帐户的读/写访问权限。 字符串

约束:
最小长度 = 1
Pattern = ^(https)|(abfss)://.*$

RangerProfile

名字 描述 价值
rangerAdmin Ranger 管理服务的规范。 RangerAdminSpec (必需)
rangerAudit 描述审核日志存储所需的属性。 RangerAuditSpec
rangerUsersync Ranger Usersync 服务的规范 RangerUsersyncSpec (必需)

RangerUsersyncSpec

名字 描述 价值
启用 表示是否应启用用户同步服务 bool
应同步的组列表。 这些组名称应与相应 AAD 组的对象 ID 匹配。 string[]
模式 用户 & 组可以自动或通过刷新的静态列表进行同步。 “automatic”
“static”
userMappingLocation 列出用户 & 组关联的映射文件的 Azure 存储位置。 字符串

约束:
最小长度 = 1
Pattern = ^(https)|(abfss)://.*$
用户 应同步的用户名列表。 这些用户名应与相应 AAD 用户的用户主体名称匹配。 string[]

ScalingRule

名字 描述 价值
actionType 操作类型。 “scaledown”
“scaleup”(必需)
comparisonRule 比较规则。 ComparisonRule (必需)
evaluationCount 这是缩放条件的评估计数,在触发缩放活动之前,触发条件应成功次数。 int (必需)
scalingMetric 单个工作负荷的指标名称。 例如:cpu string (必需)

附表

名字 描述 价值
计数 用户必须设置在设置当前计划配置的缩放操作结束时预期的节点计数,格式为整数。 int (必需)
用户必须设置必须为自动缩放操作设置计划的日子。 包含任一项的字符串数组:
“Friday”
“Monday”
“Saturday”
“星期日”
“星期四”
“Tuesday”
“星期三”(必需)
endTime 用户必须设置当前计划配置的结束时间,格式如 10:30 (HH:MM)。 字符串

约束:
模式 = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (必需)
startTime 用户必须设置当前计划配置的开始时间,格式如 10:30 (HH:MM)。 字符串

约束:
模式 = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (必需)

ScheduleBasedConfig

名字 描述 价值
defaultCount 设置当前计划配置的默认节点计数。 默认节点计数指定执行指定缩放操作时默认的节点数(纵向扩展/缩减) int (必需)
附表 这指定要启用基于计划的自动缩放的计划,用户可以选择在计划内跨天数和时间(开始/结束)设置多个规则。 计划[] (必需)
timeZone 用户必须指定必须为其设置基于计划的自动缩放配置的时区。 string (必需)

ScriptActionProfile

名字 描述 价值
名字 脚本名称。 string (必需)
参数 脚本操作的其他参数。 它应该是脚本执行所需的参数的空间分隔列表。 字符串
服务业 要应用脚本操作的服务列表。 string[] (必需)
shouldPersist 指定脚本是否应保留在群集上。 bool
timeoutInMinutes 脚本操作的超时持续时间(以分钟为单位)。 int
类型 脚本操作的类型。 支持的类型为 bash 脚本。 string (必需)
url 脚本文件的 URL。 字符串

约束:
模式 = ^(https)|(http)://.*$ (必需)

SecretReference

名字 描述 价值
keyVaultObjectName 密钥保管库中机密的对象标识符名称。 字符串

约束:
模式 = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (必需)
referenceName 要用于服务配置的机密的引用名称。 string (必需)
类型 密钥保管库对象的类型:机密、密钥或证书。 “Certificate”
“Key”
“机密”(必需)
版本 密钥保管库中的机密版本。 字符串

SecretsProfile

名字 描述 价值
keyVaultResourceId 存储所有群集特定用户机密的用户 Key Vault 的名称。 string (必需)
秘密 Key Vault 机密的属性。 SecretReference[]

SparkMetastoreSpec

名字 描述 价值
dbConnectionAuthenticationMode 用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization “IdentityAuth”
“SqlAuth”
dbName 数据库名称。 string (必需)
dbPasswordSecretName 包含数据库用户密码的机密名称。 字符串
dbServerHost 数据库服务器主机。 string (必需)
dbUserName 数据库用户名。 字符串
keyVaultId 密钥保管库资源 ID。 字符串
thriftUrl 节俭 URL。 字符串

SparkProfile

名字 描述 价值
defaultStorageUrl 默认存储 URL。 字符串
metastoreSpec Spark 群集的元存储规范。 SparkMetastoreSpec
userPluginsSpec Spark 用户插件规范 SparkUserPlugins

SparkUserPlugin

名字 描述 价值
路径 包含插件的文件夹的完全限定路径。 字符串

约束:
最小长度 = 1
模式 = ^(https)|(abfss)://.*$ (必需)

SparkUserPlugins

名字 描述 价值
插件 Spark 用户插件。 SparkUserPlugin[]

SshProfile

名字 描述 价值
计数 每个群集的 ssh Pod 数。 int

约束:
最小值 = 0
最大值 = 5 (必需)

TrackedResourceTags

名字 描述 价值

TrinoCoordinator

名字 描述 价值
调试 Trino 调试配置。 TrinoDebugConfig
highAvailabilityEnabled 如果启用协调器 HA,则使用具有自动故障转移的多个协调器副本,每个头节点各有一个。 默认值:true。 bool

TrinoDebugConfig

名字 描述 价值
使 如果启用调试或不启用的标志。 bool
港口 调试端口。 int
暂停 如果暂停调试或不进行调试的标志。 bool

TrinoProfile

名字 描述 价值
catalogOptions Trino 群集目录选项。 CatalogOptions
协调者 Trino 协调器。 TrinoCoordinator
userPluginsSpec Trino 用户插件规范 TrinoUserPlugins
userTelemetrySpec 用户遥测 TrinoUserTelemetry
工人 Trino 辅助角色。 TrinoWorker

TrinoTelemetryConfig

名字 描述 价值
hivecatalogName 如果未指定,则用于在 Trino 编写的日志上装载外部表的 Hive 目录名称。如果未指定,则不会创建表。 字符串

约束:
最小长度 = 1
hivecatalogSchema 要使用的上述目录的架构,若要将查询日志装载为外部表,如果未指定表,则会在架构 trinolog 下装载。 字符串
partitionRetentionInDays 查询日志表分区的保留期,这不会影响实际数据。 int
路径 Blob 的 Azure 存储位置。 字符串

约束:
最小长度 = 1

TrinoUserPlugin

名字 描述 价值
启用 表示插件是否处于活动状态。 bool
名字 此字段映射到 trino 插件位置中的子目录,其中包含路径下的所有插件。 字符串

约束:
最小长度 = 1
路径 包含插件的文件夹的完全限定路径。 字符串

约束:
最小长度 = 1
Pattern = ^(https)|(abfss)://.*$

TrinoUserPlugins

名字 描述 价值
插件 Trino 用户插件。 TrinoUserPlugin[]

TrinoUserTelemetry

名字 描述 价值
存储 Trino 用户遥测定义。 TrinoTelemetryConfig

TrinoWorker

名字 描述 价值
调试 Trino 调试配置。 TrinoDebugConfig

ARM 模板资源定义

可以使用目标操作部署 clusterpools/clusters 资源类型:

有关每个 API 版本中已更改属性的列表,请参阅 更改日志

资源格式

若要创建 Microsoft.HDInsight/clusterpools/clusters 资源,请将以下 JSON 添加到模板。

{
  "type": "Microsoft.HDInsight/clusterpools/clusters",
  "apiVersion": "2023-11-01-preview",
  "name": "string",
  "location": "string",
  "properties": {
    "clusterProfile": {
      "authorizationProfile": {
        "groupIds": [ "string" ],
        "userIds": [ "string" ]
      },
      "autoscaleProfile": {
        "autoscaleType": "string",
        "enabled": "bool",
        "gracefulDecommissionTimeout": "int",
        "loadBasedConfig": {
          "cooldownPeriod": "int",
          "maxNodes": "int",
          "minNodes": "int",
          "pollInterval": "int",
          "scalingRules": [
            {
              "actionType": "string",
              "comparisonRule": {
                "operator": "string",
                "threshold": "int"
              },
              "evaluationCount": "int",
              "scalingMetric": "string"
            }
          ]
        },
        "scheduleBasedConfig": {
          "defaultCount": "int",
          "schedules": [
            {
              "count": "int",
              "days": [ "string" ],
              "endTime": "string",
              "startTime": "string"
            }
          ],
          "timeZone": "string"
        }
      },
      "clusterAccessProfile": {
        "enableInternalIngress": "bool"
      },
      "clusterVersion": "string",
      "flinkProfile": {
        "catalogOptions": {
          "hive": {
            "metastoreDbConnectionAuthenticationMode": "string",
            "metastoreDbConnectionPasswordSecret": "string",
            "metastoreDbConnectionURL": "string",
            "metastoreDbConnectionUserName": "string"
          }
        },
        "deploymentMode": "string",
        "historyServer": {
          "cpu": "int",
          "memory": "int"
        },
        "jobManager": {
          "cpu": "int",
          "memory": "int"
        },
        "jobSpec": {
          "args": "string",
          "entryClass": "string",
          "jarName": "string",
          "jobJarDirectory": "string",
          "savePointName": "string",
          "upgradeMode": "string"
        },
        "numReplicas": "int",
        "storage": {
          "storagekey": "string",
          "storageUri": "string"
        },
        "taskManager": {
          "cpu": "int",
          "memory": "int"
        }
      },
      "identityProfile": {
        "msiClientId": "string",
        "msiObjectId": "string",
        "msiResourceId": "string"
      },
      "kafkaProfile": {
        "diskStorage": {
          "dataDiskSize": "int",
          "dataDiskType": "string"
        },
        "enableKRaft": "bool",
        "enablePublicEndpoints": "bool",
        "remoteStorageUri": "string"
      },
      "llapProfile": {
        "{customized property}": {}
      },
      "logAnalyticsProfile": {
        "applicationLogs": {
          "stdErrorEnabled": "bool",
          "stdOutEnabled": "bool"
        },
        "enabled": "bool",
        "metricsEnabled": "bool"
      },
      "ossVersion": "string",
      "prometheusProfile": {
        "enabled": "bool"
      },
      "rangerPluginProfile": {
        "enabled": "bool"
      },
      "rangerProfile": {
        "rangerAdmin": {
          "admins": [ "string" ],
          "database": {
            "host": "string",
            "name": "string",
            "passwordSecretRef": "string",
            "username": "string"
          }
        },
        "rangerAudit": {
          "storageAccount": "string"
        },
        "rangerUsersync": {
          "enabled": "bool",
          "groups": [ "string" ],
          "mode": "string",
          "userMappingLocation": "string",
          "users": [ "string" ]
        }
      },
      "scriptActionProfiles": [
        {
          "name": "string",
          "parameters": "string",
          "services": [ "string" ],
          "shouldPersist": "bool",
          "timeoutInMinutes": "int",
          "type": "string",
          "url": "string"
        }
      ],
      "secretsProfile": {
        "keyVaultResourceId": "string",
        "secrets": [
          {
            "keyVaultObjectName": "string",
            "referenceName": "string",
            "type": "string",
            "version": "string"
          }
        ]
      },
      "serviceConfigsProfiles": [
        {
          "configs": [
            {
              "component": "string",
              "files": [
                {
                  "content": "string",
                  "encoding": "string",
                  "fileName": "string",
                  "path": "string",
                  "values": {
                    "{customized property}": "string"
                  }
                }
              ]
            }
          ],
          "serviceName": "string"
        }
      ],
      "sparkProfile": {
        "defaultStorageUrl": "string",
        "metastoreSpec": {
          "dbConnectionAuthenticationMode": "string",
          "dbName": "string",
          "dbPasswordSecretName": "string",
          "dbServerHost": "string",
          "dbUserName": "string",
          "keyVaultId": "string",
          "thriftUrl": "string"
        },
        "userPluginsSpec": {
          "plugins": [
            {
              "path": "string"
            }
          ]
        }
      },
      "sshProfile": {
        "count": "int"
      },
      "stubProfile": {
        "{customized property}": {}
      },
      "trinoProfile": {
        "catalogOptions": {
          "hive": [
            {
              "catalogName": "string",
              "metastoreDbConnectionAuthenticationMode": "string",
              "metastoreDbConnectionPasswordSecret": "string",
              "metastoreDbConnectionURL": "string",
              "metastoreDbConnectionUserName": "string",
              "metastoreWarehouseDir": "string"
            }
          ]
        },
        "coordinator": {
          "debug": {
            "enable": "bool",
            "port": "int",
            "suspend": "bool"
          },
          "highAvailabilityEnabled": "bool"
        },
        "userPluginsSpec": {
          "plugins": [
            {
              "enabled": "bool",
              "name": "string",
              "path": "string"
            }
          ]
        },
        "userTelemetrySpec": {
          "storage": {
            "hivecatalogName": "string",
            "hivecatalogSchema": "string",
            "partitionRetentionInDays": "int",
            "path": "string"
          }
        },
        "worker": {
          "debug": {
            "enable": "bool",
            "port": "int",
            "suspend": "bool"
          }
        }
      }
    },
    "clusterType": "string",
    "computeProfile": {
      "nodes": [
        {
          "count": "int",
          "type": "string",
          "vmSize": "string"
        }
      ]
    }
  },
  "tags": {
    "{customized property}": "string"
  }
}

属性值

AuthorizationProfile

名字 描述 价值
groupIds 有权访问数据平面的 AAD 组 ID。 string[]
userIds 有权访问数据平面的 AAD 用户 ID。 string[]

AutoscaleProfile

名字 描述 价值
autoscaleType 用户指定要实现的自动缩放类型 - 基于计划的或基于负载的。 “LoadBased”
“ScheduleBased”
启用 这表示是否在 AKS 群集上的 HDInsight 上启用自动缩放。 bool (必需)
gracefulDecommissionTimeout 此属性用于正常解除授权超时;它在强制关闭前的默认设置为 3600 秒。 这是在将解除授权节点转换为 DECOMMISSIONED 之前等待运行容器和应用程序完成的最大时间。 默认值为 3600 秒。 负值(如 -1)作为无限超时处理。 int
loadBasedConfig 基于负载的自动缩放配置文件。 LoadBasedConfig
scheduleBasedConfig 基于计划的自动缩放配置文件。 ScheduleBasedConfig

CatalogOptions

名字 描述 价值
蜂房 hive 目录选项。 HiveCatalogOption[]

ClusterAccessProfile

名字 描述 价值
enableInternalIngress 是否使用专用 IP 而不是公共 IP 创建群集。 必须在创建时设置此属性。 bool (必需)

ClusterConfigFile

名字 描述 价值
内容 整个配置文件的自由形式内容。 字符串
编码 此属性指示内容是否已编码且不区分大小写。 如果内容经过 base64 编码,请将该值设置为 base64。 如果内容为纯文本,则将其设置为“无”或“跳过”。 “Base64”
“None”
文件名 配置文件名称。 string (必需)
路径 如果指定了内容,配置文件的路径。 字符串
键值对列表
其中,键表示有效的服务配置名称和值表示配置的值。
ClusterConfigFileValues

ClusterConfigFileValues

名字 描述 价值

ClusterLogAnalyticsApplicationLogs

名字 描述 价值
stdErrorEnabled 如果启用了 stderror,则为 True,否则为 false。 bool
stdOutEnabled 如果启用了 stdout,则为 True,否则为 false。 bool

ClusterLogAnalyticsProfile

名字 描述 价值
applicationLogs 要为日志分析启用或禁用的日志集合。 ClusterLogAnalyticsApplicationLogs
启用 如果为群集启用了 Log Analytics,则为 True,否则为 false。 bool (必需)
metricsEnabled 如果启用了指标,则为 True,否则为 false。 bool

ClusterProfile

名字 描述 价值
authorizationProfile 授权配置文件,其中包含授权用于数据平面访问的 AAD 用户 ID 和组 ID 的详细信息。 AuthorizationProfile(必需)
autoscaleProfile 这是群集的自动缩放配置文件。 这将允许客户创建启用了自动缩放的群集。 AutoscaleProfile
clusterAccessProfile 群集访问配置文件。 ClusterAccessProfile
clusterVersion 3/4 部分的版本。 字符串

约束:
模式 = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (必需)
flinkProfile Flink 群集配置文件。 FlinkProfile
identityProfile Trino、Spark 和 Flink 群集需要此属性,但对于 Kafka 群集是可选的。 IdentityProfile
kafkaProfile Kafka 群集配置文件。 KafkaProfile
llapProfile LLAP 群集配置文件。 ClusterProfileLlapProfile
logAnalyticsProfile 群集日志分析配置文件,用于启用或禁用群集的 OMS 代理。 ClusterLogAnalyticsProfile
ossVersion 具有三个部分的版本。 字符串

约束:
模式 = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (必需)
prometheusProfile 群集 Prometheus 配置文件。 ClusterPrometheusProfile
rangerPluginProfile 群集 Ranger 插件配置文件。 ClusterRangerPluginProfile
rangerProfile ranger 群集配置文件。 RangerProfile
scriptActionProfiles 脚本操作配置文件列表。 ScriptActionProfile[]
secretsProfile 群集机密配置文件。 SecretsProfile
serviceConfigsProfiles 服务配置配置文件。 ClusterServiceConfigsProfile[]
sparkProfile Spark 群集配置文件。 SparkProfile
sshProfile 群集的 Ssh 配置文件。 SshProfile
stubProfile 存根群集配置文件。 ClusterProfileStubProfile
trinoProfile Trino 群集配置文件。 TrinoProfile

ClusterProfileLlapProfile

名字 描述 价值

ClusterProfileStubProfile

名字 描述 价值

ClusterPrometheusProfile

名字 描述 价值
启用 为群集启用 Prometheus。 bool (必需)

ClusterRangerPluginProfile

名字 描述 价值
启用 为群集启用 Ranger。 bool (必需)

ClusterResourceProperties

名字 描述 价值
clusterProfile 群集配置文件。 ClusterProfile (必需)
clusterType 群集的类型。 字符串

约束:
模式 = ^[a-zA-Z][a-zA-Z0-9]{0,31}$ (必需)
computeProfile 计算配置文件。 ComputeProfile (必需)

ClusterServiceConfig

名字 描述 价值
元件 配置文件应应用于的组件的名称。 string (必需)
文件 配置文件列表。 ClusterConfigFile[] (必需)

ClusterServiceConfigsProfile

名字 描述 价值
配置 服务配置列表。 ClusterServiceConfig[] (必需)
serviceName 配置应应用于的服务的名称。 string (必需)

ComparisonRule

名字 描述 价值
算子 比较运算符。 “greaterThan”
“greaterThanOrEqual”
“lessThan”
“lessThanOrEqual”(必需)
门槛 阈值设置。 int (必需)

ComputeProfile

名字 描述 价值
节点 节点定义。 NodeProfile[] (必需)

ComputeResourceDefinition

名字 描述 价值
中央处理器 所需的 CPU。 int (必需)
记忆 所需的内存(以 MB 为单位)的容器内存将为 110 百分点 int (必需)

DiskStorageProfile

名字 描述 价值
dataDiskSize 托管磁盘大小(以 GB 为单位)。 标准版和高级 HDD/SSD 支持的最大磁盘大小为 32TB,高级 SSD v2 支持最多 64TB。 int (必需)
dataDiskType 托管磁盘类型。 “Premium_SSD_LRS”
“Premium_SSD_v2_LRS”
“Premium_SSD_ZRS”
“Standard_HDD_LRS”
“Standard_SSD_LRS”
“Standard_SSD_ZRS”(必需)

FlinkCatalogOptions

名字 描述 价值
蜂房 Flink 群集的 Hive 目录选项。 FlinkHiveCatalogOption

FlinkHiveCatalogOption

名字 描述 价值
metastoreDbConnectionAuthenticationMode 用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization “IdentityAuth”
“SqlAuth”
metastoreDbConnectionPasswordSecret 包含数据库连接密码的 secretsProfile.secrets 的机密引用名称。 字符串
metastoreDbConnectionURL hive 元存储数据库的连接字符串。 string (必需)
metastoreDbConnectionUserName 数据库连接的用户名。 字符串

FlinkJobProfile

名字 描述 价值
args 表示 Flink 作业的其他 JVM 参数的字符串属性。 它应为空格分隔值。 字符串
entryClass 一个字符串属性,指定 Flink 作业的条目类。 如果未指定,则从 flink 作业 jar 包自动检测入口点。 字符串
jarName 一个表示作业 JAR 名称的字符串属性。 string (必需)
jobJarDirectory 一个字符串属性,指定作业 JAR 所在的目录。 string (必需)
savePointName 一个字符串属性,表示 Flink 作业的保存点的名称 字符串
upgradeMode 一个字符串属性,指示要对 Flink 作业执行的升级模式。 它可以具有以下枚举值之一 => STATELESS_UPDATE,UPDATE,LAST_STATE_UPDATE。 “LAST_STATE_UPDATE”
“STATELESS_UPDATE”
“UPDATE”(必需)

FlinkProfile

名字 描述 价值
catalogOptions Flink 群集目录选项。 FlinkCatalogOptions
deploymentMode 一个字符串属性,指示 Flink 群集的部署模式。 它可以具有以下枚举值之一 => Application, Session。 默认值为 Session “Application”
“Session”
historyServer 历史记录服务器容器/进程 CPU 和内存要求 ComputeResourceDefinition
jobManager 作业管理器容器/处理 CPU 和内存要求 ComputeResourceDefinition (必需)
jobSpec 应用程序部署模式下 flink 群集的作业规范。 即使通过调用 RunJob API 更改作业属性,规范也不可变,请使用 ListJob API 获取最新的作业信息。 FlinkJobProfile
numReplicas 任务管理器的数量。 int
存储 存储配置文件 FlinkStorageProfile (必需)
taskManager 任务管理器容器/处理 CPU 和内存要求 ComputeResourceDefinition (必需)

FlinkStorageProfile

名字 描述 价值
storagekey 只有 wasb(s) 存储需要存储密钥。 字符串

约束:
敏感值。 以安全参数的形式传入。
storageUri 用于保存点和检查点状态的存储帐户 URI。 字符串

约束:
模式 = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b.*$ (必需)

HiveCatalogOption

名字 描述 价值
catalogName 应使用指定 hive 元存储的 trino 目录的名称。 字符串

约束:
最小长度 = 1 (必需)
metastoreDbConnectionAuthenticationMode 用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization “IdentityAuth”
“SqlAuth”
metastoreDbConnectionPasswordSecret 包含数据库连接密码的 secretsProfile.secrets 的机密引用名称。 字符串
metastoreDbConnectionURL hive 元存储数据库的连接字符串。 string (必需)
metastoreDbConnectionUserName 数据库连接的用户名。 字符串
metastoreWarehouseDir 元存储根目录 URI,格式:abfs[s]://<容器>@<account_name>.dfs.core.windows.net/<路径>。 更多详细信息:/azure/storage/blobs/data-lake-storage-introduction-abfs-uri string (必需)

IdentityProfile

名字 描述 价值
msiClientId MSI 的 ClientId。 字符串

约束:
模式 = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (必需)
msiObjectId MSI 的 ObjectId。 字符串

约束:
模式 = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (必需)
msiResourceId MSI 的 ResourceId。 string (必需)

KafkaProfile

名字 描述 价值
diskStorage Kafka 磁盘存储配置文件。 DiskStorageProfile (必需)
enableKRaft 在 KRaft 模式下公开 Kafka 群集。 bool
enablePublicEndpoints 将工作器节点公开为公共终结点。 bool
remoteStorageUri 用于分层存储的 Azure 存储容器的完全限定路径。 字符串

约束:
Pattern = ^(https?|abfss?):\/\/[^/]+(?:\/|$)

LoadBasedConfig

名字 描述 价值
cooldownPeriod 这是一个冷却期,这是一个以秒为单位的时间段,它确定在规则启动的缩放活动与下一个缩放活动的开始之间必须经过的时间量,而不考虑触发它的规则。 默认值为 300 秒。 int
maxNodes 用户需要设置基于负载的缩放的最大节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。 int (必需)
minNodes 用户需要为基于负载的缩放设置最小节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。 int (必需)
pollInterval 用户可以指定轮询间隔,这是在轮询缩放指标以触发缩放操作之后的时间段(以秒为单位)。 int
scalingRules 缩放规则。 ScalingRule[] (必需)

Microsoft.HDInsight/clusterpools/clusters

名字 描述 价值
apiVersion API 版本 '2023-11-01-preview'
位置 资源所在的地理位置 string (必需)
名字 资源名称 string (必需)
性能 获取或设置属性。 定义特定于群集的属性。 ClusterResourceProperties
标签 资源标记 标记名称和值的字典。 请参阅模板 中的 标记
类型 资源类型 “Microsoft.HDInsight/clusterpools/clusters”

NodeProfile

名字 描述 价值
计数 虚拟机数。 int

约束:
最小值 = 1 (必需)
类型 节点类型。 字符串

约束:
模式 = ^(head|Head|HEAD|worker|Worker|WORKER)$ (必需)
vmSize 虚拟机 SKU。 字符串

约束:
模式 = ^[a-zA-Z0-9_\-]{0,256}$ (必需)

RangerAdminSpec

名字 描述 价值
管理员 应标记为 ranger 管理员的用户名列表。 这些用户名应与相应 AAD 用户的用户主体名称(UPN)匹配。 string[] (必需)
数据库 RangerAdminSpecDatabase (必需)

RangerAdminSpecDatabase

名字 描述 价值
主机 数据库 URL string (必需)
名字 数据库名称 string (必需)
passwordSecretRef 数据库密码参考 字符串
username 数据库用户的名称 字符串

RangerAuditSpec

名字 描述 价值
storageAccount Blob 的 Azure 存储位置。 MSI 应具有对此存储帐户的读/写访问权限。 字符串

约束:
最小长度 = 1
Pattern = ^(https)|(abfss)://.*$

RangerProfile

名字 描述 价值
rangerAdmin Ranger 管理服务的规范。 RangerAdminSpec (必需)
rangerAudit 描述审核日志存储所需的属性。 RangerAuditSpec
rangerUsersync Ranger Usersync 服务的规范 RangerUsersyncSpec (必需)

RangerUsersyncSpec

名字 描述 价值
启用 表示是否应启用用户同步服务 bool
应同步的组列表。 这些组名称应与相应 AAD 组的对象 ID 匹配。 string[]
模式 用户 & 组可以自动或通过刷新的静态列表进行同步。 “automatic”
“static”
userMappingLocation 列出用户 & 组关联的映射文件的 Azure 存储位置。 字符串

约束:
最小长度 = 1
Pattern = ^(https)|(abfss)://.*$
用户 应同步的用户名列表。 这些用户名应与相应 AAD 用户的用户主体名称匹配。 string[]

ScalingRule

名字 描述 价值
actionType 操作类型。 “scaledown”
“scaleup”(必需)
comparisonRule 比较规则。 ComparisonRule (必需)
evaluationCount 这是缩放条件的评估计数,在触发缩放活动之前,触发条件应成功次数。 int (必需)
scalingMetric 单个工作负荷的指标名称。 例如:cpu string (必需)

附表

名字 描述 价值
计数 用户必须设置在设置当前计划配置的缩放操作结束时预期的节点计数,格式为整数。 int (必需)
用户必须设置必须为自动缩放操作设置计划的日子。 包含任一项的字符串数组:
“Friday”
“Monday”
“Saturday”
“星期日”
“星期四”
“Tuesday”
“星期三”(必需)
endTime 用户必须设置当前计划配置的结束时间,格式如 10:30 (HH:MM)。 字符串

约束:
模式 = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (必需)
startTime 用户必须设置当前计划配置的开始时间,格式如 10:30 (HH:MM)。 字符串

约束:
模式 = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (必需)

ScheduleBasedConfig

名字 描述 价值
defaultCount 设置当前计划配置的默认节点计数。 默认节点计数指定执行指定缩放操作时默认的节点数(纵向扩展/缩减) int (必需)
附表 这指定要启用基于计划的自动缩放的计划,用户可以选择在计划内跨天数和时间(开始/结束)设置多个规则。 计划[] (必需)
timeZone 用户必须指定必须为其设置基于计划的自动缩放配置的时区。 string (必需)

ScriptActionProfile

名字 描述 价值
名字 脚本名称。 string (必需)
参数 脚本操作的其他参数。 它应该是脚本执行所需的参数的空间分隔列表。 字符串
服务业 要应用脚本操作的服务列表。 string[] (必需)
shouldPersist 指定脚本是否应保留在群集上。 bool
timeoutInMinutes 脚本操作的超时持续时间(以分钟为单位)。 int
类型 脚本操作的类型。 支持的类型为 bash 脚本。 string (必需)
url 脚本文件的 URL。 字符串

约束:
模式 = ^(https)|(http)://.*$ (必需)

SecretReference

名字 描述 价值
keyVaultObjectName 密钥保管库中机密的对象标识符名称。 字符串

约束:
模式 = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (必需)
referenceName 要用于服务配置的机密的引用名称。 string (必需)
类型 密钥保管库对象的类型:机密、密钥或证书。 “Certificate”
“Key”
“机密”(必需)
版本 密钥保管库中的机密版本。 字符串

SecretsProfile

名字 描述 价值
keyVaultResourceId 存储所有群集特定用户机密的用户 Key Vault 的名称。 string (必需)
秘密 Key Vault 机密的属性。 SecretReference[]

SparkMetastoreSpec

名字 描述 价值
dbConnectionAuthenticationMode 用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization “IdentityAuth”
“SqlAuth”
dbName 数据库名称。 string (必需)
dbPasswordSecretName 包含数据库用户密码的机密名称。 字符串
dbServerHost 数据库服务器主机。 string (必需)
dbUserName 数据库用户名。 字符串
keyVaultId 密钥保管库资源 ID。 字符串
thriftUrl 节俭 URL。 字符串

SparkProfile

名字 描述 价值
defaultStorageUrl 默认存储 URL。 字符串
metastoreSpec Spark 群集的元存储规范。 SparkMetastoreSpec
userPluginsSpec Spark 用户插件规范 SparkUserPlugins

SparkUserPlugin

名字 描述 价值
路径 包含插件的文件夹的完全限定路径。 字符串

约束:
最小长度 = 1
模式 = ^(https)|(abfss)://.*$ (必需)

SparkUserPlugins

名字 描述 价值
插件 Spark 用户插件。 SparkUserPlugin[]

SshProfile

名字 描述 价值
计数 每个群集的 ssh Pod 数。 int

约束:
最小值 = 0
最大值 = 5 (必需)

TrackedResourceTags

名字 描述 价值

TrinoCoordinator

名字 描述 价值
调试 Trino 调试配置。 TrinoDebugConfig
highAvailabilityEnabled 如果启用协调器 HA,则使用具有自动故障转移的多个协调器副本,每个头节点各有一个。 默认值:true。 bool

TrinoDebugConfig

名字 描述 价值
使 如果启用调试或不启用的标志。 bool
港口 调试端口。 int
暂停 如果暂停调试或不进行调试的标志。 bool

TrinoProfile

名字 描述 价值
catalogOptions Trino 群集目录选项。 CatalogOptions
协调者 Trino 协调器。 TrinoCoordinator
userPluginsSpec Trino 用户插件规范 TrinoUserPlugins
userTelemetrySpec 用户遥测 TrinoUserTelemetry
工人 Trino 辅助角色。 TrinoWorker

TrinoTelemetryConfig

名字 描述 价值
hivecatalogName 如果未指定,则用于在 Trino 编写的日志上装载外部表的 Hive 目录名称。如果未指定,则不会创建表。 字符串

约束:
最小长度 = 1
hivecatalogSchema 要使用的上述目录的架构,若要将查询日志装载为外部表,如果未指定表,则会在架构 trinolog 下装载。 字符串
partitionRetentionInDays 查询日志表分区的保留期,这不会影响实际数据。 int
路径 Blob 的 Azure 存储位置。 字符串

约束:
最小长度 = 1

TrinoUserPlugin

名字 描述 价值
启用 表示插件是否处于活动状态。 bool
名字 此字段映射到 trino 插件位置中的子目录,其中包含路径下的所有插件。 字符串

约束:
最小长度 = 1
路径 包含插件的文件夹的完全限定路径。 字符串

约束:
最小长度 = 1
Pattern = ^(https)|(abfss)://.*$

TrinoUserPlugins

名字 描述 价值
插件 Trino 用户插件。 TrinoUserPlugin[]

TrinoUserTelemetry

名字 描述 价值
存储 Trino 用户遥测定义。 TrinoTelemetryConfig

TrinoWorker

名字 描述 价值
调试 Trino 调试配置。 TrinoDebugConfig

Terraform (AzAPI 提供程序)资源定义

可以使用目标操作部署 clusterpools/clusters 资源类型:

  • 资源组

有关每个 API 版本中已更改属性的列表,请参阅 更改日志

资源格式

若要创建 Microsoft.HDInsight/clusterpools/clusters 资源,请将以下 Terraform 添加到模板。

resource "azapi_resource" "symbolicname" {
  type = "Microsoft.HDInsight/clusterpools/clusters@2023-11-01-preview"
  name = "string"
  location = "string"
  tags = {
    {customized property} = "string"
  }
  body = jsonencode({
    properties = {
      clusterProfile = {
        authorizationProfile = {
          groupIds = [
            "string"
          ]
          userIds = [
            "string"
          ]
        }
        autoscaleProfile = {
          autoscaleType = "string"
          enabled = bool
          gracefulDecommissionTimeout = int
          loadBasedConfig = {
            cooldownPeriod = int
            maxNodes = int
            minNodes = int
            pollInterval = int
            scalingRules = [
              {
                actionType = "string"
                comparisonRule = {
                  operator = "string"
                  threshold = int
                }
                evaluationCount = int
                scalingMetric = "string"
              }
            ]
          }
          scheduleBasedConfig = {
            defaultCount = int
            schedules = [
              {
                count = int
                days = [
                  "string"
                ]
                endTime = "string"
                startTime = "string"
              }
            ]
            timeZone = "string"
          }
        }
        clusterAccessProfile = {
          enableInternalIngress = bool
        }
        clusterVersion = "string"
        flinkProfile = {
          catalogOptions = {
            hive = {
              metastoreDbConnectionAuthenticationMode = "string"
              metastoreDbConnectionPasswordSecret = "string"
              metastoreDbConnectionURL = "string"
              metastoreDbConnectionUserName = "string"
            }
          }
          deploymentMode = "string"
          historyServer = {
            cpu = int
            memory = int
          }
          jobManager = {
            cpu = int
            memory = int
          }
          jobSpec = {
            args = "string"
            entryClass = "string"
            jarName = "string"
            jobJarDirectory = "string"
            savePointName = "string"
            upgradeMode = "string"
          }
          numReplicas = int
          storage = {
            storagekey = "string"
            storageUri = "string"
          }
          taskManager = {
            cpu = int
            memory = int
          }
        }
        identityProfile = {
          msiClientId = "string"
          msiObjectId = "string"
          msiResourceId = "string"
        }
        kafkaProfile = {
          diskStorage = {
            dataDiskSize = int
            dataDiskType = "string"
          }
          enableKRaft = bool
          enablePublicEndpoints = bool
          remoteStorageUri = "string"
        }
        llapProfile = {
          {customized property} = ?
        }
        logAnalyticsProfile = {
          applicationLogs = {
            stdErrorEnabled = bool
            stdOutEnabled = bool
          }
          enabled = bool
          metricsEnabled = bool
        }
        ossVersion = "string"
        prometheusProfile = {
          enabled = bool
        }
        rangerPluginProfile = {
          enabled = bool
        }
        rangerProfile = {
          rangerAdmin = {
            admins = [
              "string"
            ]
            database = {
              host = "string"
              name = "string"
              passwordSecretRef = "string"
              username = "string"
            }
          }
          rangerAudit = {
            storageAccount = "string"
          }
          rangerUsersync = {
            enabled = bool
            groups = [
              "string"
            ]
            mode = "string"
            userMappingLocation = "string"
            users = [
              "string"
            ]
          }
        }
        scriptActionProfiles = [
          {
            name = "string"
            parameters = "string"
            services = [
              "string"
            ]
            shouldPersist = bool
            timeoutInMinutes = int
            type = "string"
            url = "string"
          }
        ]
        secretsProfile = {
          keyVaultResourceId = "string"
          secrets = [
            {
              keyVaultObjectName = "string"
              referenceName = "string"
              type = "string"
              version = "string"
            }
          ]
        }
        serviceConfigsProfiles = [
          {
            configs = [
              {
                component = "string"
                files = [
                  {
                    content = "string"
                    encoding = "string"
                    fileName = "string"
                    path = "string"
                    values = {
                      {customized property} = "string"
                    }
                  }
                ]
              }
            ]
            serviceName = "string"
          }
        ]
        sparkProfile = {
          defaultStorageUrl = "string"
          metastoreSpec = {
            dbConnectionAuthenticationMode = "string"
            dbName = "string"
            dbPasswordSecretName = "string"
            dbServerHost = "string"
            dbUserName = "string"
            keyVaultId = "string"
            thriftUrl = "string"
          }
          userPluginsSpec = {
            plugins = [
              {
                path = "string"
              }
            ]
          }
        }
        sshProfile = {
          count = int
        }
        stubProfile = {
          {customized property} = ?
        }
        trinoProfile = {
          catalogOptions = {
            hive = [
              {
                catalogName = "string"
                metastoreDbConnectionAuthenticationMode = "string"
                metastoreDbConnectionPasswordSecret = "string"
                metastoreDbConnectionURL = "string"
                metastoreDbConnectionUserName = "string"
                metastoreWarehouseDir = "string"
              }
            ]
          }
          coordinator = {
            debug = {
              enable = bool
              port = int
              suspend = bool
            }
            highAvailabilityEnabled = bool
          }
          userPluginsSpec = {
            plugins = [
              {
                enabled = bool
                name = "string"
                path = "string"
              }
            ]
          }
          userTelemetrySpec = {
            storage = {
              hivecatalogName = "string"
              hivecatalogSchema = "string"
              partitionRetentionInDays = int
              path = "string"
            }
          }
          worker = {
            debug = {
              enable = bool
              port = int
              suspend = bool
            }
          }
        }
      }
      clusterType = "string"
      computeProfile = {
        nodes = [
          {
            count = int
            type = "string"
            vmSize = "string"
          }
        ]
      }
    }
  })
}

属性值

AuthorizationProfile

名字 描述 价值
groupIds 有权访问数据平面的 AAD 组 ID。 string[]
userIds 有权访问数据平面的 AAD 用户 ID。 string[]

AutoscaleProfile

名字 描述 价值
autoscaleType 用户指定要实现的自动缩放类型 - 基于计划的或基于负载的。 “LoadBased”
“ScheduleBased”
启用 这表示是否在 AKS 群集上的 HDInsight 上启用自动缩放。 bool (必需)
gracefulDecommissionTimeout 此属性用于正常解除授权超时;它在强制关闭前的默认设置为 3600 秒。 这是在将解除授权节点转换为 DECOMMISSIONED 之前等待运行容器和应用程序完成的最大时间。 默认值为 3600 秒。 负值(如 -1)作为无限超时处理。 int
loadBasedConfig 基于负载的自动缩放配置文件。 LoadBasedConfig
scheduleBasedConfig 基于计划的自动缩放配置文件。 ScheduleBasedConfig

CatalogOptions

名字 描述 价值
蜂房 hive 目录选项。 HiveCatalogOption[]

ClusterAccessProfile

名字 描述 价值
enableInternalIngress 是否使用专用 IP 而不是公共 IP 创建群集。 必须在创建时设置此属性。 bool (必需)

ClusterConfigFile

名字 描述 价值
内容 整个配置文件的自由形式内容。 字符串
编码 此属性指示内容是否已编码且不区分大小写。 如果内容经过 base64 编码,请将该值设置为 base64。 如果内容为纯文本,则将其设置为“无”或“跳过”。 “Base64”
“None”
文件名 配置文件名称。 string (必需)
路径 如果指定了内容,配置文件的路径。 字符串
键值对列表
其中,键表示有效的服务配置名称和值表示配置的值。
ClusterConfigFileValues

ClusterConfigFileValues

名字 描述 价值

ClusterLogAnalyticsApplicationLogs

名字 描述 价值
stdErrorEnabled 如果启用了 stderror,则为 True,否则为 false。 bool
stdOutEnabled 如果启用了 stdout,则为 True,否则为 false。 bool

ClusterLogAnalyticsProfile

名字 描述 价值
applicationLogs 要为日志分析启用或禁用的日志集合。 ClusterLogAnalyticsApplicationLogs
启用 如果为群集启用了 Log Analytics,则为 True,否则为 false。 bool (必需)
metricsEnabled 如果启用了指标,则为 True,否则为 false。 bool

ClusterProfile

名字 描述 价值
authorizationProfile 授权配置文件,其中包含授权用于数据平面访问的 AAD 用户 ID 和组 ID 的详细信息。 AuthorizationProfile(必需)
autoscaleProfile 这是群集的自动缩放配置文件。 这将允许客户创建启用了自动缩放的群集。 AutoscaleProfile
clusterAccessProfile 群集访问配置文件。 ClusterAccessProfile
clusterVersion 3/4 部分的版本。 字符串

约束:
模式 = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (必需)
flinkProfile Flink 群集配置文件。 FlinkProfile
identityProfile Trino、Spark 和 Flink 群集需要此属性,但对于 Kafka 群集是可选的。 IdentityProfile
kafkaProfile Kafka 群集配置文件。 KafkaProfile
llapProfile LLAP 群集配置文件。 ClusterProfileLlapProfile
logAnalyticsProfile 群集日志分析配置文件,用于启用或禁用群集的 OMS 代理。 ClusterLogAnalyticsProfile
ossVersion 具有三个部分的版本。 字符串

约束:
模式 = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (必需)
prometheusProfile 群集 Prometheus 配置文件。 ClusterPrometheusProfile
rangerPluginProfile 群集 Ranger 插件配置文件。 ClusterRangerPluginProfile
rangerProfile ranger 群集配置文件。 RangerProfile
scriptActionProfiles 脚本操作配置文件列表。 ScriptActionProfile[]
secretsProfile 群集机密配置文件。 SecretsProfile
serviceConfigsProfiles 服务配置配置文件。 ClusterServiceConfigsProfile[]
sparkProfile Spark 群集配置文件。 SparkProfile
sshProfile 群集的 Ssh 配置文件。 SshProfile
stubProfile 存根群集配置文件。 ClusterProfileStubProfile
trinoProfile Trino 群集配置文件。 TrinoProfile

ClusterProfileLlapProfile

名字 描述 价值

ClusterProfileStubProfile

名字 描述 价值

ClusterPrometheusProfile

名字 描述 价值
启用 为群集启用 Prometheus。 bool (必需)

ClusterRangerPluginProfile

名字 描述 价值
启用 为群集启用 Ranger。 bool (必需)

ClusterResourceProperties

名字 描述 价值
clusterProfile 群集配置文件。 ClusterProfile (必需)
clusterType 群集的类型。 字符串

约束:
模式 = ^[a-zA-Z][a-zA-Z0-9]{0,31}$ (必需)
computeProfile 计算配置文件。 ComputeProfile (必需)

ClusterServiceConfig

名字 描述 价值
元件 配置文件应应用于的组件的名称。 string (必需)
文件 配置文件列表。 ClusterConfigFile[] (必需)

ClusterServiceConfigsProfile

名字 描述 价值
配置 服务配置列表。 ClusterServiceConfig[] (必需)
serviceName 配置应应用于的服务的名称。 string (必需)

ComparisonRule

名字 描述 价值
算子 比较运算符。 “greaterThan”
“greaterThanOrEqual”
“lessThan”
“lessThanOrEqual”(必需)
门槛 阈值设置。 int (必需)

ComputeProfile

名字 描述 价值
节点 节点定义。 NodeProfile[] (必需)

ComputeResourceDefinition

名字 描述 价值
中央处理器 所需的 CPU。 int (必需)
记忆 所需的内存(以 MB 为单位)的容器内存将为 110 百分点 int (必需)

DiskStorageProfile

名字 描述 价值
dataDiskSize 托管磁盘大小(以 GB 为单位)。 标准版和高级 HDD/SSD 支持的最大磁盘大小为 32TB,高级 SSD v2 支持最多 64TB。 int (必需)
dataDiskType 托管磁盘类型。 “Premium_SSD_LRS”
“Premium_SSD_v2_LRS”
“Premium_SSD_ZRS”
“Standard_HDD_LRS”
“Standard_SSD_LRS”
“Standard_SSD_ZRS”(必需)

FlinkCatalogOptions

名字 描述 价值
蜂房 Flink 群集的 Hive 目录选项。 FlinkHiveCatalogOption

FlinkHiveCatalogOption

名字 描述 价值
metastoreDbConnectionAuthenticationMode 用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization “IdentityAuth”
“SqlAuth”
metastoreDbConnectionPasswordSecret 包含数据库连接密码的 secretsProfile.secrets 的机密引用名称。 字符串
metastoreDbConnectionURL hive 元存储数据库的连接字符串。 string (必需)
metastoreDbConnectionUserName 数据库连接的用户名。 字符串

FlinkJobProfile

名字 描述 价值
args 表示 Flink 作业的其他 JVM 参数的字符串属性。 它应为空格分隔值。 字符串
entryClass 一个字符串属性,指定 Flink 作业的条目类。 如果未指定,则从 flink 作业 jar 包自动检测入口点。 字符串
jarName 一个表示作业 JAR 名称的字符串属性。 string (必需)
jobJarDirectory 一个字符串属性,指定作业 JAR 所在的目录。 string (必需)
savePointName 一个字符串属性,表示 Flink 作业的保存点的名称 字符串
upgradeMode 一个字符串属性,指示要对 Flink 作业执行的升级模式。 它可以具有以下枚举值之一 => STATELESS_UPDATE,UPDATE,LAST_STATE_UPDATE。 “LAST_STATE_UPDATE”
“STATELESS_UPDATE”
“UPDATE”(必需)

FlinkProfile

名字 描述 价值
catalogOptions Flink 群集目录选项。 FlinkCatalogOptions
deploymentMode 一个字符串属性,指示 Flink 群集的部署模式。 它可以具有以下枚举值之一 => Application, Session。 默认值为 Session “Application”
“Session”
historyServer 历史记录服务器容器/进程 CPU 和内存要求 ComputeResourceDefinition
jobManager 作业管理器容器/处理 CPU 和内存要求 ComputeResourceDefinition (必需)
jobSpec 应用程序部署模式下 flink 群集的作业规范。 即使通过调用 RunJob API 更改作业属性,规范也不可变,请使用 ListJob API 获取最新的作业信息。 FlinkJobProfile
numReplicas 任务管理器的数量。 int
存储 存储配置文件 FlinkStorageProfile (必需)
taskManager 任务管理器容器/处理 CPU 和内存要求 ComputeResourceDefinition (必需)

FlinkStorageProfile

名字 描述 价值
storagekey 只有 wasb(s) 存储需要存储密钥。 字符串

约束:
敏感值。 以安全参数的形式传入。
storageUri 用于保存点和检查点状态的存储帐户 URI。 字符串

约束:
模式 = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b.*$ (必需)

HiveCatalogOption

名字 描述 价值
catalogName 应使用指定 hive 元存储的 trino 目录的名称。 字符串

约束:
最小长度 = 1 (必需)
metastoreDbConnectionAuthenticationMode 用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization “IdentityAuth”
“SqlAuth”
metastoreDbConnectionPasswordSecret 包含数据库连接密码的 secretsProfile.secrets 的机密引用名称。 字符串
metastoreDbConnectionURL hive 元存储数据库的连接字符串。 string (必需)
metastoreDbConnectionUserName 数据库连接的用户名。 字符串
metastoreWarehouseDir 元存储根目录 URI,格式:abfs[s]://<容器>@<account_name>.dfs.core.windows.net/<路径>。 更多详细信息:/azure/storage/blobs/data-lake-storage-introduction-abfs-uri string (必需)

IdentityProfile

名字 描述 价值
msiClientId MSI 的 ClientId。 字符串

约束:
模式 = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (必需)
msiObjectId MSI 的 ObjectId。 字符串

约束:
模式 = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (必需)
msiResourceId MSI 的 ResourceId。 string (必需)

KafkaProfile

名字 描述 价值
diskStorage Kafka 磁盘存储配置文件。 DiskStorageProfile (必需)
enableKRaft 在 KRaft 模式下公开 Kafka 群集。 bool
enablePublicEndpoints 将工作器节点公开为公共终结点。 bool
remoteStorageUri 用于分层存储的 Azure 存储容器的完全限定路径。 字符串

约束:
Pattern = ^(https?|abfss?):\/\/[^/]+(?:\/|$)

LoadBasedConfig

名字 描述 价值
cooldownPeriod 这是一个冷却期,这是一个以秒为单位的时间段,它确定在规则启动的缩放活动与下一个缩放活动的开始之间必须经过的时间量,而不考虑触发它的规则。 默认值为 300 秒。 int
maxNodes 用户需要设置基于负载的缩放的最大节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。 int (必需)
minNodes 用户需要为基于负载的缩放设置最小节点数,基于负载的缩放将使用此缩放在最小节点和最大节点数之间纵向扩展和缩减。 int (必需)
pollInterval 用户可以指定轮询间隔,这是在轮询缩放指标以触发缩放操作之后的时间段(以秒为单位)。 int
scalingRules 缩放规则。 ScalingRule[] (必需)

Microsoft.HDInsight/clusterpools/clusters

名字 描述 价值
位置 资源所在的地理位置 string (必需)
名字 资源名称 string (必需)
parent_id 此资源的父资源的 ID。 类型资源的 ID:群集池
性能 获取或设置属性。 定义特定于群集的属性。 ClusterResourceProperties
标签 资源标记 标记名称和值的字典。
类型 资源类型 “Microsoft.HDInsight/clusterpools/clusters@2023-11-01-preview”

NodeProfile

名字 描述 价值
计数 虚拟机数。 int

约束:
最小值 = 1 (必需)
类型 节点类型。 字符串

约束:
模式 = ^(head|Head|HEAD|worker|Worker|WORKER)$ (必需)
vmSize 虚拟机 SKU。 字符串

约束:
模式 = ^[a-zA-Z0-9_\-]{0,256}$ (必需)

RangerAdminSpec

名字 描述 价值
管理员 应标记为 ranger 管理员的用户名列表。 这些用户名应与相应 AAD 用户的用户主体名称(UPN)匹配。 string[] (必需)
数据库 RangerAdminSpecDatabase (必需)

RangerAdminSpecDatabase

名字 描述 价值
主机 数据库 URL string (必需)
名字 数据库名称 string (必需)
passwordSecretRef 数据库密码参考 字符串
username 数据库用户的名称 字符串

RangerAuditSpec

名字 描述 价值
storageAccount Blob 的 Azure 存储位置。 MSI 应具有对此存储帐户的读/写访问权限。 字符串

约束:
最小长度 = 1
Pattern = ^(https)|(abfss)://.*$

RangerProfile

名字 描述 价值
rangerAdmin Ranger 管理服务的规范。 RangerAdminSpec (必需)
rangerAudit 描述审核日志存储所需的属性。 RangerAuditSpec
rangerUsersync Ranger Usersync 服务的规范 RangerUsersyncSpec (必需)

RangerUsersyncSpec

名字 描述 价值
启用 表示是否应启用用户同步服务 bool
应同步的组列表。 这些组名称应与相应 AAD 组的对象 ID 匹配。 string[]
模式 用户 & 组可以自动或通过刷新的静态列表进行同步。 “automatic”
“static”
userMappingLocation 列出用户 & 组关联的映射文件的 Azure 存储位置。 字符串

约束:
最小长度 = 1
Pattern = ^(https)|(abfss)://.*$
用户 应同步的用户名列表。 这些用户名应与相应 AAD 用户的用户主体名称匹配。 string[]

ScalingRule

名字 描述 价值
actionType 操作类型。 “scaledown”
“scaleup”(必需)
comparisonRule 比较规则。 ComparisonRule (必需)
evaluationCount 这是缩放条件的评估计数,在触发缩放活动之前,触发条件应成功次数。 int (必需)
scalingMetric 单个工作负荷的指标名称。 例如:cpu string (必需)

附表

名字 描述 价值
计数 用户必须设置在设置当前计划配置的缩放操作结束时预期的节点计数,格式为整数。 int (必需)
用户必须设置必须为自动缩放操作设置计划的日子。 包含任一项的字符串数组:
“Friday”
“Monday”
“Saturday”
“星期日”
“星期四”
“Tuesday”
“星期三”(必需)
endTime 用户必须设置当前计划配置的结束时间,格式如 10:30 (HH:MM)。 字符串

约束:
模式 = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (必需)
startTime 用户必须设置当前计划配置的开始时间,格式如 10:30 (HH:MM)。 字符串

约束:
模式 = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (必需)

ScheduleBasedConfig

名字 描述 价值
defaultCount 设置当前计划配置的默认节点计数。 默认节点计数指定执行指定缩放操作时默认的节点数(纵向扩展/缩减) int (必需)
附表 这指定要启用基于计划的自动缩放的计划,用户可以选择在计划内跨天数和时间(开始/结束)设置多个规则。 计划[] (必需)
timeZone 用户必须指定必须为其设置基于计划的自动缩放配置的时区。 string (必需)

ScriptActionProfile

名字 描述 价值
名字 脚本名称。 string (必需)
参数 脚本操作的其他参数。 它应该是脚本执行所需的参数的空间分隔列表。 字符串
服务业 要应用脚本操作的服务列表。 string[] (必需)
shouldPersist 指定脚本是否应保留在群集上。 bool
timeoutInMinutes 脚本操作的超时持续时间(以分钟为单位)。 int
类型 脚本操作的类型。 支持的类型为 bash 脚本。 string (必需)
url 脚本文件的 URL。 字符串

约束:
模式 = ^(https)|(http)://.*$ (必需)

SecretReference

名字 描述 价值
keyVaultObjectName 密钥保管库中机密的对象标识符名称。 字符串

约束:
模式 = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (必需)
referenceName 要用于服务配置的机密的引用名称。 string (必需)
类型 密钥保管库对象的类型:机密、密钥或证书。 “Certificate”
“Key”
“机密”(必需)
版本 密钥保管库中的机密版本。 字符串

SecretsProfile

名字 描述 价值
keyVaultResourceId 存储所有群集特定用户机密的用户 Key Vault 的名称。 string (必需)
秘密 Key Vault 机密的属性。 SecretReference[]

SparkMetastoreSpec

名字 描述 价值
dbConnectionAuthenticationMode 用于连接到 Hive 元存储数据库的身份验证模式。 更多详细信息:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization “IdentityAuth”
“SqlAuth”
dbName 数据库名称。 string (必需)
dbPasswordSecretName 包含数据库用户密码的机密名称。 字符串
dbServerHost 数据库服务器主机。 string (必需)
dbUserName 数据库用户名。 字符串
keyVaultId 密钥保管库资源 ID。 字符串
thriftUrl 节俭 URL。 字符串

SparkProfile

名字 描述 价值
defaultStorageUrl 默认存储 URL。 字符串
metastoreSpec Spark 群集的元存储规范。 SparkMetastoreSpec
userPluginsSpec Spark 用户插件规范 SparkUserPlugins

SparkUserPlugin

名字 描述 价值
路径 包含插件的文件夹的完全限定路径。 字符串

约束:
最小长度 = 1
模式 = ^(https)|(abfss)://.*$ (必需)

SparkUserPlugins

名字 描述 价值
插件 Spark 用户插件。 SparkUserPlugin[]

SshProfile

名字 描述 价值
计数 每个群集的 ssh Pod 数。 int

约束:
最小值 = 0
最大值 = 5 (必需)

TrackedResourceTags

名字 描述 价值

TrinoCoordinator

名字 描述 价值
调试 Trino 调试配置。 TrinoDebugConfig
highAvailabilityEnabled 如果启用协调器 HA,则使用具有自动故障转移的多个协调器副本,每个头节点各有一个。 默认值:true。 bool

TrinoDebugConfig

名字 描述 价值
使 如果启用调试或不启用的标志。 bool
港口 调试端口。 int
暂停 如果暂停调试或不进行调试的标志。 bool

TrinoProfile

名字 描述 价值
catalogOptions Trino 群集目录选项。 CatalogOptions
协调者 Trino 协调器。 TrinoCoordinator
userPluginsSpec Trino 用户插件规范 TrinoUserPlugins
userTelemetrySpec 用户遥测 TrinoUserTelemetry
工人 Trino 辅助角色。 TrinoWorker

TrinoTelemetryConfig

名字 描述 价值
hivecatalogName 如果未指定,则用于在 Trino 编写的日志上装载外部表的 Hive 目录名称。如果未指定,则不会创建表。 字符串

约束:
最小长度 = 1
hivecatalogSchema 要使用的上述目录的架构,若要将查询日志装载为外部表,如果未指定表,则会在架构 trinolog 下装载。 字符串
partitionRetentionInDays 查询日志表分区的保留期,这不会影响实际数据。 int
路径 Blob 的 Azure 存储位置。 字符串

约束:
最小长度 = 1

TrinoUserPlugin

名字 描述 价值
启用 表示插件是否处于活动状态。 bool
名字 此字段映射到 trino 插件位置中的子目录,其中包含路径下的所有插件。 字符串

约束:
最小长度 = 1
路径 包含插件的文件夹的完全限定路径。 字符串

约束:
最小长度 = 1
Pattern = ^(https)|(abfss)://.*$

TrinoUserPlugins

名字 描述 价值
插件 Trino 用户插件。 TrinoUserPlugin[]

TrinoUserTelemetry

名字 描述 价值
存储 Trino 用户遥测定义。 TrinoTelemetryConfig

TrinoWorker

名字 描述 价值
调试 Trino 调试配置。 TrinoDebugConfig