Microsoft.HDInsight clusterpools/clusters 2023-11-01-preview
Bicep 資源定義
您可以使用目標作業來部署 clusterpools/clusters 資源類型:
- 資源群組 - 請參閱 資源群組部署命令
如需每個 API 版本中已變更屬性的清單,請參閱 變更記錄檔。
資源格式
若要建立 Microsoft.HDInsight/clusterpools/clusters 資源,請將下列 Bicep 新增至範本。
resource symbolicname 'Microsoft.HDInsight/clusterpools/clusters@2023-11-01-preview' = {
parent: resourceSymbolicName
location: 'string'
name: 'string'
properties: {
clusterProfile: {
authorizationProfile: {
groupIds: [
'string'
]
userIds: [
'string'
]
}
autoscaleProfile: {
autoscaleType: 'string'
enabled: bool
gracefulDecommissionTimeout: int
loadBasedConfig: {
cooldownPeriod: int
maxNodes: int
minNodes: int
pollInterval: int
scalingRules: [
{
actionType: 'string'
comparisonRule: {
operator: 'string'
threshold: int
}
evaluationCount: int
scalingMetric: 'string'
}
]
}
scheduleBasedConfig: {
defaultCount: int
schedules: [
{
count: int
days: [
'string'
]
endTime: 'string'
startTime: 'string'
}
]
timeZone: 'string'
}
}
clusterAccessProfile: {
enableInternalIngress: bool
}
clusterVersion: 'string'
flinkProfile: {
catalogOptions: {
hive: {
metastoreDbConnectionAuthenticationMode: 'string'
metastoreDbConnectionPasswordSecret: 'string'
metastoreDbConnectionURL: 'string'
metastoreDbConnectionUserName: 'string'
}
}
deploymentMode: 'string'
historyServer: {
cpu: int
memory: int
}
jobManager: {
cpu: int
memory: int
}
jobSpec: {
args: 'string'
entryClass: 'string'
jarName: 'string'
jobJarDirectory: 'string'
savePointName: 'string'
upgradeMode: 'string'
}
numReplicas: int
storage: {
storagekey: 'string'
storageUri: 'string'
}
taskManager: {
cpu: int
memory: int
}
}
identityProfile: {
msiClientId: 'string'
msiObjectId: 'string'
msiResourceId: 'string'
}
kafkaProfile: {
diskStorage: {
dataDiskSize: int
dataDiskType: 'string'
}
enableKRaft: bool
enablePublicEndpoints: bool
remoteStorageUri: 'string'
}
llapProfile: {
{customized property}: any(Azure.Bicep.Types.Concrete.AnyType)
}
logAnalyticsProfile: {
applicationLogs: {
stdErrorEnabled: bool
stdOutEnabled: bool
}
enabled: bool
metricsEnabled: bool
}
ossVersion: 'string'
prometheusProfile: {
enabled: bool
}
rangerPluginProfile: {
enabled: bool
}
rangerProfile: {
rangerAdmin: {
admins: [
'string'
]
database: {
host: 'string'
name: 'string'
passwordSecretRef: 'string'
username: 'string'
}
}
rangerAudit: {
storageAccount: 'string'
}
rangerUsersync: {
enabled: bool
groups: [
'string'
]
mode: 'string'
userMappingLocation: 'string'
users: [
'string'
]
}
}
scriptActionProfiles: [
{
name: 'string'
parameters: 'string'
services: [
'string'
]
shouldPersist: bool
timeoutInMinutes: int
type: 'string'
url: 'string'
}
]
secretsProfile: {
keyVaultResourceId: 'string'
secrets: [
{
keyVaultObjectName: 'string'
referenceName: 'string'
type: 'string'
version: 'string'
}
]
}
serviceConfigsProfiles: [
{
configs: [
{
component: 'string'
files: [
{
content: 'string'
encoding: 'string'
fileName: 'string'
path: 'string'
values: {
{customized property}: 'string'
}
}
]
}
]
serviceName: 'string'
}
]
sparkProfile: {
defaultStorageUrl: 'string'
metastoreSpec: {
dbConnectionAuthenticationMode: 'string'
dbName: 'string'
dbPasswordSecretName: 'string'
dbServerHost: 'string'
dbUserName: 'string'
keyVaultId: 'string'
thriftUrl: 'string'
}
userPluginsSpec: {
plugins: [
{
path: 'string'
}
]
}
}
sshProfile: {
count: int
}
stubProfile: {
{customized property}: any(Azure.Bicep.Types.Concrete.AnyType)
}
trinoProfile: {
catalogOptions: {
hive: [
{
catalogName: 'string'
metastoreDbConnectionAuthenticationMode: 'string'
metastoreDbConnectionPasswordSecret: 'string'
metastoreDbConnectionURL: 'string'
metastoreDbConnectionUserName: 'string'
metastoreWarehouseDir: 'string'
}
]
}
coordinator: {
debug: {
enable: bool
port: int
suspend: bool
}
highAvailabilityEnabled: bool
}
userPluginsSpec: {
plugins: [
{
enabled: bool
name: 'string'
path: 'string'
}
]
}
userTelemetrySpec: {
storage: {
hivecatalogName: 'string'
hivecatalogSchema: 'string'
partitionRetentionInDays: int
path: 'string'
}
}
worker: {
debug: {
enable: bool
port: int
suspend: bool
}
}
}
}
clusterType: 'string'
computeProfile: {
nodes: [
{
count: int
type: 'string'
vmSize: 'string'
}
]
}
}
tags: {
{customized property}: 'string'
}
}
屬性值
AuthorizationProfile
名字 | 描述 | 價值 |
---|---|---|
groupIds | 已獲授權存取數據平面的 AAD 群組識別碼。 | string[] |
userIds | 已獲授權存取數據平面的 AAD 用戶識別碼。 | string[] |
AutoscaleProfile
名字 | 描述 | 價值 |
---|---|---|
autoscaleType | 使用者指定要實作的自動調整類型 - 排程型或負載型。 | 'LoadBased' 'ScheduleBased' |
啟用 | 這表示是否在 AKS 叢集的 HDInsight 上啟用自動調整。 | 布林 (必要) |
gracefulDecommissionTimeout | 此屬性適用於正常解除委任逾時;其預設設定為3600秒,再進行強制關機。 這是將解除委任節點轉換為 DECOMMISSIONED 之前,等待執行容器和應用程式完成的最大時間。 預設值為3600秒。 負值(例如 -1)會處理為無限逾時。 | int |
loadBasedConfig | 負載型自動調整的配置檔。 | LoadBasedConfig |
scheduleBasedConfig | 以排程為基礎的自動調整配置檔。 | ScheduleBasedConfig |
CatalogOptions
名字 | 描述 | 價值 |
---|---|---|
蜂房 | hive 目錄選項。 | HiveCatalogOption[] |
ClusterAccessProfile
名字 | 描述 | 價值 |
---|---|---|
enableInternalIngress | 是否要使用私人IP建立叢集,而不是使用公用IP。 這個屬性必須在建立時設定。 | 布林 (必要) |
ClusterConfigFile
名字 | 描述 | 價值 |
---|---|---|
內容 | 整個組態檔的自由格式內容。 | 字串 |
編碼 | 這個屬性會指出內容是否已編碼且不區分大小寫。 如果內容為base64編碼,請將值設定為base64。 如果內容是純文本,請將它設定為 none 或略過它。 | 'Base64' 'None' |
檔名 | 組態檔名稱。 | 字串 (必要) |
路徑 | 如果指定內容,組態檔的路徑。 | 字串 |
值 | 索引鍵值組清單 其中索引鍵代表有效的服務組態名稱,而值則代表組態的值。 |
ClusterConfigFileValues |
ClusterConfigFileValues
名字 | 描述 | 價值 |
---|
ClusterLogAnalyticsApplicationLogs
名字 | 描述 | 價值 |
---|---|---|
stdErrorEnabled | 如果已啟用 stderror,則為 True,否則為 false。 | bool |
stdOutEnabled | 如果已啟用 stdout,則為 True,否則為 false。 | bool |
ClusterLogAnalyticsProfile
名字 | 描述 | 價值 |
---|---|---|
applicationLogs | 要啟用或停用記錄分析的記錄集合。 | ClusterLogAnalyticsApplicationLogs |
啟用 | 如果叢集已啟用記錄分析,則為 True,否則為 false。 | 布林 (必要) |
metricsEnabled | 如果已啟用計量,則為 True,否則為 false。 | bool |
ClusterProfile
名字 | 描述 | 價值 |
---|---|---|
authorizationProfile | 授權配置檔,其中包含已授權用於數據平面存取之 AAD 使用者識別碼和群組識別碼的詳細數據。 | AuthorizationProfile (必要) |
autoscaleProfile | 這是叢集的自動調整配置檔。 這可讓客戶建立已啟用自動調整的叢集。 | AutoscaleProfile |
clusterAccessProfile | 叢集存取配置檔。 | ClusterAccessProfile |
clusterVersion | 3/4 部分的版本。 | 字串 約束: 模式 = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (必要) |
flinkProfile | Flink 叢集配置檔。 | FlinkProfile |
identityProfile | Trino、Spark 和 Flink 叢集需要此屬性,但 Kafka 叢集是選擇性的。 | IdentityProfile |
kafkaProfile | Kafka 叢集配置檔。 | KafkaProfile |
llapProfile | LLAP 叢集配置檔。 | ClusterProfileLlapProfile |
logAnalyticsProfile | 叢集記錄分析配置檔,以啟用或停用叢集的 OMS 代理程式。 | ClusterLogAnalyticsProfile |
ossVersion | 具有三個部分的版本。 | 字串 約束: 模式 = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (必要) |
prometheusProfile | 叢集 Prometheus 配置檔。 | ClusterPrometheusProfile |
rangerPluginProfile | 叢集 Ranger 外掛程式設定檔。 | ClusterRangerPluginProfile |
rangerProfile | ranger 叢集配置檔。 | RangerProfile |
scriptActionProfiles | 文稿動作配置檔清單。 | ScriptActionProfile[] |
secretsProfile | 叢集秘密配置檔。 | SecretsProfile |
serviceConfigsProfiles | 服務組態配置檔。 | ClusterServiceConfigsProfile[] |
sparkProfile | Spark 叢集配置檔。 | SparkProfile |
sshProfile | 叢集的 Ssh 設定檔。 | SshProfile |
stubProfile | 存根叢集配置檔。 | ClusterProfileStubProfile |
trinoProfile | Trino 叢集配置檔。 | TrinoProfile |
ClusterProfileLlapProfile
名字 | 描述 | 價值 |
---|
ClusterProfileStubProfile
名字 | 描述 | 價值 |
---|
ClusterPrometheusProfile
名字 | 描述 | 價值 |
---|---|---|
啟用 | 啟用叢集的 Prometheus。 | 布林 (必要) |
ClusterRangerPluginProfile
名字 | 描述 | 價值 |
---|---|---|
啟用 | 為叢集啟用 Ranger。 | 布林 (必要) |
ClusterResourceProperties
名字 | 描述 | 價值 |
---|---|---|
clusterProfile | 叢集配置檔。 | ClusterProfile (必要) |
clusterType | 叢集的類型。 | 字串 約束: 模式 = ^[a-zA-Z][a-zA-Z0-9]{0,31}$ (必要) |
computeProfile | 計算配置檔。 | ComputeProfile (必要) |
ClusterServiceConfig
名字 | 描述 | 價值 |
---|---|---|
元件 | 組態檔應套用至的元件名稱。 | 字串 (必要) |
檔 | 組態檔清單。 | ClusterConfigFile[] (必要) |
ClusterServiceConfigsProfile
名字 | 描述 | 價值 |
---|---|---|
設定 | 服務組態清單。 | ClusterServiceConfig[] (必要) |
serviceName | 組態應套用的服務名稱。 | 字串 (必要) |
ComparisonRule
名字 | 描述 | 價值 |
---|---|---|
算子 | 比較運算子。 | 'greaterThan' 'greaterThanOrEqual' 'lessThan' 'lessThanOrEqual' (必要) |
門檻 | 臨界值設定。 | int (必要) |
ComputeProfile
名字 | 描述 | 價值 |
---|---|---|
節點 | 節點定義。 | NodeProfile[] (必要) |
ComputeResourceDefinition
名字 | 描述 | 價值 |
---|---|---|
中央處理器 | 所需的CPU。 | int (必要) |
記憶 | MB 中所需的記憶體,容器記憶體會是 110 百分位數 | int (必要) |
DiskStorageProfile
名字 | 描述 | 價值 |
---|---|---|
dataDiskSize | 受控磁碟大小以 GB 為單位。 標準和進階 HDD/SSD 支援的磁碟大小上限為 32TB,但進階 SSD v2 支援最多 64TB。 | int (必要) |
dataDiskType | 受控磁碟類型。 | 'Premium_SSD_LRS' 'Premium_SSD_v2_LRS' 'Premium_SSD_ZRS' 'Standard_HDD_LRS' 'Standard_SSD_LRS' 'Standard_SSD_ZRS' (必要) |
FlinkCatalogOptions
名字 | 描述 | 價值 |
---|---|---|
蜂房 | Flink 叢集的 Hive 目錄選項。 | FlinkHiveCatalogOption |
FlinkHiveCatalogOption
名字 | 描述 | 價值 |
---|---|---|
metastoreDbConnectionAuthenticationMode | 線上到 Hive 中繼存放區資料庫的驗證模式。 詳細數據:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | 來自 secretsProfile.secrets 的秘密參考名稱,其中包含資料庫連線的密碼。 | 字串 |
metastoreDbConnectionURL | Hive 中繼存放區資料庫的連接字串。 | 字串 (必要) |
metastoreDbConnectionUserName | 資料庫連線的用戶名稱。 | 字串 |
FlinkJobProfile
名字 | 描述 | 價值 |
---|---|---|
args | 字串屬性,表示 Flink 作業的其他 JVM 自變數。 它應該是空格分隔值。 | 字串 |
entryClass | 指定 Flink 作業之項目類別的字串屬性。 如果未指定,則會從 flink 作業 jar 套件自動偵測進入點。 | 字串 |
jarName | 字串屬性,表示作業 JAR 的名稱。 | 字串 (必要) |
jobJarDirectory | 字串屬性,指定作業 JAR 所在的目錄。 | 字串 (必要) |
savePointName | 字串屬性,表示 Flink 作業之儲存點的名稱 | 字串 |
upgradeMode | 字串屬性,表示要對 Flink 作業執行的升級模式。 它可以有下列其中一個列舉值 => STATELESS_UPDATE、UPDATE、LAST_STATE_UPDATE。 | 'LAST_STATE_UPDATE' 'STATELESS_UPDATE' 'UPDATE' (必要) |
FlinkProfile
名字 | 描述 | 價值 |
---|---|---|
catalogOptions | Flink 叢集目錄選項。 | FlinkCatalogOptions |
deploymentMode | 字串屬性,表示 Flink 叢集的部署模式。 它可以有下列其中一個列舉值 => Application, Session。 預設值為 Session | 'Application' 'Session' |
historyServer | 歷程記錄伺服器容器/處理CPU和記憶體需求 | ComputeResourceDefinition |
jobManager | 作業管理員容器/處理CPU和記憶體需求 | ComputeResourceDefinition (必要) |
jobSpec | 應用程式部署模式中 flink 叢集的作業規格。 即使藉由呼叫 RunJob API 來變更作業屬性,規格仍不可變,請使用 ListJob API 來取得最新的作業資訊。 | FlinkJobProfile |
numReplicas | 任務管理員的數目。 | int |
存儲 | 記憶體配置檔 | FlinkStorageProfile (必要) |
taskManager | 任務管理器容器/處理CPU和記憶體需求 | ComputeResourceDefinition (必要) |
FlinkStorageProfile
名字 | 描述 | 價值 |
---|---|---|
storagekey | 只有 wasb(s) 記憶體才需要儲存金鑰。 | 字串 約束: 敏感性值。 以安全參數的形式傳入。 |
storageUri | 用於儲存點和檢查點狀態的記憶體帳戶 URI。 | 字串 約束: 模式 = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b.*$ (必要) |
HiveCatalogOption
名字 | 描述 | 價值 |
---|---|---|
catalogName | 應該使用指定Hive中繼存放區之 Trino 目錄的名稱。 | 字串 約束: 最小長度 = 1 (必要) |
metastoreDbConnectionAuthenticationMode | 線上到 Hive 中繼存放區資料庫的驗證模式。 詳細數據:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | 來自 secretsProfile.secrets 的秘密參考名稱,其中包含資料庫連線的密碼。 | 字串 |
metastoreDbConnectionURL | Hive 中繼存放區資料庫的連接字串。 | 字串 (必要) |
metastoreDbConnectionUserName | 資料庫連線的用戶名稱。 | 字串 |
metastoreWarehouseDir | 中繼存放區根目錄 URI,格式:abfs[s]://<容器>@<account_name>.dfs.core.windows.net/<路徑>。 更多詳細數據:/azure/storage/blobs/data-lake-storage-introduction-abfs-uri | 字串 (必要) |
IdentityProfile
名字 | 描述 | 價值 |
---|---|---|
msiClientId | MSI 的 ClientId。 | 字串 約束: 模式 = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (必要) |
msiObjectId | MSI 的 ObjectId。 | 字串 約束: 模式 = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (必要) |
msiResourceId | MSI 的 ResourceId。 | 字串 (必要) |
KafkaProfile
名字 | 描述 | 價值 |
---|---|---|
diskStorage | Kafka 磁碟記憶體配置檔。 | DiskStorageProfile (必要) |
enableKRaft | 在 KRaft 模式中公開 Kafka 叢集。 | bool |
enablePublicEndpoints | 將背景工作節點公開為公用端點。 | bool |
remoteStorageUri | 用於階層式記憶體的 Azure 記憶體容器完整路徑。 | 字串 約束: Pattern = ^(https?|abfss?):\/\/[^/]+(?:\/|$) |
LoadBasedConfig
名字 | 描述 | 價值 |
---|---|---|
cooldownPeriod | 這是冷卻期間,這是一個以秒為單位的時間週期,它會決定在規則啟動的調整活動與下一個調整活動的開始之間必須經過的時間量,而不論觸發它的規則為何。 預設值為300秒。 | int |
maxNodes | 用戶必須設定以負載為基礎的調整節點數目上限,以負載為基礎的調整將會使用此調整來相應增加和縮小節點數目的最小值和最大數目。 | int (必要) |
minNodes | 用戶必須設定以負載為基礎的調整節點數目下限,以負載為基礎的調整將會使用此調整,在節點數目下限和上限之間相應增加和相應減少。 | int (必要) |
pollInterval | 用戶可以指定輪詢間隔,這是輪詢計量以觸發調整作業的時間週期(以秒為單位)。 | int |
scalingRules | 調整規則。 | ScalingRule[] (必要) |
Microsoft.HDInsight/clusterpools/clusters
名字 | 描述 | 價值 |
---|---|---|
位置 | 資源所在的地理位置 | 字串 (必要) |
名字 | 資源名稱 | 字串 (必要) |
父母 | 在 Bicep 中,您可以指定子資源的父資源。 只有在父資源外部宣告子資源時,才需要新增這個屬性。 如需詳細資訊,請參閱 父資源外部的子資源。 |
類型的資源符號名稱:叢集集集 |
性能 | 取得或設定屬性。 定義叢集特定屬性。 | ClusterResourceProperties |
標籤 | 資源標籤 | 標記名稱和值的字典。 請參閱範本中的 標籤 |
NodeProfile
名字 | 描述 | 價值 |
---|---|---|
計數 | 虛擬機的數目。 | int 約束: 最小值 = 1 (必要) |
類型 | 節點類型。 | 字串 約束: 模式 = ^(head|Head|HEAD|worker|Worker|WORKER)$ (必要) |
vmSize | 虛擬機 SKU。 | 字串 約束: 模式 = ^[a-zA-Z0-9_\-]{0,256}$ (必要) |
RangerAdminSpec
名字 | 描述 | 價值 |
---|---|---|
admins | 應標示為 ranger 管理員的用戶名稱清單。 這些使用者名稱應該符合個別 AAD 使用者的用戶主體名稱(UPN)。 | string[] (必要) |
資料庫 | RangerAdminSpecDatabase (必要) |
RangerAdminSpecDatabase
名字 | 描述 | 價值 |
---|---|---|
主機 | 資料庫 URL | 字串 (必要) |
名字 | 資料庫名稱 | 字串 (必要) |
passwordSecretRef | 資料庫密碼的參考 | 字串 |
username | 資料庫用戶的名稱 | 字串 |
RangerAuditSpec
名字 | 描述 | 價值 |
---|---|---|
storageAccount | Blob 的 Azure 記憶體位置。 MSI 應該具有此記憶體帳戶的讀取/寫入存取權。 | 字串 約束: 最小長度 = 1 Pattern = ^(https)|(abfss)://.*$ |
RangerProfile
名字 | 描述 | 價值 |
---|---|---|
rangerAdmin | Ranger 管理服務的規格。 | RangerAdminSpec (必要) |
rangerAudit | 描述稽核記錄記憶體所需的屬性。 | RangerAuditSpec |
rangerUsersync | Ranger Usersync 服務的規格 | RangerUsersyncSpec (必要) |
RangerUsersyncSpec
名字 | 描述 | 價值 |
---|---|---|
啟用 | 表示是否應啟用 usersync 服務 | bool |
組 | 應同步處理的群組清單。 這些組名應該符合個別 AAD 群組的物件識別碼。 | string[] |
模式 | 使用者 & 群組可以自動或透過重新整理的靜態清單進行同步處理。 | 'automatic' 'static' |
userMappingLocation | 列出使用者 & 群組關聯之對應檔案的 Azure 記憶體位置。 | 字串 約束: 最小長度 = 1 Pattern = ^(https)|(abfss)://.*$ |
使用者 | 應該同步處理的用戶名稱清單。 這些使用者名稱應該符合個別 AAD 使用者的用戶主體名稱。 | string[] |
ScalingRule
名字 | 描述 | 價值 |
---|---|---|
actionType | 動作類型。 | 'scaledown' 'scaleup' (必要) |
comparisonRule | 比較規則。 | ComparisonRule (必要) |
evaluationCount | 這是調整條件的評估計數,在觸發調整活動之前,觸發條件應該成功次數。 | int (必要) |
scalingMetric | 個別工作負載的計量名稱。 例如:cpu | 字串 (必要) |
附表
名字 | 描述 | 價值 |
---|---|---|
計數 | 用戶必須設定在設定目前排程組態的調整作業結束時預期的節點計數,格式為整數。 | int (必要) |
日 | 用戶必須設定必須針對自動調整作業設定排程的天數。 | 包含任何的字串數組: 'Friday' 'Monday' 'Saturday' 'Sunday' 'Thursday' 'Tuesday' '星期三' (必要) |
endTime | 用戶必須設定目前排程設定的結束時間,格式如 10:30 (HH:MM)。 | 字串 約束: 模式 = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (必要) |
startTime | 用戶必須設定目前排程設定的開始時間,格式如 10:30 (HH:MM)。 | 字串 約束: 模式 = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (必要) |
ScheduleBasedConfig
名字 | 描述 | 價值 |
---|---|---|
defaultCount | 設定目前排程設定的預設節點計數。 預設節點計數會指定執行指定調整作業時預設的節點數目(相應增加/相應減少) | int (必要) |
附表 | 這會指定要啟用排程型自動調整的排程,用戶可以選擇在排程內跨天數和時間設定多個規則(開始/結束)。 | 排程[] (必要) |
timeZone | 用戶必須指定排程必須針對以排程為基礎的自動調整設定設定的時區。 | 字串 (必要) |
ScriptActionProfile
名字 | 描述 | 價值 |
---|---|---|
名字 | 文稿名稱。 | 字串 (必要) |
參數 | 腳本動作的其他參數。 它應該是腳本執行所需的空格分隔自變數清單。 | 字串 |
服務業 | 要套用腳本動作的服務清單。 | string[] (必要) |
shouldPersist | 指定文稿是否應該保存在叢集上。 | bool |
timeoutInMinutes | 腳本動作的逾時持續時間,以分鐘為單位。 | int |
類型 | 腳本動作的類型。 支援的型別為bash腳本。 | 字串 (必要) |
url | 腳本檔案的 URL。 | 字串 約束: 模式 = ^(https)|(http)://.*$ (必要) |
SecretReference
名字 | 描述 | 價值 |
---|---|---|
keyVaultObjectName | 金鑰保存庫中秘密的物件識別碼名稱。 | 字串 約束: 模式 = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (必要) |
referenceName | 要用於服務組態中之秘密的參考名稱。 | 字串 (必要) |
類型 | 金鑰保存庫物件的類型:秘密、金鑰或憑證。 | 'Certificate' 'Key' '秘密' (必要) |
版本 | 金鑰保存庫中的秘密版本。 | 字串 |
SecretsProfile
名字 | 描述 | 價值 |
---|---|---|
keyVaultResourceId | 儲存所有叢集特定用戶密碼的使用者 Key Vault 名稱。 | 字串 (必要) |
秘密 | Key Vault 秘密的屬性。 | SecretReference[] |
SparkMetastoreSpec
名字 | 描述 | 價值 |
---|---|---|
dbConnectionAuthenticationMode | 線上到 Hive 中繼存放區資料庫的驗證模式。 詳細數據:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
dbName | 資料庫名稱。 | 字串 (必要) |
dbPasswordSecretName | 包含資料庫用戶密碼的秘密名稱。 | 字串 |
dbServerHost | 資料庫伺服器主機。 | 字串 (必要) |
dbUserName | 資料庫用戶名稱。 | 字串 |
keyVaultId | 金鑰保存庫資源識別碼。 | 字串 |
thriftUrl | 節儉 URL。 | 字串 |
SparkProfile
名字 | 描述 | 價值 |
---|---|---|
defaultStorageUrl | 默認記憶體 URL。 | 字串 |
metastoreSpec | Spark 叢集的中繼存放區規格。 | SparkMetastoreSpec |
userPluginsSpec | Spark 使用者外掛程式規格 | SparkUserPlugins |
SparkUserPlugin
名字 | 描述 | 價值 |
---|---|---|
路徑 | 包含外掛程式之資料夾的完整路徑。 | 字串 約束: 最小長度 = 1 模式 = ^(https)|(abfss)://.*$ (必要) |
SparkUserPlugins
名字 | 描述 | 價值 |
---|---|---|
plugins | Spark 使用者外掛程式。 | SparkUserPlugin[] |
SshProfile
名字 | 描述 | 價值 |
---|---|---|
計數 | 每個叢集的SSH Pod 數目。 | int 約束: 最小值 = 0 最大值 = 5(必要) |
TrackedResourceTags
名字 | 描述 | 價值 |
---|
TrinoCoordinator
名字 | 描述 | 價值 |
---|---|---|
調試 | Trino 偵錯組態。 | TrinoDebugConfig |
highAvailabilityEnabled | 如果啟用協調器HA,則會使用具有自動故障轉移的多個協調器複本,每個前端節點各一個。 默認值:true。 | bool |
TrinoDebugConfig
名字 | 描述 | 價值 |
---|---|---|
使 | 如果啟用偵錯,則為旗標。 | bool |
港口 | 偵錯埠。 | int |
暫停 | 如果暫停偵錯,則為旗標。 | bool |
TrinoProfile
名字 | 描述 | 價值 |
---|---|---|
catalogOptions | Trino 叢集目錄選項。 | CatalogOptions |
協調者 | Trino Coordinator. | TrinoCoordinator |
userPluginsSpec | Trino 使用者外掛程式規格 | TrinoUserPlugins |
userTelemetrySpec | 用戶遙測 | TrinoUserTelemetry |
工人 | Trino 背景工作角色。 | TrinoWorker |
TrinoTelemetryConfig
名字 | 描述 | 價值 |
---|---|---|
hivecatalogName | Hive 目錄名稱,用於在三元寫入的記錄上掛接外部數據表,如果未指定,則不會建立數據表。 | 字串 約束: 最小長度 = 1 |
hivecatalogSchema | 要使用上述目錄的架構,將查詢記錄掛接為外部數據表,如果未指定數據表,則會掛接在架構三項之下。 | 字串 |
partitionRetentionInDays | 查詢記錄數據表分割的保留期間,這不會影響實際數據。 | int |
路徑 | Blob 的 Azure 記憶體位置。 | 字串 約束: 最小長度 = 1 |
TrinoUserPlugin
名字 | 描述 | 價值 |
---|---|---|
啟用 | 表示外掛程式是否為使用中。 | bool |
名字 | 此欄位會對應至 trino 外掛程式位置中的子目錄,其中包含路徑下的所有外掛程式。 | 字串 約束: 最小長度 = 1 |
路徑 | 包含外掛程式之資料夾的完整路徑。 | 字串 約束: 最小長度 = 1 Pattern = ^(https)|(abfss)://.*$ |
TrinoUserPlugins
名字 | 描述 | 價值 |
---|---|---|
plugins | Trino 使用者外掛程式。 | TrinoUserPlugin[] |
TrinoUserTelemetry
名字 | 描述 | 價值 |
---|---|---|
存儲 | Trino 用戶遙測定義。 | TrinoTelemetryConfig |
TrinoWorker
名字 | 描述 | 價值 |
---|---|---|
調試 | Trino 偵錯組態。 | TrinoDebugConfig |
ARM 樣本資源定義
您可以使用目標作業來部署 clusterpools/clusters 資源類型:
- 資源群組 - 請參閱 資源群組部署命令
如需每個 API 版本中已變更屬性的清單,請參閱 變更記錄檔。
資源格式
若要建立 Microsoft.HDInsight/clusterpools/clusters 資源,請將下列 JSON 新增至範本。
{
"type": "Microsoft.HDInsight/clusterpools/clusters",
"apiVersion": "2023-11-01-preview",
"name": "string",
"location": "string",
"properties": {
"clusterProfile": {
"authorizationProfile": {
"groupIds": [ "string" ],
"userIds": [ "string" ]
},
"autoscaleProfile": {
"autoscaleType": "string",
"enabled": "bool",
"gracefulDecommissionTimeout": "int",
"loadBasedConfig": {
"cooldownPeriod": "int",
"maxNodes": "int",
"minNodes": "int",
"pollInterval": "int",
"scalingRules": [
{
"actionType": "string",
"comparisonRule": {
"operator": "string",
"threshold": "int"
},
"evaluationCount": "int",
"scalingMetric": "string"
}
]
},
"scheduleBasedConfig": {
"defaultCount": "int",
"schedules": [
{
"count": "int",
"days": [ "string" ],
"endTime": "string",
"startTime": "string"
}
],
"timeZone": "string"
}
},
"clusterAccessProfile": {
"enableInternalIngress": "bool"
},
"clusterVersion": "string",
"flinkProfile": {
"catalogOptions": {
"hive": {
"metastoreDbConnectionAuthenticationMode": "string",
"metastoreDbConnectionPasswordSecret": "string",
"metastoreDbConnectionURL": "string",
"metastoreDbConnectionUserName": "string"
}
},
"deploymentMode": "string",
"historyServer": {
"cpu": "int",
"memory": "int"
},
"jobManager": {
"cpu": "int",
"memory": "int"
},
"jobSpec": {
"args": "string",
"entryClass": "string",
"jarName": "string",
"jobJarDirectory": "string",
"savePointName": "string",
"upgradeMode": "string"
},
"numReplicas": "int",
"storage": {
"storagekey": "string",
"storageUri": "string"
},
"taskManager": {
"cpu": "int",
"memory": "int"
}
},
"identityProfile": {
"msiClientId": "string",
"msiObjectId": "string",
"msiResourceId": "string"
},
"kafkaProfile": {
"diskStorage": {
"dataDiskSize": "int",
"dataDiskType": "string"
},
"enableKRaft": "bool",
"enablePublicEndpoints": "bool",
"remoteStorageUri": "string"
},
"llapProfile": {
"{customized property}": {}
},
"logAnalyticsProfile": {
"applicationLogs": {
"stdErrorEnabled": "bool",
"stdOutEnabled": "bool"
},
"enabled": "bool",
"metricsEnabled": "bool"
},
"ossVersion": "string",
"prometheusProfile": {
"enabled": "bool"
},
"rangerPluginProfile": {
"enabled": "bool"
},
"rangerProfile": {
"rangerAdmin": {
"admins": [ "string" ],
"database": {
"host": "string",
"name": "string",
"passwordSecretRef": "string",
"username": "string"
}
},
"rangerAudit": {
"storageAccount": "string"
},
"rangerUsersync": {
"enabled": "bool",
"groups": [ "string" ],
"mode": "string",
"userMappingLocation": "string",
"users": [ "string" ]
}
},
"scriptActionProfiles": [
{
"name": "string",
"parameters": "string",
"services": [ "string" ],
"shouldPersist": "bool",
"timeoutInMinutes": "int",
"type": "string",
"url": "string"
}
],
"secretsProfile": {
"keyVaultResourceId": "string",
"secrets": [
{
"keyVaultObjectName": "string",
"referenceName": "string",
"type": "string",
"version": "string"
}
]
},
"serviceConfigsProfiles": [
{
"configs": [
{
"component": "string",
"files": [
{
"content": "string",
"encoding": "string",
"fileName": "string",
"path": "string",
"values": {
"{customized property}": "string"
}
}
]
}
],
"serviceName": "string"
}
],
"sparkProfile": {
"defaultStorageUrl": "string",
"metastoreSpec": {
"dbConnectionAuthenticationMode": "string",
"dbName": "string",
"dbPasswordSecretName": "string",
"dbServerHost": "string",
"dbUserName": "string",
"keyVaultId": "string",
"thriftUrl": "string"
},
"userPluginsSpec": {
"plugins": [
{
"path": "string"
}
]
}
},
"sshProfile": {
"count": "int"
},
"stubProfile": {
"{customized property}": {}
},
"trinoProfile": {
"catalogOptions": {
"hive": [
{
"catalogName": "string",
"metastoreDbConnectionAuthenticationMode": "string",
"metastoreDbConnectionPasswordSecret": "string",
"metastoreDbConnectionURL": "string",
"metastoreDbConnectionUserName": "string",
"metastoreWarehouseDir": "string"
}
]
},
"coordinator": {
"debug": {
"enable": "bool",
"port": "int",
"suspend": "bool"
},
"highAvailabilityEnabled": "bool"
},
"userPluginsSpec": {
"plugins": [
{
"enabled": "bool",
"name": "string",
"path": "string"
}
]
},
"userTelemetrySpec": {
"storage": {
"hivecatalogName": "string",
"hivecatalogSchema": "string",
"partitionRetentionInDays": "int",
"path": "string"
}
},
"worker": {
"debug": {
"enable": "bool",
"port": "int",
"suspend": "bool"
}
}
}
},
"clusterType": "string",
"computeProfile": {
"nodes": [
{
"count": "int",
"type": "string",
"vmSize": "string"
}
]
}
},
"tags": {
"{customized property}": "string"
}
}
屬性值
AuthorizationProfile
名字 | 描述 | 價值 |
---|---|---|
groupIds | 已獲授權存取數據平面的 AAD 群組識別碼。 | string[] |
userIds | 已獲授權存取數據平面的 AAD 用戶識別碼。 | string[] |
AutoscaleProfile
名字 | 描述 | 價值 |
---|---|---|
autoscaleType | 使用者指定要實作的自動調整類型 - 排程型或負載型。 | 'LoadBased' 'ScheduleBased' |
啟用 | 這表示是否在 AKS 叢集的 HDInsight 上啟用自動調整。 | 布林 (必要) |
gracefulDecommissionTimeout | 此屬性適用於正常解除委任逾時;其預設設定為3600秒,再進行強制關機。 這是將解除委任節點轉換為 DECOMMISSIONED 之前,等待執行容器和應用程式完成的最大時間。 預設值為3600秒。 負值(例如 -1)會處理為無限逾時。 | int |
loadBasedConfig | 負載型自動調整的配置檔。 | LoadBasedConfig |
scheduleBasedConfig | 以排程為基礎的自動調整配置檔。 | ScheduleBasedConfig |
CatalogOptions
名字 | 描述 | 價值 |
---|---|---|
蜂房 | hive 目錄選項。 | HiveCatalogOption[] |
ClusterAccessProfile
名字 | 描述 | 價值 |
---|---|---|
enableInternalIngress | 是否要使用私人IP建立叢集,而不是使用公用IP。 這個屬性必須在建立時設定。 | 布林 (必要) |
ClusterConfigFile
名字 | 描述 | 價值 |
---|---|---|
內容 | 整個組態檔的自由格式內容。 | 字串 |
編碼 | 這個屬性會指出內容是否已編碼且不區分大小寫。 如果內容為base64編碼,請將值設定為base64。 如果內容是純文本,請將它設定為 none 或略過它。 | 'Base64' 'None' |
檔名 | 組態檔名稱。 | 字串 (必要) |
路徑 | 如果指定內容,組態檔的路徑。 | 字串 |
值 | 索引鍵值組清單 其中索引鍵代表有效的服務組態名稱,而值則代表組態的值。 |
ClusterConfigFileValues |
ClusterConfigFileValues
名字 | 描述 | 價值 |
---|
ClusterLogAnalyticsApplicationLogs
名字 | 描述 | 價值 |
---|---|---|
stdErrorEnabled | 如果已啟用 stderror,則為 True,否則為 false。 | bool |
stdOutEnabled | 如果已啟用 stdout,則為 True,否則為 false。 | bool |
ClusterLogAnalyticsProfile
名字 | 描述 | 價值 |
---|---|---|
applicationLogs | 要啟用或停用記錄分析的記錄集合。 | ClusterLogAnalyticsApplicationLogs |
啟用 | 如果叢集已啟用記錄分析,則為 True,否則為 false。 | 布林 (必要) |
metricsEnabled | 如果已啟用計量,則為 True,否則為 false。 | bool |
ClusterProfile
名字 | 描述 | 價值 |
---|---|---|
authorizationProfile | 授權配置檔,其中包含已授權用於數據平面存取之 AAD 使用者識別碼和群組識別碼的詳細數據。 | AuthorizationProfile (必要) |
autoscaleProfile | 這是叢集的自動調整配置檔。 這可讓客戶建立已啟用自動調整的叢集。 | AutoscaleProfile |
clusterAccessProfile | 叢集存取配置檔。 | ClusterAccessProfile |
clusterVersion | 3/4 部分的版本。 | 字串 約束: 模式 = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (必要) |
flinkProfile | Flink 叢集配置檔。 | FlinkProfile |
identityProfile | Trino、Spark 和 Flink 叢集需要此屬性,但 Kafka 叢集是選擇性的。 | IdentityProfile |
kafkaProfile | Kafka 叢集配置檔。 | KafkaProfile |
llapProfile | LLAP 叢集配置檔。 | ClusterProfileLlapProfile |
logAnalyticsProfile | 叢集記錄分析配置檔,以啟用或停用叢集的 OMS 代理程式。 | ClusterLogAnalyticsProfile |
ossVersion | 具有三個部分的版本。 | 字串 約束: 模式 = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (必要) |
prometheusProfile | 叢集 Prometheus 配置檔。 | ClusterPrometheusProfile |
rangerPluginProfile | 叢集 Ranger 外掛程式設定檔。 | ClusterRangerPluginProfile |
rangerProfile | ranger 叢集配置檔。 | RangerProfile |
scriptActionProfiles | 文稿動作配置檔清單。 | ScriptActionProfile[] |
secretsProfile | 叢集秘密配置檔。 | SecretsProfile |
serviceConfigsProfiles | 服務組態配置檔。 | ClusterServiceConfigsProfile[] |
sparkProfile | Spark 叢集配置檔。 | SparkProfile |
sshProfile | 叢集的 Ssh 設定檔。 | SshProfile |
stubProfile | 存根叢集配置檔。 | ClusterProfileStubProfile |
trinoProfile | Trino 叢集配置檔。 | TrinoProfile |
ClusterProfileLlapProfile
名字 | 描述 | 價值 |
---|
ClusterProfileStubProfile
名字 | 描述 | 價值 |
---|
ClusterPrometheusProfile
名字 | 描述 | 價值 |
---|---|---|
啟用 | 啟用叢集的 Prometheus。 | 布林 (必要) |
ClusterRangerPluginProfile
名字 | 描述 | 價值 |
---|---|---|
啟用 | 為叢集啟用 Ranger。 | 布林 (必要) |
ClusterResourceProperties
名字 | 描述 | 價值 |
---|---|---|
clusterProfile | 叢集配置檔。 | ClusterProfile (必要) |
clusterType | 叢集的類型。 | 字串 約束: 模式 = ^[a-zA-Z][a-zA-Z0-9]{0,31}$ (必要) |
computeProfile | 計算配置檔。 | ComputeProfile (必要) |
ClusterServiceConfig
名字 | 描述 | 價值 |
---|---|---|
元件 | 組態檔應套用至的元件名稱。 | 字串 (必要) |
檔 | 組態檔清單。 | ClusterConfigFile[] (必要) |
ClusterServiceConfigsProfile
名字 | 描述 | 價值 |
---|---|---|
設定 | 服務組態清單。 | ClusterServiceConfig[] (必要) |
serviceName | 組態應套用的服務名稱。 | 字串 (必要) |
ComparisonRule
名字 | 描述 | 價值 |
---|---|---|
算子 | 比較運算子。 | 'greaterThan' 'greaterThanOrEqual' 'lessThan' 'lessThanOrEqual' (必要) |
門檻 | 臨界值設定。 | int (必要) |
ComputeProfile
名字 | 描述 | 價值 |
---|---|---|
節點 | 節點定義。 | NodeProfile[] (必要) |
ComputeResourceDefinition
名字 | 描述 | 價值 |
---|---|---|
中央處理器 | 所需的CPU。 | int (必要) |
記憶 | MB 中所需的記憶體,容器記憶體會是 110 百分位數 | int (必要) |
DiskStorageProfile
名字 | 描述 | 價值 |
---|---|---|
dataDiskSize | 受控磁碟大小以 GB 為單位。 標準和進階 HDD/SSD 支援的磁碟大小上限為 32TB,但進階 SSD v2 支援最多 64TB。 | int (必要) |
dataDiskType | 受控磁碟類型。 | 'Premium_SSD_LRS' 'Premium_SSD_v2_LRS' 'Premium_SSD_ZRS' 'Standard_HDD_LRS' 'Standard_SSD_LRS' 'Standard_SSD_ZRS' (必要) |
FlinkCatalogOptions
名字 | 描述 | 價值 |
---|---|---|
蜂房 | Flink 叢集的 Hive 目錄選項。 | FlinkHiveCatalogOption |
FlinkHiveCatalogOption
名字 | 描述 | 價值 |
---|---|---|
metastoreDbConnectionAuthenticationMode | 線上到 Hive 中繼存放區資料庫的驗證模式。 詳細數據:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | 來自 secretsProfile.secrets 的秘密參考名稱,其中包含資料庫連線的密碼。 | 字串 |
metastoreDbConnectionURL | Hive 中繼存放區資料庫的連接字串。 | 字串 (必要) |
metastoreDbConnectionUserName | 資料庫連線的用戶名稱。 | 字串 |
FlinkJobProfile
名字 | 描述 | 價值 |
---|---|---|
args | 字串屬性,表示 Flink 作業的其他 JVM 自變數。 它應該是空格分隔值。 | 字串 |
entryClass | 指定 Flink 作業之項目類別的字串屬性。 如果未指定,則會從 flink 作業 jar 套件自動偵測進入點。 | 字串 |
jarName | 字串屬性,表示作業 JAR 的名稱。 | 字串 (必要) |
jobJarDirectory | 字串屬性,指定作業 JAR 所在的目錄。 | 字串 (必要) |
savePointName | 字串屬性,表示 Flink 作業之儲存點的名稱 | 字串 |
upgradeMode | 字串屬性,表示要對 Flink 作業執行的升級模式。 它可以有下列其中一個列舉值 => STATELESS_UPDATE、UPDATE、LAST_STATE_UPDATE。 | 'LAST_STATE_UPDATE' 'STATELESS_UPDATE' 'UPDATE' (必要) |
FlinkProfile
名字 | 描述 | 價值 |
---|---|---|
catalogOptions | Flink 叢集目錄選項。 | FlinkCatalogOptions |
deploymentMode | 字串屬性,表示 Flink 叢集的部署模式。 它可以有下列其中一個列舉值 => Application, Session。 預設值為 Session | 'Application' 'Session' |
historyServer | 歷程記錄伺服器容器/處理CPU和記憶體需求 | ComputeResourceDefinition |
jobManager | 作業管理員容器/處理CPU和記憶體需求 | ComputeResourceDefinition (必要) |
jobSpec | 應用程式部署模式中 flink 叢集的作業規格。 即使藉由呼叫 RunJob API 來變更作業屬性,規格仍不可變,請使用 ListJob API 來取得最新的作業資訊。 | FlinkJobProfile |
numReplicas | 任務管理員的數目。 | int |
存儲 | 記憶體配置檔 | FlinkStorageProfile (必要) |
taskManager | 任務管理器容器/處理CPU和記憶體需求 | ComputeResourceDefinition (必要) |
FlinkStorageProfile
名字 | 描述 | 價值 |
---|---|---|
storagekey | 只有 wasb(s) 記憶體才需要儲存金鑰。 | 字串 約束: 敏感性值。 以安全參數的形式傳入。 |
storageUri | 用於儲存點和檢查點狀態的記憶體帳戶 URI。 | 字串 約束: 模式 = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b.*$ (必要) |
HiveCatalogOption
名字 | 描述 | 價值 |
---|---|---|
catalogName | 應該使用指定Hive中繼存放區之 Trino 目錄的名稱。 | 字串 約束: 最小長度 = 1 (必要) |
metastoreDbConnectionAuthenticationMode | 線上到 Hive 中繼存放區資料庫的驗證模式。 詳細數據:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | 來自 secretsProfile.secrets 的秘密參考名稱,其中包含資料庫連線的密碼。 | 字串 |
metastoreDbConnectionURL | Hive 中繼存放區資料庫的連接字串。 | 字串 (必要) |
metastoreDbConnectionUserName | 資料庫連線的用戶名稱。 | 字串 |
metastoreWarehouseDir | 中繼存放區根目錄 URI,格式:abfs[s]://<容器>@<account_name>.dfs.core.windows.net/<路徑>。 更多詳細數據:/azure/storage/blobs/data-lake-storage-introduction-abfs-uri | 字串 (必要) |
IdentityProfile
名字 | 描述 | 價值 |
---|---|---|
msiClientId | MSI 的 ClientId。 | 字串 約束: 模式 = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (必要) |
msiObjectId | MSI 的 ObjectId。 | 字串 約束: 模式 = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (必要) |
msiResourceId | MSI 的 ResourceId。 | 字串 (必要) |
KafkaProfile
名字 | 描述 | 價值 |
---|---|---|
diskStorage | Kafka 磁碟記憶體配置檔。 | DiskStorageProfile (必要) |
enableKRaft | 在 KRaft 模式中公開 Kafka 叢集。 | bool |
enablePublicEndpoints | 將背景工作節點公開為公用端點。 | bool |
remoteStorageUri | 用於階層式記憶體的 Azure 記憶體容器完整路徑。 | 字串 約束: Pattern = ^(https?|abfss?):\/\/[^/]+(?:\/|$) |
LoadBasedConfig
名字 | 描述 | 價值 |
---|---|---|
cooldownPeriod | 這是冷卻期間,這是一個以秒為單位的時間週期,它會決定在規則啟動的調整活動與下一個調整活動的開始之間必須經過的時間量,而不論觸發它的規則為何。 預設值為300秒。 | int |
maxNodes | 用戶必須設定以負載為基礎的調整節點數目上限,以負載為基礎的調整將會使用此調整來相應增加和縮小節點數目的最小值和最大數目。 | int (必要) |
minNodes | 用戶必須設定以負載為基礎的調整節點數目下限,以負載為基礎的調整將會使用此調整,在節點數目下限和上限之間相應增加和相應減少。 | int (必要) |
pollInterval | 用戶可以指定輪詢間隔,這是輪詢計量以觸發調整作業的時間週期(以秒為單位)。 | int |
scalingRules | 調整規則。 | ScalingRule[] (必要) |
Microsoft.HDInsight/clusterpools/clusters
名字 | 描述 | 價值 |
---|---|---|
apiVersion | API 版本 | '2023-11-01-preview' |
位置 | 資源所在的地理位置 | 字串 (必要) |
名字 | 資源名稱 | 字串 (必要) |
性能 | 取得或設定屬性。 定義叢集特定屬性。 | ClusterResourceProperties |
標籤 | 資源標籤 | 標記名稱和值的字典。 請參閱範本中的 標籤 |
類型 | 資源類型 | 'Microsoft.HDInsight/clusterpools/clusters' |
NodeProfile
名字 | 描述 | 價值 |
---|---|---|
計數 | 虛擬機的數目。 | int 約束: 最小值 = 1 (必要) |
類型 | 節點類型。 | 字串 約束: 模式 = ^(head|Head|HEAD|worker|Worker|WORKER)$ (必要) |
vmSize | 虛擬機 SKU。 | 字串 約束: 模式 = ^[a-zA-Z0-9_\-]{0,256}$ (必要) |
RangerAdminSpec
名字 | 描述 | 價值 |
---|---|---|
admins | 應標示為 ranger 管理員的用戶名稱清單。 這些使用者名稱應該符合個別 AAD 使用者的用戶主體名稱(UPN)。 | string[] (必要) |
資料庫 | RangerAdminSpecDatabase (必要) |
RangerAdminSpecDatabase
名字 | 描述 | 價值 |
---|---|---|
主機 | 資料庫 URL | 字串 (必要) |
名字 | 資料庫名稱 | 字串 (必要) |
passwordSecretRef | 資料庫密碼的參考 | 字串 |
username | 資料庫用戶的名稱 | 字串 |
RangerAuditSpec
名字 | 描述 | 價值 |
---|---|---|
storageAccount | Blob 的 Azure 記憶體位置。 MSI 應該具有此記憶體帳戶的讀取/寫入存取權。 | 字串 約束: 最小長度 = 1 Pattern = ^(https)|(abfss)://.*$ |
RangerProfile
名字 | 描述 | 價值 |
---|---|---|
rangerAdmin | Ranger 管理服務的規格。 | RangerAdminSpec (必要) |
rangerAudit | 描述稽核記錄記憶體所需的屬性。 | RangerAuditSpec |
rangerUsersync | Ranger Usersync 服務的規格 | RangerUsersyncSpec (必要) |
RangerUsersyncSpec
名字 | 描述 | 價值 |
---|---|---|
啟用 | 表示是否應啟用 usersync 服務 | bool |
組 | 應同步處理的群組清單。 這些組名應該符合個別 AAD 群組的物件識別碼。 | string[] |
模式 | 使用者 & 群組可以自動或透過重新整理的靜態清單進行同步處理。 | 'automatic' 'static' |
userMappingLocation | 列出使用者 & 群組關聯之對應檔案的 Azure 記憶體位置。 | 字串 約束: 最小長度 = 1 Pattern = ^(https)|(abfss)://.*$ |
使用者 | 應該同步處理的用戶名稱清單。 這些使用者名稱應該符合個別 AAD 使用者的用戶主體名稱。 | string[] |
ScalingRule
名字 | 描述 | 價值 |
---|---|---|
actionType | 動作類型。 | 'scaledown' 'scaleup' (必要) |
comparisonRule | 比較規則。 | ComparisonRule (必要) |
evaluationCount | 這是調整條件的評估計數,在觸發調整活動之前,觸發條件應該成功次數。 | int (必要) |
scalingMetric | 個別工作負載的計量名稱。 例如:cpu | 字串 (必要) |
附表
名字 | 描述 | 價值 |
---|---|---|
計數 | 用戶必須設定在設定目前排程組態的調整作業結束時預期的節點計數,格式為整數。 | int (必要) |
日 | 用戶必須設定必須針對自動調整作業設定排程的天數。 | 包含任何的字串數組: 'Friday' 'Monday' 'Saturday' 'Sunday' 'Thursday' 'Tuesday' '星期三' (必要) |
endTime | 用戶必須設定目前排程設定的結束時間,格式如 10:30 (HH:MM)。 | 字串 約束: 模式 = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (必要) |
startTime | 用戶必須設定目前排程設定的開始時間,格式如 10:30 (HH:MM)。 | 字串 約束: 模式 = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (必要) |
ScheduleBasedConfig
名字 | 描述 | 價值 |
---|---|---|
defaultCount | 設定目前排程設定的預設節點計數。 預設節點計數會指定執行指定調整作業時預設的節點數目(相應增加/相應減少) | int (必要) |
附表 | 這會指定要啟用排程型自動調整的排程,用戶可以選擇在排程內跨天數和時間設定多個規則(開始/結束)。 | 排程[] (必要) |
timeZone | 用戶必須指定排程必須針對以排程為基礎的自動調整設定設定的時區。 | 字串 (必要) |
ScriptActionProfile
名字 | 描述 | 價值 |
---|---|---|
名字 | 文稿名稱。 | 字串 (必要) |
參數 | 腳本動作的其他參數。 它應該是腳本執行所需的空格分隔自變數清單。 | 字串 |
服務業 | 要套用腳本動作的服務清單。 | string[] (必要) |
shouldPersist | 指定文稿是否應該保存在叢集上。 | bool |
timeoutInMinutes | 腳本動作的逾時持續時間,以分鐘為單位。 | int |
類型 | 腳本動作的類型。 支援的型別為bash腳本。 | 字串 (必要) |
url | 腳本檔案的 URL。 | 字串 約束: 模式 = ^(https)|(http)://.*$ (必要) |
SecretReference
名字 | 描述 | 價值 |
---|---|---|
keyVaultObjectName | 金鑰保存庫中秘密的物件識別碼名稱。 | 字串 約束: 模式 = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (必要) |
referenceName | 要用於服務組態中之秘密的參考名稱。 | 字串 (必要) |
類型 | 金鑰保存庫物件的類型:秘密、金鑰或憑證。 | 'Certificate' 'Key' '秘密' (必要) |
版本 | 金鑰保存庫中的秘密版本。 | 字串 |
SecretsProfile
名字 | 描述 | 價值 |
---|---|---|
keyVaultResourceId | 儲存所有叢集特定用戶密碼的使用者 Key Vault 名稱。 | 字串 (必要) |
秘密 | Key Vault 秘密的屬性。 | SecretReference[] |
SparkMetastoreSpec
名字 | 描述 | 價值 |
---|---|---|
dbConnectionAuthenticationMode | 線上到 Hive 中繼存放區資料庫的驗證模式。 詳細數據:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
dbName | 資料庫名稱。 | 字串 (必要) |
dbPasswordSecretName | 包含資料庫用戶密碼的秘密名稱。 | 字串 |
dbServerHost | 資料庫伺服器主機。 | 字串 (必要) |
dbUserName | 資料庫用戶名稱。 | 字串 |
keyVaultId | 金鑰保存庫資源識別碼。 | 字串 |
thriftUrl | 節儉 URL。 | 字串 |
SparkProfile
名字 | 描述 | 價值 |
---|---|---|
defaultStorageUrl | 默認記憶體 URL。 | 字串 |
metastoreSpec | Spark 叢集的中繼存放區規格。 | SparkMetastoreSpec |
userPluginsSpec | Spark 使用者外掛程式規格 | SparkUserPlugins |
SparkUserPlugin
名字 | 描述 | 價值 |
---|---|---|
路徑 | 包含外掛程式之資料夾的完整路徑。 | 字串 約束: 最小長度 = 1 模式 = ^(https)|(abfss)://.*$ (必要) |
SparkUserPlugins
名字 | 描述 | 價值 |
---|---|---|
plugins | Spark 使用者外掛程式。 | SparkUserPlugin[] |
SshProfile
名字 | 描述 | 價值 |
---|---|---|
計數 | 每個叢集的SSH Pod 數目。 | int 約束: 最小值 = 0 最大值 = 5(必要) |
TrackedResourceTags
名字 | 描述 | 價值 |
---|
TrinoCoordinator
名字 | 描述 | 價值 |
---|---|---|
調試 | Trino 偵錯組態。 | TrinoDebugConfig |
highAvailabilityEnabled | 如果啟用協調器HA,則會使用具有自動故障轉移的多個協調器複本,每個前端節點各一個。 默認值:true。 | bool |
TrinoDebugConfig
名字 | 描述 | 價值 |
---|---|---|
使 | 如果啟用偵錯,則為旗標。 | bool |
港口 | 偵錯埠。 | int |
暫停 | 如果暫停偵錯,則為旗標。 | bool |
TrinoProfile
名字 | 描述 | 價值 |
---|---|---|
catalogOptions | Trino 叢集目錄選項。 | CatalogOptions |
協調者 | Trino Coordinator. | TrinoCoordinator |
userPluginsSpec | Trino 使用者外掛程式規格 | TrinoUserPlugins |
userTelemetrySpec | 用戶遙測 | TrinoUserTelemetry |
工人 | Trino 背景工作角色。 | TrinoWorker |
TrinoTelemetryConfig
名字 | 描述 | 價值 |
---|---|---|
hivecatalogName | Hive 目錄名稱,用於在三元寫入的記錄上掛接外部數據表,如果未指定,則不會建立數據表。 | 字串 約束: 最小長度 = 1 |
hivecatalogSchema | 要使用上述目錄的架構,將查詢記錄掛接為外部數據表,如果未指定數據表,則會掛接在架構三項之下。 | 字串 |
partitionRetentionInDays | 查詢記錄數據表分割的保留期間,這不會影響實際數據。 | int |
路徑 | Blob 的 Azure 記憶體位置。 | 字串 約束: 最小長度 = 1 |
TrinoUserPlugin
名字 | 描述 | 價值 |
---|---|---|
啟用 | 表示外掛程式是否為使用中。 | bool |
名字 | 此欄位會對應至 trino 外掛程式位置中的子目錄,其中包含路徑下的所有外掛程式。 | 字串 約束: 最小長度 = 1 |
路徑 | 包含外掛程式之資料夾的完整路徑。 | 字串 約束: 最小長度 = 1 Pattern = ^(https)|(abfss)://.*$ |
TrinoUserPlugins
名字 | 描述 | 價值 |
---|---|---|
plugins | Trino 使用者外掛程式。 | TrinoUserPlugin[] |
TrinoUserTelemetry
名字 | 描述 | 價值 |
---|---|---|
存儲 | Trino 用戶遙測定義。 | TrinoTelemetryConfig |
TrinoWorker
名字 | 描述 | 價值 |
---|---|---|
調試 | Trino 偵錯組態。 | TrinoDebugConfig |
Terraform (AzAPI 提供者) 資源定義
您可以使用目標作業來部署 clusterpools/clusters 資源類型:
- 資源群組
如需每個 API 版本中已變更屬性的清單,請參閱 變更記錄檔。
資源格式
若要建立 Microsoft.HDInsight/clusterpools/clusters 資源,請將下列 Terraform 新增至範本。
resource "azapi_resource" "symbolicname" {
type = "Microsoft.HDInsight/clusterpools/clusters@2023-11-01-preview"
name = "string"
location = "string"
tags = {
{customized property} = "string"
}
body = jsonencode({
properties = {
clusterProfile = {
authorizationProfile = {
groupIds = [
"string"
]
userIds = [
"string"
]
}
autoscaleProfile = {
autoscaleType = "string"
enabled = bool
gracefulDecommissionTimeout = int
loadBasedConfig = {
cooldownPeriod = int
maxNodes = int
minNodes = int
pollInterval = int
scalingRules = [
{
actionType = "string"
comparisonRule = {
operator = "string"
threshold = int
}
evaluationCount = int
scalingMetric = "string"
}
]
}
scheduleBasedConfig = {
defaultCount = int
schedules = [
{
count = int
days = [
"string"
]
endTime = "string"
startTime = "string"
}
]
timeZone = "string"
}
}
clusterAccessProfile = {
enableInternalIngress = bool
}
clusterVersion = "string"
flinkProfile = {
catalogOptions = {
hive = {
metastoreDbConnectionAuthenticationMode = "string"
metastoreDbConnectionPasswordSecret = "string"
metastoreDbConnectionURL = "string"
metastoreDbConnectionUserName = "string"
}
}
deploymentMode = "string"
historyServer = {
cpu = int
memory = int
}
jobManager = {
cpu = int
memory = int
}
jobSpec = {
args = "string"
entryClass = "string"
jarName = "string"
jobJarDirectory = "string"
savePointName = "string"
upgradeMode = "string"
}
numReplicas = int
storage = {
storagekey = "string"
storageUri = "string"
}
taskManager = {
cpu = int
memory = int
}
}
identityProfile = {
msiClientId = "string"
msiObjectId = "string"
msiResourceId = "string"
}
kafkaProfile = {
diskStorage = {
dataDiskSize = int
dataDiskType = "string"
}
enableKRaft = bool
enablePublicEndpoints = bool
remoteStorageUri = "string"
}
llapProfile = {
{customized property} = ?
}
logAnalyticsProfile = {
applicationLogs = {
stdErrorEnabled = bool
stdOutEnabled = bool
}
enabled = bool
metricsEnabled = bool
}
ossVersion = "string"
prometheusProfile = {
enabled = bool
}
rangerPluginProfile = {
enabled = bool
}
rangerProfile = {
rangerAdmin = {
admins = [
"string"
]
database = {
host = "string"
name = "string"
passwordSecretRef = "string"
username = "string"
}
}
rangerAudit = {
storageAccount = "string"
}
rangerUsersync = {
enabled = bool
groups = [
"string"
]
mode = "string"
userMappingLocation = "string"
users = [
"string"
]
}
}
scriptActionProfiles = [
{
name = "string"
parameters = "string"
services = [
"string"
]
shouldPersist = bool
timeoutInMinutes = int
type = "string"
url = "string"
}
]
secretsProfile = {
keyVaultResourceId = "string"
secrets = [
{
keyVaultObjectName = "string"
referenceName = "string"
type = "string"
version = "string"
}
]
}
serviceConfigsProfiles = [
{
configs = [
{
component = "string"
files = [
{
content = "string"
encoding = "string"
fileName = "string"
path = "string"
values = {
{customized property} = "string"
}
}
]
}
]
serviceName = "string"
}
]
sparkProfile = {
defaultStorageUrl = "string"
metastoreSpec = {
dbConnectionAuthenticationMode = "string"
dbName = "string"
dbPasswordSecretName = "string"
dbServerHost = "string"
dbUserName = "string"
keyVaultId = "string"
thriftUrl = "string"
}
userPluginsSpec = {
plugins = [
{
path = "string"
}
]
}
}
sshProfile = {
count = int
}
stubProfile = {
{customized property} = ?
}
trinoProfile = {
catalogOptions = {
hive = [
{
catalogName = "string"
metastoreDbConnectionAuthenticationMode = "string"
metastoreDbConnectionPasswordSecret = "string"
metastoreDbConnectionURL = "string"
metastoreDbConnectionUserName = "string"
metastoreWarehouseDir = "string"
}
]
}
coordinator = {
debug = {
enable = bool
port = int
suspend = bool
}
highAvailabilityEnabled = bool
}
userPluginsSpec = {
plugins = [
{
enabled = bool
name = "string"
path = "string"
}
]
}
userTelemetrySpec = {
storage = {
hivecatalogName = "string"
hivecatalogSchema = "string"
partitionRetentionInDays = int
path = "string"
}
}
worker = {
debug = {
enable = bool
port = int
suspend = bool
}
}
}
}
clusterType = "string"
computeProfile = {
nodes = [
{
count = int
type = "string"
vmSize = "string"
}
]
}
}
})
}
屬性值
AuthorizationProfile
名字 | 描述 | 價值 |
---|---|---|
groupIds | 已獲授權存取數據平面的 AAD 群組識別碼。 | string[] |
userIds | 已獲授權存取數據平面的 AAD 用戶識別碼。 | string[] |
AutoscaleProfile
名字 | 描述 | 價值 |
---|---|---|
autoscaleType | 使用者指定要實作的自動調整類型 - 排程型或負載型。 | 'LoadBased' 'ScheduleBased' |
啟用 | 這表示是否在 AKS 叢集的 HDInsight 上啟用自動調整。 | 布林 (必要) |
gracefulDecommissionTimeout | 此屬性適用於正常解除委任逾時;其預設設定為3600秒,再進行強制關機。 這是將解除委任節點轉換為 DECOMMISSIONED 之前,等待執行容器和應用程式完成的最大時間。 預設值為3600秒。 負值(例如 -1)會處理為無限逾時。 | int |
loadBasedConfig | 負載型自動調整的配置檔。 | LoadBasedConfig |
scheduleBasedConfig | 以排程為基礎的自動調整配置檔。 | ScheduleBasedConfig |
CatalogOptions
名字 | 描述 | 價值 |
---|---|---|
蜂房 | hive 目錄選項。 | HiveCatalogOption[] |
ClusterAccessProfile
名字 | 描述 | 價值 |
---|---|---|
enableInternalIngress | 是否要使用私人IP建立叢集,而不是使用公用IP。 這個屬性必須在建立時設定。 | 布林 (必要) |
ClusterConfigFile
名字 | 描述 | 價值 |
---|---|---|
內容 | 整個組態檔的自由格式內容。 | 字串 |
編碼 | 這個屬性會指出內容是否已編碼且不區分大小寫。 如果內容為base64編碼,請將值設定為base64。 如果內容是純文本,請將它設定為 none 或略過它。 | 'Base64' 'None' |
檔名 | 組態檔名稱。 | 字串 (必要) |
路徑 | 如果指定內容,組態檔的路徑。 | 字串 |
值 | 索引鍵值組清單 其中索引鍵代表有效的服務組態名稱,而值則代表組態的值。 |
ClusterConfigFileValues |
ClusterConfigFileValues
名字 | 描述 | 價值 |
---|
ClusterLogAnalyticsApplicationLogs
名字 | 描述 | 價值 |
---|---|---|
stdErrorEnabled | 如果已啟用 stderror,則為 True,否則為 false。 | bool |
stdOutEnabled | 如果已啟用 stdout,則為 True,否則為 false。 | bool |
ClusterLogAnalyticsProfile
名字 | 描述 | 價值 |
---|---|---|
applicationLogs | 要啟用或停用記錄分析的記錄集合。 | ClusterLogAnalyticsApplicationLogs |
啟用 | 如果叢集已啟用記錄分析,則為 True,否則為 false。 | 布林 (必要) |
metricsEnabled | 如果已啟用計量,則為 True,否則為 false。 | bool |
ClusterProfile
名字 | 描述 | 價值 |
---|---|---|
authorizationProfile | 授權配置檔,其中包含已授權用於數據平面存取之 AAD 使用者識別碼和群組識別碼的詳細數據。 | AuthorizationProfile (必要) |
autoscaleProfile | 這是叢集的自動調整配置檔。 這可讓客戶建立已啟用自動調整的叢集。 | AutoscaleProfile |
clusterAccessProfile | 叢集存取配置檔。 | ClusterAccessProfile |
clusterVersion | 3/4 部分的版本。 | 字串 約束: 模式 = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (必要) |
flinkProfile | Flink 叢集配置檔。 | FlinkProfile |
identityProfile | Trino、Spark 和 Flink 叢集需要此屬性,但 Kafka 叢集是選擇性的。 | IdentityProfile |
kafkaProfile | Kafka 叢集配置檔。 | KafkaProfile |
llapProfile | LLAP 叢集配置檔。 | ClusterProfileLlapProfile |
logAnalyticsProfile | 叢集記錄分析配置檔,以啟用或停用叢集的 OMS 代理程式。 | ClusterLogAnalyticsProfile |
ossVersion | 具有三個部分的版本。 | 字串 約束: 模式 = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (必要) |
prometheusProfile | 叢集 Prometheus 配置檔。 | ClusterPrometheusProfile |
rangerPluginProfile | 叢集 Ranger 外掛程式設定檔。 | ClusterRangerPluginProfile |
rangerProfile | ranger 叢集配置檔。 | RangerProfile |
scriptActionProfiles | 文稿動作配置檔清單。 | ScriptActionProfile[] |
secretsProfile | 叢集秘密配置檔。 | SecretsProfile |
serviceConfigsProfiles | 服務組態配置檔。 | ClusterServiceConfigsProfile[] |
sparkProfile | Spark 叢集配置檔。 | SparkProfile |
sshProfile | 叢集的 Ssh 設定檔。 | SshProfile |
stubProfile | 存根叢集配置檔。 | ClusterProfileStubProfile |
trinoProfile | Trino 叢集配置檔。 | TrinoProfile |
ClusterProfileLlapProfile
名字 | 描述 | 價值 |
---|
ClusterProfileStubProfile
名字 | 描述 | 價值 |
---|
ClusterPrometheusProfile
名字 | 描述 | 價值 |
---|---|---|
啟用 | 啟用叢集的 Prometheus。 | 布林 (必要) |
ClusterRangerPluginProfile
名字 | 描述 | 價值 |
---|---|---|
啟用 | 為叢集啟用 Ranger。 | 布林 (必要) |
ClusterResourceProperties
名字 | 描述 | 價值 |
---|---|---|
clusterProfile | 叢集配置檔。 | ClusterProfile (必要) |
clusterType | 叢集的類型。 | 字串 約束: 模式 = ^[a-zA-Z][a-zA-Z0-9]{0,31}$ (必要) |
computeProfile | 計算配置檔。 | ComputeProfile (必要) |
ClusterServiceConfig
名字 | 描述 | 價值 |
---|---|---|
元件 | 組態檔應套用至的元件名稱。 | 字串 (必要) |
檔 | 組態檔清單。 | ClusterConfigFile[] (必要) |
ClusterServiceConfigsProfile
名字 | 描述 | 價值 |
---|---|---|
設定 | 服務組態清單。 | ClusterServiceConfig[] (必要) |
serviceName | 組態應套用的服務名稱。 | 字串 (必要) |
ComparisonRule
名字 | 描述 | 價值 |
---|---|---|
算子 | 比較運算子。 | 'greaterThan' 'greaterThanOrEqual' 'lessThan' 'lessThanOrEqual' (必要) |
門檻 | 臨界值設定。 | int (必要) |
ComputeProfile
名字 | 描述 | 價值 |
---|---|---|
節點 | 節點定義。 | NodeProfile[] (必要) |
ComputeResourceDefinition
名字 | 描述 | 價值 |
---|---|---|
中央處理器 | 所需的CPU。 | int (必要) |
記憶 | MB 中所需的記憶體,容器記憶體會是 110 百分位數 | int (必要) |
DiskStorageProfile
名字 | 描述 | 價值 |
---|---|---|
dataDiskSize | 受控磁碟大小以 GB 為單位。 標準和進階 HDD/SSD 支援的磁碟大小上限為 32TB,但進階 SSD v2 支援最多 64TB。 | int (必要) |
dataDiskType | 受控磁碟類型。 | 'Premium_SSD_LRS' 'Premium_SSD_v2_LRS' 'Premium_SSD_ZRS' 'Standard_HDD_LRS' 'Standard_SSD_LRS' 'Standard_SSD_ZRS' (必要) |
FlinkCatalogOptions
名字 | 描述 | 價值 |
---|---|---|
蜂房 | Flink 叢集的 Hive 目錄選項。 | FlinkHiveCatalogOption |
FlinkHiveCatalogOption
名字 | 描述 | 價值 |
---|---|---|
metastoreDbConnectionAuthenticationMode | 線上到 Hive 中繼存放區資料庫的驗證模式。 詳細數據:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | 來自 secretsProfile.secrets 的秘密參考名稱,其中包含資料庫連線的密碼。 | 字串 |
metastoreDbConnectionURL | Hive 中繼存放區資料庫的連接字串。 | 字串 (必要) |
metastoreDbConnectionUserName | 資料庫連線的用戶名稱。 | 字串 |
FlinkJobProfile
名字 | 描述 | 價值 |
---|---|---|
args | 字串屬性,表示 Flink 作業的其他 JVM 自變數。 它應該是空格分隔值。 | 字串 |
entryClass | 指定 Flink 作業之項目類別的字串屬性。 如果未指定,則會從 flink 作業 jar 套件自動偵測進入點。 | 字串 |
jarName | 字串屬性,表示作業 JAR 的名稱。 | 字串 (必要) |
jobJarDirectory | 字串屬性,指定作業 JAR 所在的目錄。 | 字串 (必要) |
savePointName | 字串屬性,表示 Flink 作業之儲存點的名稱 | 字串 |
upgradeMode | 字串屬性,表示要對 Flink 作業執行的升級模式。 它可以有下列其中一個列舉值 => STATELESS_UPDATE、UPDATE、LAST_STATE_UPDATE。 | 'LAST_STATE_UPDATE' 'STATELESS_UPDATE' 'UPDATE' (必要) |
FlinkProfile
名字 | 描述 | 價值 |
---|---|---|
catalogOptions | Flink 叢集目錄選項。 | FlinkCatalogOptions |
deploymentMode | 字串屬性,表示 Flink 叢集的部署模式。 它可以有下列其中一個列舉值 => Application, Session。 預設值為 Session | 'Application' 'Session' |
historyServer | 歷程記錄伺服器容器/處理CPU和記憶體需求 | ComputeResourceDefinition |
jobManager | 作業管理員容器/處理CPU和記憶體需求 | ComputeResourceDefinition (必要) |
jobSpec | 應用程式部署模式中 flink 叢集的作業規格。 即使藉由呼叫 RunJob API 來變更作業屬性,規格仍不可變,請使用 ListJob API 來取得最新的作業資訊。 | FlinkJobProfile |
numReplicas | 任務管理員的數目。 | int |
存儲 | 記憶體配置檔 | FlinkStorageProfile (必要) |
taskManager | 任務管理器容器/處理CPU和記憶體需求 | ComputeResourceDefinition (必要) |
FlinkStorageProfile
名字 | 描述 | 價值 |
---|---|---|
storagekey | 只有 wasb(s) 記憶體才需要儲存金鑰。 | 字串 約束: 敏感性值。 以安全參數的形式傳入。 |
storageUri | 用於儲存點和檢查點狀態的記憶體帳戶 URI。 | 字串 約束: 模式 = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b.*$ (必要) |
HiveCatalogOption
名字 | 描述 | 價值 |
---|---|---|
catalogName | 應該使用指定Hive中繼存放區之 Trino 目錄的名稱。 | 字串 約束: 最小長度 = 1 (必要) |
metastoreDbConnectionAuthenticationMode | 線上到 Hive 中繼存放區資料庫的驗證模式。 詳細數據:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | 來自 secretsProfile.secrets 的秘密參考名稱,其中包含資料庫連線的密碼。 | 字串 |
metastoreDbConnectionURL | Hive 中繼存放區資料庫的連接字串。 | 字串 (必要) |
metastoreDbConnectionUserName | 資料庫連線的用戶名稱。 | 字串 |
metastoreWarehouseDir | 中繼存放區根目錄 URI,格式:abfs[s]://<容器>@<account_name>.dfs.core.windows.net/<路徑>。 更多詳細數據:/azure/storage/blobs/data-lake-storage-introduction-abfs-uri | 字串 (必要) |
IdentityProfile
名字 | 描述 | 價值 |
---|---|---|
msiClientId | MSI 的 ClientId。 | 字串 約束: 模式 = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (必要) |
msiObjectId | MSI 的 ObjectId。 | 字串 約束: 模式 = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (必要) |
msiResourceId | MSI 的 ResourceId。 | 字串 (必要) |
KafkaProfile
名字 | 描述 | 價值 |
---|---|---|
diskStorage | Kafka 磁碟記憶體配置檔。 | DiskStorageProfile (必要) |
enableKRaft | 在 KRaft 模式中公開 Kafka 叢集。 | bool |
enablePublicEndpoints | 將背景工作節點公開為公用端點。 | bool |
remoteStorageUri | 用於階層式記憶體的 Azure 記憶體容器完整路徑。 | 字串 約束: Pattern = ^(https?|abfss?):\/\/[^/]+(?:\/|$) |
LoadBasedConfig
名字 | 描述 | 價值 |
---|---|---|
cooldownPeriod | 這是冷卻期間,這是一個以秒為單位的時間週期,它會決定在規則啟動的調整活動與下一個調整活動的開始之間必須經過的時間量,而不論觸發它的規則為何。 預設值為300秒。 | int |
maxNodes | 用戶必須設定以負載為基礎的調整節點數目上限,以負載為基礎的調整將會使用此調整來相應增加和縮小節點數目的最小值和最大數目。 | int (必要) |
minNodes | 用戶必須設定以負載為基礎的調整節點數目下限,以負載為基礎的調整將會使用此調整,在節點數目下限和上限之間相應增加和相應減少。 | int (必要) |
pollInterval | 用戶可以指定輪詢間隔,這是輪詢計量以觸發調整作業的時間週期(以秒為單位)。 | int |
scalingRules | 調整規則。 | ScalingRule[] (必要) |
Microsoft.HDInsight/clusterpools/clusters
名字 | 描述 | 價值 |
---|---|---|
位置 | 資源所在的地理位置 | 字串 (必要) |
名字 | 資源名稱 | 字串 (必要) |
parent_id | 此資源為父系之資源的標識碼。 | 類型的資源標識碼:叢集集區 |
性能 | 取得或設定屬性。 定義叢集特定屬性。 | ClusterResourceProperties |
標籤 | 資源標籤 | 標記名稱和值的字典。 |
類型 | 資源類型 | “Microsoft.HDInsight/clusterpools/clusters@2023-11-01-preview” |
NodeProfile
名字 | 描述 | 價值 |
---|---|---|
計數 | 虛擬機的數目。 | int 約束: 最小值 = 1 (必要) |
類型 | 節點類型。 | 字串 約束: 模式 = ^(head|Head|HEAD|worker|Worker|WORKER)$ (必要) |
vmSize | 虛擬機 SKU。 | 字串 約束: 模式 = ^[a-zA-Z0-9_\-]{0,256}$ (必要) |
RangerAdminSpec
名字 | 描述 | 價值 |
---|---|---|
admins | 應標示為 ranger 管理員的用戶名稱清單。 這些使用者名稱應該符合個別 AAD 使用者的用戶主體名稱(UPN)。 | string[] (必要) |
資料庫 | RangerAdminSpecDatabase (必要) |
RangerAdminSpecDatabase
名字 | 描述 | 價值 |
---|---|---|
主機 | 資料庫 URL | 字串 (必要) |
名字 | 資料庫名稱 | 字串 (必要) |
passwordSecretRef | 資料庫密碼的參考 | 字串 |
username | 資料庫用戶的名稱 | 字串 |
RangerAuditSpec
名字 | 描述 | 價值 |
---|---|---|
storageAccount | Blob 的 Azure 記憶體位置。 MSI 應該具有此記憶體帳戶的讀取/寫入存取權。 | 字串 約束: 最小長度 = 1 Pattern = ^(https)|(abfss)://.*$ |
RangerProfile
名字 | 描述 | 價值 |
---|---|---|
rangerAdmin | Ranger 管理服務的規格。 | RangerAdminSpec (必要) |
rangerAudit | 描述稽核記錄記憶體所需的屬性。 | RangerAuditSpec |
rangerUsersync | Ranger Usersync 服務的規格 | RangerUsersyncSpec (必要) |
RangerUsersyncSpec
名字 | 描述 | 價值 |
---|---|---|
啟用 | 表示是否應啟用 usersync 服務 | bool |
組 | 應同步處理的群組清單。 這些組名應該符合個別 AAD 群組的物件識別碼。 | string[] |
模式 | 使用者 & 群組可以自動或透過重新整理的靜態清單進行同步處理。 | 'automatic' 'static' |
userMappingLocation | 列出使用者 & 群組關聯之對應檔案的 Azure 記憶體位置。 | 字串 約束: 最小長度 = 1 Pattern = ^(https)|(abfss)://.*$ |
使用者 | 應該同步處理的用戶名稱清單。 這些使用者名稱應該符合個別 AAD 使用者的用戶主體名稱。 | string[] |
ScalingRule
名字 | 描述 | 價值 |
---|---|---|
actionType | 動作類型。 | 'scaledown' 'scaleup' (必要) |
comparisonRule | 比較規則。 | ComparisonRule (必要) |
evaluationCount | 這是調整條件的評估計數,在觸發調整活動之前,觸發條件應該成功次數。 | int (必要) |
scalingMetric | 個別工作負載的計量名稱。 例如:cpu | 字串 (必要) |
附表
名字 | 描述 | 價值 |
---|---|---|
計數 | 用戶必須設定在設定目前排程組態的調整作業結束時預期的節點計數,格式為整數。 | int (必要) |
日 | 用戶必須設定必須針對自動調整作業設定排程的天數。 | 包含任何的字串數組: 'Friday' 'Monday' 'Saturday' 'Sunday' 'Thursday' 'Tuesday' '星期三' (必要) |
endTime | 用戶必須設定目前排程設定的結束時間,格式如 10:30 (HH:MM)。 | 字串 約束: 模式 = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (必要) |
startTime | 用戶必須設定目前排程設定的開始時間,格式如 10:30 (HH:MM)。 | 字串 約束: 模式 = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (必要) |
ScheduleBasedConfig
名字 | 描述 | 價值 |
---|---|---|
defaultCount | 設定目前排程設定的預設節點計數。 預設節點計數會指定執行指定調整作業時預設的節點數目(相應增加/相應減少) | int (必要) |
附表 | 這會指定要啟用排程型自動調整的排程,用戶可以選擇在排程內跨天數和時間設定多個規則(開始/結束)。 | 排程[] (必要) |
timeZone | 用戶必須指定排程必須針對以排程為基礎的自動調整設定設定的時區。 | 字串 (必要) |
ScriptActionProfile
名字 | 描述 | 價值 |
---|---|---|
名字 | 文稿名稱。 | 字串 (必要) |
參數 | 腳本動作的其他參數。 它應該是腳本執行所需的空格分隔自變數清單。 | 字串 |
服務業 | 要套用腳本動作的服務清單。 | string[] (必要) |
shouldPersist | 指定文稿是否應該保存在叢集上。 | bool |
timeoutInMinutes | 腳本動作的逾時持續時間,以分鐘為單位。 | int |
類型 | 腳本動作的類型。 支援的型別為bash腳本。 | 字串 (必要) |
url | 腳本檔案的 URL。 | 字串 約束: 模式 = ^(https)|(http)://.*$ (必要) |
SecretReference
名字 | 描述 | 價值 |
---|---|---|
keyVaultObjectName | 金鑰保存庫中秘密的物件識別碼名稱。 | 字串 約束: 模式 = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (必要) |
referenceName | 要用於服務組態中之秘密的參考名稱。 | 字串 (必要) |
類型 | 金鑰保存庫物件的類型:秘密、金鑰或憑證。 | 'Certificate' 'Key' '秘密' (必要) |
版本 | 金鑰保存庫中的秘密版本。 | 字串 |
SecretsProfile
名字 | 描述 | 價值 |
---|---|---|
keyVaultResourceId | 儲存所有叢集特定用戶密碼的使用者 Key Vault 名稱。 | 字串 (必要) |
秘密 | Key Vault 秘密的屬性。 | SecretReference[] |
SparkMetastoreSpec
名字 | 描述 | 價值 |
---|---|---|
dbConnectionAuthenticationMode | 線上到 Hive 中繼存放區資料庫的驗證模式。 詳細數據:/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
dbName | 資料庫名稱。 | 字串 (必要) |
dbPasswordSecretName | 包含資料庫用戶密碼的秘密名稱。 | 字串 |
dbServerHost | 資料庫伺服器主機。 | 字串 (必要) |
dbUserName | 資料庫用戶名稱。 | 字串 |
keyVaultId | 金鑰保存庫資源識別碼。 | 字串 |
thriftUrl | 節儉 URL。 | 字串 |
SparkProfile
名字 | 描述 | 價值 |
---|---|---|
defaultStorageUrl | 默認記憶體 URL。 | 字串 |
metastoreSpec | Spark 叢集的中繼存放區規格。 | SparkMetastoreSpec |
userPluginsSpec | Spark 使用者外掛程式規格 | SparkUserPlugins |
SparkUserPlugin
名字 | 描述 | 價值 |
---|---|---|
路徑 | 包含外掛程式之資料夾的完整路徑。 | 字串 約束: 最小長度 = 1 模式 = ^(https)|(abfss)://.*$ (必要) |
SparkUserPlugins
名字 | 描述 | 價值 |
---|---|---|
plugins | Spark 使用者外掛程式。 | SparkUserPlugin[] |
SshProfile
名字 | 描述 | 價值 |
---|---|---|
計數 | 每個叢集的SSH Pod 數目。 | int 約束: 最小值 = 0 最大值 = 5(必要) |
TrackedResourceTags
名字 | 描述 | 價值 |
---|
TrinoCoordinator
名字 | 描述 | 價值 |
---|---|---|
調試 | Trino 偵錯組態。 | TrinoDebugConfig |
highAvailabilityEnabled | 如果啟用協調器HA,則會使用具有自動故障轉移的多個協調器複本,每個前端節點各一個。 默認值:true。 | bool |
TrinoDebugConfig
名字 | 描述 | 價值 |
---|---|---|
使 | 如果啟用偵錯,則為旗標。 | bool |
港口 | 偵錯埠。 | int |
暫停 | 如果暫停偵錯,則為旗標。 | bool |
TrinoProfile
名字 | 描述 | 價值 |
---|---|---|
catalogOptions | Trino 叢集目錄選項。 | CatalogOptions |
協調者 | Trino Coordinator. | TrinoCoordinator |
userPluginsSpec | Trino 使用者外掛程式規格 | TrinoUserPlugins |
userTelemetrySpec | 用戶遙測 | TrinoUserTelemetry |
工人 | Trino 背景工作角色。 | TrinoWorker |
TrinoTelemetryConfig
名字 | 描述 | 價值 |
---|---|---|
hivecatalogName | Hive 目錄名稱,用於在三元寫入的記錄上掛接外部數據表,如果未指定,則不會建立數據表。 | 字串 約束: 最小長度 = 1 |
hivecatalogSchema | 要使用上述目錄的架構,將查詢記錄掛接為外部數據表,如果未指定數據表,則會掛接在架構三項之下。 | 字串 |
partitionRetentionInDays | 查詢記錄數據表分割的保留期間,這不會影響實際數據。 | int |
路徑 | Blob 的 Azure 記憶體位置。 | 字串 約束: 最小長度 = 1 |
TrinoUserPlugin
名字 | 描述 | 價值 |
---|---|---|
啟用 | 表示外掛程式是否為使用中。 | bool |
名字 | 此欄位會對應至 trino 外掛程式位置中的子目錄,其中包含路徑下的所有外掛程式。 | 字串 約束: 最小長度 = 1 |
路徑 | 包含外掛程式之資料夾的完整路徑。 | 字串 約束: 最小長度 = 1 Pattern = ^(https)|(abfss)://.*$ |
TrinoUserPlugins
名字 | 描述 | 價值 |
---|---|---|
plugins | Trino 使用者外掛程式。 | TrinoUserPlugin[] |
TrinoUserTelemetry
名字 | 描述 | 價值 |
---|---|---|
存儲 | Trino 用戶遙測定義。 | TrinoTelemetryConfig |
TrinoWorker
名字 | 描述 | 價值 |
---|---|---|
調試 | Trino 偵錯組態。 | TrinoDebugConfig |