Clusterpools/clusters microsoft.HDInsight 2023-11-01-preview
- última
- 2024-05-01-preview
- 2023-11-01-preview
- 2023-06-01-preview
Definição de recurso do Bicep
O tipo de recurso clusterpools/clusters pode ser implantado com operações direcionadas:
- Grupos de recursos - Consulte comandos de implantação do grupo de recursos
Para obter uma lista de propriedades alteradas em cada versão da API, consulte de log de alterações.
Formato de recurso
Para criar um recurso Microsoft.HDInsight/clusterpools/clusters, adicione o Bicep a seguir ao seu modelo.
resource symbolicname 'Microsoft.HDInsight/clusterpools/clusters@2023-11-01-preview' = {
parent: resourceSymbolicName
location: 'string'
name: 'string'
properties: {
clusterProfile: {
authorizationProfile: {
groupIds: [
'string'
]
userIds: [
'string'
]
}
autoscaleProfile: {
autoscaleType: 'string'
enabled: bool
gracefulDecommissionTimeout: int
loadBasedConfig: {
cooldownPeriod: int
maxNodes: int
minNodes: int
pollInterval: int
scalingRules: [
{
actionType: 'string'
comparisonRule: {
operator: 'string'
threshold: int
}
evaluationCount: int
scalingMetric: 'string'
}
]
}
scheduleBasedConfig: {
defaultCount: int
schedules: [
{
count: int
days: [
'string'
]
endTime: 'string'
startTime: 'string'
}
]
timeZone: 'string'
}
}
clusterAccessProfile: {
enableInternalIngress: bool
}
clusterVersion: 'string'
flinkProfile: {
catalogOptions: {
hive: {
metastoreDbConnectionAuthenticationMode: 'string'
metastoreDbConnectionPasswordSecret: 'string'
metastoreDbConnectionURL: 'string'
metastoreDbConnectionUserName: 'string'
}
}
deploymentMode: 'string'
historyServer: {
cpu: int
memory: int
}
jobManager: {
cpu: int
memory: int
}
jobSpec: {
args: 'string'
entryClass: 'string'
jarName: 'string'
jobJarDirectory: 'string'
savePointName: 'string'
upgradeMode: 'string'
}
numReplicas: int
storage: {
storagekey: 'string'
storageUri: 'string'
}
taskManager: {
cpu: int
memory: int
}
}
identityProfile: {
msiClientId: 'string'
msiObjectId: 'string'
msiResourceId: 'string'
}
kafkaProfile: {
diskStorage: {
dataDiskSize: int
dataDiskType: 'string'
}
enableKRaft: bool
enablePublicEndpoints: bool
remoteStorageUri: 'string'
}
llapProfile: {
{customized property}: any(Azure.Bicep.Types.Concrete.AnyType)
}
logAnalyticsProfile: {
applicationLogs: {
stdErrorEnabled: bool
stdOutEnabled: bool
}
enabled: bool
metricsEnabled: bool
}
ossVersion: 'string'
prometheusProfile: {
enabled: bool
}
rangerPluginProfile: {
enabled: bool
}
rangerProfile: {
rangerAdmin: {
admins: [
'string'
]
database: {
host: 'string'
name: 'string'
passwordSecretRef: 'string'
username: 'string'
}
}
rangerAudit: {
storageAccount: 'string'
}
rangerUsersync: {
enabled: bool
groups: [
'string'
]
mode: 'string'
userMappingLocation: 'string'
users: [
'string'
]
}
}
scriptActionProfiles: [
{
name: 'string'
parameters: 'string'
services: [
'string'
]
shouldPersist: bool
timeoutInMinutes: int
type: 'string'
url: 'string'
}
]
secretsProfile: {
keyVaultResourceId: 'string'
secrets: [
{
keyVaultObjectName: 'string'
referenceName: 'string'
type: 'string'
version: 'string'
}
]
}
serviceConfigsProfiles: [
{
configs: [
{
component: 'string'
files: [
{
content: 'string'
encoding: 'string'
fileName: 'string'
path: 'string'
values: {
{customized property}: 'string'
}
}
]
}
]
serviceName: 'string'
}
]
sparkProfile: {
defaultStorageUrl: 'string'
metastoreSpec: {
dbConnectionAuthenticationMode: 'string'
dbName: 'string'
dbPasswordSecretName: 'string'
dbServerHost: 'string'
dbUserName: 'string'
keyVaultId: 'string'
thriftUrl: 'string'
}
userPluginsSpec: {
plugins: [
{
path: 'string'
}
]
}
}
sshProfile: {
count: int
}
stubProfile: {
{customized property}: any(Azure.Bicep.Types.Concrete.AnyType)
}
trinoProfile: {
catalogOptions: {
hive: [
{
catalogName: 'string'
metastoreDbConnectionAuthenticationMode: 'string'
metastoreDbConnectionPasswordSecret: 'string'
metastoreDbConnectionURL: 'string'
metastoreDbConnectionUserName: 'string'
metastoreWarehouseDir: 'string'
}
]
}
coordinator: {
debug: {
enable: bool
port: int
suspend: bool
}
highAvailabilityEnabled: bool
}
userPluginsSpec: {
plugins: [
{
enabled: bool
name: 'string'
path: 'string'
}
]
}
userTelemetrySpec: {
storage: {
hivecatalogName: 'string'
hivecatalogSchema: 'string'
partitionRetentionInDays: int
path: 'string'
}
}
worker: {
debug: {
enable: bool
port: int
suspend: bool
}
}
}
}
clusterType: 'string'
computeProfile: {
nodes: [
{
count: int
type: 'string'
vmSize: 'string'
}
]
}
}
tags: {
{customized property}: 'string'
}
}
Valores de propriedade
AuthorizationProfile
Nome | Descrição | Valor |
---|---|---|
groupIds | IDs de grupo do AAD autorizadas para acesso ao plano de dados. | string[] |
userIds | IDs de usuário do AAD autorizadas para acesso ao plano de dados. | string[] |
AutoscaleProfile
CatalogOptions
Nome | Descrição | Valor |
---|---|---|
colmeia | opções de catálogo do hive. | HiveCatalogOption [] |
ClusterAccessProfile
Nome | Descrição | Valor |
---|---|---|
enableInternalIngress | Se o cluster deve ser criado usando IP privado em vez de IP público. Essa propriedade deve ser definida no momento da criação. | bool (obrigatório) |
ClusterConfigFile
ClusterConfigFileValues
Nome | Descrição | Valor |
---|
ClusterLogAnalyticsApplicationLogs
Nome | Descrição | Valor |
---|---|---|
stdErrorEnabled | True se o stderror estiver habilitado, caso contrário, false. | Bool |
stdOutEnabled | True se stdout estiver habilitado, caso contrário, false. | Bool |
ClusterLogAnalyticsProfile
Nome | Descrição | Valor |
---|---|---|
applicationLogs | Coleção de logs a serem habilitados ou desabilitados para análise de logs. | ClusterLogAnalyticsApplicationLogs |
Habilitado | True se o log analytics estiver habilitado para o cluster, caso contrário, false. | bool (obrigatório) |
metricsEnabled | True se as métricas estiverem habilitadas, caso contrário, false. | Bool |
ClusterProfile
Nome | Descrição | Valor |
---|---|---|
authorizationProfile | Perfil de autorização com detalhes de IDs de usuário do AAD e IDs de grupo autorizadas para acesso ao plano de dados. | AuthorizationProfile (obrigatório) |
autoscaleProfile | Esse é o perfil de Dimensionamento Automático para o cluster. Isso permitirá que o cliente crie um cluster habilitado com o Dimensionamento Automático. | |
clusterAccessProfile | Perfil de acesso do cluster. | ClusterAccessProfile |
clusterVersion | Versão com parte 3/4. | corda Restrições: Padrão = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (obrigatório) |
flinkProfile | O perfil do cluster Flink. | FlinkProfile |
identityProfile | Essa propriedade é exigida pelo cluster Trino, Spark e Flink, mas é opcional para o cluster Kafka. | IdentityProfile |
kafkaProfile | O perfil do cluster Kafka. | KafkaProfile |
llapProfile | Perfil do cluster LLAP. | ClusterProfileLlapProfile |
logAnalyticsProfile | Perfil de análise de log de cluster para habilitar ou desabilitar o agente do OMS para cluster. | ClusterLogAnalyticsProfile |
ossVersion | Versão com três partes. | corda Restrições: Padrão = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (obrigatório) |
prometheusProfile | Perfil do Prometheus do cluster. | |
rangerPluginProfile | Perfil de plug-in do Cluster Ranger. | ClusterRangerPluginProfile |
rangerProfile | O perfil do cluster ranger. | RangerProfile |
scriptActionProfiles | A lista de perfis de ação de script. | ScriptActionProfile [] |
secretsProfile | O perfil de segredo do cluster. | |
serviceConfigsProfiles | Os perfis de configurações de serviço. | ClusterServiceConfigsProfile [] |
sparkProfile | O perfil do cluster spark. | SparkProfile |
sshProfile | Perfil Ssh para o cluster. | SshProfile |
stubProfile | Perfil do cluster stub. | ClusterProfileStubProfile |
trinoProfile | Perfil do Cluster Trino. | TrinoProfile |
ClusterProfileLlapProfile
Nome | Descrição | Valor |
---|
ClusterProfileStubProfile
Nome | Descrição | Valor |
---|
ClusterPrometheusProfile
Nome | Descrição | Valor |
---|---|---|
Habilitado | Habilite o Prometheus para cluster ou não. | bool (obrigatório) |
ClusterRangerPluginProfile
Nome | Descrição | Valor |
---|---|---|
Habilitado | Habilite o Ranger para cluster ou não. | bool (obrigatório) |
ClusterResourceProperties
ClusterServiceConfig
ClusterServiceConfigsProfile
ComparisonRule
Nome | Descrição | Valor |
---|---|---|
operador | O operador de comparação. | 'greaterThan' 'greaterThanOrEqual' 'lessThan' 'lessThanOrEqual' (obrigatório) |
limiar | Configuração de limite. | int (obrigatório) |
ComputeProfile
Nome | Descrição | Valor |
---|---|---|
Nós | As definições de nós. | NodeProfile [] (obrigatório) |
ComputeResourceDefinition
Nome | Descrição | Valor |
---|---|---|
CPU | A CPU necessária. | int (obrigatório) |
memória | A memória necessária em MB, memória de contêiner será de 110 percentil | int (obrigatório) |
DiskStorageProfile
Nome | Descrição | Valor |
---|---|---|
dataDiskSize | Tamanho do Disco Gerenciado em GB. O tamanho máximo de disco com suporte para Standard e HDD/SSD Premium é de 32 TB, exceto para O SSD Premium v2, que dá suporte a até 64 TB. | int (obrigatório) |
dataDiskType | Tipo de disco gerenciado. | 'Premium_SSD_LRS' 'Premium_SSD_v2_LRS' 'Premium_SSD_ZRS' 'Standard_HDD_LRS' 'Standard_SSD_LRS' 'Standard_SSD_ZRS' (obrigatório) |
FlinkCatalogOptions
Nome | Descrição | Valor |
---|---|---|
colmeia | Opção de Catálogo do Hive para o cluster Flink. | FlinkHiveCatalogOption |
FlinkHiveCatalogOption
Nome | Descrição | Valor |
---|---|---|
metastoreDbConnectionAuthenticationMode | O modo de autenticação para se conectar ao banco de dados metastore do Hive. Mais detalhes: /azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | Nome de referência secreta de secretsProfile.secrets contendo senha para conexão de banco de dados. | corda |
metastoreDbConnectionURL | Cadeia de conexão para o banco de dados metastore do hive. | cadeia de caracteres (obrigatório) |
metastoreDbConnectionUserName | Nome de usuário para conexão de banco de dados. | corda |
FlinkJobProfile
Nome | Descrição | Valor |
---|---|---|
args | Uma propriedade de cadeia de caracteres que representa argumentos JVM adicionais para o trabalho Flink. Deve ser um valor separado por espaço. | corda |
entryClass | Uma propriedade de cadeia de caracteres que especifica a classe de entrada para o trabalho Flink. Se não for especificado, o ponto de entrada será detectado automaticamente do pacote do jar do trabalho flink. | corda |
jarName | Uma propriedade de cadeia de caracteres que representa o nome do JAR do trabalho. | cadeia de caracteres (obrigatório) |
jobJarDirectory | Uma propriedade de cadeia de caracteres que especifica o diretório em que o JAR do trabalho está localizado. | cadeia de caracteres (obrigatório) |
savePointName | Uma propriedade de cadeia de caracteres que representa o nome do ponto de salvamento para o trabalho Flink | corda |
upgradeMode | Uma propriedade de cadeia de caracteres que indica o modo de atualização a ser executado no trabalho Flink. Ele pode ter um dos seguintes valores de enumeração => STATELESS_UPDATE, UPDATE, LAST_STATE_UPDATE. | 'LAST_STATE_UPDATE' 'STATELESS_UPDATE' 'UPDATE' (obrigatório) |
FlinkProfile
FlinkStorageProfile
Nome | Descrição | Valor |
---|---|---|
storagekey | A chave de armazenamento só é necessária para o armazenamento de wasb(s). | corda Restrições: Valor confidencial. Passe como um parâmetro seguro. |
storageUri | URI da conta de armazenamento que é usado para o estado de ponto de salvamento e ponto de verificação. | corda Restrições: Padrão = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b.*$ (obrigatório) |
HiveCatalogOption
Nome | Descrição | Valor |
---|---|---|
catalogName | Nome do catálogo de trinos que deve usar metastore de hive especificado. | corda Restrições: Comprimento mínimo = 1 (obrigatório) |
metastoreDbConnectionAuthenticationMode | O modo de autenticação para se conectar ao banco de dados metastore do Hive. Mais detalhes: /azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | Nome de referência secreta de secretsProfile.secrets contendo senha para conexão de banco de dados. | corda |
metastoreDbConnectionURL | Cadeia de conexão para o banco de dados metastore do hive. | cadeia de caracteres (obrigatório) |
metastoreDbConnectionUserName | Nome de usuário para conexão de banco de dados. | corda |
metastoreWarehouseDir | URI do diretório raiz metastore, formato: abfs[s]://<container>@<account_name>.dfs.core.windows.net/<path>. Mais detalhes: /azure/storage/blobs/data-lake-storage-introduction-abfs-uri | cadeia de caracteres (obrigatório) |
IdentityProfile
Nome | Descrição | Valor |
---|---|---|
msiClientId | ClientId da MSI. | corda Restrições: Padrão = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obrigatório) |
msiObjectId | ObjectId do MSI. | corda Restrições: Padrão = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obrigatório) |
msiResourceId | ResourceId da MSI. | cadeia de caracteres (obrigatório) |
KafkaProfile
LoadBasedConfig
Nome | Descrição | Valor |
---|---|---|
cooldownPeriod | Esse é um período de resfriamento, esse é um período de tempo em segundos, que determina a quantidade de tempo que deve decorrer entre uma atividade de dimensionamento iniciada por uma regra e o início da próxima atividade de dimensionamento, independentemente da regra que a dispara. O valor padrão é 300 segundos. | int |
maxNodes | O usuário precisa definir o número máximo de nós para dimensionamento baseado em carga, o dimensionamento baseado em carga usará isso para escalar verticalmente e reduzir verticalmente entre o número mínimo e máximo de nós. | int (obrigatório) |
minNodes | O usuário precisa definir o número mínimo de nós para dimensionamento baseado em carga, o dimensionamento baseado em carga usará isso para escalar verticalmente e reduzir verticalmente entre o número mínimo e máximo de nós. | int (obrigatório) |
pollInterval | O usuário pode especificar o intervalo de sondagem, esse é o período de tempo (em segundos) após o qual as métricas de dimensionamento são sondadas para disparar uma operação de dimensionamento. | int |
scalingRules | As regras de dimensionamento. | ScalingRule[] (obrigatório) |
Microsoft.HDInsight/clusterpools/clusters
Nome | Descrição | Valor |
---|---|---|
localização | A localização geográfica onde o recurso reside | cadeia de caracteres (obrigatório) |
nome | O nome do recurso | cadeia de caracteres (obrigatório) |
pai | No Bicep, você pode especificar o recurso pai para um recurso filho. Você só precisa adicionar essa propriedade quando o recurso filho é declarado fora do recurso pai. Para obter mais informações, consulte recurso filho fora do recurso pai. |
Nome simbólico para o recurso do tipo: clusterpools |
Propriedades | Obtém ou define as propriedades. Defina propriedades específicas do cluster. | clusterResourceProperties |
Tags | Marcas de recurso | Dicionário de nomes e valores de marca. Consulte Marcas em modelos |
NodeProfile
Nome | Descrição | Valor |
---|---|---|
contar | O número de máquinas virtuais. | int Restrições: Valor mínimo = 1 (obrigatório) |
tipo | O tipo de nó. | corda Restrições: Padrão = ^(head|Head|HEAD|worker|Worker|WORKER)$ (obrigatório) |
vmSize | A SKU da máquina virtual. | corda Restrições: Padrão = ^[a-zA-Z0-9_\-]{0,256}$ (obrigatório) |
RangerAdminSpec
RangerAdminSpecDatabase
Nome | Descrição | Valor |
---|---|---|
anfitrião | A URL do banco de dados | cadeia de caracteres (obrigatório) |
nome | O nome do banco de dados | cadeia de caracteres (obrigatório) |
passwordSecretRef | Referência para a senha do banco de dados | corda |
nome de usuário | O nome do usuário do banco de dados | corda |
RangerAuditSpec
Nome | Descrição | Valor |
---|---|---|
storageAccount | Local de armazenamento do Azure dos blobs. A MSI deve ter acesso de leitura/gravação a essa conta de Armazenamento. | corda Restrições: Comprimento mínimo = 1 Padrão = ^(https)|(abfss)://.*$ |
RangerProfile
RangerUsersyncSpec
Nome | Descrição | Valor |
---|---|---|
Habilitado | Indica se o serviço usersync deve ser habilitado | Bool |
Grupos | Lista de grupos que devem ser sincronizados. Esses nomes de grupo devem corresponder à ID do objeto dos respectivos grupos do AAD. | string[] |
modo | Os grupos de & de usuários podem ser sincronizados automaticamente ou por meio de uma lista estática atualizada. | 'automático' 'estático' |
userMappingLocation | Local de armazenamento do Azure de um arquivo de mapeamento que lista associações de usuário & grupo. | corda Restrições: Comprimento mínimo = 1 Padrão = ^(https)|(abfss)://.*$ |
Usuários | Lista de nomes de usuário que devem ser sincronizados. Esses nomes de usuário devem corresponder ao nome de entidade de usuário dos respectivos usuários do AAD. | string[] |
ScalingRule
Horário
Nome | Descrição | Valor |
---|---|---|
contar | O usuário precisa definir a contagem de nós prevista no final da operação de dimensionamento da configuração de agendamento atual definida, o formato é inteiro. | int (obrigatório) |
Dias | O usuário precisa definir os dias em que o agendamento deve ser definido para a operação de dimensionamento automático. | Matriz de cadeia de caracteres que contém qualquer um dos: 'Sexta-feira' 'Segunda-feira' 'Sábado' 'Domingo' 'Quinta-feira' 'Terça-feira' 'Quarta-feira' (obrigatório) |
endTime | O usuário precisa definir a hora de término da configuração de agendamento atual, formato como 10:30 (HH:MM). | corda Restrições: Padrão = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obrigatório) |
startTime | O usuário precisa definir a hora de início da configuração de agendamento atual, formato como 10:30 (HH:MM). | corda Restrições: Padrão = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obrigatório) |
ScheduleBasedConfig
Nome | Descrição | Valor |
---|---|---|
defaultCount | Definindo a contagem de nós padrão da configuração de agendamento atual. A contagem de nós padrão especifica o número de nós que são padrão quando uma operação de dimensionamento especificada é executada (escalar verticalmente/reduzir verticalmente) | int (obrigatório) |
Horários | Isso especifica os agendamentos em que o Dimensionamento Automático com base agendado deve ser habilitado, o usuário tem a opção de definir várias regras dentro do agendamento ao longo de dias e horas (início/término). | agendar[] (obrigatório) |
Fuso horário | O usuário precisa especificar o fuso horário no qual o agendamento deve ser definido para a configuração de dimensionamento automático baseada em agendamento. | cadeia de caracteres (obrigatório) |
ScriptActionProfile
Nome | Descrição | Valor |
---|---|---|
nome | Nome do script. | cadeia de caracteres (obrigatório) |
Parâmetros | Parâmetros adicionais para a ação de script. Deve ser uma lista separada por espaço dos argumentos necessários para a execução do script. | corda |
Serviços | Lista de serviços para aplicar a ação de script. | string[] (obrigatório) |
shouldPersist | Especifique se o script deve persistir no cluster. | Bool |
timeoutInMinutes | Duração do tempo limite para a ação de script em minutos. | int |
tipo | Tipo da ação de script. O tipo com suporte são scripts bash. | cadeia de caracteres (obrigatório) |
url | URL do arquivo de script. | corda Restrições: Padrão = ^(https)|(http)://.*$ (obrigatório) |
SecretReference
Nome | Descrição | Valor |
---|---|---|
keyVaultObjectName | Nome do identificador de objeto do segredo no cofre de chaves. | corda Restrições: Padrão = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (obrigatório) |
referenceName | Nome de referência do segredo a ser usado em configurações de serviço. | cadeia de caracteres (obrigatório) |
tipo | Tipo de objeto do cofre de chaves: segredo, chave ou certificado. | 'Certificado' 'Key' 'Secret' (obrigatório) |
Versão | Versão do segredo no cofre de chaves. | corda |
SecretsProfile
SparkMetastoreSpec
Nome | Descrição | Valor |
---|---|---|
dbConnectionAuthenticationMode | O modo de autenticação para se conectar ao banco de dados metastore do Hive. Mais detalhes: /azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
dbName | O nome do banco de dados. | cadeia de caracteres (obrigatório) |
dbPasswordSecretName | O nome do segredo que contém a senha do usuário do banco de dados. | corda |
dbServerHost | O host do servidor de banco de dados. | cadeia de caracteres (obrigatório) |
dbUserName | O nome de usuário do banco de dados. | corda |
keyVaultId | A ID do recurso do cofre de chaves. | corda |
thriftUrl | A URL do brechó. | corda |
SparkProfile
SparkUserPlugin
Nome | Descrição | Valor |
---|---|---|
caminho | Caminho totalmente qualificado para a pasta que contém os plug-ins. | corda Restrições: Comprimento mínimo = 1 Padrão = ^(https)|(abfss)://.*$ (obrigatório) |
SparkUserPlugins
Nome | Descrição | Valor |
---|---|---|
plug-ins | Plug-ins de usuário do Spark. | SparkUserPlugin [] |
SshProfile
Nome | Descrição | Valor |
---|---|---|
contar | Número de pods ssh por cluster. | int Restrições: Valor mínimo = 0 Valor máximo = 5 (obrigatório) |
TrackedResourceTags
Nome | Descrição | Valor |
---|
TrinoCoordinator
TrinoDebugConfig
Nome | Descrição | Valor |
---|---|---|
habilitar | O sinalizador que, se habilitar a depuração ou não. | Bool |
porta | A porta de depuração. | int |
suspender | O sinalizador que, se suspender a depuração ou não. | Bool |
TrinoProfile
TrinoTelemetryConfig
Nome | Descrição | Valor |
---|---|---|
hivecatalogName | Nome do Catálogo do Hive usado para montar tabelas externas nos logs gravados pelo trino, se não for especificado, não serão criadas tabelas. | corda Restrições: Comprimento mínimo = 1 |
hivecatalogSchema | Esquema do catálogo acima a ser usado, para montar logs de consulta como tabelas externas, se não forem especificadas, as tabelas serão montadas em trinologs de esquema. | corda |
partitionRetentionInDays | Período de retenção para partições da tabela de log de consultas, isso não afeta os dados reais. | int |
caminho | Local de armazenamento do Azure dos blobs. | corda Restrições: Comprimento mínimo = 1 |
TrinoUserPlugin
Nome | Descrição | Valor |
---|---|---|
Habilitado | Indica se o plug-in está ativo ou não. | Bool |
nome | Esse campo é mapeado para o subdiretório no local dos plug-ins do trino, que conterá todos os plug-ins no caminho. | corda Restrições: Comprimento mínimo = 1 |
caminho | Caminho totalmente qualificado para a pasta que contém os plug-ins. | corda Restrições: Comprimento mínimo = 1 Padrão = ^(https)|(abfss)://.*$ |
TrinoUserPlugins
Nome | Descrição | Valor |
---|---|---|
plug-ins | Plug-ins de usuário do Trino. | TrinoUserPlugin [] |
TrinoUserTelemetry
Nome | Descrição | Valor |
---|---|---|
armazenamento | Definição de telemetria do usuário do Trino. | TrinoTelemetryConfig |
TrinoWorker
Nome | Descrição | Valor |
---|---|---|
depurar | Configuração de depuração do Trino. | TrinoDebugConfig |
Definição de recurso de modelo do ARM
O tipo de recurso clusterpools/clusters pode ser implantado com operações direcionadas:
- Grupos de recursos - Consulte comandos de implantação do grupo de recursos
Para obter uma lista de propriedades alteradas em cada versão da API, consulte de log de alterações.
Formato de recurso
Para criar um recurso Microsoft.HDInsight/clusterpools/clusters, adicione o JSON a seguir ao modelo.
{
"type": "Microsoft.HDInsight/clusterpools/clusters",
"apiVersion": "2023-11-01-preview",
"name": "string",
"location": "string",
"properties": {
"clusterProfile": {
"authorizationProfile": {
"groupIds": [ "string" ],
"userIds": [ "string" ]
},
"autoscaleProfile": {
"autoscaleType": "string",
"enabled": "bool",
"gracefulDecommissionTimeout": "int",
"loadBasedConfig": {
"cooldownPeriod": "int",
"maxNodes": "int",
"minNodes": "int",
"pollInterval": "int",
"scalingRules": [
{
"actionType": "string",
"comparisonRule": {
"operator": "string",
"threshold": "int"
},
"evaluationCount": "int",
"scalingMetric": "string"
}
]
},
"scheduleBasedConfig": {
"defaultCount": "int",
"schedules": [
{
"count": "int",
"days": [ "string" ],
"endTime": "string",
"startTime": "string"
}
],
"timeZone": "string"
}
},
"clusterAccessProfile": {
"enableInternalIngress": "bool"
},
"clusterVersion": "string",
"flinkProfile": {
"catalogOptions": {
"hive": {
"metastoreDbConnectionAuthenticationMode": "string",
"metastoreDbConnectionPasswordSecret": "string",
"metastoreDbConnectionURL": "string",
"metastoreDbConnectionUserName": "string"
}
},
"deploymentMode": "string",
"historyServer": {
"cpu": "int",
"memory": "int"
},
"jobManager": {
"cpu": "int",
"memory": "int"
},
"jobSpec": {
"args": "string",
"entryClass": "string",
"jarName": "string",
"jobJarDirectory": "string",
"savePointName": "string",
"upgradeMode": "string"
},
"numReplicas": "int",
"storage": {
"storagekey": "string",
"storageUri": "string"
},
"taskManager": {
"cpu": "int",
"memory": "int"
}
},
"identityProfile": {
"msiClientId": "string",
"msiObjectId": "string",
"msiResourceId": "string"
},
"kafkaProfile": {
"diskStorage": {
"dataDiskSize": "int",
"dataDiskType": "string"
},
"enableKRaft": "bool",
"enablePublicEndpoints": "bool",
"remoteStorageUri": "string"
},
"llapProfile": {
"{customized property}": {}
},
"logAnalyticsProfile": {
"applicationLogs": {
"stdErrorEnabled": "bool",
"stdOutEnabled": "bool"
},
"enabled": "bool",
"metricsEnabled": "bool"
},
"ossVersion": "string",
"prometheusProfile": {
"enabled": "bool"
},
"rangerPluginProfile": {
"enabled": "bool"
},
"rangerProfile": {
"rangerAdmin": {
"admins": [ "string" ],
"database": {
"host": "string",
"name": "string",
"passwordSecretRef": "string",
"username": "string"
}
},
"rangerAudit": {
"storageAccount": "string"
},
"rangerUsersync": {
"enabled": "bool",
"groups": [ "string" ],
"mode": "string",
"userMappingLocation": "string",
"users": [ "string" ]
}
},
"scriptActionProfiles": [
{
"name": "string",
"parameters": "string",
"services": [ "string" ],
"shouldPersist": "bool",
"timeoutInMinutes": "int",
"type": "string",
"url": "string"
}
],
"secretsProfile": {
"keyVaultResourceId": "string",
"secrets": [
{
"keyVaultObjectName": "string",
"referenceName": "string",
"type": "string",
"version": "string"
}
]
},
"serviceConfigsProfiles": [
{
"configs": [
{
"component": "string",
"files": [
{
"content": "string",
"encoding": "string",
"fileName": "string",
"path": "string",
"values": {
"{customized property}": "string"
}
}
]
}
],
"serviceName": "string"
}
],
"sparkProfile": {
"defaultStorageUrl": "string",
"metastoreSpec": {
"dbConnectionAuthenticationMode": "string",
"dbName": "string",
"dbPasswordSecretName": "string",
"dbServerHost": "string",
"dbUserName": "string",
"keyVaultId": "string",
"thriftUrl": "string"
},
"userPluginsSpec": {
"plugins": [
{
"path": "string"
}
]
}
},
"sshProfile": {
"count": "int"
},
"stubProfile": {
"{customized property}": {}
},
"trinoProfile": {
"catalogOptions": {
"hive": [
{
"catalogName": "string",
"metastoreDbConnectionAuthenticationMode": "string",
"metastoreDbConnectionPasswordSecret": "string",
"metastoreDbConnectionURL": "string",
"metastoreDbConnectionUserName": "string",
"metastoreWarehouseDir": "string"
}
]
},
"coordinator": {
"debug": {
"enable": "bool",
"port": "int",
"suspend": "bool"
},
"highAvailabilityEnabled": "bool"
},
"userPluginsSpec": {
"plugins": [
{
"enabled": "bool",
"name": "string",
"path": "string"
}
]
},
"userTelemetrySpec": {
"storage": {
"hivecatalogName": "string",
"hivecatalogSchema": "string",
"partitionRetentionInDays": "int",
"path": "string"
}
},
"worker": {
"debug": {
"enable": "bool",
"port": "int",
"suspend": "bool"
}
}
}
},
"clusterType": "string",
"computeProfile": {
"nodes": [
{
"count": "int",
"type": "string",
"vmSize": "string"
}
]
}
},
"tags": {
"{customized property}": "string"
}
}
Valores de propriedade
AuthorizationProfile
Nome | Descrição | Valor |
---|---|---|
groupIds | IDs de grupo do AAD autorizadas para acesso ao plano de dados. | string[] |
userIds | IDs de usuário do AAD autorizadas para acesso ao plano de dados. | string[] |
AutoscaleProfile
CatalogOptions
Nome | Descrição | Valor |
---|---|---|
colmeia | opções de catálogo do hive. | HiveCatalogOption [] |
ClusterAccessProfile
Nome | Descrição | Valor |
---|---|---|
enableInternalIngress | Se o cluster deve ser criado usando IP privado em vez de IP público. Essa propriedade deve ser definida no momento da criação. | bool (obrigatório) |
ClusterConfigFile
ClusterConfigFileValues
Nome | Descrição | Valor |
---|
ClusterLogAnalyticsApplicationLogs
Nome | Descrição | Valor |
---|---|---|
stdErrorEnabled | True se o stderror estiver habilitado, caso contrário, false. | Bool |
stdOutEnabled | True se stdout estiver habilitado, caso contrário, false. | Bool |
ClusterLogAnalyticsProfile
Nome | Descrição | Valor |
---|---|---|
applicationLogs | Coleção de logs a serem habilitados ou desabilitados para análise de logs. | ClusterLogAnalyticsApplicationLogs |
Habilitado | True se o log analytics estiver habilitado para o cluster, caso contrário, false. | bool (obrigatório) |
metricsEnabled | True se as métricas estiverem habilitadas, caso contrário, false. | Bool |
ClusterProfile
Nome | Descrição | Valor |
---|---|---|
authorizationProfile | Perfil de autorização com detalhes de IDs de usuário do AAD e IDs de grupo autorizadas para acesso ao plano de dados. | AuthorizationProfile (obrigatório) |
autoscaleProfile | Esse é o perfil de Dimensionamento Automático para o cluster. Isso permitirá que o cliente crie um cluster habilitado com o Dimensionamento Automático. | |
clusterAccessProfile | Perfil de acesso do cluster. | ClusterAccessProfile |
clusterVersion | Versão com parte 3/4. | corda Restrições: Padrão = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (obrigatório) |
flinkProfile | O perfil do cluster Flink. | FlinkProfile |
identityProfile | Essa propriedade é exigida pelo cluster Trino, Spark e Flink, mas é opcional para o cluster Kafka. | IdentityProfile |
kafkaProfile | O perfil do cluster Kafka. | KafkaProfile |
llapProfile | Perfil do cluster LLAP. | ClusterProfileLlapProfile |
logAnalyticsProfile | Perfil de análise de log de cluster para habilitar ou desabilitar o agente do OMS para cluster. | ClusterLogAnalyticsProfile |
ossVersion | Versão com três partes. | corda Restrições: Padrão = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (obrigatório) |
prometheusProfile | Perfil do Prometheus do cluster. | |
rangerPluginProfile | Perfil de plug-in do Cluster Ranger. | ClusterRangerPluginProfile |
rangerProfile | O perfil do cluster ranger. | RangerProfile |
scriptActionProfiles | A lista de perfis de ação de script. | ScriptActionProfile [] |
secretsProfile | O perfil de segredo do cluster. | |
serviceConfigsProfiles | Os perfis de configurações de serviço. | ClusterServiceConfigsProfile [] |
sparkProfile | O perfil do cluster spark. | SparkProfile |
sshProfile | Perfil Ssh para o cluster. | SshProfile |
stubProfile | Perfil do cluster stub. | ClusterProfileStubProfile |
trinoProfile | Perfil do Cluster Trino. | TrinoProfile |
ClusterProfileLlapProfile
Nome | Descrição | Valor |
---|
ClusterProfileStubProfile
Nome | Descrição | Valor |
---|
ClusterPrometheusProfile
Nome | Descrição | Valor |
---|---|---|
Habilitado | Habilite o Prometheus para cluster ou não. | bool (obrigatório) |
ClusterRangerPluginProfile
Nome | Descrição | Valor |
---|---|---|
Habilitado | Habilite o Ranger para cluster ou não. | bool (obrigatório) |
ClusterResourceProperties
ClusterServiceConfig
ClusterServiceConfigsProfile
ComparisonRule
Nome | Descrição | Valor |
---|---|---|
operador | O operador de comparação. | 'greaterThan' 'greaterThanOrEqual' 'lessThan' 'lessThanOrEqual' (obrigatório) |
limiar | Configuração de limite. | int (obrigatório) |
ComputeProfile
Nome | Descrição | Valor |
---|---|---|
Nós | As definições de nós. | NodeProfile [] (obrigatório) |
ComputeResourceDefinition
Nome | Descrição | Valor |
---|---|---|
CPU | A CPU necessária. | int (obrigatório) |
memória | A memória necessária em MB, memória de contêiner será de 110 percentil | int (obrigatório) |
DiskStorageProfile
Nome | Descrição | Valor |
---|---|---|
dataDiskSize | Tamanho do Disco Gerenciado em GB. O tamanho máximo de disco com suporte para Standard e HDD/SSD Premium é de 32 TB, exceto para O SSD Premium v2, que dá suporte a até 64 TB. | int (obrigatório) |
dataDiskType | Tipo de disco gerenciado. | 'Premium_SSD_LRS' 'Premium_SSD_v2_LRS' 'Premium_SSD_ZRS' 'Standard_HDD_LRS' 'Standard_SSD_LRS' 'Standard_SSD_ZRS' (obrigatório) |
FlinkCatalogOptions
Nome | Descrição | Valor |
---|---|---|
colmeia | Opção de Catálogo do Hive para o cluster Flink. | FlinkHiveCatalogOption |
FlinkHiveCatalogOption
Nome | Descrição | Valor |
---|---|---|
metastoreDbConnectionAuthenticationMode | O modo de autenticação para se conectar ao banco de dados metastore do Hive. Mais detalhes: /azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | Nome de referência secreta de secretsProfile.secrets contendo senha para conexão de banco de dados. | corda |
metastoreDbConnectionURL | Cadeia de conexão para o banco de dados metastore do hive. | cadeia de caracteres (obrigatório) |
metastoreDbConnectionUserName | Nome de usuário para conexão de banco de dados. | corda |
FlinkJobProfile
Nome | Descrição | Valor |
---|---|---|
args | Uma propriedade de cadeia de caracteres que representa argumentos JVM adicionais para o trabalho Flink. Deve ser um valor separado por espaço. | corda |
entryClass | Uma propriedade de cadeia de caracteres que especifica a classe de entrada para o trabalho Flink. Se não for especificado, o ponto de entrada será detectado automaticamente do pacote do jar do trabalho flink. | corda |
jarName | Uma propriedade de cadeia de caracteres que representa o nome do JAR do trabalho. | cadeia de caracteres (obrigatório) |
jobJarDirectory | Uma propriedade de cadeia de caracteres que especifica o diretório em que o JAR do trabalho está localizado. | cadeia de caracteres (obrigatório) |
savePointName | Uma propriedade de cadeia de caracteres que representa o nome do ponto de salvamento para o trabalho Flink | corda |
upgradeMode | Uma propriedade de cadeia de caracteres que indica o modo de atualização a ser executado no trabalho Flink. Ele pode ter um dos seguintes valores de enumeração => STATELESS_UPDATE, UPDATE, LAST_STATE_UPDATE. | 'LAST_STATE_UPDATE' 'STATELESS_UPDATE' 'UPDATE' (obrigatório) |
FlinkProfile
FlinkStorageProfile
Nome | Descrição | Valor |
---|---|---|
storagekey | A chave de armazenamento só é necessária para o armazenamento de wasb(s). | corda Restrições: Valor confidencial. Passe como um parâmetro seguro. |
storageUri | URI da conta de armazenamento que é usado para o estado de ponto de salvamento e ponto de verificação. | corda Restrições: Padrão = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b.*$ (obrigatório) |
HiveCatalogOption
Nome | Descrição | Valor |
---|---|---|
catalogName | Nome do catálogo de trinos que deve usar metastore de hive especificado. | corda Restrições: Comprimento mínimo = 1 (obrigatório) |
metastoreDbConnectionAuthenticationMode | O modo de autenticação para se conectar ao banco de dados metastore do Hive. Mais detalhes: /azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | Nome de referência secreta de secretsProfile.secrets contendo senha para conexão de banco de dados. | corda |
metastoreDbConnectionURL | Cadeia de conexão para o banco de dados metastore do hive. | cadeia de caracteres (obrigatório) |
metastoreDbConnectionUserName | Nome de usuário para conexão de banco de dados. | corda |
metastoreWarehouseDir | URI do diretório raiz metastore, formato: abfs[s]://<container>@<account_name>.dfs.core.windows.net/<path>. Mais detalhes: /azure/storage/blobs/data-lake-storage-introduction-abfs-uri | cadeia de caracteres (obrigatório) |
IdentityProfile
Nome | Descrição | Valor |
---|---|---|
msiClientId | ClientId da MSI. | corda Restrições: Padrão = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obrigatório) |
msiObjectId | ObjectId do MSI. | corda Restrições: Padrão = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obrigatório) |
msiResourceId | ResourceId da MSI. | cadeia de caracteres (obrigatório) |
KafkaProfile
LoadBasedConfig
Nome | Descrição | Valor |
---|---|---|
cooldownPeriod | Esse é um período de resfriamento, esse é um período de tempo em segundos, que determina a quantidade de tempo que deve decorrer entre uma atividade de dimensionamento iniciada por uma regra e o início da próxima atividade de dimensionamento, independentemente da regra que a dispara. O valor padrão é 300 segundos. | int |
maxNodes | O usuário precisa definir o número máximo de nós para dimensionamento baseado em carga, o dimensionamento baseado em carga usará isso para escalar verticalmente e reduzir verticalmente entre o número mínimo e máximo de nós. | int (obrigatório) |
minNodes | O usuário precisa definir o número mínimo de nós para dimensionamento baseado em carga, o dimensionamento baseado em carga usará isso para escalar verticalmente e reduzir verticalmente entre o número mínimo e máximo de nós. | int (obrigatório) |
pollInterval | O usuário pode especificar o intervalo de sondagem, esse é o período de tempo (em segundos) após o qual as métricas de dimensionamento são sondadas para disparar uma operação de dimensionamento. | int |
scalingRules | As regras de dimensionamento. | ScalingRule[] (obrigatório) |
Microsoft.HDInsight/clusterpools/clusters
Nome | Descrição | Valor |
---|---|---|
apiVersion | A versão da API | '2023-11-01-preview' |
localização | A localização geográfica onde o recurso reside | cadeia de caracteres (obrigatório) |
nome | O nome do recurso | cadeia de caracteres (obrigatório) |
Propriedades | Obtém ou define as propriedades. Defina propriedades específicas do cluster. | clusterResourceProperties |
Tags | Marcas de recurso | Dicionário de nomes e valores de marca. Consulte Marcas em modelos |
tipo | O tipo de recurso | 'Microsoft.HDInsight/clusterpools/clusters' |
NodeProfile
Nome | Descrição | Valor |
---|---|---|
contar | O número de máquinas virtuais. | int Restrições: Valor mínimo = 1 (obrigatório) |
tipo | O tipo de nó. | corda Restrições: Padrão = ^(head|Head|HEAD|worker|Worker|WORKER)$ (obrigatório) |
vmSize | A SKU da máquina virtual. | corda Restrições: Padrão = ^[a-zA-Z0-9_\-]{0,256}$ (obrigatório) |
RangerAdminSpec
RangerAdminSpecDatabase
Nome | Descrição | Valor |
---|---|---|
anfitrião | A URL do banco de dados | cadeia de caracteres (obrigatório) |
nome | O nome do banco de dados | cadeia de caracteres (obrigatório) |
passwordSecretRef | Referência para a senha do banco de dados | corda |
nome de usuário | O nome do usuário do banco de dados | corda |
RangerAuditSpec
Nome | Descrição | Valor |
---|---|---|
storageAccount | Local de armazenamento do Azure dos blobs. A MSI deve ter acesso de leitura/gravação a essa conta de Armazenamento. | corda Restrições: Comprimento mínimo = 1 Padrão = ^(https)|(abfss)://.*$ |
RangerProfile
RangerUsersyncSpec
Nome | Descrição | Valor |
---|---|---|
Habilitado | Indica se o serviço usersync deve ser habilitado | Bool |
Grupos | Lista de grupos que devem ser sincronizados. Esses nomes de grupo devem corresponder à ID do objeto dos respectivos grupos do AAD. | string[] |
modo | Os grupos de & de usuários podem ser sincronizados automaticamente ou por meio de uma lista estática atualizada. | 'automático' 'estático' |
userMappingLocation | Local de armazenamento do Azure de um arquivo de mapeamento que lista associações de usuário & grupo. | corda Restrições: Comprimento mínimo = 1 Padrão = ^(https)|(abfss)://.*$ |
Usuários | Lista de nomes de usuário que devem ser sincronizados. Esses nomes de usuário devem corresponder ao nome de entidade de usuário dos respectivos usuários do AAD. | string[] |
ScalingRule
Horário
Nome | Descrição | Valor |
---|---|---|
contar | O usuário precisa definir a contagem de nós prevista no final da operação de dimensionamento da configuração de agendamento atual definida, o formato é inteiro. | int (obrigatório) |
Dias | O usuário precisa definir os dias em que o agendamento deve ser definido para a operação de dimensionamento automático. | Matriz de cadeia de caracteres que contém qualquer um dos: 'Sexta-feira' 'Segunda-feira' 'Sábado' 'Domingo' 'Quinta-feira' 'Terça-feira' 'Quarta-feira' (obrigatório) |
endTime | O usuário precisa definir a hora de término da configuração de agendamento atual, formato como 10:30 (HH:MM). | corda Restrições: Padrão = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obrigatório) |
startTime | O usuário precisa definir a hora de início da configuração de agendamento atual, formato como 10:30 (HH:MM). | corda Restrições: Padrão = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obrigatório) |
ScheduleBasedConfig
Nome | Descrição | Valor |
---|---|---|
defaultCount | Definindo a contagem de nós padrão da configuração de agendamento atual. A contagem de nós padrão especifica o número de nós que são padrão quando uma operação de dimensionamento especificada é executada (escalar verticalmente/reduzir verticalmente) | int (obrigatório) |
Horários | Isso especifica os agendamentos em que o Dimensionamento Automático com base agendado deve ser habilitado, o usuário tem a opção de definir várias regras dentro do agendamento ao longo de dias e horas (início/término). | agendar[] (obrigatório) |
Fuso horário | O usuário precisa especificar o fuso horário no qual o agendamento deve ser definido para a configuração de dimensionamento automático baseada em agendamento. | cadeia de caracteres (obrigatório) |
ScriptActionProfile
Nome | Descrição | Valor |
---|---|---|
nome | Nome do script. | cadeia de caracteres (obrigatório) |
Parâmetros | Parâmetros adicionais para a ação de script. Deve ser uma lista separada por espaço dos argumentos necessários para a execução do script. | corda |
Serviços | Lista de serviços para aplicar a ação de script. | string[] (obrigatório) |
shouldPersist | Especifique se o script deve persistir no cluster. | Bool |
timeoutInMinutes | Duração do tempo limite para a ação de script em minutos. | int |
tipo | Tipo da ação de script. O tipo com suporte são scripts bash. | cadeia de caracteres (obrigatório) |
url | URL do arquivo de script. | corda Restrições: Padrão = ^(https)|(http)://.*$ (obrigatório) |
SecretReference
Nome | Descrição | Valor |
---|---|---|
keyVaultObjectName | Nome do identificador de objeto do segredo no cofre de chaves. | corda Restrições: Padrão = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (obrigatório) |
referenceName | Nome de referência do segredo a ser usado em configurações de serviço. | cadeia de caracteres (obrigatório) |
tipo | Tipo de objeto do cofre de chaves: segredo, chave ou certificado. | 'Certificado' 'Key' 'Secret' (obrigatório) |
Versão | Versão do segredo no cofre de chaves. | corda |
SecretsProfile
SparkMetastoreSpec
Nome | Descrição | Valor |
---|---|---|
dbConnectionAuthenticationMode | O modo de autenticação para se conectar ao banco de dados metastore do Hive. Mais detalhes: /azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
dbName | O nome do banco de dados. | cadeia de caracteres (obrigatório) |
dbPasswordSecretName | O nome do segredo que contém a senha do usuário do banco de dados. | corda |
dbServerHost | O host do servidor de banco de dados. | cadeia de caracteres (obrigatório) |
dbUserName | O nome de usuário do banco de dados. | corda |
keyVaultId | A ID do recurso do cofre de chaves. | corda |
thriftUrl | A URL do brechó. | corda |
SparkProfile
SparkUserPlugin
Nome | Descrição | Valor |
---|---|---|
caminho | Caminho totalmente qualificado para a pasta que contém os plug-ins. | corda Restrições: Comprimento mínimo = 1 Padrão = ^(https)|(abfss)://.*$ (obrigatório) |
SparkUserPlugins
Nome | Descrição | Valor |
---|---|---|
plug-ins | Plug-ins de usuário do Spark. | SparkUserPlugin [] |
SshProfile
Nome | Descrição | Valor |
---|---|---|
contar | Número de pods ssh por cluster. | int Restrições: Valor mínimo = 0 Valor máximo = 5 (obrigatório) |
TrackedResourceTags
Nome | Descrição | Valor |
---|
TrinoCoordinator
TrinoDebugConfig
Nome | Descrição | Valor |
---|---|---|
habilitar | O sinalizador que, se habilitar a depuração ou não. | Bool |
porta | A porta de depuração. | int |
suspender | O sinalizador que, se suspender a depuração ou não. | Bool |
TrinoProfile
TrinoTelemetryConfig
Nome | Descrição | Valor |
---|---|---|
hivecatalogName | Nome do Catálogo do Hive usado para montar tabelas externas nos logs gravados pelo trino, se não for especificado, não serão criadas tabelas. | corda Restrições: Comprimento mínimo = 1 |
hivecatalogSchema | Esquema do catálogo acima a ser usado, para montar logs de consulta como tabelas externas, se não forem especificadas, as tabelas serão montadas em trinologs de esquema. | corda |
partitionRetentionInDays | Período de retenção para partições da tabela de log de consultas, isso não afeta os dados reais. | int |
caminho | Local de armazenamento do Azure dos blobs. | corda Restrições: Comprimento mínimo = 1 |
TrinoUserPlugin
Nome | Descrição | Valor |
---|---|---|
Habilitado | Indica se o plug-in está ativo ou não. | Bool |
nome | Esse campo é mapeado para o subdiretório no local dos plug-ins do trino, que conterá todos os plug-ins no caminho. | corda Restrições: Comprimento mínimo = 1 |
caminho | Caminho totalmente qualificado para a pasta que contém os plug-ins. | corda Restrições: Comprimento mínimo = 1 Padrão = ^(https)|(abfss)://.*$ |
TrinoUserPlugins
Nome | Descrição | Valor |
---|---|---|
plug-ins | Plug-ins de usuário do Trino. | TrinoUserPlugin [] |
TrinoUserTelemetry
Nome | Descrição | Valor |
---|---|---|
armazenamento | Definição de telemetria do usuário do Trino. | TrinoTelemetryConfig |
TrinoWorker
Nome | Descrição | Valor |
---|---|---|
depurar | Configuração de depuração do Trino. | TrinoDebugConfig |
Definição de recurso do Terraform (provedor de AzAPI)
O tipo de recurso clusterpools/clusters pode ser implantado com operações direcionadas:
- grupos de recursos
Para obter uma lista de propriedades alteradas em cada versão da API, consulte de log de alterações.
Formato de recurso
Para criar um recurso Microsoft.HDInsight/clusterpools/clusters, adicione o Terraform a seguir ao seu modelo.
resource "azapi_resource" "symbolicname" {
type = "Microsoft.HDInsight/clusterpools/clusters@2023-11-01-preview"
name = "string"
location = "string"
tags = {
{customized property} = "string"
}
body = jsonencode({
properties = {
clusterProfile = {
authorizationProfile = {
groupIds = [
"string"
]
userIds = [
"string"
]
}
autoscaleProfile = {
autoscaleType = "string"
enabled = bool
gracefulDecommissionTimeout = int
loadBasedConfig = {
cooldownPeriod = int
maxNodes = int
minNodes = int
pollInterval = int
scalingRules = [
{
actionType = "string"
comparisonRule = {
operator = "string"
threshold = int
}
evaluationCount = int
scalingMetric = "string"
}
]
}
scheduleBasedConfig = {
defaultCount = int
schedules = [
{
count = int
days = [
"string"
]
endTime = "string"
startTime = "string"
}
]
timeZone = "string"
}
}
clusterAccessProfile = {
enableInternalIngress = bool
}
clusterVersion = "string"
flinkProfile = {
catalogOptions = {
hive = {
metastoreDbConnectionAuthenticationMode = "string"
metastoreDbConnectionPasswordSecret = "string"
metastoreDbConnectionURL = "string"
metastoreDbConnectionUserName = "string"
}
}
deploymentMode = "string"
historyServer = {
cpu = int
memory = int
}
jobManager = {
cpu = int
memory = int
}
jobSpec = {
args = "string"
entryClass = "string"
jarName = "string"
jobJarDirectory = "string"
savePointName = "string"
upgradeMode = "string"
}
numReplicas = int
storage = {
storagekey = "string"
storageUri = "string"
}
taskManager = {
cpu = int
memory = int
}
}
identityProfile = {
msiClientId = "string"
msiObjectId = "string"
msiResourceId = "string"
}
kafkaProfile = {
diskStorage = {
dataDiskSize = int
dataDiskType = "string"
}
enableKRaft = bool
enablePublicEndpoints = bool
remoteStorageUri = "string"
}
llapProfile = {
{customized property} = ?
}
logAnalyticsProfile = {
applicationLogs = {
stdErrorEnabled = bool
stdOutEnabled = bool
}
enabled = bool
metricsEnabled = bool
}
ossVersion = "string"
prometheusProfile = {
enabled = bool
}
rangerPluginProfile = {
enabled = bool
}
rangerProfile = {
rangerAdmin = {
admins = [
"string"
]
database = {
host = "string"
name = "string"
passwordSecretRef = "string"
username = "string"
}
}
rangerAudit = {
storageAccount = "string"
}
rangerUsersync = {
enabled = bool
groups = [
"string"
]
mode = "string"
userMappingLocation = "string"
users = [
"string"
]
}
}
scriptActionProfiles = [
{
name = "string"
parameters = "string"
services = [
"string"
]
shouldPersist = bool
timeoutInMinutes = int
type = "string"
url = "string"
}
]
secretsProfile = {
keyVaultResourceId = "string"
secrets = [
{
keyVaultObjectName = "string"
referenceName = "string"
type = "string"
version = "string"
}
]
}
serviceConfigsProfiles = [
{
configs = [
{
component = "string"
files = [
{
content = "string"
encoding = "string"
fileName = "string"
path = "string"
values = {
{customized property} = "string"
}
}
]
}
]
serviceName = "string"
}
]
sparkProfile = {
defaultStorageUrl = "string"
metastoreSpec = {
dbConnectionAuthenticationMode = "string"
dbName = "string"
dbPasswordSecretName = "string"
dbServerHost = "string"
dbUserName = "string"
keyVaultId = "string"
thriftUrl = "string"
}
userPluginsSpec = {
plugins = [
{
path = "string"
}
]
}
}
sshProfile = {
count = int
}
stubProfile = {
{customized property} = ?
}
trinoProfile = {
catalogOptions = {
hive = [
{
catalogName = "string"
metastoreDbConnectionAuthenticationMode = "string"
metastoreDbConnectionPasswordSecret = "string"
metastoreDbConnectionURL = "string"
metastoreDbConnectionUserName = "string"
metastoreWarehouseDir = "string"
}
]
}
coordinator = {
debug = {
enable = bool
port = int
suspend = bool
}
highAvailabilityEnabled = bool
}
userPluginsSpec = {
plugins = [
{
enabled = bool
name = "string"
path = "string"
}
]
}
userTelemetrySpec = {
storage = {
hivecatalogName = "string"
hivecatalogSchema = "string"
partitionRetentionInDays = int
path = "string"
}
}
worker = {
debug = {
enable = bool
port = int
suspend = bool
}
}
}
}
clusterType = "string"
computeProfile = {
nodes = [
{
count = int
type = "string"
vmSize = "string"
}
]
}
}
})
}
Valores de propriedade
AuthorizationProfile
Nome | Descrição | Valor |
---|---|---|
groupIds | IDs de grupo do AAD autorizadas para acesso ao plano de dados. | string[] |
userIds | IDs de usuário do AAD autorizadas para acesso ao plano de dados. | string[] |
AutoscaleProfile
CatalogOptions
Nome | Descrição | Valor |
---|---|---|
colmeia | opções de catálogo do hive. | HiveCatalogOption [] |
ClusterAccessProfile
Nome | Descrição | Valor |
---|---|---|
enableInternalIngress | Se o cluster deve ser criado usando IP privado em vez de IP público. Essa propriedade deve ser definida no momento da criação. | bool (obrigatório) |
ClusterConfigFile
ClusterConfigFileValues
Nome | Descrição | Valor |
---|
ClusterLogAnalyticsApplicationLogs
Nome | Descrição | Valor |
---|---|---|
stdErrorEnabled | True se o stderror estiver habilitado, caso contrário, false. | Bool |
stdOutEnabled | True se stdout estiver habilitado, caso contrário, false. | Bool |
ClusterLogAnalyticsProfile
Nome | Descrição | Valor |
---|---|---|
applicationLogs | Coleção de logs a serem habilitados ou desabilitados para análise de logs. | ClusterLogAnalyticsApplicationLogs |
Habilitado | True se o log analytics estiver habilitado para o cluster, caso contrário, false. | bool (obrigatório) |
metricsEnabled | True se as métricas estiverem habilitadas, caso contrário, false. | Bool |
ClusterProfile
Nome | Descrição | Valor |
---|---|---|
authorizationProfile | Perfil de autorização com detalhes de IDs de usuário do AAD e IDs de grupo autorizadas para acesso ao plano de dados. | AuthorizationProfile (obrigatório) |
autoscaleProfile | Esse é o perfil de Dimensionamento Automático para o cluster. Isso permitirá que o cliente crie um cluster habilitado com o Dimensionamento Automático. | |
clusterAccessProfile | Perfil de acesso do cluster. | ClusterAccessProfile |
clusterVersion | Versão com parte 3/4. | corda Restrições: Padrão = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (obrigatório) |
flinkProfile | O perfil do cluster Flink. | FlinkProfile |
identityProfile | Essa propriedade é exigida pelo cluster Trino, Spark e Flink, mas é opcional para o cluster Kafka. | IdentityProfile |
kafkaProfile | O perfil do cluster Kafka. | KafkaProfile |
llapProfile | Perfil do cluster LLAP. | ClusterProfileLlapProfile |
logAnalyticsProfile | Perfil de análise de log de cluster para habilitar ou desabilitar o agente do OMS para cluster. | ClusterLogAnalyticsProfile |
ossVersion | Versão com três partes. | corda Restrições: Padrão = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (obrigatório) |
prometheusProfile | Perfil do Prometheus do cluster. | |
rangerPluginProfile | Perfil de plug-in do Cluster Ranger. | ClusterRangerPluginProfile |
rangerProfile | O perfil do cluster ranger. | RangerProfile |
scriptActionProfiles | A lista de perfis de ação de script. | ScriptActionProfile [] |
secretsProfile | O perfil de segredo do cluster. | |
serviceConfigsProfiles | Os perfis de configurações de serviço. | ClusterServiceConfigsProfile [] |
sparkProfile | O perfil do cluster spark. | SparkProfile |
sshProfile | Perfil Ssh para o cluster. | SshProfile |
stubProfile | Perfil do cluster stub. | ClusterProfileStubProfile |
trinoProfile | Perfil do Cluster Trino. | TrinoProfile |
ClusterProfileLlapProfile
Nome | Descrição | Valor |
---|
ClusterProfileStubProfile
Nome | Descrição | Valor |
---|
ClusterPrometheusProfile
Nome | Descrição | Valor |
---|---|---|
Habilitado | Habilite o Prometheus para cluster ou não. | bool (obrigatório) |
ClusterRangerPluginProfile
Nome | Descrição | Valor |
---|---|---|
Habilitado | Habilite o Ranger para cluster ou não. | bool (obrigatório) |
ClusterResourceProperties
ClusterServiceConfig
ClusterServiceConfigsProfile
ComparisonRule
Nome | Descrição | Valor |
---|---|---|
operador | O operador de comparação. | 'greaterThan' 'greaterThanOrEqual' 'lessThan' 'lessThanOrEqual' (obrigatório) |
limiar | Configuração de limite. | int (obrigatório) |
ComputeProfile
Nome | Descrição | Valor |
---|---|---|
Nós | As definições de nós. | NodeProfile [] (obrigatório) |
ComputeResourceDefinition
Nome | Descrição | Valor |
---|---|---|
CPU | A CPU necessária. | int (obrigatório) |
memória | A memória necessária em MB, memória de contêiner será de 110 percentil | int (obrigatório) |
DiskStorageProfile
Nome | Descrição | Valor |
---|---|---|
dataDiskSize | Tamanho do Disco Gerenciado em GB. O tamanho máximo de disco com suporte para Standard e HDD/SSD Premium é de 32 TB, exceto para O SSD Premium v2, que dá suporte a até 64 TB. | int (obrigatório) |
dataDiskType | Tipo de disco gerenciado. | 'Premium_SSD_LRS' 'Premium_SSD_v2_LRS' 'Premium_SSD_ZRS' 'Standard_HDD_LRS' 'Standard_SSD_LRS' 'Standard_SSD_ZRS' (obrigatório) |
FlinkCatalogOptions
Nome | Descrição | Valor |
---|---|---|
colmeia | Opção de Catálogo do Hive para o cluster Flink. | FlinkHiveCatalogOption |
FlinkHiveCatalogOption
Nome | Descrição | Valor |
---|---|---|
metastoreDbConnectionAuthenticationMode | O modo de autenticação para se conectar ao banco de dados metastore do Hive. Mais detalhes: /azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | Nome de referência secreta de secretsProfile.secrets contendo senha para conexão de banco de dados. | corda |
metastoreDbConnectionURL | Cadeia de conexão para o banco de dados metastore do hive. | cadeia de caracteres (obrigatório) |
metastoreDbConnectionUserName | Nome de usuário para conexão de banco de dados. | corda |
FlinkJobProfile
Nome | Descrição | Valor |
---|---|---|
args | Uma propriedade de cadeia de caracteres que representa argumentos JVM adicionais para o trabalho Flink. Deve ser um valor separado por espaço. | corda |
entryClass | Uma propriedade de cadeia de caracteres que especifica a classe de entrada para o trabalho Flink. Se não for especificado, o ponto de entrada será detectado automaticamente do pacote do jar do trabalho flink. | corda |
jarName | Uma propriedade de cadeia de caracteres que representa o nome do JAR do trabalho. | cadeia de caracteres (obrigatório) |
jobJarDirectory | Uma propriedade de cadeia de caracteres que especifica o diretório em que o JAR do trabalho está localizado. | cadeia de caracteres (obrigatório) |
savePointName | Uma propriedade de cadeia de caracteres que representa o nome do ponto de salvamento para o trabalho Flink | corda |
upgradeMode | Uma propriedade de cadeia de caracteres que indica o modo de atualização a ser executado no trabalho Flink. Ele pode ter um dos seguintes valores de enumeração => STATELESS_UPDATE, UPDATE, LAST_STATE_UPDATE. | 'LAST_STATE_UPDATE' 'STATELESS_UPDATE' 'UPDATE' (obrigatório) |
FlinkProfile
FlinkStorageProfile
Nome | Descrição | Valor |
---|---|---|
storagekey | A chave de armazenamento só é necessária para o armazenamento de wasb(s). | corda Restrições: Valor confidencial. Passe como um parâmetro seguro. |
storageUri | URI da conta de armazenamento que é usado para o estado de ponto de salvamento e ponto de verificação. | corda Restrições: Padrão = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b.*$ (obrigatório) |
HiveCatalogOption
Nome | Descrição | Valor |
---|---|---|
catalogName | Nome do catálogo de trinos que deve usar metastore de hive especificado. | corda Restrições: Comprimento mínimo = 1 (obrigatório) |
metastoreDbConnectionAuthenticationMode | O modo de autenticação para se conectar ao banco de dados metastore do Hive. Mais detalhes: /azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | Nome de referência secreta de secretsProfile.secrets contendo senha para conexão de banco de dados. | corda |
metastoreDbConnectionURL | Cadeia de conexão para o banco de dados metastore do hive. | cadeia de caracteres (obrigatório) |
metastoreDbConnectionUserName | Nome de usuário para conexão de banco de dados. | corda |
metastoreWarehouseDir | URI do diretório raiz metastore, formato: abfs[s]://<container>@<account_name>.dfs.core.windows.net/<path>. Mais detalhes: /azure/storage/blobs/data-lake-storage-introduction-abfs-uri | cadeia de caracteres (obrigatório) |
IdentityProfile
Nome | Descrição | Valor |
---|---|---|
msiClientId | ClientId da MSI. | corda Restrições: Padrão = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obrigatório) |
msiObjectId | ObjectId do MSI. | corda Restrições: Padrão = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obrigatório) |
msiResourceId | ResourceId da MSI. | cadeia de caracteres (obrigatório) |
KafkaProfile
LoadBasedConfig
Nome | Descrição | Valor |
---|---|---|
cooldownPeriod | Esse é um período de resfriamento, esse é um período de tempo em segundos, que determina a quantidade de tempo que deve decorrer entre uma atividade de dimensionamento iniciada por uma regra e o início da próxima atividade de dimensionamento, independentemente da regra que a dispara. O valor padrão é 300 segundos. | int |
maxNodes | O usuário precisa definir o número máximo de nós para dimensionamento baseado em carga, o dimensionamento baseado em carga usará isso para escalar verticalmente e reduzir verticalmente entre o número mínimo e máximo de nós. | int (obrigatório) |
minNodes | O usuário precisa definir o número mínimo de nós para dimensionamento baseado em carga, o dimensionamento baseado em carga usará isso para escalar verticalmente e reduzir verticalmente entre o número mínimo e máximo de nós. | int (obrigatório) |
pollInterval | O usuário pode especificar o intervalo de sondagem, esse é o período de tempo (em segundos) após o qual as métricas de dimensionamento são sondadas para disparar uma operação de dimensionamento. | int |
scalingRules | As regras de dimensionamento. | ScalingRule[] (obrigatório) |
Microsoft.HDInsight/clusterpools/clusters
Nome | Descrição | Valor |
---|---|---|
localização | A localização geográfica onde o recurso reside | cadeia de caracteres (obrigatório) |
nome | O nome do recurso | cadeia de caracteres (obrigatório) |
parent_id | A ID do recurso que é o pai desse recurso. | ID do recurso do tipo: clusterpools |
Propriedades | Obtém ou define as propriedades. Defina propriedades específicas do cluster. | clusterResourceProperties |
Tags | Marcas de recurso | Dicionário de nomes e valores de marca. |
tipo | O tipo de recurso | "Microsoft.HDInsight/clusterpools/clusters@2023-11-01-preview" |
NodeProfile
Nome | Descrição | Valor |
---|---|---|
contar | O número de máquinas virtuais. | int Restrições: Valor mínimo = 1 (obrigatório) |
tipo | O tipo de nó. | corda Restrições: Padrão = ^(head|Head|HEAD|worker|Worker|WORKER)$ (obrigatório) |
vmSize | A SKU da máquina virtual. | corda Restrições: Padrão = ^[a-zA-Z0-9_\-]{0,256}$ (obrigatório) |
RangerAdminSpec
RangerAdminSpecDatabase
Nome | Descrição | Valor |
---|---|---|
anfitrião | A URL do banco de dados | cadeia de caracteres (obrigatório) |
nome | O nome do banco de dados | cadeia de caracteres (obrigatório) |
passwordSecretRef | Referência para a senha do banco de dados | corda |
nome de usuário | O nome do usuário do banco de dados | corda |
RangerAuditSpec
Nome | Descrição | Valor |
---|---|---|
storageAccount | Local de armazenamento do Azure dos blobs. A MSI deve ter acesso de leitura/gravação a essa conta de Armazenamento. | corda Restrições: Comprimento mínimo = 1 Padrão = ^(https)|(abfss)://.*$ |
RangerProfile
RangerUsersyncSpec
Nome | Descrição | Valor |
---|---|---|
Habilitado | Indica se o serviço usersync deve ser habilitado | Bool |
Grupos | Lista de grupos que devem ser sincronizados. Esses nomes de grupo devem corresponder à ID do objeto dos respectivos grupos do AAD. | string[] |
modo | Os grupos de & de usuários podem ser sincronizados automaticamente ou por meio de uma lista estática atualizada. | 'automático' 'estático' |
userMappingLocation | Local de armazenamento do Azure de um arquivo de mapeamento que lista associações de usuário & grupo. | corda Restrições: Comprimento mínimo = 1 Padrão = ^(https)|(abfss)://.*$ |
Usuários | Lista de nomes de usuário que devem ser sincronizados. Esses nomes de usuário devem corresponder ao nome de entidade de usuário dos respectivos usuários do AAD. | string[] |
ScalingRule
Horário
Nome | Descrição | Valor |
---|---|---|
contar | O usuário precisa definir a contagem de nós prevista no final da operação de dimensionamento da configuração de agendamento atual definida, o formato é inteiro. | int (obrigatório) |
Dias | O usuário precisa definir os dias em que o agendamento deve ser definido para a operação de dimensionamento automático. | Matriz de cadeia de caracteres que contém qualquer um dos: 'Sexta-feira' 'Segunda-feira' 'Sábado' 'Domingo' 'Quinta-feira' 'Terça-feira' 'Quarta-feira' (obrigatório) |
endTime | O usuário precisa definir a hora de término da configuração de agendamento atual, formato como 10:30 (HH:MM). | corda Restrições: Padrão = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obrigatório) |
startTime | O usuário precisa definir a hora de início da configuração de agendamento atual, formato como 10:30 (HH:MM). | corda Restrições: Padrão = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obrigatório) |
ScheduleBasedConfig
Nome | Descrição | Valor |
---|---|---|
defaultCount | Definindo a contagem de nós padrão da configuração de agendamento atual. A contagem de nós padrão especifica o número de nós que são padrão quando uma operação de dimensionamento especificada é executada (escalar verticalmente/reduzir verticalmente) | int (obrigatório) |
Horários | Isso especifica os agendamentos em que o Dimensionamento Automático com base agendado deve ser habilitado, o usuário tem a opção de definir várias regras dentro do agendamento ao longo de dias e horas (início/término). | agendar[] (obrigatório) |
Fuso horário | O usuário precisa especificar o fuso horário no qual o agendamento deve ser definido para a configuração de dimensionamento automático baseada em agendamento. | cadeia de caracteres (obrigatório) |
ScriptActionProfile
Nome | Descrição | Valor |
---|---|---|
nome | Nome do script. | cadeia de caracteres (obrigatório) |
Parâmetros | Parâmetros adicionais para a ação de script. Deve ser uma lista separada por espaço dos argumentos necessários para a execução do script. | corda |
Serviços | Lista de serviços para aplicar a ação de script. | string[] (obrigatório) |
shouldPersist | Especifique se o script deve persistir no cluster. | Bool |
timeoutInMinutes | Duração do tempo limite para a ação de script em minutos. | int |
tipo | Tipo da ação de script. O tipo com suporte são scripts bash. | cadeia de caracteres (obrigatório) |
url | URL do arquivo de script. | corda Restrições: Padrão = ^(https)|(http)://.*$ (obrigatório) |
SecretReference
Nome | Descrição | Valor |
---|---|---|
keyVaultObjectName | Nome do identificador de objeto do segredo no cofre de chaves. | corda Restrições: Padrão = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (obrigatório) |
referenceName | Nome de referência do segredo a ser usado em configurações de serviço. | cadeia de caracteres (obrigatório) |
tipo | Tipo de objeto do cofre de chaves: segredo, chave ou certificado. | 'Certificado' 'Key' 'Secret' (obrigatório) |
Versão | Versão do segredo no cofre de chaves. | corda |
SecretsProfile
SparkMetastoreSpec
Nome | Descrição | Valor |
---|---|---|
dbConnectionAuthenticationMode | O modo de autenticação para se conectar ao banco de dados metastore do Hive. Mais detalhes: /azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
dbName | O nome do banco de dados. | cadeia de caracteres (obrigatório) |
dbPasswordSecretName | O nome do segredo que contém a senha do usuário do banco de dados. | corda |
dbServerHost | O host do servidor de banco de dados. | cadeia de caracteres (obrigatório) |
dbUserName | O nome de usuário do banco de dados. | corda |
keyVaultId | A ID do recurso do cofre de chaves. | corda |
thriftUrl | A URL do brechó. | corda |
SparkProfile
SparkUserPlugin
Nome | Descrição | Valor |
---|---|---|
caminho | Caminho totalmente qualificado para a pasta que contém os plug-ins. | corda Restrições: Comprimento mínimo = 1 Padrão = ^(https)|(abfss)://.*$ (obrigatório) |
SparkUserPlugins
Nome | Descrição | Valor |
---|---|---|
plug-ins | Plug-ins de usuário do Spark. | SparkUserPlugin [] |
SshProfile
Nome | Descrição | Valor |
---|---|---|
contar | Número de pods ssh por cluster. | int Restrições: Valor mínimo = 0 Valor máximo = 5 (obrigatório) |
TrackedResourceTags
Nome | Descrição | Valor |
---|
TrinoCoordinator
TrinoDebugConfig
Nome | Descrição | Valor |
---|---|---|
habilitar | O sinalizador que, se habilitar a depuração ou não. | Bool |
porta | A porta de depuração. | int |
suspender | O sinalizador que, se suspender a depuração ou não. | Bool |
TrinoProfile
TrinoTelemetryConfig
Nome | Descrição | Valor |
---|---|---|
hivecatalogName | Nome do Catálogo do Hive usado para montar tabelas externas nos logs gravados pelo trino, se não for especificado, não serão criadas tabelas. | corda Restrições: Comprimento mínimo = 1 |
hivecatalogSchema | Esquema do catálogo acima a ser usado, para montar logs de consulta como tabelas externas, se não forem especificadas, as tabelas serão montadas em trinologs de esquema. | corda |
partitionRetentionInDays | Período de retenção para partições da tabela de log de consultas, isso não afeta os dados reais. | int |
caminho | Local de armazenamento do Azure dos blobs. | corda Restrições: Comprimento mínimo = 1 |
TrinoUserPlugin
Nome | Descrição | Valor |
---|---|---|
Habilitado | Indica se o plug-in está ativo ou não. | Bool |
nome | Esse campo é mapeado para o subdiretório no local dos plug-ins do trino, que conterá todos os plug-ins no caminho. | corda Restrições: Comprimento mínimo = 1 |
caminho | Caminho totalmente qualificado para a pasta que contém os plug-ins. | corda Restrições: Comprimento mínimo = 1 Padrão = ^(https)|(abfss)://.*$ |
TrinoUserPlugins
Nome | Descrição | Valor |
---|---|---|
plug-ins | Plug-ins de usuário do Trino. | TrinoUserPlugin [] |
TrinoUserTelemetry
Nome | Descrição | Valor |
---|---|---|
armazenamento | Definição de telemetria do usuário do Trino. | TrinoTelemetryConfig |
TrinoWorker
Nome | Descrição | Valor |
---|---|---|
depurar | Configuração de depuração do Trino. | TrinoDebugConfig |