Microsoft.HDInsight clusterpools/clusters 2023-11-01-preview
Définition de ressource Bicep
Le type de ressource clusterpools/clusters peut être déployé avec des opérations qui ciblent :
- groupes de ressources - Consultez commandes de déploiement de groupes de ressources
Pour obtenir la liste des propriétés modifiées dans chaque version de l’API, consultez journal des modifications.
Format de ressource
Pour créer une ressource Microsoft.HDInsight/clusterpools/clusters, ajoutez le bicep suivant à votre modèle.
resource symbolicname 'Microsoft.HDInsight/clusterpools/clusters@2023-11-01-preview' = {
parent: resourceSymbolicName
location: 'string'
name: 'string'
properties: {
clusterProfile: {
authorizationProfile: {
groupIds: [
'string'
]
userIds: [
'string'
]
}
autoscaleProfile: {
autoscaleType: 'string'
enabled: bool
gracefulDecommissionTimeout: int
loadBasedConfig: {
cooldownPeriod: int
maxNodes: int
minNodes: int
pollInterval: int
scalingRules: [
{
actionType: 'string'
comparisonRule: {
operator: 'string'
threshold: int
}
evaluationCount: int
scalingMetric: 'string'
}
]
}
scheduleBasedConfig: {
defaultCount: int
schedules: [
{
count: int
days: [
'string'
]
endTime: 'string'
startTime: 'string'
}
]
timeZone: 'string'
}
}
clusterAccessProfile: {
enableInternalIngress: bool
}
clusterVersion: 'string'
flinkProfile: {
catalogOptions: {
hive: {
metastoreDbConnectionAuthenticationMode: 'string'
metastoreDbConnectionPasswordSecret: 'string'
metastoreDbConnectionURL: 'string'
metastoreDbConnectionUserName: 'string'
}
}
deploymentMode: 'string'
historyServer: {
cpu: int
memory: int
}
jobManager: {
cpu: int
memory: int
}
jobSpec: {
args: 'string'
entryClass: 'string'
jarName: 'string'
jobJarDirectory: 'string'
savePointName: 'string'
upgradeMode: 'string'
}
numReplicas: int
storage: {
storagekey: 'string'
storageUri: 'string'
}
taskManager: {
cpu: int
memory: int
}
}
identityProfile: {
msiClientId: 'string'
msiObjectId: 'string'
msiResourceId: 'string'
}
kafkaProfile: {
diskStorage: {
dataDiskSize: int
dataDiskType: 'string'
}
enableKRaft: bool
enablePublicEndpoints: bool
remoteStorageUri: 'string'
}
llapProfile: {
{customized property}: any(Azure.Bicep.Types.Concrete.AnyType)
}
logAnalyticsProfile: {
applicationLogs: {
stdErrorEnabled: bool
stdOutEnabled: bool
}
enabled: bool
metricsEnabled: bool
}
ossVersion: 'string'
prometheusProfile: {
enabled: bool
}
rangerPluginProfile: {
enabled: bool
}
rangerProfile: {
rangerAdmin: {
admins: [
'string'
]
database: {
host: 'string'
name: 'string'
passwordSecretRef: 'string'
username: 'string'
}
}
rangerAudit: {
storageAccount: 'string'
}
rangerUsersync: {
enabled: bool
groups: [
'string'
]
mode: 'string'
userMappingLocation: 'string'
users: [
'string'
]
}
}
scriptActionProfiles: [
{
name: 'string'
parameters: 'string'
services: [
'string'
]
shouldPersist: bool
timeoutInMinutes: int
type: 'string'
url: 'string'
}
]
secretsProfile: {
keyVaultResourceId: 'string'
secrets: [
{
keyVaultObjectName: 'string'
referenceName: 'string'
type: 'string'
version: 'string'
}
]
}
serviceConfigsProfiles: [
{
configs: [
{
component: 'string'
files: [
{
content: 'string'
encoding: 'string'
fileName: 'string'
path: 'string'
values: {
{customized property}: 'string'
}
}
]
}
]
serviceName: 'string'
}
]
sparkProfile: {
defaultStorageUrl: 'string'
metastoreSpec: {
dbConnectionAuthenticationMode: 'string'
dbName: 'string'
dbPasswordSecretName: 'string'
dbServerHost: 'string'
dbUserName: 'string'
keyVaultId: 'string'
thriftUrl: 'string'
}
userPluginsSpec: {
plugins: [
{
path: 'string'
}
]
}
}
sshProfile: {
count: int
}
stubProfile: {
{customized property}: any(Azure.Bicep.Types.Concrete.AnyType)
}
trinoProfile: {
catalogOptions: {
hive: [
{
catalogName: 'string'
metastoreDbConnectionAuthenticationMode: 'string'
metastoreDbConnectionPasswordSecret: 'string'
metastoreDbConnectionURL: 'string'
metastoreDbConnectionUserName: 'string'
metastoreWarehouseDir: 'string'
}
]
}
coordinator: {
debug: {
enable: bool
port: int
suspend: bool
}
highAvailabilityEnabled: bool
}
userPluginsSpec: {
plugins: [
{
enabled: bool
name: 'string'
path: 'string'
}
]
}
userTelemetrySpec: {
storage: {
hivecatalogName: 'string'
hivecatalogSchema: 'string'
partitionRetentionInDays: int
path: 'string'
}
}
worker: {
debug: {
enable: bool
port: int
suspend: bool
}
}
}
}
clusterType: 'string'
computeProfile: {
nodes: [
{
count: int
type: 'string'
vmSize: 'string'
}
]
}
}
tags: {
{customized property}: 'string'
}
}
Valeurs de propriété
AuthorizationProfile
Nom | Description | Valeur |
---|---|---|
groupIds | ID de groupe AAD autorisés pour l’accès au plan de données. | string[] |
userIds | ID utilisateur AAD autorisés pour l’accès au plan de données. | string[] |
AutoscaleProfile
Nom | Description | Valeur |
---|---|---|
autoscaleType | Utilisateur pour spécifier le type de mise à l’échelle automatique à implémenter : basé sur la planification ou la charge. | 'LoadBased' 'ScheduleBased' |
Activé | Cela indique si la mise à l’échelle automatique est activée sur HDInsight sur le cluster AKS. | bool (obligatoire) |
gracefulDecommissionTimeout | Cette propriété est destinée au délai d’expiration de mise hors service approprié ; Il a un paramètre par défaut de 3600 secondes avant l’arrêt forcé. Il s’agit du délai maximal d’attente pour que les conteneurs et les applications en cours d’exécution se terminent avant de passer à un nœud DE DÉSAFFECTATION. La valeur par défaut est 3600 secondes. La valeur négative (comme -1) est gérée comme un délai d’expiration infini. | Int |
loadBasedConfig | Profils de mise à l’échelle automatique basée sur la charge. | LoadBasedConfig |
scheduleBasedConfig | Profils de mise à l’échelle automatique basée sur la planification. | scheduleBasedConfig |
CatalogOptions
Nom | Description | Valeur |
---|---|---|
ruche | Options de catalogue hive. | HiveCatalogOption[] |
ClusterAccessProfile
Nom | Description | Valeur |
---|---|---|
enableInternalIngress | Indique s’il faut créer un cluster à l’aide d’une adresse IP privée au lieu d’une adresse IP publique. Cette propriété doit être définie au moment de la création. | bool (obligatoire) |
ClusterConfigFile
Nom | Description | Valeur |
---|---|---|
contenu | Contenu de formulaire libre de l’intégralité du fichier de configuration. | corde |
codage | Cette propriété indique si le contenu est encodé et ne respecte pas la casse. Définissez la valeur sur base64 si le contenu est encodé en base64. Définissez-le sur aucun ou ignorez-le si le contenu est en texte brut. | 'Base64' 'None' |
Fichier | Nom du fichier de configuration. | chaîne (obligatoire) |
chemin | Chemin du fichier de configuration si le contenu est spécifié. | corde |
Valeurs | Liste des paires clé-valeur où la clé représente un nom de configuration de service valide et la valeur représente la valeur de la configuration. |
clusterConfigFileValues |
ClusterConfigFileValues
Nom | Description | Valeur |
---|
ClusterLogAnalyticsApplicationLogs
Nom | Description | Valeur |
---|---|---|
stdErrorEnabled | True si stderror est activé, sinon false. | Bool |
stdOutEnabled | True si stdout est activé, sinon false. | Bool |
ClusterLogAnalyticsProfile
Nom | Description | Valeur |
---|---|---|
applicationLogs | Collection de journaux à activer ou désactiver pour Log Analytics. | ClusterLogAnalyticsApplicationLogs |
Activé | True si Log Analytics est activé pour le cluster, sinon false. | bool (obligatoire) |
metricsEnabled | True si les métriques sont activées, sinon false. | Bool |
ClusterProfile
Nom | Description | Valeur |
---|---|---|
authorizationProfile | Profil d’autorisation avec les détails des ID d’utilisateur AAD et des ID de groupe autorisés pour l’accès au plan de données. | authorizationProfile (obligatoire) |
autoscaleProfile | Il s’agit du profil de mise à l’échelle automatique pour le cluster. Cela permet au client de créer un cluster activé avec la mise à l’échelle automatique. | AutoscaleProfile |
clusterAccessProfile | Profil d’accès au cluster. | ClusterAccessProfile |
clusterVersion | Version avec une partie 3/4. | corde Contraintes: Modèle = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (obligatoire) |
flinkProfile | Profil de cluster Flink. | FlinkProfile |
identityProfile | Cette propriété est requise par le cluster Trino, Spark et Flink, mais elle est facultative pour le cluster Kafka. | IdentityProfile |
kafkaProfile | Profil de cluster Kafka. | KafkaProfile |
llapProfile | Profil de cluster LLAP. | ClusterProfileLlapProfile |
logAnalyticsProfile | Profil Log Analytics de cluster pour activer ou désactiver l’agent OMS pour le cluster. | clusterLogAnalyticsProfile |
ossVersion | Version avec trois parties. | corde Contraintes: Modèle = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (obligatoire) |
prometheusProfile | Profil Prometheus du cluster. | clusterPrometheusProfile |
rangerPluginProfile | Profil du plug-in Cluster Ranger. | clusterRangerPluginProfile |
rangerProfile | Profil du cluster ranger. | RangerProfile |
scriptActionProfiles | Liste des profils d’action de script. | ScriptActionProfile[] |
secretsProfile | Profil secret du cluster. | secretsProfile |
serviceConfigsProfiles | Profils de configuration de service. | clusterServiceConfigsProfile[] |
sparkProfile | Profil de cluster Spark. | SparkProfile |
sshProfile | Profil Ssh pour le cluster. | SshProfile |
stubProfile | Profil de cluster stub. | clusterProfileStubProfile |
trinoProfile | Profil de cluster Trino. | TrinoProfile |
ClusterProfileLlapProfileProfile
Nom | Description | Valeur |
---|
ClusterProfileStubProfile
Nom | Description | Valeur |
---|
ClusterPrometheusProfile
Nom | Description | Valeur |
---|---|---|
Activé | Activez Prometheus pour le cluster ou non. | bool (obligatoire) |
ClusterRangerPluginProfile
Nom | Description | Valeur |
---|---|---|
Activé | Activez Ranger pour le cluster ou non. | bool (obligatoire) |
ClusterResourceProperties
Nom | Description | Valeur |
---|---|---|
clusterProfile | Profil de cluster. | clusterProfile (obligatoire) |
clusterType | Type de cluster. | corde Contraintes: Modèle = ^[a-zA-Z][a-zA-Z0-9]{0,31}$ (obligatoire) |
computeProfile | Profil de calcul. | ComputeProfile (obligatoire) |
ClusterServiceConfig
Nom | Description | Valeur |
---|---|---|
composant | Nom du composant auquel les fichiers de configuration doivent s’appliquer. | chaîne (obligatoire) |
Fichiers | Liste des fichiers de configuration. | clusterConfigFile[] (obligatoire) |
ClusterServiceConfigsProfile
Nom | Description | Valeur |
---|---|---|
configs | Liste des configurations de service. | ClusterServiceConfig[] (obligatoire) |
serviceName | Nom du service auquel les configurations doivent s’appliquer. | chaîne (obligatoire) |
ComparisonRule
Nom | Description | Valeur |
---|---|---|
opérateur | Opérateur de comparaison. | 'greaterThan' 'greaterThanOrEqual' 'lessThan' 'lessThanOrEqual' (obligatoire) |
seuil | Paramètre de seuil. | int (obligatoire) |
ComputeProfile
Nom | Description | Valeur |
---|---|---|
Nœuds | Définitions des nœuds. | NodeProfile[] (obligatoire) |
ComputeResourceDefinition
Nom | Description | Valeur |
---|---|---|
CPU | Processeur requis. | int (obligatoire) |
mémoire | La mémoire requise en Mo, la mémoire du conteneur sera de 110 centiles | int (obligatoire) |
DiskStorageProfile
Nom | Description | Valeur |
---|---|---|
dataDiskSize | Taille du disque managé en Go. La taille maximale de disque prise en charge pour hdD/SSD Standard et Premium est de 32 To, à l’exception du disque SSD Premium v2, qui prend en charge jusqu’à 64 To. | int (obligatoire) |
dataDiskType | Type de disque managé. | 'Premium_SSD_LRS' 'Premium_SSD_v2_LRS' 'Premium_SSD_ZRS' 'Standard_HDD_LRS' 'Standard_SSD_LRS' 'Standard_SSD_ZRS' (obligatoire) |
FlinkCatalogOptions
Nom | Description | Valeur |
---|---|---|
ruche | Option de catalogue Hive pour le cluster Flink. | FlinkHiveCatalogOption |
FlinkHiveCatalogOption
Nom | Description | Valeur |
---|---|---|
metastoreDbConnectionAuthenticationMode | Mode d’authentification pour vous connecter à votre base de données de metastore Hive. Plus d’informations : /azure/azure-sql/database/logins-create-manage ?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | Nom de référence de secret à partir de secretsProfile.secrets contenant le mot de passe pour la connexion de base de données. | corde |
metastoreDbConnectionURL | Chaîne de connexion pour la base de données du metastore hive. | chaîne (obligatoire) |
metastoreDbConnectionUserName | Nom d’utilisateur pour la connexion de base de données. | corde |
FlinkJobProfile
Nom | Description | Valeur |
---|---|---|
args | Propriété de chaîne représentant des arguments JVM supplémentaires pour le travail Flink. Il doit s’agir d’une valeur séparée par un espace. | corde |
entryClass | Propriété de chaîne qui spécifie la classe d’entrée pour le travail Flink. S’il n’est pas spécifié, le point d’entrée est détecté automatiquement à partir du package jar du travail flink. | corde |
jarName | Propriété de chaîne qui représente le nom du fichier JAR du travail. | chaîne (obligatoire) |
jobJarDirectory | Propriété de chaîne qui spécifie le répertoire où se trouve le fichier JAR du travail. | chaîne (obligatoire) |
savePointName | Propriété de chaîne qui représente le nom du point d’enregistrement pour le travail Flink | corde |
upgradeMode | Propriété de chaîne qui indique le mode de mise à niveau à effectuer sur la tâche Flink. Il peut avoir l’une des valeurs d’énumération suivantes => STATELESS_UPDATE, UPDATE, LAST_STATE_UPDATE. | 'LAST_STATE_UPDATE' 'STATELESS_UPDATE' 'UPDATE' (obligatoire) |
FlinkProfile
Nom | Description | Valeur |
---|---|---|
catalogOptions | Options de catalogue de cluster Flink. | FlinkCatalogOptions |
deploymentMode | Propriété de chaîne qui indique le mode de déploiement du cluster Flink. Il peut avoir l’une des valeurs d’énumération suivantes => Application, Session. La valeur par défaut est Session | 'Application' 'Session' |
historyServer | Conteneur du serveur d’historique/ configuration requise pour le processeur et la mémoire | ComputeResourceDefinition |
jobManager | Configuration requise pour le processeur et la mémoire du gestionnaire de travaux | ComputeResourceDefinition (obligatoire) |
jobSpec | Spécifications des travaux pour les clusters flink en mode de déploiement d’application. La spécification est immuable même si les propriétés du travail sont modifiées en appelant l’API RunJob, utilisez l’API ListJob pour obtenir les dernières informations de travail. | FlinkJobProfile |
numReplicas | Nombre de gestionnaires de tâches. | Int |
stockage | Profil de stockage | FlinkStorageProfile (obligatoire) |
taskManager | Configuration requise pour le processeur et la mémoire du gestionnaire de tâches | ComputeResourceDefinition (obligatoire) |
FlinkStorageProfile
Nom | Description | Valeur |
---|---|---|
storagekey | La clé de stockage n’est requise que pour le stockage wasb(s). | corde Contraintes: Valeur sensible. Passez en tant que paramètre sécurisé. |
storageUri | URI du compte de stockage utilisé pour enregistrer le point de contrôle et l’état du point de contrôle. | corde Contraintes: Modèle = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b.*$ (obligatoire) |
HiveCatalogOption
Nom | Description | Valeur |
---|---|---|
catalogName | Nom du catalogue trino qui doit utiliser le metastore hive spécifié. | corde Contraintes: Longueur minimale = 1 (obligatoire) |
metastoreDbConnectionAuthenticationMode | Mode d’authentification pour vous connecter à votre base de données de metastore Hive. Plus d’informations : /azure/azure-sql/database/logins-create-manage ?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | Nom de référence de secret à partir de secretsProfile.secrets contenant le mot de passe pour la connexion de base de données. | corde |
metastoreDbConnectionURL | Chaîne de connexion pour la base de données du metastore hive. | chaîne (obligatoire) |
metastoreDbConnectionUserName | Nom d’utilisateur pour la connexion de base de données. | corde |
metastoreWarehouseDir | URI du répertoire racine du metastore, format : abfs[s] ://<conteneur>@<account_name>.dfs.core.windows.net/<path>. Plus d’informations : /azure/storage/blobs/data-lake-storage-introduction-abfs-uri | chaîne (obligatoire) |
IdentityProfile
Nom | Description | Valeur |
---|---|---|
msiClientId | ClientId du MSI. | corde Contraintes: Modèle = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obligatoire) |
msiObjectId | ObjectId du MSI. | corde Contraintes: Modèle = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obligatoire) |
msiResourceId | ResourceId du MSI. | chaîne (obligatoire) |
KafkaProfile
Nom | Description | Valeur |
---|---|---|
diskStorage | Profil de stockage de disque Kafka. | DiskStorageProfile (obligatoire) |
enableKRaft | Exposer le cluster Kafka en mode KRaft. | Bool |
enablePublicEndpoints | Exposer des nœuds Worker en tant que points de terminaison publics. | Bool |
remoteStorageUri | Chemin complet du conteneur stockage Azure utilisé pour le stockage hiérarchisé. | corde Contraintes: Modèle = ^(https?|abfss?):\/\/[^/]+(?:\/|$) |
LoadBasedConfig
Nom | Description | Valeur |
---|---|---|
cooldownPeriod | Il s’agit d’une période de refroidissement, c’est une période en secondes, qui détermine la durée qui doit s’écouler entre une activité de mise à l’échelle démarrée par une règle et le début de l’activité de mise à l’échelle suivante, quelle que soit la règle qui le déclenche. La valeur par défaut est de 300 secondes. | Int |
maxNodes | L’utilisateur doit définir le nombre maximal de nœuds pour la mise à l’échelle basée sur la charge, la mise à l’échelle basée sur la charge l’utilisera pour effectuer un scale-up et un scale-down entre le nombre minimal et le nombre maximal de nœuds. | int (obligatoire) |
minNodes | L’utilisateur doit définir le nombre minimal de nœuds pour la mise à l’échelle basée sur la charge, la mise à l’échelle basée sur la charge l’utilisera pour effectuer un scale-up et un scale-down entre le nombre minimal et le nombre maximal de nœuds. | int (obligatoire) |
pollInterval | L’utilisateur peut spécifier l’intervalle de sondage, il s’agit de la période (en secondes) après laquelle les métriques de mise à l’échelle sont interrogées pour déclencher une opération de mise à l’échelle. | Int |
scaleRules | Règles de mise à l’échelle. | ScaleRule[] (obligatoire) |
Microsoft.HDInsight/clusterpools/clusters
Nom | Description | Valeur |
---|---|---|
emplacement | Emplacement géographique où réside la ressource | chaîne (obligatoire) |
nom | Nom de la ressource | chaîne (obligatoire) |
parent | Dans Bicep, vous pouvez spécifier la ressource parente d’une ressource enfant. Vous devez uniquement ajouter cette propriété lorsque la ressource enfant est déclarée en dehors de la ressource parente. Pour plus d’informations, consultez ressource enfant en dehors de la ressource parente. |
Nom symbolique de la ressource de type : clusters |
Propriétés | Obtient ou définit les propriétés. Définissez des propriétés spécifiques au cluster. | clusterResourceProperties |
étiquettes | Balises de ressource | Dictionnaire de noms et de valeurs d’étiquettes. Consultez les balises dans les modèles |
NodeProfile
Nom | Description | Valeur |
---|---|---|
compter | Nombre de machines virtuelles. | Int Contraintes: Valeur minimale = 1 (obligatoire) |
type | Type de nœud. | corde Contraintes: Modèle = ^(head|Head|HEAD|worker|Worker|WORKER)$ (obligatoire) |
vmSize | Référence SKU de la machine virtuelle. | corde Contraintes: Modèle = ^[a-zA-Z0-9_\-]{0,256}$ (obligatoire) |
RangerAdminSpec
Nom | Description | Valeur |
---|---|---|
administrateurs | Liste des noms d’utilisateur qui doivent être marqués comme administrateurs rangers. Ces noms d’utilisateur doivent correspondre au nom d’utilisateur principal (UPN) des utilisateurs AAD respectifs. | string[] (obligatoire) |
base de données | RangerAdminSpecDatabase (obligatoire) |
RangerAdminSpecDatabase
Nom | Description | Valeur |
---|---|---|
hôte | URL de la base de données | chaîne (obligatoire) |
nom | Nom de la base de données | chaîne (obligatoire) |
passwordSecretRef | Informations de référence sur le mot de passe de la base de données | corde |
nom d’utilisateur | Nom de l’utilisateur de base de données | corde |
RangerAuditSpec
Nom | Description | Valeur |
---|---|---|
storageAccount | Emplacement de stockage Azure des objets blob. MSI doit avoir un accès en lecture/écriture à ce compte de stockage. | corde Contraintes: Longueur minimale = 1 Modèle = ^(https)|(abfss)://.*$ |
RangerProfile
Nom | Description | Valeur |
---|---|---|
rangerAdmin | Spécification du service d’administration Ranger. | RangerAdminSpec (obligatoire) |
rangerAudit | Propriétés requises pour décrire le stockage du journal d’audit. | RangerAuditSpec |
rangerUsersync | Spécification du service Ranger Usersync | RangerUsersyncSpec (obligatoire) |
RangerUsersyncSpec
Nom | Description | Valeur |
---|---|---|
Activé | Indique si le service usersync doit être activé | Bool |
groupe | Liste des groupes qui doivent être synchronisés. Ces noms de groupe doivent correspondre à l’ID d’objet des groupes AAD respectifs. | string[] |
mode | Les groupes de & utilisateur peuvent être synchronisés automatiquement ou via une liste statique actualisée. | 'automatic' 'static' |
userMappingLocation | Emplacement de stockage Azure d’un fichier de mappage qui répertorie les associations de groupes & utilisateur. | corde Contraintes: Longueur minimale = 1 Modèle = ^(https)|(abfss)://.*$ |
Utilisateurs | Liste des noms d’utilisateurs qui doivent être synchronisés. Ces noms d’utilisateur doivent correspondre au nom d’utilisateur principal des utilisateurs AAD respectifs. | string[] |
ScaleRule
Nom | Description | Valeur |
---|---|---|
actionType | Type d’action. | 'scaledown' 'scaleup' (obligatoire) |
comparisonRule | Règle de comparaison. | ComparisonRule (obligatoire) |
evaluationCount | Il s’agit d’un nombre d’évaluations pour une condition de mise à l’échelle, le nombre de fois où une condition de déclencheur doit réussir, avant le déclenchement de l’activité de mise à l’échelle. | int (obligatoire) |
scaleMetric | Nom des métriques pour les charges de travail individuelles. Par exemple : processeur | chaîne (obligatoire) |
Horaire
Nom | Description | Valeur |
---|---|---|
compter | L’utilisateur doit définir le nombre de nœuds prévu à la fin de l’opération de mise à l’échelle de la configuration de planification actuelle, le format est entier. | int (obligatoire) |
Jours | L’utilisateur doit définir les jours où la planification doit être définie pour l’opération de mise à l’échelle automatique. | Tableau de chaînes contenant l’un des éléments suivants : 'Vendredi' 'Lundi' 'Samedi' 'Dimanche' 'jeudi' 'Mardi' 'Mercredi' (obligatoire) |
endTime | L’utilisateur doit définir l’heure de fin de la configuration de planification actuelle, au format 10:30 (HH :MM). | corde Contraintes: Modèle = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obligatoire) |
startTime | L’utilisateur doit définir l’heure de début de la configuration de planification actuelle, au format 10:30 (HH :MM). | corde Contraintes: Modèle = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obligatoire) |
ScheduleBasedConfig
Nom | Description | Valeur |
---|---|---|
defaultCount | Définition du nombre de nœuds par défaut de la configuration de planification actuelle. Le nombre de nœuds par défaut spécifie le nombre de nœuds par défaut lorsqu’une opération de mise à l’échelle spécifiée est exécutée (scale-up/scale-down) | int (obligatoire) |
Horaires | Cela spécifie les planifications où la mise à l’échelle automatique basée sur la planification doit être activée, l’utilisateur a le choix de définir plusieurs règles dans la planification entre les jours et les heures (début/fin). | Planification[] (obligatoire) |
timeZone | L’utilisateur doit spécifier le fuseau horaire sur lequel la planification doit être définie pour la configuration de la mise à l’échelle automatique basée sur la planification. | chaîne (obligatoire) |
ScriptActionProfile
Nom | Description | Valeur |
---|---|---|
nom | Nom du script. | chaîne (obligatoire) |
Paramètres | Paramètres supplémentaires pour l’action de script. Il doit s’agir d’une liste d’arguments séparés par un espace requis pour l’exécution du script. | corde |
services | Liste des services à appliquer à l’action de script. | string[] (obligatoire) |
shouldPersist | Spécifiez si le script doit persister sur le cluster. | Bool |
timeoutInMinutes | Durée du délai d’expiration de l’action de script en minutes. | Int |
type | Type de l’action de script. Le type pris en charge est des scripts bash. | chaîne (obligatoire) |
URL | URL du fichier de script. | corde Contraintes: Modèle = ^(https)|(http)://.*$ (obligatoire) |
SecretReference
Nom | Description | Valeur |
---|---|---|
keyVaultObjectName | Nom de l’identificateur d’objet du secret dans le coffre de clés. | corde Contraintes: Modèle = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (obligatoire) |
referenceName | Nom de référence du secret à utiliser dans les configurations de service. | chaîne (obligatoire) |
type | Type d’objet key vault : secret, clé ou certificat. | 'Certificat' 'Key' 'Secret' (obligatoire) |
Version | Version du secret dans le coffre de clés. | corde |
SecretsProfile
Nom | Description | Valeur |
---|---|---|
keyVaultResourceId | Nom du coffre de clés utilisateur dans lequel tous les secrets utilisateur spécifiques au cluster sont stockés. | chaîne (obligatoire) |
Secrets | Propriétés du secret Key Vault. | SecretReference[] |
SparkMetastoreSpec
Nom | Description | Valeur |
---|---|---|
dbConnectionAuthenticationMode | Mode d’authentification pour vous connecter à votre base de données de metastore Hive. Plus d’informations : /azure/azure-sql/database/logins-create-manage ?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
dbName | Nom de la base de données. | chaîne (obligatoire) |
dbPasswordSecretName | Nom du secret qui contient le mot de passe de l’utilisateur de la base de données. | corde |
dbServerHost | Hôte du serveur de base de données. | chaîne (obligatoire) |
dbUserName | Nom d’utilisateur de la base de données. | corde |
keyVaultId | ID de ressource du coffre de clés. | corde |
thriftUrl | URL thrift. | corde |
SparkProfile
Nom | Description | Valeur |
---|---|---|
defaultStorageUrl | URL de stockage par défaut. | corde |
metastoreSpec | Spécification du metastore pour le cluster Spark. | SparkMetastoreSpec |
userPluginsSpec | Spécification des plug-ins utilisateur Spark | sparkUserPlugins |
SparkUserPlugin
Nom | Description | Valeur |
---|---|---|
chemin | Chemin complet du dossier contenant les plug-ins. | corde Contraintes: Longueur minimale = 1 Modèle = ^(https)|(abfss)://.*$ (obligatoire) |
SparkUserPlugins
Nom | Description | Valeur |
---|---|---|
plug-ins | Plug-ins utilisateur Spark. | SparkUserPlugin[] |
SshProfile
Nom | Description | Valeur |
---|---|---|
compter | Nombre de pods ssh par cluster. | Int Contraintes: Valeur minimale = 0 Valeur maximale = 5 (obligatoire) |
TrackedResourceTags
Nom | Description | Valeur |
---|
TrinoCoordinator
Nom | Description | Valeur |
---|---|---|
déboguer | Configuration de débogage trino. | TrinoDebugConfig |
highAvailabilityEnabled | Indicateur qui, si vous activez la haute disponibilité du coordinateur, utilise plusieurs réplicas coordinateurs avec basculement automatique, un par nœud principal. Valeur par défaut : true. | Bool |
TrinoDebugConfig
Nom | Description | Valeur |
---|---|---|
Activer | Indicateur qui, si l’activation du débogage est activé ou non. | Bool |
port | Port de débogage. | Int |
suspendre | Indicateur qui s’il suspend le débogage ou non. | Bool |
TrinoProfile
Nom | Description | Valeur |
---|---|---|
catalogOptions | Options de catalogue de cluster Trino. | CatalogOptions |
coordinateur | Coordinateur Trino. | TrinoCoordinator |
userPluginsSpec | Spécification des plug-ins utilisateur Trino | TrinoUserPlugins |
userTelemetrySpec | Télémétrie utilisateur | TrinoUserTelemetry |
travailleur | Trino worker. | trinoWorker |
TrinoTelemetryConfig
Nom | Description | Valeur |
---|---|---|
hivecatalogName | Nom du catalogue Hive utilisé pour monter des tables externes sur les journaux écrits par trino, s’il n’est pas spécifié, les tables ne sont pas créées. | corde Contraintes: Longueur minimale = 1 |
hivecatalogSchema | Schéma du catalogue ci-dessus à utiliser pour monter les journaux de requête en tant que tables externes, si aucune table spécifiée n’est monté sous les trinologs de schéma. | corde |
partitionRetentionInDays | Période de rétention pour les partitions de tables de journaux de requête, cela n’a aucun impact sur les données réelles. | Int |
chemin | Emplacement de stockage Azure des objets blob. | corde Contraintes: Longueur minimale = 1 |
TrinoUserPlugin
Nom | Description | Valeur |
---|---|---|
Activé | Indique si le plug-in est actif ou non. | Bool |
nom | Ce champ est mappé au sous-répertoire dans l’emplacement des plug-ins trino, qui contiendra tous les plug-ins sous le chemin d’accès. | corde Contraintes: Longueur minimale = 1 |
chemin | Chemin complet du dossier contenant les plug-ins. | corde Contraintes: Longueur minimale = 1 Modèle = ^(https)|(abfss)://.*$ |
TrinoUserPlugins
Nom | Description | Valeur |
---|---|---|
plug-ins | Plug-ins utilisateur Trino. | TrinoUserPlugin[] |
TrinoUserTelemetry
Nom | Description | Valeur |
---|---|---|
stockage | Définition de télémétrie de l’utilisateur Trino. | TrinoTelemetryConfig |
TrinoWorker
Nom | Description | Valeur |
---|---|---|
déboguer | Configuration de débogage trino. | TrinoDebugConfig |
Définition de ressource de modèle ARM
Le type de ressource clusterpools/clusters peut être déployé avec des opérations qui ciblent :
- groupes de ressources - Consultez commandes de déploiement de groupes de ressources
Pour obtenir la liste des propriétés modifiées dans chaque version de l’API, consultez journal des modifications.
Format de ressource
Pour créer une ressource Microsoft.HDInsight/clusterpools/clusters, ajoutez le code JSON suivant à votre modèle.
{
"type": "Microsoft.HDInsight/clusterpools/clusters",
"apiVersion": "2023-11-01-preview",
"name": "string",
"location": "string",
"properties": {
"clusterProfile": {
"authorizationProfile": {
"groupIds": [ "string" ],
"userIds": [ "string" ]
},
"autoscaleProfile": {
"autoscaleType": "string",
"enabled": "bool",
"gracefulDecommissionTimeout": "int",
"loadBasedConfig": {
"cooldownPeriod": "int",
"maxNodes": "int",
"minNodes": "int",
"pollInterval": "int",
"scalingRules": [
{
"actionType": "string",
"comparisonRule": {
"operator": "string",
"threshold": "int"
},
"evaluationCount": "int",
"scalingMetric": "string"
}
]
},
"scheduleBasedConfig": {
"defaultCount": "int",
"schedules": [
{
"count": "int",
"days": [ "string" ],
"endTime": "string",
"startTime": "string"
}
],
"timeZone": "string"
}
},
"clusterAccessProfile": {
"enableInternalIngress": "bool"
},
"clusterVersion": "string",
"flinkProfile": {
"catalogOptions": {
"hive": {
"metastoreDbConnectionAuthenticationMode": "string",
"metastoreDbConnectionPasswordSecret": "string",
"metastoreDbConnectionURL": "string",
"metastoreDbConnectionUserName": "string"
}
},
"deploymentMode": "string",
"historyServer": {
"cpu": "int",
"memory": "int"
},
"jobManager": {
"cpu": "int",
"memory": "int"
},
"jobSpec": {
"args": "string",
"entryClass": "string",
"jarName": "string",
"jobJarDirectory": "string",
"savePointName": "string",
"upgradeMode": "string"
},
"numReplicas": "int",
"storage": {
"storagekey": "string",
"storageUri": "string"
},
"taskManager": {
"cpu": "int",
"memory": "int"
}
},
"identityProfile": {
"msiClientId": "string",
"msiObjectId": "string",
"msiResourceId": "string"
},
"kafkaProfile": {
"diskStorage": {
"dataDiskSize": "int",
"dataDiskType": "string"
},
"enableKRaft": "bool",
"enablePublicEndpoints": "bool",
"remoteStorageUri": "string"
},
"llapProfile": {
"{customized property}": {}
},
"logAnalyticsProfile": {
"applicationLogs": {
"stdErrorEnabled": "bool",
"stdOutEnabled": "bool"
},
"enabled": "bool",
"metricsEnabled": "bool"
},
"ossVersion": "string",
"prometheusProfile": {
"enabled": "bool"
},
"rangerPluginProfile": {
"enabled": "bool"
},
"rangerProfile": {
"rangerAdmin": {
"admins": [ "string" ],
"database": {
"host": "string",
"name": "string",
"passwordSecretRef": "string",
"username": "string"
}
},
"rangerAudit": {
"storageAccount": "string"
},
"rangerUsersync": {
"enabled": "bool",
"groups": [ "string" ],
"mode": "string",
"userMappingLocation": "string",
"users": [ "string" ]
}
},
"scriptActionProfiles": [
{
"name": "string",
"parameters": "string",
"services": [ "string" ],
"shouldPersist": "bool",
"timeoutInMinutes": "int",
"type": "string",
"url": "string"
}
],
"secretsProfile": {
"keyVaultResourceId": "string",
"secrets": [
{
"keyVaultObjectName": "string",
"referenceName": "string",
"type": "string",
"version": "string"
}
]
},
"serviceConfigsProfiles": [
{
"configs": [
{
"component": "string",
"files": [
{
"content": "string",
"encoding": "string",
"fileName": "string",
"path": "string",
"values": {
"{customized property}": "string"
}
}
]
}
],
"serviceName": "string"
}
],
"sparkProfile": {
"defaultStorageUrl": "string",
"metastoreSpec": {
"dbConnectionAuthenticationMode": "string",
"dbName": "string",
"dbPasswordSecretName": "string",
"dbServerHost": "string",
"dbUserName": "string",
"keyVaultId": "string",
"thriftUrl": "string"
},
"userPluginsSpec": {
"plugins": [
{
"path": "string"
}
]
}
},
"sshProfile": {
"count": "int"
},
"stubProfile": {
"{customized property}": {}
},
"trinoProfile": {
"catalogOptions": {
"hive": [
{
"catalogName": "string",
"metastoreDbConnectionAuthenticationMode": "string",
"metastoreDbConnectionPasswordSecret": "string",
"metastoreDbConnectionURL": "string",
"metastoreDbConnectionUserName": "string",
"metastoreWarehouseDir": "string"
}
]
},
"coordinator": {
"debug": {
"enable": "bool",
"port": "int",
"suspend": "bool"
},
"highAvailabilityEnabled": "bool"
},
"userPluginsSpec": {
"plugins": [
{
"enabled": "bool",
"name": "string",
"path": "string"
}
]
},
"userTelemetrySpec": {
"storage": {
"hivecatalogName": "string",
"hivecatalogSchema": "string",
"partitionRetentionInDays": "int",
"path": "string"
}
},
"worker": {
"debug": {
"enable": "bool",
"port": "int",
"suspend": "bool"
}
}
}
},
"clusterType": "string",
"computeProfile": {
"nodes": [
{
"count": "int",
"type": "string",
"vmSize": "string"
}
]
}
},
"tags": {
"{customized property}": "string"
}
}
Valeurs de propriété
AuthorizationProfile
Nom | Description | Valeur |
---|---|---|
groupIds | ID de groupe AAD autorisés pour l’accès au plan de données. | string[] |
userIds | ID utilisateur AAD autorisés pour l’accès au plan de données. | string[] |
AutoscaleProfile
Nom | Description | Valeur |
---|---|---|
autoscaleType | Utilisateur pour spécifier le type de mise à l’échelle automatique à implémenter : basé sur la planification ou la charge. | 'LoadBased' 'ScheduleBased' |
Activé | Cela indique si la mise à l’échelle automatique est activée sur HDInsight sur le cluster AKS. | bool (obligatoire) |
gracefulDecommissionTimeout | Cette propriété est destinée au délai d’expiration de mise hors service approprié ; Il a un paramètre par défaut de 3600 secondes avant l’arrêt forcé. Il s’agit du délai maximal d’attente pour que les conteneurs et les applications en cours d’exécution se terminent avant de passer à un nœud DE DÉSAFFECTATION. La valeur par défaut est 3600 secondes. La valeur négative (comme -1) est gérée comme un délai d’expiration infini. | Int |
loadBasedConfig | Profils de mise à l’échelle automatique basée sur la charge. | LoadBasedConfig |
scheduleBasedConfig | Profils de mise à l’échelle automatique basée sur la planification. | scheduleBasedConfig |
CatalogOptions
Nom | Description | Valeur |
---|---|---|
ruche | Options de catalogue hive. | HiveCatalogOption[] |
ClusterAccessProfile
Nom | Description | Valeur |
---|---|---|
enableInternalIngress | Indique s’il faut créer un cluster à l’aide d’une adresse IP privée au lieu d’une adresse IP publique. Cette propriété doit être définie au moment de la création. | bool (obligatoire) |
ClusterConfigFile
Nom | Description | Valeur |
---|---|---|
contenu | Contenu de formulaire libre de l’intégralité du fichier de configuration. | corde |
codage | Cette propriété indique si le contenu est encodé et ne respecte pas la casse. Définissez la valeur sur base64 si le contenu est encodé en base64. Définissez-le sur aucun ou ignorez-le si le contenu est en texte brut. | 'Base64' 'None' |
Fichier | Nom du fichier de configuration. | chaîne (obligatoire) |
chemin | Chemin du fichier de configuration si le contenu est spécifié. | corde |
Valeurs | Liste des paires clé-valeur où la clé représente un nom de configuration de service valide et la valeur représente la valeur de la configuration. |
clusterConfigFileValues |
ClusterConfigFileValues
Nom | Description | Valeur |
---|
ClusterLogAnalyticsApplicationLogs
Nom | Description | Valeur |
---|---|---|
stdErrorEnabled | True si stderror est activé, sinon false. | Bool |
stdOutEnabled | True si stdout est activé, sinon false. | Bool |
ClusterLogAnalyticsProfile
Nom | Description | Valeur |
---|---|---|
applicationLogs | Collection de journaux à activer ou désactiver pour Log Analytics. | ClusterLogAnalyticsApplicationLogs |
Activé | True si Log Analytics est activé pour le cluster, sinon false. | bool (obligatoire) |
metricsEnabled | True si les métriques sont activées, sinon false. | Bool |
ClusterProfile
Nom | Description | Valeur |
---|---|---|
authorizationProfile | Profil d’autorisation avec les détails des ID d’utilisateur AAD et des ID de groupe autorisés pour l’accès au plan de données. | authorizationProfile (obligatoire) |
autoscaleProfile | Il s’agit du profil de mise à l’échelle automatique pour le cluster. Cela permet au client de créer un cluster activé avec la mise à l’échelle automatique. | AutoscaleProfile |
clusterAccessProfile | Profil d’accès au cluster. | ClusterAccessProfile |
clusterVersion | Version avec une partie 3/4. | corde Contraintes: Modèle = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (obligatoire) |
flinkProfile | Profil de cluster Flink. | FlinkProfile |
identityProfile | Cette propriété est requise par le cluster Trino, Spark et Flink, mais elle est facultative pour le cluster Kafka. | IdentityProfile |
kafkaProfile | Profil de cluster Kafka. | KafkaProfile |
llapProfile | Profil de cluster LLAP. | ClusterProfileLlapProfile |
logAnalyticsProfile | Profil Log Analytics de cluster pour activer ou désactiver l’agent OMS pour le cluster. | clusterLogAnalyticsProfile |
ossVersion | Version avec trois parties. | corde Contraintes: Modèle = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (obligatoire) |
prometheusProfile | Profil Prometheus du cluster. | clusterPrometheusProfile |
rangerPluginProfile | Profil du plug-in Cluster Ranger. | clusterRangerPluginProfile |
rangerProfile | Profil du cluster ranger. | RangerProfile |
scriptActionProfiles | Liste des profils d’action de script. | ScriptActionProfile[] |
secretsProfile | Profil secret du cluster. | secretsProfile |
serviceConfigsProfiles | Profils de configuration de service. | clusterServiceConfigsProfile[] |
sparkProfile | Profil de cluster Spark. | SparkProfile |
sshProfile | Profil Ssh pour le cluster. | SshProfile |
stubProfile | Profil de cluster stub. | clusterProfileStubProfile |
trinoProfile | Profil de cluster Trino. | TrinoProfile |
ClusterProfileLlapProfileProfile
Nom | Description | Valeur |
---|
ClusterProfileStubProfile
Nom | Description | Valeur |
---|
ClusterPrometheusProfile
Nom | Description | Valeur |
---|---|---|
Activé | Activez Prometheus pour le cluster ou non. | bool (obligatoire) |
ClusterRangerPluginProfile
Nom | Description | Valeur |
---|---|---|
Activé | Activez Ranger pour le cluster ou non. | bool (obligatoire) |
ClusterResourceProperties
Nom | Description | Valeur |
---|---|---|
clusterProfile | Profil de cluster. | clusterProfile (obligatoire) |
clusterType | Type de cluster. | corde Contraintes: Modèle = ^[a-zA-Z][a-zA-Z0-9]{0,31}$ (obligatoire) |
computeProfile | Profil de calcul. | ComputeProfile (obligatoire) |
ClusterServiceConfig
Nom | Description | Valeur |
---|---|---|
composant | Nom du composant auquel les fichiers de configuration doivent s’appliquer. | chaîne (obligatoire) |
Fichiers | Liste des fichiers de configuration. | clusterConfigFile[] (obligatoire) |
ClusterServiceConfigsProfile
Nom | Description | Valeur |
---|---|---|
configs | Liste des configurations de service. | ClusterServiceConfig[] (obligatoire) |
serviceName | Nom du service auquel les configurations doivent s’appliquer. | chaîne (obligatoire) |
ComparisonRule
Nom | Description | Valeur |
---|---|---|
opérateur | Opérateur de comparaison. | 'greaterThan' 'greaterThanOrEqual' 'lessThan' 'lessThanOrEqual' (obligatoire) |
seuil | Paramètre de seuil. | int (obligatoire) |
ComputeProfile
Nom | Description | Valeur |
---|---|---|
Nœuds | Définitions des nœuds. | NodeProfile[] (obligatoire) |
ComputeResourceDefinition
Nom | Description | Valeur |
---|---|---|
CPU | Processeur requis. | int (obligatoire) |
mémoire | La mémoire requise en Mo, la mémoire du conteneur sera de 110 centiles | int (obligatoire) |
DiskStorageProfile
Nom | Description | Valeur |
---|---|---|
dataDiskSize | Taille du disque managé en Go. La taille maximale de disque prise en charge pour hdD/SSD Standard et Premium est de 32 To, à l’exception du disque SSD Premium v2, qui prend en charge jusqu’à 64 To. | int (obligatoire) |
dataDiskType | Type de disque managé. | 'Premium_SSD_LRS' 'Premium_SSD_v2_LRS' 'Premium_SSD_ZRS' 'Standard_HDD_LRS' 'Standard_SSD_LRS' 'Standard_SSD_ZRS' (obligatoire) |
FlinkCatalogOptions
Nom | Description | Valeur |
---|---|---|
ruche | Option de catalogue Hive pour le cluster Flink. | FlinkHiveCatalogOption |
FlinkHiveCatalogOption
Nom | Description | Valeur |
---|---|---|
metastoreDbConnectionAuthenticationMode | Mode d’authentification pour vous connecter à votre base de données de metastore Hive. Plus d’informations : /azure/azure-sql/database/logins-create-manage ?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | Nom de référence de secret à partir de secretsProfile.secrets contenant le mot de passe pour la connexion de base de données. | corde |
metastoreDbConnectionURL | Chaîne de connexion pour la base de données du metastore hive. | chaîne (obligatoire) |
metastoreDbConnectionUserName | Nom d’utilisateur pour la connexion de base de données. | corde |
FlinkJobProfile
Nom | Description | Valeur |
---|---|---|
args | Propriété de chaîne représentant des arguments JVM supplémentaires pour le travail Flink. Il doit s’agir d’une valeur séparée par un espace. | corde |
entryClass | Propriété de chaîne qui spécifie la classe d’entrée pour le travail Flink. S’il n’est pas spécifié, le point d’entrée est détecté automatiquement à partir du package jar du travail flink. | corde |
jarName | Propriété de chaîne qui représente le nom du fichier JAR du travail. | chaîne (obligatoire) |
jobJarDirectory | Propriété de chaîne qui spécifie le répertoire où se trouve le fichier JAR du travail. | chaîne (obligatoire) |
savePointName | Propriété de chaîne qui représente le nom du point d’enregistrement pour le travail Flink | corde |
upgradeMode | Propriété de chaîne qui indique le mode de mise à niveau à effectuer sur la tâche Flink. Il peut avoir l’une des valeurs d’énumération suivantes => STATELESS_UPDATE, UPDATE, LAST_STATE_UPDATE. | 'LAST_STATE_UPDATE' 'STATELESS_UPDATE' 'UPDATE' (obligatoire) |
FlinkProfile
Nom | Description | Valeur |
---|---|---|
catalogOptions | Options de catalogue de cluster Flink. | FlinkCatalogOptions |
deploymentMode | Propriété de chaîne qui indique le mode de déploiement du cluster Flink. Il peut avoir l’une des valeurs d’énumération suivantes => Application, Session. La valeur par défaut est Session | 'Application' 'Session' |
historyServer | Conteneur du serveur d’historique/ configuration requise pour le processeur et la mémoire | ComputeResourceDefinition |
jobManager | Configuration requise pour le processeur et la mémoire du gestionnaire de travaux | ComputeResourceDefinition (obligatoire) |
jobSpec | Spécifications des travaux pour les clusters flink en mode de déploiement d’application. La spécification est immuable même si les propriétés du travail sont modifiées en appelant l’API RunJob, utilisez l’API ListJob pour obtenir les dernières informations de travail. | FlinkJobProfile |
numReplicas | Nombre de gestionnaires de tâches. | Int |
stockage | Profil de stockage | FlinkStorageProfile (obligatoire) |
taskManager | Configuration requise pour le processeur et la mémoire du gestionnaire de tâches | ComputeResourceDefinition (obligatoire) |
FlinkStorageProfile
Nom | Description | Valeur |
---|---|---|
storagekey | La clé de stockage n’est requise que pour le stockage wasb(s). | corde Contraintes: Valeur sensible. Passez en tant que paramètre sécurisé. |
storageUri | URI du compte de stockage utilisé pour enregistrer le point de contrôle et l’état du point de contrôle. | corde Contraintes: Modèle = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b.*$ (obligatoire) |
HiveCatalogOption
Nom | Description | Valeur |
---|---|---|
catalogName | Nom du catalogue trino qui doit utiliser le metastore hive spécifié. | corde Contraintes: Longueur minimale = 1 (obligatoire) |
metastoreDbConnectionAuthenticationMode | Mode d’authentification pour vous connecter à votre base de données de metastore Hive. Plus d’informations : /azure/azure-sql/database/logins-create-manage ?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | Nom de référence de secret à partir de secretsProfile.secrets contenant le mot de passe pour la connexion de base de données. | corde |
metastoreDbConnectionURL | Chaîne de connexion pour la base de données du metastore hive. | chaîne (obligatoire) |
metastoreDbConnectionUserName | Nom d’utilisateur pour la connexion de base de données. | corde |
metastoreWarehouseDir | URI du répertoire racine du metastore, format : abfs[s] ://<conteneur>@<account_name>.dfs.core.windows.net/<path>. Plus d’informations : /azure/storage/blobs/data-lake-storage-introduction-abfs-uri | chaîne (obligatoire) |
IdentityProfile
Nom | Description | Valeur |
---|---|---|
msiClientId | ClientId du MSI. | corde Contraintes: Modèle = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obligatoire) |
msiObjectId | ObjectId du MSI. | corde Contraintes: Modèle = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obligatoire) |
msiResourceId | ResourceId du MSI. | chaîne (obligatoire) |
KafkaProfile
Nom | Description | Valeur |
---|---|---|
diskStorage | Profil de stockage de disque Kafka. | DiskStorageProfile (obligatoire) |
enableKRaft | Exposer le cluster Kafka en mode KRaft. | Bool |
enablePublicEndpoints | Exposer des nœuds Worker en tant que points de terminaison publics. | Bool |
remoteStorageUri | Chemin complet du conteneur stockage Azure utilisé pour le stockage hiérarchisé. | corde Contraintes: Modèle = ^(https?|abfss?):\/\/[^/]+(?:\/|$) |
LoadBasedConfig
Nom | Description | Valeur |
---|---|---|
cooldownPeriod | Il s’agit d’une période de refroidissement, c’est une période en secondes, qui détermine la durée qui doit s’écouler entre une activité de mise à l’échelle démarrée par une règle et le début de l’activité de mise à l’échelle suivante, quelle que soit la règle qui le déclenche. La valeur par défaut est de 300 secondes. | Int |
maxNodes | L’utilisateur doit définir le nombre maximal de nœuds pour la mise à l’échelle basée sur la charge, la mise à l’échelle basée sur la charge l’utilisera pour effectuer un scale-up et un scale-down entre le nombre minimal et le nombre maximal de nœuds. | int (obligatoire) |
minNodes | L’utilisateur doit définir le nombre minimal de nœuds pour la mise à l’échelle basée sur la charge, la mise à l’échelle basée sur la charge l’utilisera pour effectuer un scale-up et un scale-down entre le nombre minimal et le nombre maximal de nœuds. | int (obligatoire) |
pollInterval | L’utilisateur peut spécifier l’intervalle de sondage, il s’agit de la période (en secondes) après laquelle les métriques de mise à l’échelle sont interrogées pour déclencher une opération de mise à l’échelle. | Int |
scaleRules | Règles de mise à l’échelle. | ScaleRule[] (obligatoire) |
Microsoft.HDInsight/clusterpools/clusters
Nom | Description | Valeur |
---|---|---|
apiVersion | Version de l’API | '2023-11-01-preview' |
emplacement | Emplacement géographique où réside la ressource | chaîne (obligatoire) |
nom | Nom de la ressource | chaîne (obligatoire) |
Propriétés | Obtient ou définit les propriétés. Définissez des propriétés spécifiques au cluster. | clusterResourceProperties |
étiquettes | Balises de ressource | Dictionnaire de noms et de valeurs d’étiquettes. Consultez les balises dans les modèles |
type | Type de ressource | 'Microsoft.HDInsight/clusterpools/clusters' |
NodeProfile
Nom | Description | Valeur |
---|---|---|
compter | Nombre de machines virtuelles. | Int Contraintes: Valeur minimale = 1 (obligatoire) |
type | Type de nœud. | corde Contraintes: Modèle = ^(head|Head|HEAD|worker|Worker|WORKER)$ (obligatoire) |
vmSize | Référence SKU de la machine virtuelle. | corde Contraintes: Modèle = ^[a-zA-Z0-9_\-]{0,256}$ (obligatoire) |
RangerAdminSpec
Nom | Description | Valeur |
---|---|---|
administrateurs | Liste des noms d’utilisateur qui doivent être marqués comme administrateurs rangers. Ces noms d’utilisateur doivent correspondre au nom d’utilisateur principal (UPN) des utilisateurs AAD respectifs. | string[] (obligatoire) |
base de données | RangerAdminSpecDatabase (obligatoire) |
RangerAdminSpecDatabase
Nom | Description | Valeur |
---|---|---|
hôte | URL de la base de données | chaîne (obligatoire) |
nom | Nom de la base de données | chaîne (obligatoire) |
passwordSecretRef | Informations de référence sur le mot de passe de la base de données | corde |
nom d’utilisateur | Nom de l’utilisateur de base de données | corde |
RangerAuditSpec
Nom | Description | Valeur |
---|---|---|
storageAccount | Emplacement de stockage Azure des objets blob. MSI doit avoir un accès en lecture/écriture à ce compte de stockage. | corde Contraintes: Longueur minimale = 1 Modèle = ^(https)|(abfss)://.*$ |
RangerProfile
Nom | Description | Valeur |
---|---|---|
rangerAdmin | Spécification du service d’administration Ranger. | RangerAdminSpec (obligatoire) |
rangerAudit | Propriétés requises pour décrire le stockage du journal d’audit. | RangerAuditSpec |
rangerUsersync | Spécification du service Ranger Usersync | RangerUsersyncSpec (obligatoire) |
RangerUsersyncSpec
Nom | Description | Valeur |
---|---|---|
Activé | Indique si le service usersync doit être activé | Bool |
groupe | Liste des groupes qui doivent être synchronisés. Ces noms de groupe doivent correspondre à l’ID d’objet des groupes AAD respectifs. | string[] |
mode | Les groupes de & utilisateur peuvent être synchronisés automatiquement ou via une liste statique actualisée. | 'automatic' 'static' |
userMappingLocation | Emplacement de stockage Azure d’un fichier de mappage qui répertorie les associations de groupes & utilisateur. | corde Contraintes: Longueur minimale = 1 Modèle = ^(https)|(abfss)://.*$ |
Utilisateurs | Liste des noms d’utilisateurs qui doivent être synchronisés. Ces noms d’utilisateur doivent correspondre au nom d’utilisateur principal des utilisateurs AAD respectifs. | string[] |
ScaleRule
Nom | Description | Valeur |
---|---|---|
actionType | Type d’action. | 'scaledown' 'scaleup' (obligatoire) |
comparisonRule | Règle de comparaison. | ComparisonRule (obligatoire) |
evaluationCount | Il s’agit d’un nombre d’évaluations pour une condition de mise à l’échelle, le nombre de fois où une condition de déclencheur doit réussir, avant le déclenchement de l’activité de mise à l’échelle. | int (obligatoire) |
scaleMetric | Nom des métriques pour les charges de travail individuelles. Par exemple : processeur | chaîne (obligatoire) |
Horaire
Nom | Description | Valeur |
---|---|---|
compter | L’utilisateur doit définir le nombre de nœuds prévu à la fin de l’opération de mise à l’échelle de la configuration de planification actuelle, le format est entier. | int (obligatoire) |
Jours | L’utilisateur doit définir les jours où la planification doit être définie pour l’opération de mise à l’échelle automatique. | Tableau de chaînes contenant l’un des éléments suivants : 'Vendredi' 'Lundi' 'Samedi' 'Dimanche' 'jeudi' 'Mardi' 'Mercredi' (obligatoire) |
endTime | L’utilisateur doit définir l’heure de fin de la configuration de planification actuelle, au format 10:30 (HH :MM). | corde Contraintes: Modèle = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obligatoire) |
startTime | L’utilisateur doit définir l’heure de début de la configuration de planification actuelle, au format 10:30 (HH :MM). | corde Contraintes: Modèle = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obligatoire) |
ScheduleBasedConfig
Nom | Description | Valeur |
---|---|---|
defaultCount | Définition du nombre de nœuds par défaut de la configuration de planification actuelle. Le nombre de nœuds par défaut spécifie le nombre de nœuds par défaut lorsqu’une opération de mise à l’échelle spécifiée est exécutée (scale-up/scale-down) | int (obligatoire) |
Horaires | Cela spécifie les planifications où la mise à l’échelle automatique basée sur la planification doit être activée, l’utilisateur a le choix de définir plusieurs règles dans la planification entre les jours et les heures (début/fin). | Planification[] (obligatoire) |
timeZone | L’utilisateur doit spécifier le fuseau horaire sur lequel la planification doit être définie pour la configuration de la mise à l’échelle automatique basée sur la planification. | chaîne (obligatoire) |
ScriptActionProfile
Nom | Description | Valeur |
---|---|---|
nom | Nom du script. | chaîne (obligatoire) |
Paramètres | Paramètres supplémentaires pour l’action de script. Il doit s’agir d’une liste d’arguments séparés par un espace requis pour l’exécution du script. | corde |
services | Liste des services à appliquer à l’action de script. | string[] (obligatoire) |
shouldPersist | Spécifiez si le script doit persister sur le cluster. | Bool |
timeoutInMinutes | Durée du délai d’expiration de l’action de script en minutes. | Int |
type | Type de l’action de script. Le type pris en charge est des scripts bash. | chaîne (obligatoire) |
URL | URL du fichier de script. | corde Contraintes: Modèle = ^(https)|(http)://.*$ (obligatoire) |
SecretReference
Nom | Description | Valeur |
---|---|---|
keyVaultObjectName | Nom de l’identificateur d’objet du secret dans le coffre de clés. | corde Contraintes: Modèle = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (obligatoire) |
referenceName | Nom de référence du secret à utiliser dans les configurations de service. | chaîne (obligatoire) |
type | Type d’objet key vault : secret, clé ou certificat. | 'Certificat' 'Key' 'Secret' (obligatoire) |
Version | Version du secret dans le coffre de clés. | corde |
SecretsProfile
Nom | Description | Valeur |
---|---|---|
keyVaultResourceId | Nom du coffre de clés utilisateur dans lequel tous les secrets utilisateur spécifiques au cluster sont stockés. | chaîne (obligatoire) |
Secrets | Propriétés du secret Key Vault. | SecretReference[] |
SparkMetastoreSpec
Nom | Description | Valeur |
---|---|---|
dbConnectionAuthenticationMode | Mode d’authentification pour vous connecter à votre base de données de metastore Hive. Plus d’informations : /azure/azure-sql/database/logins-create-manage ?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
dbName | Nom de la base de données. | chaîne (obligatoire) |
dbPasswordSecretName | Nom du secret qui contient le mot de passe de l’utilisateur de la base de données. | corde |
dbServerHost | Hôte du serveur de base de données. | chaîne (obligatoire) |
dbUserName | Nom d’utilisateur de la base de données. | corde |
keyVaultId | ID de ressource du coffre de clés. | corde |
thriftUrl | URL thrift. | corde |
SparkProfile
Nom | Description | Valeur |
---|---|---|
defaultStorageUrl | URL de stockage par défaut. | corde |
metastoreSpec | Spécification du metastore pour le cluster Spark. | SparkMetastoreSpec |
userPluginsSpec | Spécification des plug-ins utilisateur Spark | sparkUserPlugins |
SparkUserPlugin
Nom | Description | Valeur |
---|---|---|
chemin | Chemin complet du dossier contenant les plug-ins. | corde Contraintes: Longueur minimale = 1 Modèle = ^(https)|(abfss)://.*$ (obligatoire) |
SparkUserPlugins
Nom | Description | Valeur |
---|---|---|
plug-ins | Plug-ins utilisateur Spark. | SparkUserPlugin[] |
SshProfile
Nom | Description | Valeur |
---|---|---|
compter | Nombre de pods ssh par cluster. | Int Contraintes: Valeur minimale = 0 Valeur maximale = 5 (obligatoire) |
TrackedResourceTags
Nom | Description | Valeur |
---|
TrinoCoordinator
Nom | Description | Valeur |
---|---|---|
déboguer | Configuration de débogage trino. | TrinoDebugConfig |
highAvailabilityEnabled | Indicateur qui, si vous activez la haute disponibilité du coordinateur, utilise plusieurs réplicas coordinateurs avec basculement automatique, un par nœud principal. Valeur par défaut : true. | Bool |
TrinoDebugConfig
Nom | Description | Valeur |
---|---|---|
Activer | Indicateur qui, si l’activation du débogage est activé ou non. | Bool |
port | Port de débogage. | Int |
suspendre | Indicateur qui s’il suspend le débogage ou non. | Bool |
TrinoProfile
Nom | Description | Valeur |
---|---|---|
catalogOptions | Options de catalogue de cluster Trino. | CatalogOptions |
coordinateur | Coordinateur Trino. | TrinoCoordinator |
userPluginsSpec | Spécification des plug-ins utilisateur Trino | TrinoUserPlugins |
userTelemetrySpec | Télémétrie utilisateur | TrinoUserTelemetry |
travailleur | Trino worker. | trinoWorker |
TrinoTelemetryConfig
Nom | Description | Valeur |
---|---|---|
hivecatalogName | Nom du catalogue Hive utilisé pour monter des tables externes sur les journaux écrits par trino, s’il n’est pas spécifié, les tables ne sont pas créées. | corde Contraintes: Longueur minimale = 1 |
hivecatalogSchema | Schéma du catalogue ci-dessus à utiliser pour monter les journaux de requête en tant que tables externes, si aucune table spécifiée n’est monté sous les trinologs de schéma. | corde |
partitionRetentionInDays | Période de rétention pour les partitions de tables de journaux de requête, cela n’a aucun impact sur les données réelles. | Int |
chemin | Emplacement de stockage Azure des objets blob. | corde Contraintes: Longueur minimale = 1 |
TrinoUserPlugin
Nom | Description | Valeur |
---|---|---|
Activé | Indique si le plug-in est actif ou non. | Bool |
nom | Ce champ est mappé au sous-répertoire dans l’emplacement des plug-ins trino, qui contiendra tous les plug-ins sous le chemin d’accès. | corde Contraintes: Longueur minimale = 1 |
chemin | Chemin complet du dossier contenant les plug-ins. | corde Contraintes: Longueur minimale = 1 Modèle = ^(https)|(abfss)://.*$ |
TrinoUserPlugins
Nom | Description | Valeur |
---|---|---|
plug-ins | Plug-ins utilisateur Trino. | TrinoUserPlugin[] |
TrinoUserTelemetry
Nom | Description | Valeur |
---|---|---|
stockage | Définition de télémétrie de l’utilisateur Trino. | TrinoTelemetryConfig |
TrinoWorker
Nom | Description | Valeur |
---|---|---|
déboguer | Configuration de débogage trino. | TrinoDebugConfig |
Définition de ressource Terraform (fournisseur AzAPI)
Le type de ressource clusterpools/clusters peut être déployé avec des opérations qui ciblent :
- groupes de ressources
Pour obtenir la liste des propriétés modifiées dans chaque version de l’API, consultez journal des modifications.
Format de ressource
Pour créer une ressource Microsoft.HDInsight/clusterpools/clusters, ajoutez le terraform suivant à votre modèle.
resource "azapi_resource" "symbolicname" {
type = "Microsoft.HDInsight/clusterpools/clusters@2023-11-01-preview"
name = "string"
location = "string"
tags = {
{customized property} = "string"
}
body = jsonencode({
properties = {
clusterProfile = {
authorizationProfile = {
groupIds = [
"string"
]
userIds = [
"string"
]
}
autoscaleProfile = {
autoscaleType = "string"
enabled = bool
gracefulDecommissionTimeout = int
loadBasedConfig = {
cooldownPeriod = int
maxNodes = int
minNodes = int
pollInterval = int
scalingRules = [
{
actionType = "string"
comparisonRule = {
operator = "string"
threshold = int
}
evaluationCount = int
scalingMetric = "string"
}
]
}
scheduleBasedConfig = {
defaultCount = int
schedules = [
{
count = int
days = [
"string"
]
endTime = "string"
startTime = "string"
}
]
timeZone = "string"
}
}
clusterAccessProfile = {
enableInternalIngress = bool
}
clusterVersion = "string"
flinkProfile = {
catalogOptions = {
hive = {
metastoreDbConnectionAuthenticationMode = "string"
metastoreDbConnectionPasswordSecret = "string"
metastoreDbConnectionURL = "string"
metastoreDbConnectionUserName = "string"
}
}
deploymentMode = "string"
historyServer = {
cpu = int
memory = int
}
jobManager = {
cpu = int
memory = int
}
jobSpec = {
args = "string"
entryClass = "string"
jarName = "string"
jobJarDirectory = "string"
savePointName = "string"
upgradeMode = "string"
}
numReplicas = int
storage = {
storagekey = "string"
storageUri = "string"
}
taskManager = {
cpu = int
memory = int
}
}
identityProfile = {
msiClientId = "string"
msiObjectId = "string"
msiResourceId = "string"
}
kafkaProfile = {
diskStorage = {
dataDiskSize = int
dataDiskType = "string"
}
enableKRaft = bool
enablePublicEndpoints = bool
remoteStorageUri = "string"
}
llapProfile = {
{customized property} = ?
}
logAnalyticsProfile = {
applicationLogs = {
stdErrorEnabled = bool
stdOutEnabled = bool
}
enabled = bool
metricsEnabled = bool
}
ossVersion = "string"
prometheusProfile = {
enabled = bool
}
rangerPluginProfile = {
enabled = bool
}
rangerProfile = {
rangerAdmin = {
admins = [
"string"
]
database = {
host = "string"
name = "string"
passwordSecretRef = "string"
username = "string"
}
}
rangerAudit = {
storageAccount = "string"
}
rangerUsersync = {
enabled = bool
groups = [
"string"
]
mode = "string"
userMappingLocation = "string"
users = [
"string"
]
}
}
scriptActionProfiles = [
{
name = "string"
parameters = "string"
services = [
"string"
]
shouldPersist = bool
timeoutInMinutes = int
type = "string"
url = "string"
}
]
secretsProfile = {
keyVaultResourceId = "string"
secrets = [
{
keyVaultObjectName = "string"
referenceName = "string"
type = "string"
version = "string"
}
]
}
serviceConfigsProfiles = [
{
configs = [
{
component = "string"
files = [
{
content = "string"
encoding = "string"
fileName = "string"
path = "string"
values = {
{customized property} = "string"
}
}
]
}
]
serviceName = "string"
}
]
sparkProfile = {
defaultStorageUrl = "string"
metastoreSpec = {
dbConnectionAuthenticationMode = "string"
dbName = "string"
dbPasswordSecretName = "string"
dbServerHost = "string"
dbUserName = "string"
keyVaultId = "string"
thriftUrl = "string"
}
userPluginsSpec = {
plugins = [
{
path = "string"
}
]
}
}
sshProfile = {
count = int
}
stubProfile = {
{customized property} = ?
}
trinoProfile = {
catalogOptions = {
hive = [
{
catalogName = "string"
metastoreDbConnectionAuthenticationMode = "string"
metastoreDbConnectionPasswordSecret = "string"
metastoreDbConnectionURL = "string"
metastoreDbConnectionUserName = "string"
metastoreWarehouseDir = "string"
}
]
}
coordinator = {
debug = {
enable = bool
port = int
suspend = bool
}
highAvailabilityEnabled = bool
}
userPluginsSpec = {
plugins = [
{
enabled = bool
name = "string"
path = "string"
}
]
}
userTelemetrySpec = {
storage = {
hivecatalogName = "string"
hivecatalogSchema = "string"
partitionRetentionInDays = int
path = "string"
}
}
worker = {
debug = {
enable = bool
port = int
suspend = bool
}
}
}
}
clusterType = "string"
computeProfile = {
nodes = [
{
count = int
type = "string"
vmSize = "string"
}
]
}
}
})
}
Valeurs de propriété
AuthorizationProfile
Nom | Description | Valeur |
---|---|---|
groupIds | ID de groupe AAD autorisés pour l’accès au plan de données. | string[] |
userIds | ID utilisateur AAD autorisés pour l’accès au plan de données. | string[] |
AutoscaleProfile
Nom | Description | Valeur |
---|---|---|
autoscaleType | Utilisateur pour spécifier le type de mise à l’échelle automatique à implémenter : basé sur la planification ou la charge. | 'LoadBased' 'ScheduleBased' |
Activé | Cela indique si la mise à l’échelle automatique est activée sur HDInsight sur le cluster AKS. | bool (obligatoire) |
gracefulDecommissionTimeout | Cette propriété est destinée au délai d’expiration de mise hors service approprié ; Il a un paramètre par défaut de 3600 secondes avant l’arrêt forcé. Il s’agit du délai maximal d’attente pour que les conteneurs et les applications en cours d’exécution se terminent avant de passer à un nœud DE DÉSAFFECTATION. La valeur par défaut est 3600 secondes. La valeur négative (comme -1) est gérée comme un délai d’expiration infini. | Int |
loadBasedConfig | Profils de mise à l’échelle automatique basée sur la charge. | LoadBasedConfig |
scheduleBasedConfig | Profils de mise à l’échelle automatique basée sur la planification. | scheduleBasedConfig |
CatalogOptions
Nom | Description | Valeur |
---|---|---|
ruche | Options de catalogue hive. | HiveCatalogOption[] |
ClusterAccessProfile
Nom | Description | Valeur |
---|---|---|
enableInternalIngress | Indique s’il faut créer un cluster à l’aide d’une adresse IP privée au lieu d’une adresse IP publique. Cette propriété doit être définie au moment de la création. | bool (obligatoire) |
ClusterConfigFile
Nom | Description | Valeur |
---|---|---|
contenu | Contenu de formulaire libre de l’intégralité du fichier de configuration. | corde |
codage | Cette propriété indique si le contenu est encodé et ne respecte pas la casse. Définissez la valeur sur base64 si le contenu est encodé en base64. Définissez-le sur aucun ou ignorez-le si le contenu est en texte brut. | 'Base64' 'None' |
Fichier | Nom du fichier de configuration. | chaîne (obligatoire) |
chemin | Chemin du fichier de configuration si le contenu est spécifié. | corde |
Valeurs | Liste des paires clé-valeur où la clé représente un nom de configuration de service valide et la valeur représente la valeur de la configuration. |
clusterConfigFileValues |
ClusterConfigFileValues
Nom | Description | Valeur |
---|
ClusterLogAnalyticsApplicationLogs
Nom | Description | Valeur |
---|---|---|
stdErrorEnabled | True si stderror est activé, sinon false. | Bool |
stdOutEnabled | True si stdout est activé, sinon false. | Bool |
ClusterLogAnalyticsProfile
Nom | Description | Valeur |
---|---|---|
applicationLogs | Collection de journaux à activer ou désactiver pour Log Analytics. | ClusterLogAnalyticsApplicationLogs |
Activé | True si Log Analytics est activé pour le cluster, sinon false. | bool (obligatoire) |
metricsEnabled | True si les métriques sont activées, sinon false. | Bool |
ClusterProfile
Nom | Description | Valeur |
---|---|---|
authorizationProfile | Profil d’autorisation avec les détails des ID d’utilisateur AAD et des ID de groupe autorisés pour l’accès au plan de données. | authorizationProfile (obligatoire) |
autoscaleProfile | Il s’agit du profil de mise à l’échelle automatique pour le cluster. Cela permet au client de créer un cluster activé avec la mise à l’échelle automatique. | AutoscaleProfile |
clusterAccessProfile | Profil d’accès au cluster. | ClusterAccessProfile |
clusterVersion | Version avec une partie 3/4. | corde Contraintes: Modèle = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (obligatoire) |
flinkProfile | Profil de cluster Flink. | FlinkProfile |
identityProfile | Cette propriété est requise par le cluster Trino, Spark et Flink, mais elle est facultative pour le cluster Kafka. | IdentityProfile |
kafkaProfile | Profil de cluster Kafka. | KafkaProfile |
llapProfile | Profil de cluster LLAP. | ClusterProfileLlapProfile |
logAnalyticsProfile | Profil Log Analytics de cluster pour activer ou désactiver l’agent OMS pour le cluster. | clusterLogAnalyticsProfile |
ossVersion | Version avec trois parties. | corde Contraintes: Modèle = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (obligatoire) |
prometheusProfile | Profil Prometheus du cluster. | clusterPrometheusProfile |
rangerPluginProfile | Profil du plug-in Cluster Ranger. | clusterRangerPluginProfile |
rangerProfile | Profil du cluster ranger. | RangerProfile |
scriptActionProfiles | Liste des profils d’action de script. | ScriptActionProfile[] |
secretsProfile | Profil secret du cluster. | secretsProfile |
serviceConfigsProfiles | Profils de configuration de service. | clusterServiceConfigsProfile[] |
sparkProfile | Profil de cluster Spark. | SparkProfile |
sshProfile | Profil Ssh pour le cluster. | SshProfile |
stubProfile | Profil de cluster stub. | clusterProfileStubProfile |
trinoProfile | Profil de cluster Trino. | TrinoProfile |
ClusterProfileLlapProfileProfile
Nom | Description | Valeur |
---|
ClusterProfileStubProfile
Nom | Description | Valeur |
---|
ClusterPrometheusProfile
Nom | Description | Valeur |
---|---|---|
Activé | Activez Prometheus pour le cluster ou non. | bool (obligatoire) |
ClusterRangerPluginProfile
Nom | Description | Valeur |
---|---|---|
Activé | Activez Ranger pour le cluster ou non. | bool (obligatoire) |
ClusterResourceProperties
Nom | Description | Valeur |
---|---|---|
clusterProfile | Profil de cluster. | clusterProfile (obligatoire) |
clusterType | Type de cluster. | corde Contraintes: Modèle = ^[a-zA-Z][a-zA-Z0-9]{0,31}$ (obligatoire) |
computeProfile | Profil de calcul. | ComputeProfile (obligatoire) |
ClusterServiceConfig
Nom | Description | Valeur |
---|---|---|
composant | Nom du composant auquel les fichiers de configuration doivent s’appliquer. | chaîne (obligatoire) |
Fichiers | Liste des fichiers de configuration. | clusterConfigFile[] (obligatoire) |
ClusterServiceConfigsProfile
Nom | Description | Valeur |
---|---|---|
configs | Liste des configurations de service. | ClusterServiceConfig[] (obligatoire) |
serviceName | Nom du service auquel les configurations doivent s’appliquer. | chaîne (obligatoire) |
ComparisonRule
Nom | Description | Valeur |
---|---|---|
opérateur | Opérateur de comparaison. | 'greaterThan' 'greaterThanOrEqual' 'lessThan' 'lessThanOrEqual' (obligatoire) |
seuil | Paramètre de seuil. | int (obligatoire) |
ComputeProfile
Nom | Description | Valeur |
---|---|---|
Nœuds | Définitions des nœuds. | NodeProfile[] (obligatoire) |
ComputeResourceDefinition
Nom | Description | Valeur |
---|---|---|
CPU | Processeur requis. | int (obligatoire) |
mémoire | La mémoire requise en Mo, la mémoire du conteneur sera de 110 centiles | int (obligatoire) |
DiskStorageProfile
Nom | Description | Valeur |
---|---|---|
dataDiskSize | Taille du disque managé en Go. La taille maximale de disque prise en charge pour hdD/SSD Standard et Premium est de 32 To, à l’exception du disque SSD Premium v2, qui prend en charge jusqu’à 64 To. | int (obligatoire) |
dataDiskType | Type de disque managé. | 'Premium_SSD_LRS' 'Premium_SSD_v2_LRS' 'Premium_SSD_ZRS' 'Standard_HDD_LRS' 'Standard_SSD_LRS' 'Standard_SSD_ZRS' (obligatoire) |
FlinkCatalogOptions
Nom | Description | Valeur |
---|---|---|
ruche | Option de catalogue Hive pour le cluster Flink. | FlinkHiveCatalogOption |
FlinkHiveCatalogOption
Nom | Description | Valeur |
---|---|---|
metastoreDbConnectionAuthenticationMode | Mode d’authentification pour vous connecter à votre base de données de metastore Hive. Plus d’informations : /azure/azure-sql/database/logins-create-manage ?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | Nom de référence de secret à partir de secretsProfile.secrets contenant le mot de passe pour la connexion de base de données. | corde |
metastoreDbConnectionURL | Chaîne de connexion pour la base de données du metastore hive. | chaîne (obligatoire) |
metastoreDbConnectionUserName | Nom d’utilisateur pour la connexion de base de données. | corde |
FlinkJobProfile
Nom | Description | Valeur |
---|---|---|
args | Propriété de chaîne représentant des arguments JVM supplémentaires pour le travail Flink. Il doit s’agir d’une valeur séparée par un espace. | corde |
entryClass | Propriété de chaîne qui spécifie la classe d’entrée pour le travail Flink. S’il n’est pas spécifié, le point d’entrée est détecté automatiquement à partir du package jar du travail flink. | corde |
jarName | Propriété de chaîne qui représente le nom du fichier JAR du travail. | chaîne (obligatoire) |
jobJarDirectory | Propriété de chaîne qui spécifie le répertoire où se trouve le fichier JAR du travail. | chaîne (obligatoire) |
savePointName | Propriété de chaîne qui représente le nom du point d’enregistrement pour le travail Flink | corde |
upgradeMode | Propriété de chaîne qui indique le mode de mise à niveau à effectuer sur la tâche Flink. Il peut avoir l’une des valeurs d’énumération suivantes => STATELESS_UPDATE, UPDATE, LAST_STATE_UPDATE. | 'LAST_STATE_UPDATE' 'STATELESS_UPDATE' 'UPDATE' (obligatoire) |
FlinkProfile
Nom | Description | Valeur |
---|---|---|
catalogOptions | Options de catalogue de cluster Flink. | FlinkCatalogOptions |
deploymentMode | Propriété de chaîne qui indique le mode de déploiement du cluster Flink. Il peut avoir l’une des valeurs d’énumération suivantes => Application, Session. La valeur par défaut est Session | 'Application' 'Session' |
historyServer | Conteneur du serveur d’historique/ configuration requise pour le processeur et la mémoire | ComputeResourceDefinition |
jobManager | Configuration requise pour le processeur et la mémoire du gestionnaire de travaux | ComputeResourceDefinition (obligatoire) |
jobSpec | Spécifications des travaux pour les clusters flink en mode de déploiement d’application. La spécification est immuable même si les propriétés du travail sont modifiées en appelant l’API RunJob, utilisez l’API ListJob pour obtenir les dernières informations de travail. | FlinkJobProfile |
numReplicas | Nombre de gestionnaires de tâches. | Int |
stockage | Profil de stockage | FlinkStorageProfile (obligatoire) |
taskManager | Configuration requise pour le processeur et la mémoire du gestionnaire de tâches | ComputeResourceDefinition (obligatoire) |
FlinkStorageProfile
Nom | Description | Valeur |
---|---|---|
storagekey | La clé de stockage n’est requise que pour le stockage wasb(s). | corde Contraintes: Valeur sensible. Passez en tant que paramètre sécurisé. |
storageUri | URI du compte de stockage utilisé pour enregistrer le point de contrôle et l’état du point de contrôle. | corde Contraintes: Modèle = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b.*$ (obligatoire) |
HiveCatalogOption
Nom | Description | Valeur |
---|---|---|
catalogName | Nom du catalogue trino qui doit utiliser le metastore hive spécifié. | corde Contraintes: Longueur minimale = 1 (obligatoire) |
metastoreDbConnectionAuthenticationMode | Mode d’authentification pour vous connecter à votre base de données de metastore Hive. Plus d’informations : /azure/azure-sql/database/logins-create-manage ?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
metastoreDbConnectionPasswordSecret | Nom de référence de secret à partir de secretsProfile.secrets contenant le mot de passe pour la connexion de base de données. | corde |
metastoreDbConnectionURL | Chaîne de connexion pour la base de données du metastore hive. | chaîne (obligatoire) |
metastoreDbConnectionUserName | Nom d’utilisateur pour la connexion de base de données. | corde |
metastoreWarehouseDir | URI du répertoire racine du metastore, format : abfs[s] ://<conteneur>@<account_name>.dfs.core.windows.net/<path>. Plus d’informations : /azure/storage/blobs/data-lake-storage-introduction-abfs-uri | chaîne (obligatoire) |
IdentityProfile
Nom | Description | Valeur |
---|---|---|
msiClientId | ClientId du MSI. | corde Contraintes: Modèle = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obligatoire) |
msiObjectId | ObjectId du MSI. | corde Contraintes: Modèle = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obligatoire) |
msiResourceId | ResourceId du MSI. | chaîne (obligatoire) |
KafkaProfile
Nom | Description | Valeur |
---|---|---|
diskStorage | Profil de stockage de disque Kafka. | DiskStorageProfile (obligatoire) |
enableKRaft | Exposer le cluster Kafka en mode KRaft. | Bool |
enablePublicEndpoints | Exposer des nœuds Worker en tant que points de terminaison publics. | Bool |
remoteStorageUri | Chemin complet du conteneur stockage Azure utilisé pour le stockage hiérarchisé. | corde Contraintes: Modèle = ^(https?|abfss?):\/\/[^/]+(?:\/|$) |
LoadBasedConfig
Nom | Description | Valeur |
---|---|---|
cooldownPeriod | Il s’agit d’une période de refroidissement, c’est une période en secondes, qui détermine la durée qui doit s’écouler entre une activité de mise à l’échelle démarrée par une règle et le début de l’activité de mise à l’échelle suivante, quelle que soit la règle qui le déclenche. La valeur par défaut est de 300 secondes. | Int |
maxNodes | L’utilisateur doit définir le nombre maximal de nœuds pour la mise à l’échelle basée sur la charge, la mise à l’échelle basée sur la charge l’utilisera pour effectuer un scale-up et un scale-down entre le nombre minimal et le nombre maximal de nœuds. | int (obligatoire) |
minNodes | L’utilisateur doit définir le nombre minimal de nœuds pour la mise à l’échelle basée sur la charge, la mise à l’échelle basée sur la charge l’utilisera pour effectuer un scale-up et un scale-down entre le nombre minimal et le nombre maximal de nœuds. | int (obligatoire) |
pollInterval | L’utilisateur peut spécifier l’intervalle de sondage, il s’agit de la période (en secondes) après laquelle les métriques de mise à l’échelle sont interrogées pour déclencher une opération de mise à l’échelle. | Int |
scaleRules | Règles de mise à l’échelle. | ScaleRule[] (obligatoire) |
Microsoft.HDInsight/clusterpools/clusters
Nom | Description | Valeur |
---|---|---|
emplacement | Emplacement géographique où réside la ressource | chaîne (obligatoire) |
nom | Nom de la ressource | chaîne (obligatoire) |
parent_id | ID de la ressource qui est le parent de cette ressource. | ID de ressource de type : pools de clusters |
Propriétés | Obtient ou définit les propriétés. Définissez des propriétés spécifiques au cluster. | clusterResourceProperties |
étiquettes | Balises de ressource | Dictionnaire de noms et de valeurs d’étiquettes. |
type | Type de ressource | « Microsoft.HDInsight/clusterpools/clusters@2023-11-01-preview » |
NodeProfile
Nom | Description | Valeur |
---|---|---|
compter | Nombre de machines virtuelles. | Int Contraintes: Valeur minimale = 1 (obligatoire) |
type | Type de nœud. | corde Contraintes: Modèle = ^(head|Head|HEAD|worker|Worker|WORKER)$ (obligatoire) |
vmSize | Référence SKU de la machine virtuelle. | corde Contraintes: Modèle = ^[a-zA-Z0-9_\-]{0,256}$ (obligatoire) |
RangerAdminSpec
Nom | Description | Valeur |
---|---|---|
administrateurs | Liste des noms d’utilisateur qui doivent être marqués comme administrateurs rangers. Ces noms d’utilisateur doivent correspondre au nom d’utilisateur principal (UPN) des utilisateurs AAD respectifs. | string[] (obligatoire) |
base de données | RangerAdminSpecDatabase (obligatoire) |
RangerAdminSpecDatabase
Nom | Description | Valeur |
---|---|---|
hôte | URL de la base de données | chaîne (obligatoire) |
nom | Nom de la base de données | chaîne (obligatoire) |
passwordSecretRef | Informations de référence sur le mot de passe de la base de données | corde |
nom d’utilisateur | Nom de l’utilisateur de base de données | corde |
RangerAuditSpec
Nom | Description | Valeur |
---|---|---|
storageAccount | Emplacement de stockage Azure des objets blob. MSI doit avoir un accès en lecture/écriture à ce compte de stockage. | corde Contraintes: Longueur minimale = 1 Modèle = ^(https)|(abfss)://.*$ |
RangerProfile
Nom | Description | Valeur |
---|---|---|
rangerAdmin | Spécification du service d’administration Ranger. | RangerAdminSpec (obligatoire) |
rangerAudit | Propriétés requises pour décrire le stockage du journal d’audit. | RangerAuditSpec |
rangerUsersync | Spécification du service Ranger Usersync | RangerUsersyncSpec (obligatoire) |
RangerUsersyncSpec
Nom | Description | Valeur |
---|---|---|
Activé | Indique si le service usersync doit être activé | Bool |
groupe | Liste des groupes qui doivent être synchronisés. Ces noms de groupe doivent correspondre à l’ID d’objet des groupes AAD respectifs. | string[] |
mode | Les groupes de & utilisateur peuvent être synchronisés automatiquement ou via une liste statique actualisée. | 'automatic' 'static' |
userMappingLocation | Emplacement de stockage Azure d’un fichier de mappage qui répertorie les associations de groupes & utilisateur. | corde Contraintes: Longueur minimale = 1 Modèle = ^(https)|(abfss)://.*$ |
Utilisateurs | Liste des noms d’utilisateurs qui doivent être synchronisés. Ces noms d’utilisateur doivent correspondre au nom d’utilisateur principal des utilisateurs AAD respectifs. | string[] |
ScaleRule
Nom | Description | Valeur |
---|---|---|
actionType | Type d’action. | 'scaledown' 'scaleup' (obligatoire) |
comparisonRule | Règle de comparaison. | ComparisonRule (obligatoire) |
evaluationCount | Il s’agit d’un nombre d’évaluations pour une condition de mise à l’échelle, le nombre de fois où une condition de déclencheur doit réussir, avant le déclenchement de l’activité de mise à l’échelle. | int (obligatoire) |
scaleMetric | Nom des métriques pour les charges de travail individuelles. Par exemple : processeur | chaîne (obligatoire) |
Horaire
Nom | Description | Valeur |
---|---|---|
compter | L’utilisateur doit définir le nombre de nœuds prévu à la fin de l’opération de mise à l’échelle de la configuration de planification actuelle, le format est entier. | int (obligatoire) |
Jours | L’utilisateur doit définir les jours où la planification doit être définie pour l’opération de mise à l’échelle automatique. | Tableau de chaînes contenant l’un des éléments suivants : 'Vendredi' 'Lundi' 'Samedi' 'Dimanche' 'jeudi' 'Mardi' 'Mercredi' (obligatoire) |
endTime | L’utilisateur doit définir l’heure de fin de la configuration de planification actuelle, au format 10:30 (HH :MM). | corde Contraintes: Modèle = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obligatoire) |
startTime | L’utilisateur doit définir l’heure de début de la configuration de planification actuelle, au format 10:30 (HH :MM). | corde Contraintes: Modèle = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obligatoire) |
ScheduleBasedConfig
Nom | Description | Valeur |
---|---|---|
defaultCount | Définition du nombre de nœuds par défaut de la configuration de planification actuelle. Le nombre de nœuds par défaut spécifie le nombre de nœuds par défaut lorsqu’une opération de mise à l’échelle spécifiée est exécutée (scale-up/scale-down) | int (obligatoire) |
Horaires | Cela spécifie les planifications où la mise à l’échelle automatique basée sur la planification doit être activée, l’utilisateur a le choix de définir plusieurs règles dans la planification entre les jours et les heures (début/fin). | Planification[] (obligatoire) |
timeZone | L’utilisateur doit spécifier le fuseau horaire sur lequel la planification doit être définie pour la configuration de la mise à l’échelle automatique basée sur la planification. | chaîne (obligatoire) |
ScriptActionProfile
Nom | Description | Valeur |
---|---|---|
nom | Nom du script. | chaîne (obligatoire) |
Paramètres | Paramètres supplémentaires pour l’action de script. Il doit s’agir d’une liste d’arguments séparés par un espace requis pour l’exécution du script. | corde |
services | Liste des services à appliquer à l’action de script. | string[] (obligatoire) |
shouldPersist | Spécifiez si le script doit persister sur le cluster. | Bool |
timeoutInMinutes | Durée du délai d’expiration de l’action de script en minutes. | Int |
type | Type de l’action de script. Le type pris en charge est des scripts bash. | chaîne (obligatoire) |
URL | URL du fichier de script. | corde Contraintes: Modèle = ^(https)|(http)://.*$ (obligatoire) |
SecretReference
Nom | Description | Valeur |
---|---|---|
keyVaultObjectName | Nom de l’identificateur d’objet du secret dans le coffre de clés. | corde Contraintes: Modèle = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (obligatoire) |
referenceName | Nom de référence du secret à utiliser dans les configurations de service. | chaîne (obligatoire) |
type | Type d’objet key vault : secret, clé ou certificat. | 'Certificat' 'Key' 'Secret' (obligatoire) |
Version | Version du secret dans le coffre de clés. | corde |
SecretsProfile
Nom | Description | Valeur |
---|---|---|
keyVaultResourceId | Nom du coffre de clés utilisateur dans lequel tous les secrets utilisateur spécifiques au cluster sont stockés. | chaîne (obligatoire) |
Secrets | Propriétés du secret Key Vault. | SecretReference[] |
SparkMetastoreSpec
Nom | Description | Valeur |
---|---|---|
dbConnectionAuthenticationMode | Mode d’authentification pour vous connecter à votre base de données de metastore Hive. Plus d’informations : /azure/azure-sql/database/logins-create-manage ?view=azuresql#authentication-and-authorization | 'IdentityAuth' 'SqlAuth' |
dbName | Nom de la base de données. | chaîne (obligatoire) |
dbPasswordSecretName | Nom du secret qui contient le mot de passe de l’utilisateur de la base de données. | corde |
dbServerHost | Hôte du serveur de base de données. | chaîne (obligatoire) |
dbUserName | Nom d’utilisateur de la base de données. | corde |
keyVaultId | ID de ressource du coffre de clés. | corde |
thriftUrl | URL thrift. | corde |
SparkProfile
Nom | Description | Valeur |
---|---|---|
defaultStorageUrl | URL de stockage par défaut. | corde |
metastoreSpec | Spécification du metastore pour le cluster Spark. | SparkMetastoreSpec |
userPluginsSpec | Spécification des plug-ins utilisateur Spark | sparkUserPlugins |
SparkUserPlugin
Nom | Description | Valeur |
---|---|---|
chemin | Chemin complet du dossier contenant les plug-ins. | corde Contraintes: Longueur minimale = 1 Modèle = ^(https)|(abfss)://.*$ (obligatoire) |
SparkUserPlugins
Nom | Description | Valeur |
---|---|---|
plug-ins | Plug-ins utilisateur Spark. | SparkUserPlugin[] |
SshProfile
Nom | Description | Valeur |
---|---|---|
compter | Nombre de pods ssh par cluster. | Int Contraintes: Valeur minimale = 0 Valeur maximale = 5 (obligatoire) |
TrackedResourceTags
Nom | Description | Valeur |
---|
TrinoCoordinator
Nom | Description | Valeur |
---|---|---|
déboguer | Configuration de débogage trino. | TrinoDebugConfig |
highAvailabilityEnabled | Indicateur qui, si vous activez la haute disponibilité du coordinateur, utilise plusieurs réplicas coordinateurs avec basculement automatique, un par nœud principal. Valeur par défaut : true. | Bool |
TrinoDebugConfig
Nom | Description | Valeur |
---|---|---|
Activer | Indicateur qui, si l’activation du débogage est activé ou non. | Bool |
port | Port de débogage. | Int |
suspendre | Indicateur qui s’il suspend le débogage ou non. | Bool |
TrinoProfile
Nom | Description | Valeur |
---|---|---|
catalogOptions | Options de catalogue de cluster Trino. | CatalogOptions |
coordinateur | Coordinateur Trino. | TrinoCoordinator |
userPluginsSpec | Spécification des plug-ins utilisateur Trino | TrinoUserPlugins |
userTelemetrySpec | Télémétrie utilisateur | TrinoUserTelemetry |
travailleur | Trino worker. | trinoWorker |
TrinoTelemetryConfig
Nom | Description | Valeur |
---|---|---|
hivecatalogName | Nom du catalogue Hive utilisé pour monter des tables externes sur les journaux écrits par trino, s’il n’est pas spécifié, les tables ne sont pas créées. | corde Contraintes: Longueur minimale = 1 |
hivecatalogSchema | Schéma du catalogue ci-dessus à utiliser pour monter les journaux de requête en tant que tables externes, si aucune table spécifiée n’est monté sous les trinologs de schéma. | corde |
partitionRetentionInDays | Période de rétention pour les partitions de tables de journaux de requête, cela n’a aucun impact sur les données réelles. | Int |
chemin | Emplacement de stockage Azure des objets blob. | corde Contraintes: Longueur minimale = 1 |
TrinoUserPlugin
Nom | Description | Valeur |
---|---|---|
Activé | Indique si le plug-in est actif ou non. | Bool |
nom | Ce champ est mappé au sous-répertoire dans l’emplacement des plug-ins trino, qui contiendra tous les plug-ins sous le chemin d’accès. | corde Contraintes: Longueur minimale = 1 |
chemin | Chemin complet du dossier contenant les plug-ins. | corde Contraintes: Longueur minimale = 1 Modèle = ^(https)|(abfss)://.*$ |
TrinoUserPlugins
Nom | Description | Valeur |
---|---|---|
plug-ins | Plug-ins utilisateur Trino. | TrinoUserPlugin[] |
TrinoUserTelemetry
Nom | Description | Valeur |
---|---|---|
stockage | Définition de télémétrie de l’utilisateur Trino. | TrinoTelemetryConfig |
TrinoWorker
Nom | Description | Valeur |
---|---|---|
déboguer | Configuration de débogage trino. | TrinoDebugConfig |