Partager via


Microsoft.HDInsight clusterpools/clusters 2023-06-01-preview

Définition de ressource Bicep

Le type de ressource clusterpools/clusters peut être déployé avec des opérations qui ciblent :

Pour obtenir la liste des propriétés modifiées dans chaque version de l’API, consultez journal des modifications.

Format de ressource

Pour créer une ressource Microsoft.HDInsight/clusterpools/clusters, ajoutez le bicep suivant à votre modèle.

resource symbolicname 'Microsoft.HDInsight/clusterpools/clusters@2023-06-01-preview' = {
  parent: resourceSymbolicName
  location: 'string'
  name: 'string'
  properties: {
    clusterProfile: {
      authorizationProfile: {
        groupIds: [
          'string'
        ]
        userIds: [
          'string'
        ]
      }
      autoscaleProfile: {
        autoscaleType: 'string'
        enabled: bool
        gracefulDecommissionTimeout: int
        loadBasedConfig: {
          cooldownPeriod: int
          maxNodes: int
          minNodes: int
          pollInterval: int
          scalingRules: [
            {
              actionType: 'string'
              comparisonRule: {
                operator: 'string'
                threshold: int
              }
              evaluationCount: int
              scalingMetric: 'string'
            }
          ]
        }
        scheduleBasedConfig: {
          defaultCount: int
          schedules: [
            {
              count: int
              days: [
                'string'
              ]
              endTime: 'string'
              startTime: 'string'
            }
          ]
          timeZone: 'string'
        }
      }
      clusterVersion: 'string'
      flinkProfile: {
        catalogOptions: {
          hive: {
            metastoreDbConnectionPasswordSecret: 'string'
            metastoreDbConnectionURL: 'string'
            metastoreDbConnectionUserName: 'string'
          }
        }
        historyServer: {
          cpu: int
          memory: int
        }
        jobManager: {
          cpu: int
          memory: int
        }
        numReplicas: int
        storage: {
          storagekey: 'string'
          storageUri: 'string'
        }
        taskManager: {
          cpu: int
          memory: int
        }
      }
      identityProfile: {
        msiClientId: 'string'
        msiObjectId: 'string'
        msiResourceId: 'string'
      }
      kafkaProfile: {
        {customized property}: any(Azure.Bicep.Types.Concrete.AnyType)
      }
      llapProfile: {
        {customized property}: any(Azure.Bicep.Types.Concrete.AnyType)
      }
      logAnalyticsProfile: {
        applicationLogs: {
          stdErrorEnabled: bool
          stdOutEnabled: bool
        }
        enabled: bool
        metricsEnabled: bool
      }
      ossVersion: 'string'
      prometheusProfile: {
        enabled: bool
      }
      scriptActionProfiles: [
        {
          name: 'string'
          parameters: 'string'
          services: [
            'string'
          ]
          shouldPersist: bool
          timeoutInMinutes: int
          type: 'string'
          url: 'string'
        }
      ]
      secretsProfile: {
        keyVaultResourceId: 'string'
        secrets: [
          {
            keyVaultObjectName: 'string'
            referenceName: 'string'
            type: 'string'
            version: 'string'
          }
        ]
      }
      serviceConfigsProfiles: [
        {
          configs: [
            {
              component: 'string'
              files: [
                {
                  content: 'string'
                  encoding: 'string'
                  fileName: 'string'
                  path: 'string'
                  values: {
                    {customized property}: 'string'
                  }
                }
              ]
            }
          ]
          serviceName: 'string'
        }
      ]
      sparkProfile: {
        defaultStorageUrl: 'string'
        metastoreSpec: {
          dbName: 'string'
          dbPasswordSecretName: 'string'
          dbServerHost: 'string'
          dbUserName: 'string'
          keyVaultId: 'string'
          thriftUrl: 'string'
        }
        userPluginsSpec: {
          plugins: [
            {
              path: 'string'
            }
          ]
        }
      }
      sshProfile: {
        count: int
      }
      stubProfile: {
        {customized property}: any(Azure.Bicep.Types.Concrete.AnyType)
      }
      trinoProfile: {
        catalogOptions: {
          hive: [
            {
              catalogName: 'string'
              metastoreDbConnectionPasswordSecret: 'string'
              metastoreDbConnectionURL: 'string'
              metastoreDbConnectionUserName: 'string'
              metastoreWarehouseDir: 'string'
            }
          ]
        }
        coordinator: {
          debug: {
            enable: bool
            port: int
            suspend: bool
          }
          highAvailabilityEnabled: bool
        }
        userPluginsSpec: {
          plugins: [
            {
              enabled: bool
              name: 'string'
              path: 'string'
            }
          ]
        }
        userTelemetrySpec: {
          storage: {
            hivecatalogName: 'string'
            hivecatalogSchema: 'string'
            partitionRetentionInDays: int
            path: 'string'
          }
        }
        worker: {
          debug: {
            enable: bool
            port: int
            suspend: bool
          }
        }
      }
    }
    clusterType: 'string'
    computeProfile: {
      nodes: [
        {
          count: int
          type: 'string'
          vmSize: 'string'
        }
      ]
    }
  }
  tags: {
    {customized property}: 'string'
  }
}

Valeurs de propriété

AuthorizationProfile

Nom Description Valeur
groupIds ID de groupe AAD autorisés pour l’accès au plan de données. string[]
userIds ID utilisateur AAD autorisés pour l’accès au plan de données. string[]

AutoscaleProfile

Nom Description Valeur
autoscaleType Utilisateur pour spécifier le type de mise à l’échelle automatique à implémenter : basé sur la planification ou la charge. 'LoadBased'
'ScheduleBased'
Activé Cela indique si la mise à l’échelle automatique est activée sur HDInsight sur le cluster AKS. bool (obligatoire)
gracefulDecommissionTimeout Cette propriété est destinée au délai d’expiration de mise hors service approprié ; Il a un paramètre par défaut de 3600 secondes avant l’arrêt forcé. Il s’agit du délai maximal d’attente pour que les conteneurs et les applications en cours d’exécution se terminent avant de passer à un nœud DE DÉSAFFECTATION. La valeur par défaut est 3600 secondes. La valeur négative (comme -1) est gérée comme un délai d’expiration infini. Int
loadBasedConfig Profils de mise à l’échelle automatique basée sur la charge. LoadBasedConfig
scheduleBasedConfig Profils de mise à l’échelle automatique basée sur la planification. scheduleBasedConfig

CatalogOptions

Nom Description Valeur
ruche Options de catalogue hive. HiveCatalogOption[]

ClusterConfigFile

Nom Description Valeur
contenu Contenu de formulaire libre de l’intégralité du fichier de configuration. corde
codage Cette propriété indique si le contenu est encodé et ne respecte pas la casse. Définissez la valeur sur base64 si le contenu est encodé en base64. Définissez-le sur aucun ou ignorez-le si le contenu est en texte brut. 'Base64'
'None'
Fichier Nom du fichier de configuration. chaîne (obligatoire)
chemin Chemin du fichier de configuration si le contenu est spécifié. corde
Valeurs Liste des paires clé-valeur
où la clé représente un nom de configuration de service valide et la valeur représente la valeur de la configuration.
clusterConfigFileValues

ClusterConfigFileValues

Nom Description Valeur

ClusterLogAnalyticsApplicationLogs

Nom Description Valeur
stdErrorEnabled True si stderror est activé, sinon false. Bool
stdOutEnabled True si stdout est activé, sinon false. Bool

ClusterLogAnalyticsProfile

Nom Description Valeur
applicationLogs Collection de journaux à activer ou désactiver pour Log Analytics. ClusterLogAnalyticsApplicationLogs
Activé True si Log Analytics est activé pour le cluster, sinon false. bool (obligatoire)
metricsEnabled True si les métriques sont activées, sinon false. Bool

ClusterProfile

Nom Description Valeur
authorizationProfile Profil d’autorisation avec les détails des ID d’utilisateur AAD et des ID de groupe autorisés pour l’accès au plan de données. authorizationProfile (obligatoire)
autoscaleProfile Il s’agit du profil de mise à l’échelle automatique pour le cluster. Cela permet au client de créer un cluster activé avec la mise à l’échelle automatique. AutoscaleProfile
clusterVersion Version avec une partie 3/4. corde

Contraintes:
Modèle = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (obligatoire)
flinkProfile Profil de cluster Flink. FlinkProfile
identityProfile Profil d’identité avec les détails d’une msi. IdentityProfile (obligatoire)
kafkaProfile Profil de cluster Kafka. clusterProfileKafkaProfile
llapProfile Profil de cluster LLAP. ClusterProfileLlapProfile
logAnalyticsProfile Profil Log Analytics de cluster pour activer ou désactiver l’agent OMS pour le cluster. clusterLogAnalyticsProfile
ossVersion Version avec trois parties. corde

Contraintes:
Modèle = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (obligatoire)
prometheusProfile Profil Prometheus du cluster. clusterPrometheusProfile
scriptActionProfiles Liste des profils d’action de script. ScriptActionProfile[]
secretsProfile Profil secret du cluster. secretsProfile
serviceConfigsProfiles Profils de configuration de service. clusterServiceConfigsProfile[]
sparkProfile Profil de cluster Spark. SparkProfile
sshProfile Profil Ssh pour le cluster. SshProfile
stubProfile Profil de cluster stub. clusterProfileStubProfile
trinoProfile Profil de cluster Trino. TrinoProfile

ClusterProfileKafkaProfile

Nom Description Valeur

ClusterProfileLlapProfileProfile

Nom Description Valeur

ClusterProfileStubProfile

Nom Description Valeur

ClusterPrometheusProfile

Nom Description Valeur
Activé Activez Prometheus pour le cluster ou non. bool (obligatoire)

ClusterResourceProperties

Nom Description Valeur
clusterProfile Profil de cluster. clusterProfile (obligatoire)
clusterType Type de cluster. corde

Contraintes:
Modèle = ^[a-zA-Z][a-zA-Z0-9]{0,31}$ (obligatoire)
computeProfile Profil de calcul. ComputeProfile (obligatoire)

ClusterServiceConfig

Nom Description Valeur
composant Nom du composant auquel les fichiers de configuration doivent s’appliquer. chaîne (obligatoire)
Fichiers Liste des fichiers de configuration. clusterConfigFile[] (obligatoire)

ClusterServiceConfigsProfile

Nom Description Valeur
configs Liste des configurations de service. ClusterServiceConfig[] (obligatoire)
serviceName Nom du service auquel les configurations doivent s’appliquer. chaîne (obligatoire)

ComparisonRule

Nom Description Valeur
opérateur Opérateur de comparaison. 'greaterThan'
'greaterThanOrEqual'
'lessThan'
'lessThanOrEqual' (obligatoire)
seuil Paramètre de seuil. int (obligatoire)

ComputeProfile

Nom Description Valeur
Nœuds Définitions des nœuds. NodeProfile[] (obligatoire)

ComputeResourceDefinition

Nom Description Valeur
CPU Processeur requis. int (obligatoire)
mémoire La mémoire requise en Mo, la mémoire du conteneur sera de 110 centiles int (obligatoire)

FlinkCatalogOptions

Nom Description Valeur
ruche Option de catalogue Hive pour le cluster Flink. FlinkHiveCatalogOption

FlinkHiveCatalogOption

Nom Description Valeur
metastoreDbConnectionPasswordSecret Nom de référence de secret à partir de secretsProfile.secrets contenant le mot de passe pour la connexion de base de données. chaîne (obligatoire)
metastoreDbConnectionURL Chaîne de connexion pour la base de données du metastore hive. chaîne (obligatoire)
metastoreDbConnectionUserName Nom d’utilisateur pour la connexion de base de données. chaîne (obligatoire)

FlinkProfile

Nom Description Valeur
catalogOptions Options de catalogue de cluster Flink. FlinkCatalogOptions
historyServer Conteneur du serveur d’historique/ configuration requise pour le processeur et la mémoire ComputeResourceDefinition
jobManager Configuration requise pour le processeur et la mémoire du gestionnaire de travaux ComputeResourceDefinition (obligatoire)
numReplicas Nombre de gestionnaires de tâches. Int
stockage Profil de stockage FlinkStorageProfile (obligatoire)
taskManager Configuration requise pour le processeur et la mémoire du gestionnaire de tâches ComputeResourceDefinition (obligatoire)

FlinkStorageProfile

Nom Description Valeur
storagekey La clé de stockage n’est requise que pour le stockage wasb(s). corde

Contraintes:
Valeur sensible. Passez en tant que paramètre sécurisé.
storageUri URI du compte de stockage utilisé pour enregistrer le point de contrôle et l’état du point de contrôle. corde

Contraintes:
Modèle = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b\.core\.windows\.net$ (obligatoire)

HiveCatalogOption

Nom Description Valeur
catalogName Nom du catalogue trino qui doit utiliser le metastore hive spécifié. corde

Contraintes:
Longueur minimale = 1 (obligatoire)
metastoreDbConnectionPasswordSecret Nom de référence de secret à partir de secretsProfile.secrets contenant le mot de passe pour la connexion de base de données. chaîne (obligatoire)
metastoreDbConnectionURL Chaîne de connexion pour la base de données du metastore hive. chaîne (obligatoire)
metastoreDbConnectionUserName Nom d’utilisateur pour la connexion de base de données. chaîne (obligatoire)
metastoreWarehouseDir URI du répertoire racine du metastore, format : abfs[s] ://<conteneur>@<account_name>.dfs.core.windows.net/<path>. Plus d’informations : /azure/storage/blobs/data-lake-storage-introduction-abfs-uri chaîne (obligatoire)

IdentityProfile

Nom Description Valeur
msiClientId ClientId du MSI. corde

Contraintes:
Modèle = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obligatoire)
msiObjectId ObjectId du MSI. corde

Contraintes:
Modèle = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obligatoire)
msiResourceId ResourceId du MSI. chaîne (obligatoire)

LoadBasedConfig

Nom Description Valeur
cooldownPeriod Il s’agit d’une période de refroidissement, c’est une période en secondes, qui détermine la durée qui doit s’écouler entre une activité de mise à l’échelle démarrée par une règle et le début de l’activité de mise à l’échelle suivante, quelle que soit la règle qui le déclenche. La valeur par défaut est de 300 secondes. Int
maxNodes L’utilisateur doit définir le nombre maximal de nœuds pour la mise à l’échelle basée sur la charge, la mise à l’échelle basée sur la charge l’utilisera pour effectuer un scale-up et un scale-down entre le nombre minimal et le nombre maximal de nœuds. int (obligatoire)
minNodes L’utilisateur doit définir le nombre minimal de nœuds pour la mise à l’échelle basée sur la charge, la mise à l’échelle basée sur la charge l’utilisera pour effectuer un scale-up et un scale-down entre le nombre minimal et le nombre maximal de nœuds. int (obligatoire)
pollInterval L’utilisateur peut spécifier l’intervalle de sondage, il s’agit de la période (en secondes) après laquelle les métriques de mise à l’échelle sont interrogées pour déclencher une opération de mise à l’échelle. Int
scaleRules Règles de mise à l’échelle. ScaleRule[] (obligatoire)

Microsoft.HDInsight/clusterpools/clusters

Nom Description Valeur
emplacement Emplacement géographique où réside la ressource chaîne (obligatoire)
nom Nom de la ressource chaîne (obligatoire)
parent Dans Bicep, vous pouvez spécifier la ressource parente d’une ressource enfant. Vous devez uniquement ajouter cette propriété lorsque la ressource enfant est déclarée en dehors de la ressource parente.

Pour plus d’informations, consultez ressource enfant en dehors de la ressource parente.
Nom symbolique de la ressource de type : clusters
Propriétés Obtient ou définit les propriétés. Définissez des propriétés spécifiques au cluster. clusterResourceProperties
étiquettes Balises de ressource Dictionnaire de noms et de valeurs d’étiquettes. Consultez les balises dans les modèles

NodeProfile

Nom Description Valeur
compter Nombre de machines virtuelles. Int

Contraintes:
Valeur minimale = 1 (obligatoire)
type Type de nœud. corde

Contraintes:
Modèle = ^(head|Head|HEAD|worker|Worker|WORKER)$ (obligatoire)
vmSize Référence SKU de la machine virtuelle. corde

Contraintes:
Modèle = ^[a-zA-Z0-9_\-]{0,256}$ (obligatoire)

ScaleRule

Nom Description Valeur
actionType Type d’action. 'scaledown'
'scaleup' (obligatoire)
comparisonRule Règle de comparaison. ComparisonRule (obligatoire)
evaluationCount Il s’agit d’un nombre d’évaluations pour une condition de mise à l’échelle, le nombre de fois où une condition de déclencheur doit réussir, avant le déclenchement de l’activité de mise à l’échelle. int (obligatoire)
scaleMetric Nom des métriques pour les charges de travail individuelles. Par exemple : processeur chaîne (obligatoire)

Horaire

Nom Description Valeur
compter L’utilisateur doit définir le nombre de nœuds prévu à la fin de l’opération de mise à l’échelle de la configuration de planification actuelle, le format est entier. int (obligatoire)
Jours L’utilisateur doit définir les jours où la planification doit être définie pour l’opération de mise à l’échelle automatique. Tableau de chaînes contenant l’un des éléments suivants :
'Vendredi'
'Lundi'
'Samedi'
'Dimanche'
'jeudi'
'Mardi'
'Mercredi' (obligatoire)
endTime L’utilisateur doit définir l’heure de fin de la configuration de planification actuelle, au format 10:30 (HH :MM). corde

Contraintes:
Modèle = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obligatoire)
startTime L’utilisateur doit définir l’heure de début de la configuration de planification actuelle, au format 10:30 (HH :MM). corde

Contraintes:
Modèle = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obligatoire)

ScheduleBasedConfig

Nom Description Valeur
defaultCount Définition du nombre de nœuds par défaut de la configuration de planification actuelle. Le nombre de nœuds par défaut spécifie le nombre de nœuds par défaut lorsqu’une opération de mise à l’échelle spécifiée est exécutée (scale-up/scale-down) int (obligatoire)
Horaires Cela spécifie les planifications où la mise à l’échelle automatique basée sur la planification doit être activée, l’utilisateur a le choix de définir plusieurs règles dans la planification entre les jours et les heures (début/fin). Planification[] (obligatoire)
timeZone L’utilisateur doit spécifier le fuseau horaire sur lequel la planification doit être définie pour la configuration de la mise à l’échelle automatique basée sur la planification. chaîne (obligatoire)

ScriptActionProfile

Nom Description Valeur
nom Nom du script. chaîne (obligatoire)
Paramètres Paramètres supplémentaires pour l’action de script. Il doit s’agir d’une liste d’arguments séparés par un espace requis pour l’exécution du script. corde
services Liste des services à appliquer à l’action de script. string[] (obligatoire)
shouldPersist Spécifiez si le script doit persister sur le cluster. Bool
timeoutInMinutes Durée du délai d’expiration de l’action de script en minutes. Int
type Type de l’action de script. Le type pris en charge est des scripts bash. chaîne (obligatoire)
URL URL du fichier de script. corde

Contraintes:
Modèle = ^(https)|(http)|(abfss)|(abfs)|(wasbs)|(wasb)://.*$ (obligatoire)

SecretReference

Nom Description Valeur
keyVaultObjectName Nom de l’identificateur d’objet du secret dans le coffre de clés. corde

Contraintes:
Modèle = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (obligatoire)
referenceName Nom de référence du secret à utiliser dans les configurations de service. chaîne (obligatoire)
type Type d’objet key vault : secret, clé ou certificat. 'Certificat'
'Key'
'Secret' (obligatoire)
Version Version du secret dans le coffre de clés. corde

SecretsProfile

Nom Description Valeur
keyVaultResourceId Nom du coffre de clés utilisateur dans lequel tous les secrets utilisateur spécifiques au cluster sont stockés. chaîne (obligatoire)
Secrets Propriétés du secret Key Vault. SecretReference[]

SparkMetastoreSpec

Nom Description Valeur
dbName Nom de la base de données. chaîne (obligatoire)
dbPasswordSecretName Nom du secret qui contient le mot de passe de l’utilisateur de la base de données. chaîne (obligatoire)
dbServerHost Hôte du serveur de base de données. chaîne (obligatoire)
dbUserName Nom d’utilisateur de la base de données. chaîne (obligatoire)
keyVaultId ID de ressource du coffre de clés. chaîne (obligatoire)
thriftUrl URL thrift. corde

SparkProfile

Nom Description Valeur
defaultStorageUrl URL de stockage par défaut. corde
metastoreSpec Spécification du metastore pour le cluster Spark. SparkMetastoreSpec
userPluginsSpec Spécification des plug-ins utilisateur Spark sparkUserPlugins

SparkUserPlugin

Nom Description Valeur
chemin Chemin complet du dossier contenant les plug-ins. corde

Contraintes:
Longueur minimale = 1
Modèle = ^(https)|(abfss)://.*$ (obligatoire)

SparkUserPlugins

Nom Description Valeur
plug-ins Plug-ins utilisateur Spark. SparkUserPlugin[]

SshProfile

Nom Description Valeur
compter Nombre de pods ssh par cluster. Int

Contraintes:
Valeur minimale = 0
Valeur maximale = 5 (obligatoire)

TrackedResourceTags

Nom Description Valeur

TrinoCoordinator

Nom Description Valeur
déboguer Configuration de débogage trino. TrinoDebugConfig
highAvailabilityEnabled Indicateur qui, si vous activez la haute disponibilité du coordinateur, utilise plusieurs réplicas coordinateurs avec basculement automatique, un par nœud principal. Valeur par défaut : true. Bool

TrinoDebugConfig

Nom Description Valeur
Activer Indicateur qui, si l’activation du débogage est activé ou non. Bool
port Port de débogage. Int
suspendre Indicateur qui s’il suspend le débogage ou non. Bool

TrinoProfile

Nom Description Valeur
catalogOptions Options de catalogue de cluster Trino. CatalogOptions
coordinateur Coordinateur Trino. TrinoCoordinator
userPluginsSpec Spécification des plug-ins utilisateur Trino TrinoUserPlugins
userTelemetrySpec Télémétrie utilisateur TrinoUserTelemetry
travailleur Trino worker. trinoWorker

TrinoTelemetryConfig

Nom Description Valeur
hivecatalogName Nom du catalogue Hive utilisé pour monter des tables externes sur les journaux écrits par trino, s’il n’est pas spécifié, les tables ne sont pas créées. corde

Contraintes:
Longueur minimale = 1
hivecatalogSchema Schéma du catalogue ci-dessus à utiliser pour monter les journaux de requête en tant que tables externes, si aucune table spécifiée n’est monté sous les trinologs de schéma. corde
partitionRetentionInDays Période de rétention pour les partitions de tables de journaux de requête, cela n’a aucun impact sur les données réelles. Int
chemin Emplacement de stockage Azure des objets blob. corde

Contraintes:
Longueur minimale = 1

TrinoUserPlugin

Nom Description Valeur
Activé Indique si le plug-in est actif ou non. Bool
nom Ce champ est mappé au sous-répertoire dans l’emplacement des plug-ins trino, qui contiendra tous les plug-ins sous le chemin d’accès. corde

Contraintes:
Longueur minimale = 1
chemin Chemin complet du dossier contenant les plug-ins. corde

Contraintes:
Longueur minimale = 1
Modèle = ^(https)|(abfss)://.*$

TrinoUserPlugins

Nom Description Valeur
plug-ins Plug-ins utilisateur Trino. TrinoUserPlugin[]

TrinoUserTelemetry

Nom Description Valeur
stockage Définition de télémétrie de l’utilisateur Trino. TrinoTelemetryConfig

TrinoWorker

Nom Description Valeur
déboguer Configuration de débogage trino. TrinoDebugConfig

Définition de ressource de modèle ARM

Le type de ressource clusterpools/clusters peut être déployé avec des opérations qui ciblent :

Pour obtenir la liste des propriétés modifiées dans chaque version de l’API, consultez journal des modifications.

Format de ressource

Pour créer une ressource Microsoft.HDInsight/clusterpools/clusters, ajoutez le code JSON suivant à votre modèle.

{
  "type": "Microsoft.HDInsight/clusterpools/clusters",
  "apiVersion": "2023-06-01-preview",
  "name": "string",
  "location": "string",
  "properties": {
    "clusterProfile": {
      "authorizationProfile": {
        "groupIds": [ "string" ],
        "userIds": [ "string" ]
      },
      "autoscaleProfile": {
        "autoscaleType": "string",
        "enabled": "bool",
        "gracefulDecommissionTimeout": "int",
        "loadBasedConfig": {
          "cooldownPeriod": "int",
          "maxNodes": "int",
          "minNodes": "int",
          "pollInterval": "int",
          "scalingRules": [
            {
              "actionType": "string",
              "comparisonRule": {
                "operator": "string",
                "threshold": "int"
              },
              "evaluationCount": "int",
              "scalingMetric": "string"
            }
          ]
        },
        "scheduleBasedConfig": {
          "defaultCount": "int",
          "schedules": [
            {
              "count": "int",
              "days": [ "string" ],
              "endTime": "string",
              "startTime": "string"
            }
          ],
          "timeZone": "string"
        }
      },
      "clusterVersion": "string",
      "flinkProfile": {
        "catalogOptions": {
          "hive": {
            "metastoreDbConnectionPasswordSecret": "string",
            "metastoreDbConnectionURL": "string",
            "metastoreDbConnectionUserName": "string"
          }
        },
        "historyServer": {
          "cpu": "int",
          "memory": "int"
        },
        "jobManager": {
          "cpu": "int",
          "memory": "int"
        },
        "numReplicas": "int",
        "storage": {
          "storagekey": "string",
          "storageUri": "string"
        },
        "taskManager": {
          "cpu": "int",
          "memory": "int"
        }
      },
      "identityProfile": {
        "msiClientId": "string",
        "msiObjectId": "string",
        "msiResourceId": "string"
      },
      "kafkaProfile": {
        "{customized property}": {}
      },
      "llapProfile": {
        "{customized property}": {}
      },
      "logAnalyticsProfile": {
        "applicationLogs": {
          "stdErrorEnabled": "bool",
          "stdOutEnabled": "bool"
        },
        "enabled": "bool",
        "metricsEnabled": "bool"
      },
      "ossVersion": "string",
      "prometheusProfile": {
        "enabled": "bool"
      },
      "scriptActionProfiles": [
        {
          "name": "string",
          "parameters": "string",
          "services": [ "string" ],
          "shouldPersist": "bool",
          "timeoutInMinutes": "int",
          "type": "string",
          "url": "string"
        }
      ],
      "secretsProfile": {
        "keyVaultResourceId": "string",
        "secrets": [
          {
            "keyVaultObjectName": "string",
            "referenceName": "string",
            "type": "string",
            "version": "string"
          }
        ]
      },
      "serviceConfigsProfiles": [
        {
          "configs": [
            {
              "component": "string",
              "files": [
                {
                  "content": "string",
                  "encoding": "string",
                  "fileName": "string",
                  "path": "string",
                  "values": {
                    "{customized property}": "string"
                  }
                }
              ]
            }
          ],
          "serviceName": "string"
        }
      ],
      "sparkProfile": {
        "defaultStorageUrl": "string",
        "metastoreSpec": {
          "dbName": "string",
          "dbPasswordSecretName": "string",
          "dbServerHost": "string",
          "dbUserName": "string",
          "keyVaultId": "string",
          "thriftUrl": "string"
        },
        "userPluginsSpec": {
          "plugins": [
            {
              "path": "string"
            }
          ]
        }
      },
      "sshProfile": {
        "count": "int"
      },
      "stubProfile": {
        "{customized property}": {}
      },
      "trinoProfile": {
        "catalogOptions": {
          "hive": [
            {
              "catalogName": "string",
              "metastoreDbConnectionPasswordSecret": "string",
              "metastoreDbConnectionURL": "string",
              "metastoreDbConnectionUserName": "string",
              "metastoreWarehouseDir": "string"
            }
          ]
        },
        "coordinator": {
          "debug": {
            "enable": "bool",
            "port": "int",
            "suspend": "bool"
          },
          "highAvailabilityEnabled": "bool"
        },
        "userPluginsSpec": {
          "plugins": [
            {
              "enabled": "bool",
              "name": "string",
              "path": "string"
            }
          ]
        },
        "userTelemetrySpec": {
          "storage": {
            "hivecatalogName": "string",
            "hivecatalogSchema": "string",
            "partitionRetentionInDays": "int",
            "path": "string"
          }
        },
        "worker": {
          "debug": {
            "enable": "bool",
            "port": "int",
            "suspend": "bool"
          }
        }
      }
    },
    "clusterType": "string",
    "computeProfile": {
      "nodes": [
        {
          "count": "int",
          "type": "string",
          "vmSize": "string"
        }
      ]
    }
  },
  "tags": {
    "{customized property}": "string"
  }
}

Valeurs de propriété

AuthorizationProfile

Nom Description Valeur
groupIds ID de groupe AAD autorisés pour l’accès au plan de données. string[]
userIds ID utilisateur AAD autorisés pour l’accès au plan de données. string[]

AutoscaleProfile

Nom Description Valeur
autoscaleType Utilisateur pour spécifier le type de mise à l’échelle automatique à implémenter : basé sur la planification ou la charge. 'LoadBased'
'ScheduleBased'
Activé Cela indique si la mise à l’échelle automatique est activée sur HDInsight sur le cluster AKS. bool (obligatoire)
gracefulDecommissionTimeout Cette propriété est destinée au délai d’expiration de mise hors service approprié ; Il a un paramètre par défaut de 3600 secondes avant l’arrêt forcé. Il s’agit du délai maximal d’attente pour que les conteneurs et les applications en cours d’exécution se terminent avant de passer à un nœud DE DÉSAFFECTATION. La valeur par défaut est 3600 secondes. La valeur négative (comme -1) est gérée comme un délai d’expiration infini. Int
loadBasedConfig Profils de mise à l’échelle automatique basée sur la charge. LoadBasedConfig
scheduleBasedConfig Profils de mise à l’échelle automatique basée sur la planification. scheduleBasedConfig

CatalogOptions

Nom Description Valeur
ruche Options de catalogue hive. HiveCatalogOption[]

ClusterConfigFile

Nom Description Valeur
contenu Contenu de formulaire libre de l’intégralité du fichier de configuration. corde
codage Cette propriété indique si le contenu est encodé et ne respecte pas la casse. Définissez la valeur sur base64 si le contenu est encodé en base64. Définissez-le sur aucun ou ignorez-le si le contenu est en texte brut. 'Base64'
'None'
Fichier Nom du fichier de configuration. chaîne (obligatoire)
chemin Chemin du fichier de configuration si le contenu est spécifié. corde
Valeurs Liste des paires clé-valeur
où la clé représente un nom de configuration de service valide et la valeur représente la valeur de la configuration.
clusterConfigFileValues

ClusterConfigFileValues

Nom Description Valeur

ClusterLogAnalyticsApplicationLogs

Nom Description Valeur
stdErrorEnabled True si stderror est activé, sinon false. Bool
stdOutEnabled True si stdout est activé, sinon false. Bool

ClusterLogAnalyticsProfile

Nom Description Valeur
applicationLogs Collection de journaux à activer ou désactiver pour Log Analytics. ClusterLogAnalyticsApplicationLogs
Activé True si Log Analytics est activé pour le cluster, sinon false. bool (obligatoire)
metricsEnabled True si les métriques sont activées, sinon false. Bool

ClusterProfile

Nom Description Valeur
authorizationProfile Profil d’autorisation avec les détails des ID d’utilisateur AAD et des ID de groupe autorisés pour l’accès au plan de données. authorizationProfile (obligatoire)
autoscaleProfile Il s’agit du profil de mise à l’échelle automatique pour le cluster. Cela permet au client de créer un cluster activé avec la mise à l’échelle automatique. AutoscaleProfile
clusterVersion Version avec une partie 3/4. corde

Contraintes:
Modèle = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (obligatoire)
flinkProfile Profil de cluster Flink. FlinkProfile
identityProfile Profil d’identité avec les détails d’une msi. IdentityProfile (obligatoire)
kafkaProfile Profil de cluster Kafka. clusterProfileKafkaProfile
llapProfile Profil de cluster LLAP. ClusterProfileLlapProfile
logAnalyticsProfile Profil Log Analytics de cluster pour activer ou désactiver l’agent OMS pour le cluster. clusterLogAnalyticsProfile
ossVersion Version avec trois parties. corde

Contraintes:
Modèle = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (obligatoire)
prometheusProfile Profil Prometheus du cluster. clusterPrometheusProfile
scriptActionProfiles Liste des profils d’action de script. ScriptActionProfile[]
secretsProfile Profil secret du cluster. secretsProfile
serviceConfigsProfiles Profils de configuration de service. clusterServiceConfigsProfile[]
sparkProfile Profil de cluster Spark. SparkProfile
sshProfile Profil Ssh pour le cluster. SshProfile
stubProfile Profil de cluster stub. clusterProfileStubProfile
trinoProfile Profil de cluster Trino. TrinoProfile

ClusterProfileKafkaProfile

Nom Description Valeur

ClusterProfileLlapProfileProfile

Nom Description Valeur

ClusterProfileStubProfile

Nom Description Valeur

ClusterPrometheusProfile

Nom Description Valeur
Activé Activez Prometheus pour le cluster ou non. bool (obligatoire)

ClusterResourceProperties

Nom Description Valeur
clusterProfile Profil de cluster. clusterProfile (obligatoire)
clusterType Type de cluster. corde

Contraintes:
Modèle = ^[a-zA-Z][a-zA-Z0-9]{0,31}$ (obligatoire)
computeProfile Profil de calcul. ComputeProfile (obligatoire)

ClusterServiceConfig

Nom Description Valeur
composant Nom du composant auquel les fichiers de configuration doivent s’appliquer. chaîne (obligatoire)
Fichiers Liste des fichiers de configuration. clusterConfigFile[] (obligatoire)

ClusterServiceConfigsProfile

Nom Description Valeur
configs Liste des configurations de service. ClusterServiceConfig[] (obligatoire)
serviceName Nom du service auquel les configurations doivent s’appliquer. chaîne (obligatoire)

ComparisonRule

Nom Description Valeur
opérateur Opérateur de comparaison. 'greaterThan'
'greaterThanOrEqual'
'lessThan'
'lessThanOrEqual' (obligatoire)
seuil Paramètre de seuil. int (obligatoire)

ComputeProfile

Nom Description Valeur
Nœuds Définitions des nœuds. NodeProfile[] (obligatoire)

ComputeResourceDefinition

Nom Description Valeur
CPU Processeur requis. int (obligatoire)
mémoire La mémoire requise en Mo, la mémoire du conteneur sera de 110 centiles int (obligatoire)

FlinkCatalogOptions

Nom Description Valeur
ruche Option de catalogue Hive pour le cluster Flink. FlinkHiveCatalogOption

FlinkHiveCatalogOption

Nom Description Valeur
metastoreDbConnectionPasswordSecret Nom de référence de secret à partir de secretsProfile.secrets contenant le mot de passe pour la connexion de base de données. chaîne (obligatoire)
metastoreDbConnectionURL Chaîne de connexion pour la base de données du metastore hive. chaîne (obligatoire)
metastoreDbConnectionUserName Nom d’utilisateur pour la connexion de base de données. chaîne (obligatoire)

FlinkProfile

Nom Description Valeur
catalogOptions Options de catalogue de cluster Flink. FlinkCatalogOptions
historyServer Conteneur du serveur d’historique/ configuration requise pour le processeur et la mémoire ComputeResourceDefinition
jobManager Configuration requise pour le processeur et la mémoire du gestionnaire de travaux ComputeResourceDefinition (obligatoire)
numReplicas Nombre de gestionnaires de tâches. Int
stockage Profil de stockage FlinkStorageProfile (obligatoire)
taskManager Configuration requise pour le processeur et la mémoire du gestionnaire de tâches ComputeResourceDefinition (obligatoire)

FlinkStorageProfile

Nom Description Valeur
storagekey La clé de stockage n’est requise que pour le stockage wasb(s). corde

Contraintes:
Valeur sensible. Passez en tant que paramètre sécurisé.
storageUri URI du compte de stockage utilisé pour enregistrer le point de contrôle et l’état du point de contrôle. corde

Contraintes:
Modèle = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b\.core\.windows\.net$ (obligatoire)

HiveCatalogOption

Nom Description Valeur
catalogName Nom du catalogue trino qui doit utiliser le metastore hive spécifié. corde

Contraintes:
Longueur minimale = 1 (obligatoire)
metastoreDbConnectionPasswordSecret Nom de référence de secret à partir de secretsProfile.secrets contenant le mot de passe pour la connexion de base de données. chaîne (obligatoire)
metastoreDbConnectionURL Chaîne de connexion pour la base de données du metastore hive. chaîne (obligatoire)
metastoreDbConnectionUserName Nom d’utilisateur pour la connexion de base de données. chaîne (obligatoire)
metastoreWarehouseDir URI du répertoire racine du metastore, format : abfs[s] ://<conteneur>@<account_name>.dfs.core.windows.net/<path>. Plus d’informations : /azure/storage/blobs/data-lake-storage-introduction-abfs-uri chaîne (obligatoire)

IdentityProfile

Nom Description Valeur
msiClientId ClientId du MSI. corde

Contraintes:
Modèle = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obligatoire)
msiObjectId ObjectId du MSI. corde

Contraintes:
Modèle = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obligatoire)
msiResourceId ResourceId du MSI. chaîne (obligatoire)

LoadBasedConfig

Nom Description Valeur
cooldownPeriod Il s’agit d’une période de refroidissement, c’est une période en secondes, qui détermine la durée qui doit s’écouler entre une activité de mise à l’échelle démarrée par une règle et le début de l’activité de mise à l’échelle suivante, quelle que soit la règle qui le déclenche. La valeur par défaut est de 300 secondes. Int
maxNodes L’utilisateur doit définir le nombre maximal de nœuds pour la mise à l’échelle basée sur la charge, la mise à l’échelle basée sur la charge l’utilisera pour effectuer un scale-up et un scale-down entre le nombre minimal et le nombre maximal de nœuds. int (obligatoire)
minNodes L’utilisateur doit définir le nombre minimal de nœuds pour la mise à l’échelle basée sur la charge, la mise à l’échelle basée sur la charge l’utilisera pour effectuer un scale-up et un scale-down entre le nombre minimal et le nombre maximal de nœuds. int (obligatoire)
pollInterval L’utilisateur peut spécifier l’intervalle de sondage, il s’agit de la période (en secondes) après laquelle les métriques de mise à l’échelle sont interrogées pour déclencher une opération de mise à l’échelle. Int
scaleRules Règles de mise à l’échelle. ScaleRule[] (obligatoire)

Microsoft.HDInsight/clusterpools/clusters

Nom Description Valeur
apiVersion Version de l’API '2023-06-01-preview'
emplacement Emplacement géographique où réside la ressource chaîne (obligatoire)
nom Nom de la ressource chaîne (obligatoire)
Propriétés Obtient ou définit les propriétés. Définissez des propriétés spécifiques au cluster. clusterResourceProperties
étiquettes Balises de ressource Dictionnaire de noms et de valeurs d’étiquettes. Consultez les balises dans les modèles
type Type de ressource 'Microsoft.HDInsight/clusterpools/clusters'

NodeProfile

Nom Description Valeur
compter Nombre de machines virtuelles. Int

Contraintes:
Valeur minimale = 1 (obligatoire)
type Type de nœud. corde

Contraintes:
Modèle = ^(head|Head|HEAD|worker|Worker|WORKER)$ (obligatoire)
vmSize Référence SKU de la machine virtuelle. corde

Contraintes:
Modèle = ^[a-zA-Z0-9_\-]{0,256}$ (obligatoire)

ScaleRule

Nom Description Valeur
actionType Type d’action. 'scaledown'
'scaleup' (obligatoire)
comparisonRule Règle de comparaison. ComparisonRule (obligatoire)
evaluationCount Il s’agit d’un nombre d’évaluations pour une condition de mise à l’échelle, le nombre de fois où une condition de déclencheur doit réussir, avant le déclenchement de l’activité de mise à l’échelle. int (obligatoire)
scaleMetric Nom des métriques pour les charges de travail individuelles. Par exemple : processeur chaîne (obligatoire)

Horaire

Nom Description Valeur
compter L’utilisateur doit définir le nombre de nœuds prévu à la fin de l’opération de mise à l’échelle de la configuration de planification actuelle, le format est entier. int (obligatoire)
Jours L’utilisateur doit définir les jours où la planification doit être définie pour l’opération de mise à l’échelle automatique. Tableau de chaînes contenant l’un des éléments suivants :
'Vendredi'
'Lundi'
'Samedi'
'Dimanche'
'jeudi'
'Mardi'
'Mercredi' (obligatoire)
endTime L’utilisateur doit définir l’heure de fin de la configuration de planification actuelle, au format 10:30 (HH :MM). corde

Contraintes:
Modèle = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obligatoire)
startTime L’utilisateur doit définir l’heure de début de la configuration de planification actuelle, au format 10:30 (HH :MM). corde

Contraintes:
Modèle = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obligatoire)

ScheduleBasedConfig

Nom Description Valeur
defaultCount Définition du nombre de nœuds par défaut de la configuration de planification actuelle. Le nombre de nœuds par défaut spécifie le nombre de nœuds par défaut lorsqu’une opération de mise à l’échelle spécifiée est exécutée (scale-up/scale-down) int (obligatoire)
Horaires Cela spécifie les planifications où la mise à l’échelle automatique basée sur la planification doit être activée, l’utilisateur a le choix de définir plusieurs règles dans la planification entre les jours et les heures (début/fin). Planification[] (obligatoire)
timeZone L’utilisateur doit spécifier le fuseau horaire sur lequel la planification doit être définie pour la configuration de la mise à l’échelle automatique basée sur la planification. chaîne (obligatoire)

ScriptActionProfile

Nom Description Valeur
nom Nom du script. chaîne (obligatoire)
Paramètres Paramètres supplémentaires pour l’action de script. Il doit s’agir d’une liste d’arguments séparés par un espace requis pour l’exécution du script. corde
services Liste des services à appliquer à l’action de script. string[] (obligatoire)
shouldPersist Spécifiez si le script doit persister sur le cluster. Bool
timeoutInMinutes Durée du délai d’expiration de l’action de script en minutes. Int
type Type de l’action de script. Le type pris en charge est des scripts bash. chaîne (obligatoire)
URL URL du fichier de script. corde

Contraintes:
Modèle = ^(https)|(http)|(abfss)|(abfs)|(wasbs)|(wasb)://.*$ (obligatoire)

SecretReference

Nom Description Valeur
keyVaultObjectName Nom de l’identificateur d’objet du secret dans le coffre de clés. corde

Contraintes:
Modèle = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (obligatoire)
referenceName Nom de référence du secret à utiliser dans les configurations de service. chaîne (obligatoire)
type Type d’objet key vault : secret, clé ou certificat. 'Certificat'
'Key'
'Secret' (obligatoire)
Version Version du secret dans le coffre de clés. corde

SecretsProfile

Nom Description Valeur
keyVaultResourceId Nom du coffre de clés utilisateur dans lequel tous les secrets utilisateur spécifiques au cluster sont stockés. chaîne (obligatoire)
Secrets Propriétés du secret Key Vault. SecretReference[]

SparkMetastoreSpec

Nom Description Valeur
dbName Nom de la base de données. chaîne (obligatoire)
dbPasswordSecretName Nom du secret qui contient le mot de passe de l’utilisateur de la base de données. chaîne (obligatoire)
dbServerHost Hôte du serveur de base de données. chaîne (obligatoire)
dbUserName Nom d’utilisateur de la base de données. chaîne (obligatoire)
keyVaultId ID de ressource du coffre de clés. chaîne (obligatoire)
thriftUrl URL thrift. corde

SparkProfile

Nom Description Valeur
defaultStorageUrl URL de stockage par défaut. corde
metastoreSpec Spécification du metastore pour le cluster Spark. SparkMetastoreSpec
userPluginsSpec Spécification des plug-ins utilisateur Spark sparkUserPlugins

SparkUserPlugin

Nom Description Valeur
chemin Chemin complet du dossier contenant les plug-ins. corde

Contraintes:
Longueur minimale = 1
Modèle = ^(https)|(abfss)://.*$ (obligatoire)

SparkUserPlugins

Nom Description Valeur
plug-ins Plug-ins utilisateur Spark. SparkUserPlugin[]

SshProfile

Nom Description Valeur
compter Nombre de pods ssh par cluster. Int

Contraintes:
Valeur minimale = 0
Valeur maximale = 5 (obligatoire)

TrackedResourceTags

Nom Description Valeur

TrinoCoordinator

Nom Description Valeur
déboguer Configuration de débogage trino. TrinoDebugConfig
highAvailabilityEnabled Indicateur qui, si vous activez la haute disponibilité du coordinateur, utilise plusieurs réplicas coordinateurs avec basculement automatique, un par nœud principal. Valeur par défaut : true. Bool

TrinoDebugConfig

Nom Description Valeur
Activer Indicateur qui, si l’activation du débogage est activé ou non. Bool
port Port de débogage. Int
suspendre Indicateur qui s’il suspend le débogage ou non. Bool

TrinoProfile

Nom Description Valeur
catalogOptions Options de catalogue de cluster Trino. CatalogOptions
coordinateur Coordinateur Trino. TrinoCoordinator
userPluginsSpec Spécification des plug-ins utilisateur Trino TrinoUserPlugins
userTelemetrySpec Télémétrie utilisateur TrinoUserTelemetry
travailleur Trino worker. trinoWorker

TrinoTelemetryConfig

Nom Description Valeur
hivecatalogName Nom du catalogue Hive utilisé pour monter des tables externes sur les journaux écrits par trino, s’il n’est pas spécifié, les tables ne sont pas créées. corde

Contraintes:
Longueur minimale = 1
hivecatalogSchema Schéma du catalogue ci-dessus à utiliser pour monter les journaux de requête en tant que tables externes, si aucune table spécifiée n’est monté sous les trinologs de schéma. corde
partitionRetentionInDays Période de rétention pour les partitions de tables de journaux de requête, cela n’a aucun impact sur les données réelles. Int
chemin Emplacement de stockage Azure des objets blob. corde

Contraintes:
Longueur minimale = 1

TrinoUserPlugin

Nom Description Valeur
Activé Indique si le plug-in est actif ou non. Bool
nom Ce champ est mappé au sous-répertoire dans l’emplacement des plug-ins trino, qui contiendra tous les plug-ins sous le chemin d’accès. corde

Contraintes:
Longueur minimale = 1
chemin Chemin complet du dossier contenant les plug-ins. corde

Contraintes:
Longueur minimale = 1
Modèle = ^(https)|(abfss)://.*$

TrinoUserPlugins

Nom Description Valeur
plug-ins Plug-ins utilisateur Trino. TrinoUserPlugin[]

TrinoUserTelemetry

Nom Description Valeur
stockage Définition de télémétrie de l’utilisateur Trino. TrinoTelemetryConfig

TrinoWorker

Nom Description Valeur
déboguer Configuration de débogage trino. TrinoDebugConfig

Définition de ressource Terraform (fournisseur AzAPI)

Le type de ressource clusterpools/clusters peut être déployé avec des opérations qui ciblent :

  • groupes de ressources

Pour obtenir la liste des propriétés modifiées dans chaque version de l’API, consultez journal des modifications.

Format de ressource

Pour créer une ressource Microsoft.HDInsight/clusterpools/clusters, ajoutez le terraform suivant à votre modèle.

resource "azapi_resource" "symbolicname" {
  type = "Microsoft.HDInsight/clusterpools/clusters@2023-06-01-preview"
  name = "string"
  location = "string"
  tags = {
    {customized property} = "string"
  }
  body = jsonencode({
    properties = {
      clusterProfile = {
        authorizationProfile = {
          groupIds = [
            "string"
          ]
          userIds = [
            "string"
          ]
        }
        autoscaleProfile = {
          autoscaleType = "string"
          enabled = bool
          gracefulDecommissionTimeout = int
          loadBasedConfig = {
            cooldownPeriod = int
            maxNodes = int
            minNodes = int
            pollInterval = int
            scalingRules = [
              {
                actionType = "string"
                comparisonRule = {
                  operator = "string"
                  threshold = int
                }
                evaluationCount = int
                scalingMetric = "string"
              }
            ]
          }
          scheduleBasedConfig = {
            defaultCount = int
            schedules = [
              {
                count = int
                days = [
                  "string"
                ]
                endTime = "string"
                startTime = "string"
              }
            ]
            timeZone = "string"
          }
        }
        clusterVersion = "string"
        flinkProfile = {
          catalogOptions = {
            hive = {
              metastoreDbConnectionPasswordSecret = "string"
              metastoreDbConnectionURL = "string"
              metastoreDbConnectionUserName = "string"
            }
          }
          historyServer = {
            cpu = int
            memory = int
          }
          jobManager = {
            cpu = int
            memory = int
          }
          numReplicas = int
          storage = {
            storagekey = "string"
            storageUri = "string"
          }
          taskManager = {
            cpu = int
            memory = int
          }
        }
        identityProfile = {
          msiClientId = "string"
          msiObjectId = "string"
          msiResourceId = "string"
        }
        kafkaProfile = {
          {customized property} = ?
        }
        llapProfile = {
          {customized property} = ?
        }
        logAnalyticsProfile = {
          applicationLogs = {
            stdErrorEnabled = bool
            stdOutEnabled = bool
          }
          enabled = bool
          metricsEnabled = bool
        }
        ossVersion = "string"
        prometheusProfile = {
          enabled = bool
        }
        scriptActionProfiles = [
          {
            name = "string"
            parameters = "string"
            services = [
              "string"
            ]
            shouldPersist = bool
            timeoutInMinutes = int
            type = "string"
            url = "string"
          }
        ]
        secretsProfile = {
          keyVaultResourceId = "string"
          secrets = [
            {
              keyVaultObjectName = "string"
              referenceName = "string"
              type = "string"
              version = "string"
            }
          ]
        }
        serviceConfigsProfiles = [
          {
            configs = [
              {
                component = "string"
                files = [
                  {
                    content = "string"
                    encoding = "string"
                    fileName = "string"
                    path = "string"
                    values = {
                      {customized property} = "string"
                    }
                  }
                ]
              }
            ]
            serviceName = "string"
          }
        ]
        sparkProfile = {
          defaultStorageUrl = "string"
          metastoreSpec = {
            dbName = "string"
            dbPasswordSecretName = "string"
            dbServerHost = "string"
            dbUserName = "string"
            keyVaultId = "string"
            thriftUrl = "string"
          }
          userPluginsSpec = {
            plugins = [
              {
                path = "string"
              }
            ]
          }
        }
        sshProfile = {
          count = int
        }
        stubProfile = {
          {customized property} = ?
        }
        trinoProfile = {
          catalogOptions = {
            hive = [
              {
                catalogName = "string"
                metastoreDbConnectionPasswordSecret = "string"
                metastoreDbConnectionURL = "string"
                metastoreDbConnectionUserName = "string"
                metastoreWarehouseDir = "string"
              }
            ]
          }
          coordinator = {
            debug = {
              enable = bool
              port = int
              suspend = bool
            }
            highAvailabilityEnabled = bool
          }
          userPluginsSpec = {
            plugins = [
              {
                enabled = bool
                name = "string"
                path = "string"
              }
            ]
          }
          userTelemetrySpec = {
            storage = {
              hivecatalogName = "string"
              hivecatalogSchema = "string"
              partitionRetentionInDays = int
              path = "string"
            }
          }
          worker = {
            debug = {
              enable = bool
              port = int
              suspend = bool
            }
          }
        }
      }
      clusterType = "string"
      computeProfile = {
        nodes = [
          {
            count = int
            type = "string"
            vmSize = "string"
          }
        ]
      }
    }
  })
}

Valeurs de propriété

AuthorizationProfile

Nom Description Valeur
groupIds ID de groupe AAD autorisés pour l’accès au plan de données. string[]
userIds ID utilisateur AAD autorisés pour l’accès au plan de données. string[]

AutoscaleProfile

Nom Description Valeur
autoscaleType Utilisateur pour spécifier le type de mise à l’échelle automatique à implémenter : basé sur la planification ou la charge. 'LoadBased'
'ScheduleBased'
Activé Cela indique si la mise à l’échelle automatique est activée sur HDInsight sur le cluster AKS. bool (obligatoire)
gracefulDecommissionTimeout Cette propriété est destinée au délai d’expiration de mise hors service approprié ; Il a un paramètre par défaut de 3600 secondes avant l’arrêt forcé. Il s’agit du délai maximal d’attente pour que les conteneurs et les applications en cours d’exécution se terminent avant de passer à un nœud DE DÉSAFFECTATION. La valeur par défaut est 3600 secondes. La valeur négative (comme -1) est gérée comme un délai d’expiration infini. Int
loadBasedConfig Profils de mise à l’échelle automatique basée sur la charge. LoadBasedConfig
scheduleBasedConfig Profils de mise à l’échelle automatique basée sur la planification. scheduleBasedConfig

CatalogOptions

Nom Description Valeur
ruche Options de catalogue hive. HiveCatalogOption[]

ClusterConfigFile

Nom Description Valeur
contenu Contenu de formulaire libre de l’intégralité du fichier de configuration. corde
codage Cette propriété indique si le contenu est encodé et ne respecte pas la casse. Définissez la valeur sur base64 si le contenu est encodé en base64. Définissez-le sur aucun ou ignorez-le si le contenu est en texte brut. 'Base64'
'None'
Fichier Nom du fichier de configuration. chaîne (obligatoire)
chemin Chemin du fichier de configuration si le contenu est spécifié. corde
Valeurs Liste des paires clé-valeur
où la clé représente un nom de configuration de service valide et la valeur représente la valeur de la configuration.
clusterConfigFileValues

ClusterConfigFileValues

Nom Description Valeur

ClusterLogAnalyticsApplicationLogs

Nom Description Valeur
stdErrorEnabled True si stderror est activé, sinon false. Bool
stdOutEnabled True si stdout est activé, sinon false. Bool

ClusterLogAnalyticsProfile

Nom Description Valeur
applicationLogs Collection de journaux à activer ou désactiver pour Log Analytics. ClusterLogAnalyticsApplicationLogs
Activé True si Log Analytics est activé pour le cluster, sinon false. bool (obligatoire)
metricsEnabled True si les métriques sont activées, sinon false. Bool

ClusterProfile

Nom Description Valeur
authorizationProfile Profil d’autorisation avec les détails des ID d’utilisateur AAD et des ID de groupe autorisés pour l’accès au plan de données. authorizationProfile (obligatoire)
autoscaleProfile Il s’agit du profil de mise à l’échelle automatique pour le cluster. Cela permet au client de créer un cluster activé avec la mise à l’échelle automatique. AutoscaleProfile
clusterVersion Version avec une partie 3/4. corde

Contraintes:
Modèle = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})(?:\.(0|[1-9][0-9]{0,18}))?$ (obligatoire)
flinkProfile Profil de cluster Flink. FlinkProfile
identityProfile Profil d’identité avec les détails d’une msi. IdentityProfile (obligatoire)
kafkaProfile Profil de cluster Kafka. clusterProfileKafkaProfile
llapProfile Profil de cluster LLAP. ClusterProfileLlapProfile
logAnalyticsProfile Profil Log Analytics de cluster pour activer ou désactiver l’agent OMS pour le cluster. clusterLogAnalyticsProfile
ossVersion Version avec trois parties. corde

Contraintes:
Modèle = ^(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})\.(0|[1-9][0-9]{0,18})$ (obligatoire)
prometheusProfile Profil Prometheus du cluster. clusterPrometheusProfile
scriptActionProfiles Liste des profils d’action de script. ScriptActionProfile[]
secretsProfile Profil secret du cluster. secretsProfile
serviceConfigsProfiles Profils de configuration de service. clusterServiceConfigsProfile[]
sparkProfile Profil de cluster Spark. SparkProfile
sshProfile Profil Ssh pour le cluster. SshProfile
stubProfile Profil de cluster stub. clusterProfileStubProfile
trinoProfile Profil de cluster Trino. TrinoProfile

ClusterProfileKafkaProfile

Nom Description Valeur

ClusterProfileLlapProfileProfile

Nom Description Valeur

ClusterProfileStubProfile

Nom Description Valeur

ClusterPrometheusProfile

Nom Description Valeur
Activé Activez Prometheus pour le cluster ou non. bool (obligatoire)

ClusterResourceProperties

Nom Description Valeur
clusterProfile Profil de cluster. clusterProfile (obligatoire)
clusterType Type de cluster. corde

Contraintes:
Modèle = ^[a-zA-Z][a-zA-Z0-9]{0,31}$ (obligatoire)
computeProfile Profil de calcul. ComputeProfile (obligatoire)

ClusterServiceConfig

Nom Description Valeur
composant Nom du composant auquel les fichiers de configuration doivent s’appliquer. chaîne (obligatoire)
Fichiers Liste des fichiers de configuration. clusterConfigFile[] (obligatoire)

ClusterServiceConfigsProfile

Nom Description Valeur
configs Liste des configurations de service. ClusterServiceConfig[] (obligatoire)
serviceName Nom du service auquel les configurations doivent s’appliquer. chaîne (obligatoire)

ComparisonRule

Nom Description Valeur
opérateur Opérateur de comparaison. 'greaterThan'
'greaterThanOrEqual'
'lessThan'
'lessThanOrEqual' (obligatoire)
seuil Paramètre de seuil. int (obligatoire)

ComputeProfile

Nom Description Valeur
Nœuds Définitions des nœuds. NodeProfile[] (obligatoire)

ComputeResourceDefinition

Nom Description Valeur
CPU Processeur requis. int (obligatoire)
mémoire La mémoire requise en Mo, la mémoire du conteneur sera de 110 centiles int (obligatoire)

FlinkCatalogOptions

Nom Description Valeur
ruche Option de catalogue Hive pour le cluster Flink. FlinkHiveCatalogOption

FlinkHiveCatalogOption

Nom Description Valeur
metastoreDbConnectionPasswordSecret Nom de référence de secret à partir de secretsProfile.secrets contenant le mot de passe pour la connexion de base de données. chaîne (obligatoire)
metastoreDbConnectionURL Chaîne de connexion pour la base de données du metastore hive. chaîne (obligatoire)
metastoreDbConnectionUserName Nom d’utilisateur pour la connexion de base de données. chaîne (obligatoire)

FlinkProfile

Nom Description Valeur
catalogOptions Options de catalogue de cluster Flink. FlinkCatalogOptions
historyServer Conteneur du serveur d’historique/ configuration requise pour le processeur et la mémoire ComputeResourceDefinition
jobManager Configuration requise pour le processeur et la mémoire du gestionnaire de travaux ComputeResourceDefinition (obligatoire)
numReplicas Nombre de gestionnaires de tâches. Int
stockage Profil de stockage FlinkStorageProfile (obligatoire)
taskManager Configuration requise pour le processeur et la mémoire du gestionnaire de tâches ComputeResourceDefinition (obligatoire)

FlinkStorageProfile

Nom Description Valeur
storagekey La clé de stockage n’est requise que pour le stockage wasb(s). corde

Contraintes:
Valeur sensible. Passez en tant que paramètre sécurisé.
storageUri URI du compte de stockage utilisé pour enregistrer le point de contrôle et l’état du point de contrôle. corde

Contraintes:
Modèle = ^(\w{4,5})://(.*)@(.*).\b(blob|dfs)\b\.core\.windows\.net$ (obligatoire)

HiveCatalogOption

Nom Description Valeur
catalogName Nom du catalogue trino qui doit utiliser le metastore hive spécifié. corde

Contraintes:
Longueur minimale = 1 (obligatoire)
metastoreDbConnectionPasswordSecret Nom de référence de secret à partir de secretsProfile.secrets contenant le mot de passe pour la connexion de base de données. chaîne (obligatoire)
metastoreDbConnectionURL Chaîne de connexion pour la base de données du metastore hive. chaîne (obligatoire)
metastoreDbConnectionUserName Nom d’utilisateur pour la connexion de base de données. chaîne (obligatoire)
metastoreWarehouseDir URI du répertoire racine du metastore, format : abfs[s] ://<conteneur>@<account_name>.dfs.core.windows.net/<path>. Plus d’informations : /azure/storage/blobs/data-lake-storage-introduction-abfs-uri chaîne (obligatoire)

IdentityProfile

Nom Description Valeur
msiClientId ClientId du MSI. corde

Contraintes:
Modèle = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obligatoire)
msiObjectId ObjectId du MSI. corde

Contraintes:
Modèle = ^[{(]?[0-9A-Fa-f]{8}[-]?(?:[0-9A-Fa-f]{4}[-]?){3}[0-9A-Fa-f]{12}[)}]?$ (obligatoire)
msiResourceId ResourceId du MSI. chaîne (obligatoire)

LoadBasedConfig

Nom Description Valeur
cooldownPeriod Il s’agit d’une période de refroidissement, c’est une période en secondes, qui détermine la durée qui doit s’écouler entre une activité de mise à l’échelle démarrée par une règle et le début de l’activité de mise à l’échelle suivante, quelle que soit la règle qui le déclenche. La valeur par défaut est de 300 secondes. Int
maxNodes L’utilisateur doit définir le nombre maximal de nœuds pour la mise à l’échelle basée sur la charge, la mise à l’échelle basée sur la charge l’utilisera pour effectuer un scale-up et un scale-down entre le nombre minimal et le nombre maximal de nœuds. int (obligatoire)
minNodes L’utilisateur doit définir le nombre minimal de nœuds pour la mise à l’échelle basée sur la charge, la mise à l’échelle basée sur la charge l’utilisera pour effectuer un scale-up et un scale-down entre le nombre minimal et le nombre maximal de nœuds. int (obligatoire)
pollInterval L’utilisateur peut spécifier l’intervalle de sondage, il s’agit de la période (en secondes) après laquelle les métriques de mise à l’échelle sont interrogées pour déclencher une opération de mise à l’échelle. Int
scaleRules Règles de mise à l’échelle. ScaleRule[] (obligatoire)

Microsoft.HDInsight/clusterpools/clusters

Nom Description Valeur
emplacement Emplacement géographique où réside la ressource chaîne (obligatoire)
nom Nom de la ressource chaîne (obligatoire)
parent_id ID de la ressource qui est le parent de cette ressource. ID de ressource de type : pools de clusters
Propriétés Obtient ou définit les propriétés. Définissez des propriétés spécifiques au cluster. clusterResourceProperties
étiquettes Balises de ressource Dictionnaire de noms et de valeurs d’étiquettes.
type Type de ressource « Microsoft.HDInsight/clusterpools/clusters@2023-06-01-preview »

NodeProfile

Nom Description Valeur
compter Nombre de machines virtuelles. Int

Contraintes:
Valeur minimale = 1 (obligatoire)
type Type de nœud. corde

Contraintes:
Modèle = ^(head|Head|HEAD|worker|Worker|WORKER)$ (obligatoire)
vmSize Référence SKU de la machine virtuelle. corde

Contraintes:
Modèle = ^[a-zA-Z0-9_\-]{0,256}$ (obligatoire)

ScaleRule

Nom Description Valeur
actionType Type d’action. 'scaledown'
'scaleup' (obligatoire)
comparisonRule Règle de comparaison. ComparisonRule (obligatoire)
evaluationCount Il s’agit d’un nombre d’évaluations pour une condition de mise à l’échelle, le nombre de fois où une condition de déclencheur doit réussir, avant le déclenchement de l’activité de mise à l’échelle. int (obligatoire)
scaleMetric Nom des métriques pour les charges de travail individuelles. Par exemple : processeur chaîne (obligatoire)

Horaire

Nom Description Valeur
compter L’utilisateur doit définir le nombre de nœuds prévu à la fin de l’opération de mise à l’échelle de la configuration de planification actuelle, le format est entier. int (obligatoire)
Jours L’utilisateur doit définir les jours où la planification doit être définie pour l’opération de mise à l’échelle automatique. Tableau de chaînes contenant l’un des éléments suivants :
'Vendredi'
'Lundi'
'Samedi'
'Dimanche'
'jeudi'
'Mardi'
'Mercredi' (obligatoire)
endTime L’utilisateur doit définir l’heure de fin de la configuration de planification actuelle, au format 10:30 (HH :MM). corde

Contraintes:
Modèle = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obligatoire)
startTime L’utilisateur doit définir l’heure de début de la configuration de planification actuelle, au format 10:30 (HH :MM). corde

Contraintes:
Modèle = ^([0-1]?[0-9]|2[0-3]):[0-5][0-9]$ (obligatoire)

ScheduleBasedConfig

Nom Description Valeur
defaultCount Définition du nombre de nœuds par défaut de la configuration de planification actuelle. Le nombre de nœuds par défaut spécifie le nombre de nœuds par défaut lorsqu’une opération de mise à l’échelle spécifiée est exécutée (scale-up/scale-down) int (obligatoire)
Horaires Cela spécifie les planifications où la mise à l’échelle automatique basée sur la planification doit être activée, l’utilisateur a le choix de définir plusieurs règles dans la planification entre les jours et les heures (début/fin). Planification[] (obligatoire)
timeZone L’utilisateur doit spécifier le fuseau horaire sur lequel la planification doit être définie pour la configuration de la mise à l’échelle automatique basée sur la planification. chaîne (obligatoire)

ScriptActionProfile

Nom Description Valeur
nom Nom du script. chaîne (obligatoire)
Paramètres Paramètres supplémentaires pour l’action de script. Il doit s’agir d’une liste d’arguments séparés par un espace requis pour l’exécution du script. corde
services Liste des services à appliquer à l’action de script. string[] (obligatoire)
shouldPersist Spécifiez si le script doit persister sur le cluster. Bool
timeoutInMinutes Durée du délai d’expiration de l’action de script en minutes. Int
type Type de l’action de script. Le type pris en charge est des scripts bash. chaîne (obligatoire)
URL URL du fichier de script. corde

Contraintes:
Modèle = ^(https)|(http)|(abfss)|(abfs)|(wasbs)|(wasb)://.*$ (obligatoire)

SecretReference

Nom Description Valeur
keyVaultObjectName Nom de l’identificateur d’objet du secret dans le coffre de clés. corde

Contraintes:
Modèle = ^[a-zA-Z][a-zA-Z0-9-]{1,126}$ (obligatoire)
referenceName Nom de référence du secret à utiliser dans les configurations de service. chaîne (obligatoire)
type Type d’objet key vault : secret, clé ou certificat. 'Certificat'
'Key'
'Secret' (obligatoire)
Version Version du secret dans le coffre de clés. corde

SecretsProfile

Nom Description Valeur
keyVaultResourceId Nom du coffre de clés utilisateur dans lequel tous les secrets utilisateur spécifiques au cluster sont stockés. chaîne (obligatoire)
Secrets Propriétés du secret Key Vault. SecretReference[]

SparkMetastoreSpec

Nom Description Valeur
dbName Nom de la base de données. chaîne (obligatoire)
dbPasswordSecretName Nom du secret qui contient le mot de passe de l’utilisateur de la base de données. chaîne (obligatoire)
dbServerHost Hôte du serveur de base de données. chaîne (obligatoire)
dbUserName Nom d’utilisateur de la base de données. chaîne (obligatoire)
keyVaultId ID de ressource du coffre de clés. chaîne (obligatoire)
thriftUrl URL thrift. corde

SparkProfile

Nom Description Valeur
defaultStorageUrl URL de stockage par défaut. corde
metastoreSpec Spécification du metastore pour le cluster Spark. SparkMetastoreSpec
userPluginsSpec Spécification des plug-ins utilisateur Spark sparkUserPlugins

SparkUserPlugin

Nom Description Valeur
chemin Chemin complet du dossier contenant les plug-ins. corde

Contraintes:
Longueur minimale = 1
Modèle = ^(https)|(abfss)://.*$ (obligatoire)

SparkUserPlugins

Nom Description Valeur
plug-ins Plug-ins utilisateur Spark. SparkUserPlugin[]

SshProfile

Nom Description Valeur
compter Nombre de pods ssh par cluster. Int

Contraintes:
Valeur minimale = 0
Valeur maximale = 5 (obligatoire)

TrackedResourceTags

Nom Description Valeur

TrinoCoordinator

Nom Description Valeur
déboguer Configuration de débogage trino. TrinoDebugConfig
highAvailabilityEnabled Indicateur qui, si vous activez la haute disponibilité du coordinateur, utilise plusieurs réplicas coordinateurs avec basculement automatique, un par nœud principal. Valeur par défaut : true. Bool

TrinoDebugConfig

Nom Description Valeur
Activer Indicateur qui, si l’activation du débogage est activé ou non. Bool
port Port de débogage. Int
suspendre Indicateur qui s’il suspend le débogage ou non. Bool

TrinoProfile

Nom Description Valeur
catalogOptions Options de catalogue de cluster Trino. CatalogOptions
coordinateur Coordinateur Trino. TrinoCoordinator
userPluginsSpec Spécification des plug-ins utilisateur Trino TrinoUserPlugins
userTelemetrySpec Télémétrie utilisateur TrinoUserTelemetry
travailleur Trino worker. trinoWorker

TrinoTelemetryConfig

Nom Description Valeur
hivecatalogName Nom du catalogue Hive utilisé pour monter des tables externes sur les journaux écrits par trino, s’il n’est pas spécifié, les tables ne sont pas créées. corde

Contraintes:
Longueur minimale = 1
hivecatalogSchema Schéma du catalogue ci-dessus à utiliser pour monter les journaux de requête en tant que tables externes, si aucune table spécifiée n’est monté sous les trinologs de schéma. corde
partitionRetentionInDays Période de rétention pour les partitions de tables de journaux de requête, cela n’a aucun impact sur les données réelles. Int
chemin Emplacement de stockage Azure des objets blob. corde

Contraintes:
Longueur minimale = 1

TrinoUserPlugin

Nom Description Valeur
Activé Indique si le plug-in est actif ou non. Bool
nom Ce champ est mappé au sous-répertoire dans l’emplacement des plug-ins trino, qui contiendra tous les plug-ins sous le chemin d’accès. corde

Contraintes:
Longueur minimale = 1
chemin Chemin complet du dossier contenant les plug-ins. corde

Contraintes:
Longueur minimale = 1
Modèle = ^(https)|(abfss)://.*$

TrinoUserPlugins

Nom Description Valeur
plug-ins Plug-ins utilisateur Trino. TrinoUserPlugin[]

TrinoUserTelemetry

Nom Description Valeur
stockage Définition de télémétrie de l’utilisateur Trino. TrinoTelemetryConfig

TrinoWorker

Nom Description Valeur
déboguer Configuration de débogage trino. TrinoDebugConfig