Freigeben über


az hdinsight-on-aks cluster

Hinweis

Diese Referenz ist Teil der hdinsightonaks-Erweiterung für die Azure CLI (Version 2.57.0 oder höher). Die Erweiterung wird automatisch installiert, wenn Sie einen az hdinsight-on-aks-Clusterbefehl zum ersten Mal ausführen. Weitere Informationen zu Erweiterungen

Diese Befehlsgruppe befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus

Clustervorgänge

Befehle

Name Beschreibung Typ Status
az hdinsight-on-aks cluster create

Erstellen eines Clusters.

Erweiterung Vorschau
az hdinsight-on-aks cluster delete

Löschen eines Clusters.

Erweiterung Vorschau
az hdinsight-on-aks cluster instance-view

Ruft den Status einer Clusterinstanz ab.

Erweiterung Vorschau
az hdinsight-on-aks cluster instance-view list

Listet die Listen der Instanzansichten auf.

Erweiterung Vorschau
az hdinsight-on-aks cluster instance-view show

Rufen Sie den Status einer Clusterinstanz ab.

Erweiterung Vorschau
az hdinsight-on-aks cluster job

Clusterauftragsvorgänge.

Erweiterung Vorschau
az hdinsight-on-aks cluster job list

Auflisten von Aufträgen von HDInsight im AKS-Cluster.

Erweiterung Vorschau
az hdinsight-on-aks cluster job run

Vorgänge zu Aufträgen von HDInsight im AKS-Cluster.

Erweiterung Vorschau
az hdinsight-on-aks cluster library

Verwalten Sie die Bibliothek des Clusters.

Erweiterung Vorschau
az hdinsight-on-aks cluster library list

Auflisten aller Bibliotheken von HDInsight im AKS-Cluster.

Erweiterung Vorschau
az hdinsight-on-aks cluster library manage

Bibliotheksverwaltungsvorgänge auf HDInsight im AKS-Cluster.

Erweiterung Vorschau
az hdinsight-on-aks cluster list

Listen Sie die HDInsight-Clusterpools unter einer Ressourcengruppe auf.

Erweiterung Vorschau
az hdinsight-on-aks cluster list-service-config

Auflisten des Konfigurationsabbilds aller Dienste, die im Cluster ausgeführt werden.

Erweiterung Vorschau
az hdinsight-on-aks cluster node-profile

Verwalten des Computeknotenprofils.

Erweiterung Vorschau
az hdinsight-on-aks cluster node-profile create

Erstellen Sie ein Knotenprofil mit SKU- und Workeranzahl.

Erweiterung Vorschau
az hdinsight-on-aks cluster resize

Ändern Sie die Größe eines vorhandenen Clusters.

Erweiterung Vorschau
az hdinsight-on-aks cluster show

Rufen Sie einen HDInsight-Cluster ab.

Erweiterung Vorschau
az hdinsight-on-aks cluster update

Aktualisieren eines Clusters.

Erweiterung Vorschau
az hdinsight-on-aks cluster upgrade

Upgradecluster.

Erweiterung Vorschau
az hdinsight-on-aks cluster upgrade history

Auflisten einer Liste des Upgradeverlaufs.

Erweiterung Vorschau
az hdinsight-on-aks cluster upgrade list

Auflisten eines verfügbaren Clusterupgrades.

Erweiterung Vorschau
az hdinsight-on-aks cluster upgrade rollback

Manuelles Rollbackupup für einen Cluster.

Erweiterung Vorschau
az hdinsight-on-aks cluster upgrade run

Upgrade eines Clusters.

Erweiterung Vorschau
az hdinsight-on-aks cluster wait

Platzieren Sie die CLI in einem Wartezustand, bis eine Bedingung erfüllt ist.

Erweiterung Vorschau

az hdinsight-on-aks cluster create

Vorschau

Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus

Erstellen eines Clusters.

az hdinsight-on-aks cluster create --cluster-name
                                   --cluster-pool-name
                                   --resource-group
                                   [--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--assigned-identity-client-id]
                                   [--assigned-identity-id]
                                   [--assigned-identity-object-id]
                                   [--authorization-group-id]
                                   [--authorization-user-id]
                                   [--autoscale-profile-graceful-decommission-timeout]
                                   [--autoscale-profile-type {LoadBased, ScheduleBased}]
                                   [--availability-zones]
                                   [--cluster-type]
                                   [--cluster-version]
                                   [--cooldown-period]
                                   [--coord-debug-port]
                                   [--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
                                   [--deployment-mode {Application, Session}]
                                   [--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--flink-db-auth-mode {IdentityAuth, SqlAuth}]
                                   [--flink-hive-catalog-db-connection-password-secret]
                                   [--flink-hive-catalog-db-connection-url]
                                   [--flink-hive-catalog-db-connection-user-name]
                                   [--flink-storage-key]
                                   [--flink-storage-uri]
                                   [--history-server-cpu]
                                   [--history-server-memory]
                                   [--identity-list]
                                   [--internal-ingress {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--job-manager-cpu]
                                   [--job-manager-memory]
                                   [--job-spec]
                                   [--kafka-profile]
                                   [--key-vault-id]
                                   [--llap-profile]
                                   [--loadbased-config-max-nodes]
                                   [--loadbased-config-min-nodes]
                                   [--loadbased-config-poll-interval]
                                   [--loadbased-config-scaling-rules]
                                   [--location]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--nodes]
                                   [--num-replicas]
                                   [--oss-version]
                                   [--ranger-plugin-profile]
                                   [--ranger-profile]
                                   [--schedule-based-config-default-count]
                                   [--schedule-based-config-schedule]
                                   [--schedule-based-config-time-zone]
                                   [--script-action-profiles]
                                   [--secret-reference]
                                   [--service-configs]
                                   [--spark-hive-catalog-db-name]
                                   [--spark-hive-catalog-db-password-secret]
                                   [--spark-hive-catalog-db-server-name]
                                   [--spark-hive-catalog-db-user-name]
                                   [--spark-hive-catalog-key-vault-id]
                                   [--spark-hive-catalog-thrift-url]
                                   [--spark-storage-url]
                                   [--ssh-profile-count]
                                   [--stub-profile]
                                   [--tags]
                                   [--task-manager-cpu]
                                   [--task-manager-memory]
                                   [--trino-hive-catalog]
                                   [--trino-plugins-spec]
                                   [--trino-profile-user-plugins-telemetry-spec]
                                   [--user-plugins-spec]
                                   [--vm-size]
                                   [--worker-debug-port]
                                   [--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]

Beispiele

Erstellen Sie einen einfachen Trino-Cluster.

az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type trino --cluster-version {1.2.0} --oss-version {0.440.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"

Erstellen Sie einen einfachen Flink-Cluster.

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016}

Erstellen Sie einen einfachen Spark-Cluster.

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"

Erstellen Sie einen einfachen Kafka-Cluster.

az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type kafka --cluster-version {1.2.0} --oss-version {3.6.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --kafka-profile '{"disk-storage":{"data-disk-size":8,"data-disk-type":"Standard_SSD_LRS"}}'

Erstellen Sie einen Spark-Cluster mit benutzerdefiniertem Strukturmetaspeicher.

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"  --secret-reference '[{reference-name:sqlpassword,secret-name:sqlpassword,type:Secret}]' --key-vault-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-hive-kv-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-db-auth-mode SqlAuth --spark-hive-db-name {sparkhms} --spark-hive-db-secret {sqlpassword} --spark-hive-db-server {yourserver.database.windows.net} --spark-hive-db-user {username}

Erstellen Sie einen Flink-Cluster mit Verfügbarkeitszonen.

az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016} --availability-zones [1,2]

Erforderliche Parameter

--cluster-name --name -n

Der Name des HDInsight-Clusters.

--cluster-pool-name

Der Name des Clusterpools.

--resource-group -g

Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name> konfigurieren.

Optionale Parameter

--application-log-std-error-enabled --enable-log-std-error

True, wenn der Anwendungsstandardfehler aktiviert ist, andernfalls "false".

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--application-log-std-out-enabled --enable-log-std-out

True, wenn der Anwendungsstandard aktiviert ist, andernfalls "false".

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--assigned-identity-client-id --msi-client-id

ClientId der MSI-Datei.

--assigned-identity-id --msi-id

ResourceId des MSI.

--assigned-identity-object-id --msi-object-id

ObjectId des MSI.

--authorization-group-id

AAD-Gruppen-IDs, die für den Zugriff auf die Datenebene autorisiert sind. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--authorization-user-id

AAD-Benutzer-IDs, die für den Zugriff auf die Datenebene autorisiert sind. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--autoscale-profile-graceful-decommission-timeout --decommission-time

Diese Eigenschaft ist für einen ordnungsgemäßen Außerbetriebnahmetimeout vorgesehen. Sie hat eine Standardeinstellung von 3600 Sekunden, bevor das erzwungene Herunterfahren stattfindet. Dies ist die maximale Zeit, bis die Ausführung von Containern und Anwendungen abgeschlossen ist, bevor ein DECOMMISSIONING-Knoten in DECOMMISSIONED umgestellt wird. Der Standardwert ist 3.600 Sekunden. Negativer Wert (wie -1) wird als unendliches Timeout behandelt.

--autoscale-profile-type

Der Benutzer gibt an, welche Art von Autoscale implementiert werden soll – "Geplant basierend" oder "Lastbasiert".

Zulässige Werte: LoadBased, ScheduleBased
--availability-zones

Die Liste der Verfügbarkeitszonen, die für AKS VMSS-Knoten verwendet werden sollen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--cluster-type

Der Typ des Clusters.

--cluster-version

Version mit 3/4-Teil.

--cooldown-period --loadbased-config-cooldown-period

Dies ist ein Abkühlzeitraum, dies ist ein Zeitraum in Sekunden, der die Zeitspanne bestimmt, die zwischen einer Skalierungsaktivität, die von einer Regel gestartet wurde, und dem Beginn der nächsten Skalierungsaktivität, unabhängig von der Regel, die sie auslöst, verstrichen sein muss. Der Standardwert beträgt 300 Sekunden.

--coord-debug-port --coordinator-debug-port

Das Kennzeichen, das, wenn Debug aktiviert wird oder nicht. Standard: 8008.

--coord-debug-suspend --coordinator-debug-suspend

Das Kennzeichen, das beim Anhalten des Debugs oder nicht. Standardwert: false.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-debug-enabled --enable-coord-debug

Das Kennzeichen, das bei Aktivierung von Coordinator HA mehrere Koordinatorreplikate mit automatischem Failover verwendet, eine pro Kopfknoten. Standardwert: false.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-high-availability-enabled --enable-coord-ha

Das Kennzeichen, das bei Aktivierung von Coordinator HA mehrere Koordinatorreplikate mit automatischem Failover verwendet, eine pro Kopfknoten. Standardwert: false.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--db-connection-authentication-mode --spark-db-auth-mode

Der Authentifizierungsmodus zum Herstellen einer Verbindung mit Ihrer Hive-Metaspeicherdatenbank. Weitere Details: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

Zulässige Werte: IdentityAuth, SqlAuth
--deployment-mode

Eine Zeichenfolgeneigenschaft, die den Bereitstellungsmodus des Flink-Clusters angibt. Er kann einen der folgenden Enumerationswerte => Application, Session haben. Der Standardwert ist "Session".

Zulässige Werte: Application, Session
--enable-autoscale

Dies gibt an, ob die automatische Skalierung auf HDInsight im AKS-Cluster aktiviert ist.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--enable-la-metrics --log-analytic-profile-metrics-enabled

True, wenn Metriken aktiviert sind, andernfalls "false".

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--enable-log-analytics

True, wenn die Protokollanalyse für den Cluster aktiviert ist, andernfalls "false".

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--enable-prometheu

Aktivieren Sie Prometheus für Cluster oder nicht.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
Standardwert: False
--enable-worker-debug

Die Kennzeichnung, die, wenn trino cluster debug aktiviert ist oder nicht. Standardwert: false.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--flink-db-auth-mode --metastore-db-connection-authentication-mode

Der Authentifizierungsmodus zum Herstellen einer Verbindung mit Ihrer Hive-Metaspeicherdatenbank. Weitere Details: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

Zulässige Werte: IdentityAuth, SqlAuth
--flink-hive-catalog-db-connection-password-secret --flink-hive-db-secret

Geheimer Verweisname von secretsProfile.secrets, der das Kennwort für die Datenbankverbindung enthält.

--flink-hive-catalog-db-connection-url --flink-hive-db-url

Verbindungszeichenfolge für die Strukturmetaspeicherdatenbank.

--flink-hive-catalog-db-connection-user-name --flink-hive-db-user

Benutzername für Datenbankverbindung.

--flink-storage-key

Der Speicherschlüssel ist nur für Denb(n) Speicher erforderlich.

--flink-storage-uri

Speicherkonto-URI, der für den Speicherpunkt- und Prüfpunktstatus verwendet wird.

--history-server-cpu

Cpu-Anzahl des Verlaufsservers.

--history-server-memory

Größe des Verlaufsserverspeichers.

--identity-list

Die Liste der verwalteten Identitäten. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--internal-ingress --internal-ingress-enabled

Gibt an, ob Cluster mit privater IP anstelle öffentlicher IP erstellt werden soll. Diese Eigenschaft muss zur Erstellungszeit festgelegt werden.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--job-manager-cpu

Auftrags-Manager CPU-Anzahl.

--job-manager-memory

Größe des Auftrags-Managers.

--job-spec

Auftragsspezifikationen für flink-Cluster im Anwendungsbereitstellungsmodus. Die Spezifikation ist unveränderlich, auch wenn Auftragseigenschaften durch Aufrufen der RunJob-API geändert werden, verwenden Sie bitte die ListJob-API, um die neuesten Auftragsinformationen abzurufen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--kafka-profile

Kafka-Clusterprofil. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--key-vault-id

Name des Benutzerschlüsseltresors, in dem alle clusterspezifischen Benutzerschlüssel gespeichert werden.

--llap-profile

LLAP-Clusterprofil. Unterstützen Sie json-file und yaml-file.

--loadbased-config-max-nodes --loadbased-max-nodes

Der Benutzer muss die maximale Anzahl von Knoten für die lastbasierte Skalierung festlegen. Die ladebasierte Skalierung verwendet diese Skalierung, um zwischen minimaler und maximaler Anzahl von Knoten nach oben und unten zu skalieren.

--loadbased-config-min-nodes --loadbased-min-nodes

Der Benutzer muss die Mindestanzahl von Knoten für die lastbasierte Skalierung festlegen. Die ladebasierte Skalierung verwendet diese Skalierung, um zwischen minimaler und maximaler Anzahl von Knoten nach oben und unten zu skalieren.

--loadbased-config-poll-interval --loadbased-interval

Der Benutzer kann das Abrufintervall angeben. Dies ist der Zeitraum (in Sekunden), nach dem Skalierungsmetriken abgefragt werden, um einen Skalierungsvorgang auszulösen.

--loadbased-config-scaling-rules --loadbased-rules

Die Skalierungsregeln. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--location -l

Der geografische Standort, an dem sich die Ressource befindet, wenn nicht angegeben, wird der Standort der Ressourcengruppe verwendet.

--no-wait

Nicht auf den Abschluss lang andauernder Vorgänge warten

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--nodes

Die Knotendefinitionen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--num-replicas

Die Anzahl der Aufgabenmanager.

--oss-version

Version mit drei Teilen.

--ranger-plugin-profile

Cluster Ranger-Plug-In-Profil. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--ranger-profile

Das Bereichsclusterprofil. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--schedule-based-config-default-count --schedule-default-count

Festlegen der Standardknotenanzahl der aktuellen Zeitplankonfiguration. Die Anzahl der Standardknoten gibt die Anzahl der Knoten an, die beim Ausführen eines angegebenen Skalierungsvorgangs (Skalierung nach oben/verkleinern) standard sind.

--schedule-based-config-schedule --schedule-schedules

Dadurch werden die Zeitpläne angegeben, bei denen die geplante automatische Skalierung aktiviert werden soll. Der Benutzer hat die Wahl, mehrere Regeln innerhalb des Zeitplans über Tage und Zeiten (Start/Ende) festzulegen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--schedule-based-config-time-zone --schedule-time-zone

Der Benutzer muss die Zeitzone angeben, in der der Zeitplan für die konfiguration der automatischen Skalierung festgelegt werden muss.

--script-action-profiles

Die Skriptaktionsprofilliste. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--secret-reference

Eigenschaften des Schlüsseltresorschlüssels. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--service-configs --service-configs-profiles

Die Dienstkonfigurationsprofile. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--spark-hive-catalog-db-name --spark-hive-db-name

Der Datenbankname.

--spark-hive-catalog-db-password-secret --spark-hive-db-secret

Der geheime Name, der das Kennwort des Datenbankbenutzers enthält.

--spark-hive-catalog-db-server-name --spark-hive-db-server

Der Datenbankserverhost.

--spark-hive-catalog-db-user-name --spark-hive-db-user

Der Datenbankbenutzername.

--spark-hive-catalog-key-vault-id --spark-hive-kv-id

Die Schlüsseltresor-Ressourcen-ID.

--spark-hive-catalog-thrift-url --spark-hive-thrift-url

Die Thrift-URL.

--spark-storage-url

Die Standardspeicher-URL.

--ssh-profile-count

Anzahl der SSH-Pods pro Cluster.

--stub-profile

Stubclusterprofil. Unterstützen Sie json-file und yaml-file.

--tags

Ressourcentags. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--task-manager-cpu

Cpu-Anzahl des Task-Managers.

--task-manager-memory

Die Größe des Task-Managers.

--trino-hive-catalog

Optionen für den Trino-Clusterstrukturkatalog. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--trino-plugins-spec --trino-profile-user-plugins-plugin-spec

Trino-Benutzer-Plug-Ins geben Unterstützung shorthand-Syntax, json-file und yaml-file. Probieren Sie "??" aus, um mehr anzuzeigen.

--trino-profile-user-plugins-telemetry-spec --trino-telemetry-spec

Trino-Benutzer-Telemetriespezifikation. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--user-plugins-spec

Spark-Benutzer-Plug-Ins geben Unterstützung shorthand-Syntax, json-file und yaml-file. Probieren Sie "??" aus, um mehr anzuzeigen.

--vm-size

Die SKU des virtuellen Computers.

--worker-debug-port

Der Debugport. Standard: 8008.

--worker-debug-suspend

Das Kennzeichen, das das Debuggen eines Trinoclusters angehalten hat oder nicht. Standardwert: false.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
Globale Parameter
--debug

Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.

--help -h

Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.

--only-show-errors

Nur Fehler anzeigen und Warnungen unterdrücken.

--output -o

Ausgabeformat.

Zulässige Werte: json, jsonc, none, table, tsv, yaml, yamlc
Standardwert: json
--query

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--subscription

Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID konfigurieren.

--verbose

Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.

az hdinsight-on-aks cluster delete

Vorschau

Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus

Löschen eines Clusters.

az hdinsight-on-aks cluster delete [--cluster-name]
                                   [--cluster-pool-name]
                                   [--ids]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--resource-group]
                                   [--subscription]
                                   [--yes]

Beispiele

Löschen eines Clusters.

az hdinsight-on-aks cluster delete  -n {clusterName} --cluster-pool-name {poolName} -g {RG}

Optionale Parameter

--cluster-name --name -n

Der Name des HDInsight-Clusters.

--cluster-pool-name

Der Name des Clusterpools.

--ids

Eine oder mehrere Ressourcen-IDs (durch Leerzeichen getrennt). Dabei sollte es sich um eine vollständige Ressourcen-ID mit allen Informationen der „Ressource id“-Argumente handeln. Sie sollten entweder „--ids“ oder andere „Resource Id“-Argumente angeben.

--no-wait

Nicht auf den Abschluss lang andauernder Vorgänge warten

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--resource-group -g

Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name> konfigurieren.

--subscription

Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID konfigurieren.

--yes -y

Nicht zur Bestätigung auffordern

Standardwert: False
Globale Parameter
--debug

Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.

--help -h

Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.

--only-show-errors

Nur Fehler anzeigen und Warnungen unterdrücken.

--output -o

Ausgabeformat.

Zulässige Werte: json, jsonc, none, table, tsv, yaml, yamlc
Standardwert: json
--query

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--subscription

Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID konfigurieren.

--verbose

Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.

az hdinsight-on-aks cluster list

Vorschau

Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus

Listen Sie die HDInsight-Clusterpools unter einer Ressourcengruppe auf.

az hdinsight-on-aks cluster list --cluster-pool-name
                                 --resource-group
                                 [--max-items]
                                 [--next-token]

Beispiele

Auflisten aller Cluster in einem Clusterpool.

az hdinsight-on-aks cluster list --cluster-pool-name {poolName}-g {RG}

Erforderliche Parameter

--cluster-pool-name

Der Name des Clusterpools.

--resource-group -g

Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name> konfigurieren.

Optionale Parameter

--max-items

Die Gesamtanzahl der Elemente, die in der Ausgabe des Befehls zurückgegeben werden sollen. Wenn die Gesamtanzahl der verfügbaren Elemente größer als der angegebene Wert ist, wird ein Token in der Ausgabe des Befehls bereitgestellt. Um die Paginierung fortzusetzen, geben Sie den Tokenwert im --next-token Argument eines nachfolgenden Befehls an.

--next-token

Token, das angibt, wo die Paginierung beginnen soll. Dies ist der Tokenwert aus einer zuvor abgeschnittenen Antwort.

Globale Parameter
--debug

Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.

--help -h

Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.

--only-show-errors

Nur Fehler anzeigen und Warnungen unterdrücken.

--output -o

Ausgabeformat.

Zulässige Werte: json, jsonc, none, table, tsv, yaml, yamlc
Standardwert: json
--query

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--subscription

Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID konfigurieren.

--verbose

Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.

az hdinsight-on-aks cluster list-service-config

Vorschau

Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus

Auflisten des Konfigurationsabbilds aller Dienste, die im Cluster ausgeführt werden.

az hdinsight-on-aks cluster list-service-config --cluster-name
                                                --cluster-pool-name
                                                --resource-group
                                                [--max-items]
                                                [--next-token]

Beispiele

Listet das Konfigurationsabbild aller Dienste auf, die im Cluster ausgeführt werden.

az hdinsight-on-aks cluster list-service-config  --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG}

Erforderliche Parameter

--cluster-name

Der Name des HDInsight-Clusters.

--cluster-pool-name

Der Name des Clusterpools.

--resource-group -g

Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name> konfigurieren.

Optionale Parameter

--max-items

Die Gesamtanzahl der Elemente, die in der Ausgabe des Befehls zurückgegeben werden sollen. Wenn die Gesamtanzahl der verfügbaren Elemente größer als der angegebene Wert ist, wird ein Token in der Ausgabe des Befehls bereitgestellt. Um die Paginierung fortzusetzen, geben Sie den Tokenwert im --next-token Argument eines nachfolgenden Befehls an.

--next-token

Token, das angibt, wo die Paginierung beginnen soll. Dies ist der Tokenwert aus einer zuvor abgeschnittenen Antwort.

Globale Parameter
--debug

Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.

--help -h

Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.

--only-show-errors

Nur Fehler anzeigen und Warnungen unterdrücken.

--output -o

Ausgabeformat.

Zulässige Werte: json, jsonc, none, table, tsv, yaml, yamlc
Standardwert: json
--query

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--subscription

Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID konfigurieren.

--verbose

Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.

az hdinsight-on-aks cluster resize

Vorschau

Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus

Ändern Sie die Größe eines vorhandenen Clusters.

az hdinsight-on-aks cluster resize [--cluster-name]
                                   [--cluster-pool-name]
                                   [--ids]
                                   [--location]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--resource-group]
                                   [--subscription]
                                   [--tags]
                                   [--target-worker-node-count]

Beispiele

Ändern sie die Größe eines Clusters.

az hdinsight-on-aks cluster resize --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG} -l {westus3} --target-worker-node-count {6}

Optionale Parameter

--cluster-name

Der Name des HDInsight-Clusters.

--cluster-pool-name

Der Name des Clusterpools.

--ids

Eine oder mehrere Ressourcen-IDs (durch Leerzeichen getrennt). Dabei sollte es sich um eine vollständige Ressourcen-ID mit allen Informationen der „Ressource id“-Argumente handeln. Sie sollten entweder „--ids“ oder andere „Resource Id“-Argumente angeben.

--location -l

Der geografische Standort, an dem sich die Ressource befindet, wenn nicht angegeben, wird der Standort der Ressourcengruppe verwendet.

--no-wait

Nicht auf den Abschluss lang andauernder Vorgänge warten

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--resource-group -g

Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name> konfigurieren.

--subscription

Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID konfigurieren.

--tags

Ressourcentags. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--target-worker-node-count --worker-node-count

Zielknotenanzahl des Workerknotens.

Globale Parameter
--debug

Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.

--help -h

Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.

--only-show-errors

Nur Fehler anzeigen und Warnungen unterdrücken.

--output -o

Ausgabeformat.

Zulässige Werte: json, jsonc, none, table, tsv, yaml, yamlc
Standardwert: json
--query

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--subscription

Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID konfigurieren.

--verbose

Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.

az hdinsight-on-aks cluster show

Vorschau

Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus

Rufen Sie einen HDInsight-Cluster ab.

az hdinsight-on-aks cluster show [--cluster-name]
                                 [--cluster-pool-name]
                                 [--ids]
                                 [--resource-group]
                                 [--subscription]

Beispiele

Abrufen eines Clusters mit Clustername.

az hdinsight-on-aks cluster show  -n {clusterName} --cluster-pool-name {poolName} -g {RG}

Optionale Parameter

--cluster-name --name -n

Der Name des HDInsight-Clusters.

--cluster-pool-name

Der Name des Clusterpools.

--ids

Eine oder mehrere Ressourcen-IDs (durch Leerzeichen getrennt). Dabei sollte es sich um eine vollständige Ressourcen-ID mit allen Informationen der „Ressource id“-Argumente handeln. Sie sollten entweder „--ids“ oder andere „Resource Id“-Argumente angeben.

--resource-group -g

Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name> konfigurieren.

--subscription

Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID konfigurieren.

Globale Parameter
--debug

Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.

--help -h

Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.

--only-show-errors

Nur Fehler anzeigen und Warnungen unterdrücken.

--output -o

Ausgabeformat.

Zulässige Werte: json, jsonc, none, table, tsv, yaml, yamlc
Standardwert: json
--query

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--subscription

Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID konfigurieren.

--verbose

Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.

az hdinsight-on-aks cluster update

Vorschau

Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus

Aktualisieren eines Clusters.

az hdinsight-on-aks cluster update [--add]
                                   [--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--assigned-identity-client-id]
                                   [--assigned-identity-id]
                                   [--assigned-identity-object-id]
                                   [--authorization-group-id]
                                   [--authorization-user-id]
                                   [--autoscale-profile-graceful-decommission-timeout]
                                   [--autoscale-profile-type {LoadBased, ScheduleBased}]
                                   [--availability-zones]
                                   [--cluster-name]
                                   [--cluster-pool-name]
                                   [--cluster-version]
                                   [--cooldown-period]
                                   [--coord-debug-port]
                                   [--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
                                   [--deployment-mode {Application, Session}]
                                   [--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--flink-db-auth-mode {IdentityAuth, SqlAuth}]
                                   [--flink-hive-catalog-db-connection-password-secret]
                                   [--flink-hive-catalog-db-connection-url]
                                   [--flink-hive-catalog-db-connection-user-name]
                                   [--flink-storage-key]
                                   [--flink-storage-uri]
                                   [--force-string {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--history-server-cpu]
                                   [--history-server-memory]
                                   [--identity-list]
                                   [--ids]
                                   [--job-manager-cpu]
                                   [--job-manager-memory]
                                   [--job-spec]
                                   [--kafka-profile]
                                   [--key-vault-id]
                                   [--llap-profile]
                                   [--loadbased-config-max-nodes]
                                   [--loadbased-config-min-nodes]
                                   [--loadbased-config-poll-interval]
                                   [--loadbased-config-scaling-rules]
                                   [--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
                                   [--nodes]
                                   [--num-replicas]
                                   [--oss-version]
                                   [--ranger-plugin-profile]
                                   [--ranger-profile]
                                   [--remove]
                                   [--resource-group]
                                   [--schedule-based-config-default-count]
                                   [--schedule-based-config-schedule]
                                   [--schedule-based-config-time-zone]
                                   [--script-action-profiles]
                                   [--secret-reference]
                                   [--service-configs]
                                   [--set]
                                   [--spark-hive-catalog-db-name]
                                   [--spark-hive-catalog-db-password-secret]
                                   [--spark-hive-catalog-db-server-name]
                                   [--spark-hive-catalog-db-user-name]
                                   [--spark-hive-catalog-key-vault-id]
                                   [--spark-hive-catalog-thrift-url]
                                   [--spark-storage-url]
                                   [--ssh-profile-count]
                                   [--stub-profile]
                                   [--subscription]
                                   [--tags]
                                   [--task-manager-cpu]
                                   [--task-manager-memory]
                                   [--trino-hive-catalog]
                                   [--trino-plugins-spec]
                                   [--trino-profile-user-plugins-telemetry-spec]
                                   [--user-plugins-spec]
                                   [--vm-size]
                                   [--worker-debug-port]
                                   [--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]

Beispiele

Dient zum Aktualisieren einer Clusterdienstkonfiguration.

az hdinsight-on-aks cluster update -n {clusterName} --cluster-pool-name {poolName} -g {RG} -service-configs {"[{service-name:yarn-service,configs:[{component:hadoop-config-client,files:[{file-name:yarn-site.xml,values:{yarn.nodemanager.resource.memory-mb:33333}}]}]}]"}

Optionale Parameter

--add

Fügen Sie einer Liste von Objekten ein Objekt hinzu, indem Sie ein Pfad- und Schlüsselwertpaar angeben. Beispiel: --add property.listProperty <key=value, string or JSON string>.

--application-log-std-error-enabled --enable-log-std-error

True, wenn der Anwendungsstandardfehler aktiviert ist, andernfalls "false".

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--application-log-std-out-enabled --enable-log-std-out

True, wenn der Anwendungsstandard aktiviert ist, andernfalls "false".

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--assigned-identity-client-id --msi-client-id

ClientId der MSI-Datei.

--assigned-identity-id --msi-id

ResourceId des MSI.

--assigned-identity-object-id --msi-object-id

ObjectId des MSI.

--authorization-group-id

AAD-Gruppen-IDs, die für den Zugriff auf die Datenebene autorisiert sind. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--authorization-user-id

AAD-Benutzer-IDs, die für den Zugriff auf die Datenebene autorisiert sind. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--autoscale-profile-graceful-decommission-timeout --decommission-time

Diese Eigenschaft ist für einen ordnungsgemäßen Außerbetriebnahmetimeout vorgesehen. Sie hat eine Standardeinstellung von 3600 Sekunden, bevor das erzwungene Herunterfahren stattfindet. Dies ist die maximale Zeit, bis die Ausführung von Containern und Anwendungen abgeschlossen ist, bevor ein DECOMMISSIONING-Knoten in DECOMMISSIONED umgestellt wird. Der Standardwert ist 3.600 Sekunden. Negativer Wert (wie -1) wird als unendliches Timeout behandelt.

--autoscale-profile-type

Der Benutzer gibt an, welche Art von Autoscale implementiert werden soll – "Geplant basierend" oder "Lastbasiert".

Zulässige Werte: LoadBased, ScheduleBased
--availability-zones

Die Liste der Verfügbarkeitszonen, die für AKS VMSS-Knoten verwendet werden sollen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--cluster-name --name -n

Der Name des HDInsight-Clusters.

--cluster-pool-name

Der Name des Clusterpools.

--cluster-version

Version mit 3/4-Teil.

--cooldown-period --loadbased-config-cooldown-period

Dies ist ein Abkühlzeitraum, dies ist ein Zeitraum in Sekunden, der die Zeitspanne bestimmt, die zwischen einer Skalierungsaktivität, die von einer Regel gestartet wurde, und dem Beginn der nächsten Skalierungsaktivität, unabhängig von der Regel, die sie auslöst, verstrichen sein muss. Der Standardwert beträgt 300 Sekunden.

--coord-debug-port --coordinator-debug-port

Das Kennzeichen, das, wenn Debug aktiviert wird oder nicht. Standard: 8008.

--coord-debug-suspend --coordinator-debug-suspend

Das Kennzeichen, das beim Anhalten des Debugs oder nicht. Standardwert: false.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-debug-enabled --enable-coord-debug

Das Kennzeichen, das bei Aktivierung von Coordinator HA mehrere Koordinatorreplikate mit automatischem Failover verwendet, eine pro Kopfknoten. Standardwert: false.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--coordinator-high-availability-enabled --enable-coord-ha

Das Kennzeichen, das bei Aktivierung von Coordinator HA mehrere Koordinatorreplikate mit automatischem Failover verwendet, eine pro Kopfknoten. Standardwert: false.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--db-connection-authentication-mode --spark-db-auth-mode

Der Authentifizierungsmodus zum Herstellen einer Verbindung mit Ihrer Hive-Metaspeicherdatenbank. Weitere Details: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

Zulässige Werte: IdentityAuth, SqlAuth
--deployment-mode

Eine Zeichenfolgeneigenschaft, die den Bereitstellungsmodus des Flink-Clusters angibt. Er kann einen der folgenden Enumerationswerte => Application, Session haben. Der Standardwert ist "Session".

Zulässige Werte: Application, Session
--enable-autoscale

Dies gibt an, ob die automatische Skalierung auf HDInsight im AKS-Cluster aktiviert ist.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--enable-la-metrics --log-analytic-profile-metrics-enabled

True, wenn Metriken aktiviert sind, andernfalls "false".

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--enable-log-analytics

True, wenn die Protokollanalyse für den Cluster aktiviert ist, andernfalls "false".

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--enable-prometheu

Aktivieren Sie Prometheus für Cluster oder nicht.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--enable-worker-debug

Die Kennzeichnung, die, wenn trino cluster debug aktiviert ist oder nicht. Standardwert: false.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--flink-db-auth-mode --metastore-db-connection-authentication-mode

Der Authentifizierungsmodus zum Herstellen einer Verbindung mit Ihrer Hive-Metaspeicherdatenbank. Weitere Details: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.

Zulässige Werte: IdentityAuth, SqlAuth
--flink-hive-catalog-db-connection-password-secret --flink-hive-db-secret

Geheimer Verweisname von secretsProfile.secrets, der das Kennwort für die Datenbankverbindung enthält.

--flink-hive-catalog-db-connection-url --flink-hive-db-url

Verbindungszeichenfolge für die Strukturmetaspeicherdatenbank.

--flink-hive-catalog-db-connection-user-name --flink-hive-db-user

Benutzername für Datenbankverbindung.

--flink-storage-key

Der Speicherschlüssel ist nur für Denb(n) Speicher erforderlich.

--flink-storage-uri

Speicherkonto-URI, der für den Speicherpunkt- und Prüfpunktstatus verwendet wird.

--force-string

Wenn Sie "set" oder "add" verwenden, behalten Sie Zeichenfolgenliterale bei, anstatt zu versuchen, in JSON zu konvertieren.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--history-server-cpu

Cpu-Anzahl des Verlaufsservers.

--history-server-memory

Größe des Verlaufsserverspeichers.

--identity-list

Die Liste der verwalteten Identitäten. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--ids

Eine oder mehrere Ressourcen-IDs (durch Leerzeichen getrennt). Dabei sollte es sich um eine vollständige Ressourcen-ID mit allen Informationen der „Ressource id“-Argumente handeln. Sie sollten entweder „--ids“ oder andere „Resource Id“-Argumente angeben.

--job-manager-cpu

Auftrags-Manager CPU-Anzahl.

--job-manager-memory

Größe des Auftrags-Managers.

--job-spec

Auftragsspezifikationen für flink-Cluster im Anwendungsbereitstellungsmodus. Die Spezifikation ist unveränderlich, auch wenn Auftragseigenschaften durch Aufrufen der RunJob-API geändert werden, verwenden Sie bitte die ListJob-API, um die neuesten Auftragsinformationen abzurufen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--kafka-profile

Kafka-Clusterprofil. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--key-vault-id

Name des Benutzerschlüsseltresors, in dem alle clusterspezifischen Benutzerschlüssel gespeichert werden.

--llap-profile

LLAP-Clusterprofil. Unterstützen Sie json-file und yaml-file.

--loadbased-config-max-nodes --loadbased-max-nodes

Der Benutzer muss die maximale Anzahl von Knoten für die lastbasierte Skalierung festlegen. Die ladebasierte Skalierung verwendet diese Skalierung, um zwischen minimaler und maximaler Anzahl von Knoten nach oben und unten zu skalieren.

--loadbased-config-min-nodes --loadbased-min-nodes

Der Benutzer muss die Mindestanzahl von Knoten für die lastbasierte Skalierung festlegen. Die ladebasierte Skalierung verwendet diese Skalierung, um zwischen minimaler und maximaler Anzahl von Knoten nach oben und unten zu skalieren.

--loadbased-config-poll-interval --loadbased-interval

Der Benutzer kann das Abrufintervall angeben. Dies ist der Zeitraum (in Sekunden), nach dem Skalierungsmetriken abgefragt werden, um einen Skalierungsvorgang auszulösen.

--loadbased-config-scaling-rules --loadbased-rules

Die Skalierungsregeln. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--no-wait

Nicht auf den Abschluss lang andauernder Vorgänge warten

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
--nodes

Die Knotendefinitionen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--num-replicas

Die Anzahl der Aufgabenmanager.

--oss-version

Version mit drei Teilen.

--ranger-plugin-profile

Cluster Ranger-Plug-In-Profil. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--ranger-profile

Das Bereichsclusterprofil. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--remove

Entfernen sie eine Eigenschaft oder ein Element aus einer Liste. Beispiel: --remove property.list OR --remove propertyToRemove.

--resource-group -g

Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name> konfigurieren.

--schedule-based-config-default-count --schedule-default-count

Festlegen der Standardknotenanzahl der aktuellen Zeitplankonfiguration. Die Anzahl der Standardknoten gibt die Anzahl der Knoten an, die beim Ausführen eines angegebenen Skalierungsvorgangs (Skalierung nach oben/verkleinern) standard sind.

--schedule-based-config-schedule --schedule-schedules

Dadurch werden die Zeitpläne angegeben, bei denen die geplante automatische Skalierung aktiviert werden soll. Der Benutzer hat die Wahl, mehrere Regeln innerhalb des Zeitplans über Tage und Zeiten (Start/Ende) festzulegen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--schedule-based-config-time-zone --schedule-time-zone

Der Benutzer muss die Zeitzone angeben, in der der Zeitplan für die konfiguration der automatischen Skalierung festgelegt werden muss.

--script-action-profiles

Die Skriptaktionsprofilliste. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--secret-reference

Eigenschaften des Schlüsseltresorschlüssels. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--service-configs --service-configs-profiles

Die Dienstkonfigurationsprofile. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--set

Aktualisieren Sie ein Objekt, indem Sie einen festzulegenden Eigenschaftspfad und -wert angeben. Beispiel: --set property1.property2=.

--spark-hive-catalog-db-name --spark-hive-db-name

Der Datenbankname.

--spark-hive-catalog-db-password-secret --spark-hive-db-secret

Der geheime Name, der das Kennwort des Datenbankbenutzers enthält.

--spark-hive-catalog-db-server-name --spark-hive-db-server

Der Datenbankserverhost.

--spark-hive-catalog-db-user-name --spark-hive-db-user

Der Datenbankbenutzername.

--spark-hive-catalog-key-vault-id --spark-hive-kv-id

Die Schlüsseltresor-Ressourcen-ID.

--spark-hive-catalog-thrift-url --spark-hive-thrift-url

Die Thrift-URL.

--spark-storage-url

Die Standardspeicher-URL.

--ssh-profile-count

Anzahl der SSH-Pods pro Cluster.

--stub-profile

Stubclusterprofil. Unterstützen Sie json-file und yaml-file.

--subscription

Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID konfigurieren.

--tags

Ressourcentags. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--task-manager-cpu

Cpu-Anzahl des Task-Managers.

--task-manager-memory

Die Größe des Task-Managers.

--trino-hive-catalog

Optionen für den Strukturkatalog. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--trino-plugins-spec --trino-profile-user-plugins-plugin-spec

Trino-Benutzer-Plug-Ins geben Unterstützung shorthand-Syntax, json-file und yaml-file. Probieren Sie "??" aus, um mehr anzuzeigen.

--trino-profile-user-plugins-telemetry-spec --trino-telemetry-spec

Trino-Benutzer-Telemetriespezifikation. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.

--user-plugins-spec

Spark-Benutzer-Plug-Ins geben Unterstützung shorthand-Syntax, json-file und yaml-file. Probieren Sie "??" aus, um mehr anzuzeigen.

--vm-size

Die SKU des virtuellen Computers.

--worker-debug-port

Der Debugport. Standard: 8008.

--worker-debug-suspend

Das Kennzeichen, das das Debuggen eines Trinoclusters angehalten hat oder nicht. Standardwert: false.

Zulässige Werte: 0, 1, f, false, n, no, t, true, y, yes
Globale Parameter
--debug

Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.

--help -h

Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.

--only-show-errors

Nur Fehler anzeigen und Warnungen unterdrücken.

--output -o

Ausgabeformat.

Zulässige Werte: json, jsonc, none, table, tsv, yaml, yamlc
Standardwert: json
--query

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--subscription

Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID konfigurieren.

--verbose

Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.

az hdinsight-on-aks cluster wait

Vorschau

Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus

Platzieren Sie die CLI in einem Wartezustand, bis eine Bedingung erfüllt ist.

az hdinsight-on-aks cluster wait [--cluster-name]
                                 [--cluster-pool-name]
                                 [--created]
                                 [--custom]
                                 [--deleted]
                                 [--exists]
                                 [--ids]
                                 [--interval]
                                 [--resource-group]
                                 [--subscription]
                                 [--timeout]
                                 [--updated]

Optionale Parameter

--cluster-name --name -n

Der Name des HDInsight-Clusters.

--cluster-pool-name

Der Name des Clusterpools.

--created

Warten Sie, bis sie mit 'provisioningState' unter 'Succeeded' erstellt wurde.

Standardwert: False
--custom

Warten Sie, bis die Bedingung eine benutzerdefinierte JMESPath-Abfrage erfüllt. Beispiel: provisioningState!='InProgress', instanceView.statuses[?code=='PowerState/running'].

--deleted

Warten Sie, bis sie gelöscht wurde.

Standardwert: False
--exists

Warten Sie, bis die Ressource vorhanden ist.

Standardwert: False
--ids

Eine oder mehrere Ressourcen-IDs (durch Leerzeichen getrennt). Dabei sollte es sich um eine vollständige Ressourcen-ID mit allen Informationen der „Ressource id“-Argumente handeln. Sie sollten entweder „--ids“ oder andere „Resource Id“-Argumente angeben.

--interval

Abrufintervall in Sekunden.

Standardwert: 30
--resource-group -g

Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name> konfigurieren.

--subscription

Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID konfigurieren.

--timeout

Maximale Wartezeit in Sekunden.

Standardwert: 3600
--updated

Warten Sie, bis sie mit provisioningState unter 'Succeeded' aktualisiert wurde.

Standardwert: False
Globale Parameter
--debug

Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.

--help -h

Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.

--only-show-errors

Nur Fehler anzeigen und Warnungen unterdrücken.

--output -o

Ausgabeformat.

Zulässige Werte: json, jsonc, none, table, tsv, yaml, yamlc
Standardwert: json
--query

JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.

--subscription

Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID konfigurieren.

--verbose

Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.