az hdinsight-on-aks cluster
Hinweis
Diese Referenz ist Teil der hdinsightonaks-Erweiterung für die Azure CLI (Version 2.57.0 oder höher). Die Erweiterung wird automatisch installiert, wenn Sie einen az hdinsight-on-aks-Clusterbefehl zum ersten Mal ausführen. Weitere Informationen zu Erweiterungen
Diese Befehlsgruppe befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus
Clustervorgänge
Befehle
Name | Beschreibung | Typ | Status |
---|---|---|---|
az hdinsight-on-aks cluster create |
Erstellen eines Clusters. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster delete |
Löschen eines Clusters. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster instance-view |
Ruft den Status einer Clusterinstanz ab. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster instance-view list |
Listet die Listen der Instanzansichten auf. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster instance-view show |
Rufen Sie den Status einer Clusterinstanz ab. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster job |
Clusterauftragsvorgänge. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster job list |
Auflisten von Aufträgen von HDInsight im AKS-Cluster. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster job run |
Vorgänge zu Aufträgen von HDInsight im AKS-Cluster. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster library |
Verwalten Sie die Bibliothek des Clusters. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster library list |
Auflisten aller Bibliotheken von HDInsight im AKS-Cluster. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster library manage |
Bibliotheksverwaltungsvorgänge auf HDInsight im AKS-Cluster. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster list |
Listen Sie die HDInsight-Clusterpools unter einer Ressourcengruppe auf. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster list-service-config |
Auflisten des Konfigurationsabbilds aller Dienste, die im Cluster ausgeführt werden. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster node-profile |
Verwalten des Computeknotenprofils. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster node-profile create |
Erstellen Sie ein Knotenprofil mit SKU- und Workeranzahl. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster resize |
Ändern Sie die Größe eines vorhandenen Clusters. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster show |
Rufen Sie einen HDInsight-Cluster ab. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster update |
Aktualisieren eines Clusters. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster upgrade |
Upgradecluster. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster upgrade history |
Auflisten einer Liste des Upgradeverlaufs. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster upgrade list |
Auflisten eines verfügbaren Clusterupgrades. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster upgrade rollback |
Manuelles Rollbackupup für einen Cluster. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster upgrade run |
Upgrade eines Clusters. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster wait |
Platzieren Sie die CLI in einem Wartezustand, bis eine Bedingung erfüllt ist. |
Erweiterung | Vorschau |
az hdinsight-on-aks cluster create
Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus
Erstellen eines Clusters.
az hdinsight-on-aks cluster create --cluster-name
--cluster-pool-name
--resource-group
[--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--assigned-identity-client-id]
[--assigned-identity-id]
[--assigned-identity-object-id]
[--authorization-group-id]
[--authorization-user-id]
[--autoscale-profile-graceful-decommission-timeout]
[--autoscale-profile-type {LoadBased, ScheduleBased}]
[--availability-zones]
[--cluster-type]
[--cluster-version]
[--cooldown-period]
[--coord-debug-port]
[--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
[--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
[--deployment-mode {Application, Session}]
[--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
[--flink-db-auth-mode {IdentityAuth, SqlAuth}]
[--flink-hive-catalog-db-connection-password-secret]
[--flink-hive-catalog-db-connection-url]
[--flink-hive-catalog-db-connection-user-name]
[--flink-storage-key]
[--flink-storage-uri]
[--history-server-cpu]
[--history-server-memory]
[--identity-list]
[--internal-ingress {0, 1, f, false, n, no, t, true, y, yes}]
[--job-manager-cpu]
[--job-manager-memory]
[--job-spec]
[--kafka-profile]
[--key-vault-id]
[--llap-profile]
[--loadbased-config-max-nodes]
[--loadbased-config-min-nodes]
[--loadbased-config-poll-interval]
[--loadbased-config-scaling-rules]
[--location]
[--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
[--nodes]
[--num-replicas]
[--oss-version]
[--ranger-plugin-profile]
[--ranger-profile]
[--schedule-based-config-default-count]
[--schedule-based-config-schedule]
[--schedule-based-config-time-zone]
[--script-action-profiles]
[--secret-reference]
[--service-configs]
[--spark-hive-catalog-db-name]
[--spark-hive-catalog-db-password-secret]
[--spark-hive-catalog-db-server-name]
[--spark-hive-catalog-db-user-name]
[--spark-hive-catalog-key-vault-id]
[--spark-hive-catalog-thrift-url]
[--spark-storage-url]
[--ssh-profile-count]
[--stub-profile]
[--tags]
[--task-manager-cpu]
[--task-manager-memory]
[--trino-hive-catalog]
[--trino-plugins-spec]
[--trino-profile-user-plugins-telemetry-spec]
[--user-plugins-spec]
[--vm-size]
[--worker-debug-port]
[--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
Beispiele
Erstellen Sie einen einfachen Trino-Cluster.
az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type trino --cluster-version {1.2.0} --oss-version {0.440.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"
Erstellen Sie einen einfachen Flink-Cluster.
az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016}
Erstellen Sie einen einfachen Spark-Cluster.
az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"
Erstellen Sie einen einfachen Kafka-Cluster.
az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type kafka --cluster-version {1.2.0} --oss-version {3.6.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --kafka-profile '{"disk-storage":{"data-disk-size":8,"data-disk-type":"Standard_SSD_LRS"}}'
Erstellen Sie einen Spark-Cluster mit benutzerdefiniertem Strukturmetaspeicher.
az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --secret-reference '[{reference-name:sqlpassword,secret-name:sqlpassword,type:Secret}]' --key-vault-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-hive-kv-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-db-auth-mode SqlAuth --spark-hive-db-name {sparkhms} --spark-hive-db-secret {sqlpassword} --spark-hive-db-server {yourserver.database.windows.net} --spark-hive-db-user {username}
Erstellen Sie einen Flink-Cluster mit Verfügbarkeitszonen.
az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016} --availability-zones [1,2]
Erforderliche Parameter
Der Name des HDInsight-Clusters.
Der Name des Clusterpools.
Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name>
konfigurieren.
Optionale Parameter
True, wenn der Anwendungsstandardfehler aktiviert ist, andernfalls "false".
True, wenn der Anwendungsstandard aktiviert ist, andernfalls "false".
ClientId der MSI-Datei.
ResourceId des MSI.
ObjectId des MSI.
AAD-Gruppen-IDs, die für den Zugriff auf die Datenebene autorisiert sind. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
AAD-Benutzer-IDs, die für den Zugriff auf die Datenebene autorisiert sind. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Diese Eigenschaft ist für einen ordnungsgemäßen Außerbetriebnahmetimeout vorgesehen. Sie hat eine Standardeinstellung von 3600 Sekunden, bevor das erzwungene Herunterfahren stattfindet. Dies ist die maximale Zeit, bis die Ausführung von Containern und Anwendungen abgeschlossen ist, bevor ein DECOMMISSIONING-Knoten in DECOMMISSIONED umgestellt wird. Der Standardwert ist 3.600 Sekunden. Negativer Wert (wie -1) wird als unendliches Timeout behandelt.
Der Benutzer gibt an, welche Art von Autoscale implementiert werden soll – "Geplant basierend" oder "Lastbasiert".
Die Liste der Verfügbarkeitszonen, die für AKS VMSS-Knoten verwendet werden sollen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Der Typ des Clusters.
Version mit 3/4-Teil.
Dies ist ein Abkühlzeitraum, dies ist ein Zeitraum in Sekunden, der die Zeitspanne bestimmt, die zwischen einer Skalierungsaktivität, die von einer Regel gestartet wurde, und dem Beginn der nächsten Skalierungsaktivität, unabhängig von der Regel, die sie auslöst, verstrichen sein muss. Der Standardwert beträgt 300 Sekunden.
Das Kennzeichen, das, wenn Debug aktiviert wird oder nicht. Standard: 8008.
Das Kennzeichen, das beim Anhalten des Debugs oder nicht. Standardwert: false.
Das Kennzeichen, das bei Aktivierung von Coordinator HA mehrere Koordinatorreplikate mit automatischem Failover verwendet, eine pro Kopfknoten. Standardwert: false.
Das Kennzeichen, das bei Aktivierung von Coordinator HA mehrere Koordinatorreplikate mit automatischem Failover verwendet, eine pro Kopfknoten. Standardwert: false.
Der Authentifizierungsmodus zum Herstellen einer Verbindung mit Ihrer Hive-Metaspeicherdatenbank. Weitere Details: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.
Eine Zeichenfolgeneigenschaft, die den Bereitstellungsmodus des Flink-Clusters angibt. Er kann einen der folgenden Enumerationswerte => Application, Session haben. Der Standardwert ist "Session".
Dies gibt an, ob die automatische Skalierung auf HDInsight im AKS-Cluster aktiviert ist.
True, wenn Metriken aktiviert sind, andernfalls "false".
True, wenn die Protokollanalyse für den Cluster aktiviert ist, andernfalls "false".
Aktivieren Sie Prometheus für Cluster oder nicht.
Die Kennzeichnung, die, wenn trino cluster debug aktiviert ist oder nicht. Standardwert: false.
Der Authentifizierungsmodus zum Herstellen einer Verbindung mit Ihrer Hive-Metaspeicherdatenbank. Weitere Details: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.
Geheimer Verweisname von secretsProfile.secrets, der das Kennwort für die Datenbankverbindung enthält.
Verbindungszeichenfolge für die Strukturmetaspeicherdatenbank.
Benutzername für Datenbankverbindung.
Der Speicherschlüssel ist nur für Denb(n) Speicher erforderlich.
Speicherkonto-URI, der für den Speicherpunkt- und Prüfpunktstatus verwendet wird.
Cpu-Anzahl des Verlaufsservers.
Größe des Verlaufsserverspeichers.
Die Liste der verwalteten Identitäten. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Gibt an, ob Cluster mit privater IP anstelle öffentlicher IP erstellt werden soll. Diese Eigenschaft muss zur Erstellungszeit festgelegt werden.
Auftrags-Manager CPU-Anzahl.
Größe des Auftrags-Managers.
Auftragsspezifikationen für flink-Cluster im Anwendungsbereitstellungsmodus. Die Spezifikation ist unveränderlich, auch wenn Auftragseigenschaften durch Aufrufen der RunJob-API geändert werden, verwenden Sie bitte die ListJob-API, um die neuesten Auftragsinformationen abzurufen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Kafka-Clusterprofil. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Name des Benutzerschlüsseltresors, in dem alle clusterspezifischen Benutzerschlüssel gespeichert werden.
LLAP-Clusterprofil. Unterstützen Sie json-file und yaml-file.
Der Benutzer muss die maximale Anzahl von Knoten für die lastbasierte Skalierung festlegen. Die ladebasierte Skalierung verwendet diese Skalierung, um zwischen minimaler und maximaler Anzahl von Knoten nach oben und unten zu skalieren.
Der Benutzer muss die Mindestanzahl von Knoten für die lastbasierte Skalierung festlegen. Die ladebasierte Skalierung verwendet diese Skalierung, um zwischen minimaler und maximaler Anzahl von Knoten nach oben und unten zu skalieren.
Der Benutzer kann das Abrufintervall angeben. Dies ist der Zeitraum (in Sekunden), nach dem Skalierungsmetriken abgefragt werden, um einen Skalierungsvorgang auszulösen.
Die Skalierungsregeln. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Der geografische Standort, an dem sich die Ressource befindet, wenn nicht angegeben, wird der Standort der Ressourcengruppe verwendet.
Nicht auf den Abschluss lang andauernder Vorgänge warten
Die Knotendefinitionen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Die Anzahl der Aufgabenmanager.
Version mit drei Teilen.
Cluster Ranger-Plug-In-Profil. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Das Bereichsclusterprofil. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Festlegen der Standardknotenanzahl der aktuellen Zeitplankonfiguration. Die Anzahl der Standardknoten gibt die Anzahl der Knoten an, die beim Ausführen eines angegebenen Skalierungsvorgangs (Skalierung nach oben/verkleinern) standard sind.
Dadurch werden die Zeitpläne angegeben, bei denen die geplante automatische Skalierung aktiviert werden soll. Der Benutzer hat die Wahl, mehrere Regeln innerhalb des Zeitplans über Tage und Zeiten (Start/Ende) festzulegen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Der Benutzer muss die Zeitzone angeben, in der der Zeitplan für die konfiguration der automatischen Skalierung festgelegt werden muss.
Die Skriptaktionsprofilliste. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Eigenschaften des Schlüsseltresorschlüssels. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Die Dienstkonfigurationsprofile. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Der Datenbankname.
Der geheime Name, der das Kennwort des Datenbankbenutzers enthält.
Der Datenbankserverhost.
Der Datenbankbenutzername.
Die Schlüsseltresor-Ressourcen-ID.
Die Thrift-URL.
Die Standardspeicher-URL.
Anzahl der SSH-Pods pro Cluster.
Stubclusterprofil. Unterstützen Sie json-file und yaml-file.
Ressourcentags. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Cpu-Anzahl des Task-Managers.
Die Größe des Task-Managers.
Optionen für den Trino-Clusterstrukturkatalog. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Trino-Benutzer-Plug-Ins geben Unterstützung shorthand-Syntax, json-file und yaml-file. Probieren Sie "??" aus, um mehr anzuzeigen.
Trino-Benutzer-Telemetriespezifikation. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Spark-Benutzer-Plug-Ins geben Unterstützung shorthand-Syntax, json-file und yaml-file. Probieren Sie "??" aus, um mehr anzuzeigen.
Die SKU des virtuellen Computers.
Der Debugport. Standard: 8008.
Das Kennzeichen, das das Debuggen eines Trinoclusters angehalten hat oder nicht. Standardwert: false.
Globale Parameter
Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.
Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.
Nur Fehler anzeigen und Warnungen unterdrücken.
Ausgabeformat.
JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.
Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID
konfigurieren.
Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.
az hdinsight-on-aks cluster delete
Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus
Löschen eines Clusters.
az hdinsight-on-aks cluster delete [--cluster-name]
[--cluster-pool-name]
[--ids]
[--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
[--resource-group]
[--subscription]
[--yes]
Beispiele
Löschen eines Clusters.
az hdinsight-on-aks cluster delete -n {clusterName} --cluster-pool-name {poolName} -g {RG}
Optionale Parameter
Der Name des HDInsight-Clusters.
Der Name des Clusterpools.
Eine oder mehrere Ressourcen-IDs (durch Leerzeichen getrennt). Dabei sollte es sich um eine vollständige Ressourcen-ID mit allen Informationen der „Ressource id“-Argumente handeln. Sie sollten entweder „--ids“ oder andere „Resource Id“-Argumente angeben.
Nicht auf den Abschluss lang andauernder Vorgänge warten
Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name>
konfigurieren.
Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID
konfigurieren.
Nicht zur Bestätigung auffordern
Globale Parameter
Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.
Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.
Nur Fehler anzeigen und Warnungen unterdrücken.
Ausgabeformat.
JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.
Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID
konfigurieren.
Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.
az hdinsight-on-aks cluster list
Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus
Listen Sie die HDInsight-Clusterpools unter einer Ressourcengruppe auf.
az hdinsight-on-aks cluster list --cluster-pool-name
--resource-group
[--max-items]
[--next-token]
Beispiele
Auflisten aller Cluster in einem Clusterpool.
az hdinsight-on-aks cluster list --cluster-pool-name {poolName}-g {RG}
Erforderliche Parameter
Der Name des Clusterpools.
Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name>
konfigurieren.
Optionale Parameter
Die Gesamtanzahl der Elemente, die in der Ausgabe des Befehls zurückgegeben werden sollen. Wenn die Gesamtanzahl der verfügbaren Elemente größer als der angegebene Wert ist, wird ein Token in der Ausgabe des Befehls bereitgestellt. Um die Paginierung fortzusetzen, geben Sie den Tokenwert im --next-token
Argument eines nachfolgenden Befehls an.
Token, das angibt, wo die Paginierung beginnen soll. Dies ist der Tokenwert aus einer zuvor abgeschnittenen Antwort.
Globale Parameter
Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.
Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.
Nur Fehler anzeigen und Warnungen unterdrücken.
Ausgabeformat.
JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.
Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID
konfigurieren.
Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.
az hdinsight-on-aks cluster list-service-config
Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus
Auflisten des Konfigurationsabbilds aller Dienste, die im Cluster ausgeführt werden.
az hdinsight-on-aks cluster list-service-config --cluster-name
--cluster-pool-name
--resource-group
[--max-items]
[--next-token]
Beispiele
Listet das Konfigurationsabbild aller Dienste auf, die im Cluster ausgeführt werden.
az hdinsight-on-aks cluster list-service-config --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG}
Erforderliche Parameter
Der Name des HDInsight-Clusters.
Der Name des Clusterpools.
Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name>
konfigurieren.
Optionale Parameter
Die Gesamtanzahl der Elemente, die in der Ausgabe des Befehls zurückgegeben werden sollen. Wenn die Gesamtanzahl der verfügbaren Elemente größer als der angegebene Wert ist, wird ein Token in der Ausgabe des Befehls bereitgestellt. Um die Paginierung fortzusetzen, geben Sie den Tokenwert im --next-token
Argument eines nachfolgenden Befehls an.
Token, das angibt, wo die Paginierung beginnen soll. Dies ist der Tokenwert aus einer zuvor abgeschnittenen Antwort.
Globale Parameter
Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.
Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.
Nur Fehler anzeigen und Warnungen unterdrücken.
Ausgabeformat.
JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.
Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID
konfigurieren.
Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.
az hdinsight-on-aks cluster resize
Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus
Ändern Sie die Größe eines vorhandenen Clusters.
az hdinsight-on-aks cluster resize [--cluster-name]
[--cluster-pool-name]
[--ids]
[--location]
[--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
[--resource-group]
[--subscription]
[--tags]
[--target-worker-node-count]
Beispiele
Ändern sie die Größe eines Clusters.
az hdinsight-on-aks cluster resize --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG} -l {westus3} --target-worker-node-count {6}
Optionale Parameter
Der Name des HDInsight-Clusters.
Der Name des Clusterpools.
Eine oder mehrere Ressourcen-IDs (durch Leerzeichen getrennt). Dabei sollte es sich um eine vollständige Ressourcen-ID mit allen Informationen der „Ressource id“-Argumente handeln. Sie sollten entweder „--ids“ oder andere „Resource Id“-Argumente angeben.
Der geografische Standort, an dem sich die Ressource befindet, wenn nicht angegeben, wird der Standort der Ressourcengruppe verwendet.
Nicht auf den Abschluss lang andauernder Vorgänge warten
Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name>
konfigurieren.
Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID
konfigurieren.
Ressourcentags. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Zielknotenanzahl des Workerknotens.
Globale Parameter
Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.
Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.
Nur Fehler anzeigen und Warnungen unterdrücken.
Ausgabeformat.
JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.
Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID
konfigurieren.
Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.
az hdinsight-on-aks cluster show
Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus
Rufen Sie einen HDInsight-Cluster ab.
az hdinsight-on-aks cluster show [--cluster-name]
[--cluster-pool-name]
[--ids]
[--resource-group]
[--subscription]
Beispiele
Abrufen eines Clusters mit Clustername.
az hdinsight-on-aks cluster show -n {clusterName} --cluster-pool-name {poolName} -g {RG}
Optionale Parameter
Der Name des HDInsight-Clusters.
Der Name des Clusterpools.
Eine oder mehrere Ressourcen-IDs (durch Leerzeichen getrennt). Dabei sollte es sich um eine vollständige Ressourcen-ID mit allen Informationen der „Ressource id“-Argumente handeln. Sie sollten entweder „--ids“ oder andere „Resource Id“-Argumente angeben.
Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name>
konfigurieren.
Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID
konfigurieren.
Globale Parameter
Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.
Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.
Nur Fehler anzeigen und Warnungen unterdrücken.
Ausgabeformat.
JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.
Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID
konfigurieren.
Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.
az hdinsight-on-aks cluster update
Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus
Aktualisieren eines Clusters.
az hdinsight-on-aks cluster update [--add]
[--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--assigned-identity-client-id]
[--assigned-identity-id]
[--assigned-identity-object-id]
[--authorization-group-id]
[--authorization-user-id]
[--autoscale-profile-graceful-decommission-timeout]
[--autoscale-profile-type {LoadBased, ScheduleBased}]
[--availability-zones]
[--cluster-name]
[--cluster-pool-name]
[--cluster-version]
[--cooldown-period]
[--coord-debug-port]
[--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
[--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
[--deployment-mode {Application, Session}]
[--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
[--flink-db-auth-mode {IdentityAuth, SqlAuth}]
[--flink-hive-catalog-db-connection-password-secret]
[--flink-hive-catalog-db-connection-url]
[--flink-hive-catalog-db-connection-user-name]
[--flink-storage-key]
[--flink-storage-uri]
[--force-string {0, 1, f, false, n, no, t, true, y, yes}]
[--history-server-cpu]
[--history-server-memory]
[--identity-list]
[--ids]
[--job-manager-cpu]
[--job-manager-memory]
[--job-spec]
[--kafka-profile]
[--key-vault-id]
[--llap-profile]
[--loadbased-config-max-nodes]
[--loadbased-config-min-nodes]
[--loadbased-config-poll-interval]
[--loadbased-config-scaling-rules]
[--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
[--nodes]
[--num-replicas]
[--oss-version]
[--ranger-plugin-profile]
[--ranger-profile]
[--remove]
[--resource-group]
[--schedule-based-config-default-count]
[--schedule-based-config-schedule]
[--schedule-based-config-time-zone]
[--script-action-profiles]
[--secret-reference]
[--service-configs]
[--set]
[--spark-hive-catalog-db-name]
[--spark-hive-catalog-db-password-secret]
[--spark-hive-catalog-db-server-name]
[--spark-hive-catalog-db-user-name]
[--spark-hive-catalog-key-vault-id]
[--spark-hive-catalog-thrift-url]
[--spark-storage-url]
[--ssh-profile-count]
[--stub-profile]
[--subscription]
[--tags]
[--task-manager-cpu]
[--task-manager-memory]
[--trino-hive-catalog]
[--trino-plugins-spec]
[--trino-profile-user-plugins-telemetry-spec]
[--user-plugins-spec]
[--vm-size]
[--worker-debug-port]
[--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
Beispiele
Dient zum Aktualisieren einer Clusterdienstkonfiguration.
az hdinsight-on-aks cluster update -n {clusterName} --cluster-pool-name {poolName} -g {RG} -service-configs {"[{service-name:yarn-service,configs:[{component:hadoop-config-client,files:[{file-name:yarn-site.xml,values:{yarn.nodemanager.resource.memory-mb:33333}}]}]}]"}
Optionale Parameter
Fügen Sie einer Liste von Objekten ein Objekt hinzu, indem Sie ein Pfad- und Schlüsselwertpaar angeben. Beispiel: --add property.listProperty <key=value, string or JSON string>.
True, wenn der Anwendungsstandardfehler aktiviert ist, andernfalls "false".
True, wenn der Anwendungsstandard aktiviert ist, andernfalls "false".
ClientId der MSI-Datei.
ResourceId des MSI.
ObjectId des MSI.
AAD-Gruppen-IDs, die für den Zugriff auf die Datenebene autorisiert sind. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
AAD-Benutzer-IDs, die für den Zugriff auf die Datenebene autorisiert sind. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Diese Eigenschaft ist für einen ordnungsgemäßen Außerbetriebnahmetimeout vorgesehen. Sie hat eine Standardeinstellung von 3600 Sekunden, bevor das erzwungene Herunterfahren stattfindet. Dies ist die maximale Zeit, bis die Ausführung von Containern und Anwendungen abgeschlossen ist, bevor ein DECOMMISSIONING-Knoten in DECOMMISSIONED umgestellt wird. Der Standardwert ist 3.600 Sekunden. Negativer Wert (wie -1) wird als unendliches Timeout behandelt.
Der Benutzer gibt an, welche Art von Autoscale implementiert werden soll – "Geplant basierend" oder "Lastbasiert".
Die Liste der Verfügbarkeitszonen, die für AKS VMSS-Knoten verwendet werden sollen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Der Name des HDInsight-Clusters.
Der Name des Clusterpools.
Version mit 3/4-Teil.
Dies ist ein Abkühlzeitraum, dies ist ein Zeitraum in Sekunden, der die Zeitspanne bestimmt, die zwischen einer Skalierungsaktivität, die von einer Regel gestartet wurde, und dem Beginn der nächsten Skalierungsaktivität, unabhängig von der Regel, die sie auslöst, verstrichen sein muss. Der Standardwert beträgt 300 Sekunden.
Das Kennzeichen, das, wenn Debug aktiviert wird oder nicht. Standard: 8008.
Das Kennzeichen, das beim Anhalten des Debugs oder nicht. Standardwert: false.
Das Kennzeichen, das bei Aktivierung von Coordinator HA mehrere Koordinatorreplikate mit automatischem Failover verwendet, eine pro Kopfknoten. Standardwert: false.
Das Kennzeichen, das bei Aktivierung von Coordinator HA mehrere Koordinatorreplikate mit automatischem Failover verwendet, eine pro Kopfknoten. Standardwert: false.
Der Authentifizierungsmodus zum Herstellen einer Verbindung mit Ihrer Hive-Metaspeicherdatenbank. Weitere Details: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.
Eine Zeichenfolgeneigenschaft, die den Bereitstellungsmodus des Flink-Clusters angibt. Er kann einen der folgenden Enumerationswerte => Application, Session haben. Der Standardwert ist "Session".
Dies gibt an, ob die automatische Skalierung auf HDInsight im AKS-Cluster aktiviert ist.
True, wenn Metriken aktiviert sind, andernfalls "false".
True, wenn die Protokollanalyse für den Cluster aktiviert ist, andernfalls "false".
Aktivieren Sie Prometheus für Cluster oder nicht.
Die Kennzeichnung, die, wenn trino cluster debug aktiviert ist oder nicht. Standardwert: false.
Der Authentifizierungsmodus zum Herstellen einer Verbindung mit Ihrer Hive-Metaspeicherdatenbank. Weitere Details: https://learn.microsoft.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization.
Geheimer Verweisname von secretsProfile.secrets, der das Kennwort für die Datenbankverbindung enthält.
Verbindungszeichenfolge für die Strukturmetaspeicherdatenbank.
Benutzername für Datenbankverbindung.
Der Speicherschlüssel ist nur für Denb(n) Speicher erforderlich.
Speicherkonto-URI, der für den Speicherpunkt- und Prüfpunktstatus verwendet wird.
Wenn Sie "set" oder "add" verwenden, behalten Sie Zeichenfolgenliterale bei, anstatt zu versuchen, in JSON zu konvertieren.
Cpu-Anzahl des Verlaufsservers.
Größe des Verlaufsserverspeichers.
Die Liste der verwalteten Identitäten. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Eine oder mehrere Ressourcen-IDs (durch Leerzeichen getrennt). Dabei sollte es sich um eine vollständige Ressourcen-ID mit allen Informationen der „Ressource id“-Argumente handeln. Sie sollten entweder „--ids“ oder andere „Resource Id“-Argumente angeben.
Auftrags-Manager CPU-Anzahl.
Größe des Auftrags-Managers.
Auftragsspezifikationen für flink-Cluster im Anwendungsbereitstellungsmodus. Die Spezifikation ist unveränderlich, auch wenn Auftragseigenschaften durch Aufrufen der RunJob-API geändert werden, verwenden Sie bitte die ListJob-API, um die neuesten Auftragsinformationen abzurufen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Kafka-Clusterprofil. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Name des Benutzerschlüsseltresors, in dem alle clusterspezifischen Benutzerschlüssel gespeichert werden.
LLAP-Clusterprofil. Unterstützen Sie json-file und yaml-file.
Der Benutzer muss die maximale Anzahl von Knoten für die lastbasierte Skalierung festlegen. Die ladebasierte Skalierung verwendet diese Skalierung, um zwischen minimaler und maximaler Anzahl von Knoten nach oben und unten zu skalieren.
Der Benutzer muss die Mindestanzahl von Knoten für die lastbasierte Skalierung festlegen. Die ladebasierte Skalierung verwendet diese Skalierung, um zwischen minimaler und maximaler Anzahl von Knoten nach oben und unten zu skalieren.
Der Benutzer kann das Abrufintervall angeben. Dies ist der Zeitraum (in Sekunden), nach dem Skalierungsmetriken abgefragt werden, um einen Skalierungsvorgang auszulösen.
Die Skalierungsregeln. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Nicht auf den Abschluss lang andauernder Vorgänge warten
Die Knotendefinitionen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Die Anzahl der Aufgabenmanager.
Version mit drei Teilen.
Cluster Ranger-Plug-In-Profil. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Das Bereichsclusterprofil. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Entfernen sie eine Eigenschaft oder ein Element aus einer Liste. Beispiel: --remove property.list OR --remove propertyToRemove.
Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name>
konfigurieren.
Festlegen der Standardknotenanzahl der aktuellen Zeitplankonfiguration. Die Anzahl der Standardknoten gibt die Anzahl der Knoten an, die beim Ausführen eines angegebenen Skalierungsvorgangs (Skalierung nach oben/verkleinern) standard sind.
Dadurch werden die Zeitpläne angegeben, bei denen die geplante automatische Skalierung aktiviert werden soll. Der Benutzer hat die Wahl, mehrere Regeln innerhalb des Zeitplans über Tage und Zeiten (Start/Ende) festzulegen. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Der Benutzer muss die Zeitzone angeben, in der der Zeitplan für die konfiguration der automatischen Skalierung festgelegt werden muss.
Die Skriptaktionsprofilliste. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Eigenschaften des Schlüsseltresorschlüssels. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Die Dienstkonfigurationsprofile. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Aktualisieren Sie ein Objekt, indem Sie einen festzulegenden Eigenschaftspfad und -wert angeben. Beispiel: --set property1.property2=.
Der Datenbankname.
Der geheime Name, der das Kennwort des Datenbankbenutzers enthält.
Der Datenbankserverhost.
Der Datenbankbenutzername.
Die Schlüsseltresor-Ressourcen-ID.
Die Thrift-URL.
Die Standardspeicher-URL.
Anzahl der SSH-Pods pro Cluster.
Stubclusterprofil. Unterstützen Sie json-file und yaml-file.
Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID
konfigurieren.
Ressourcentags. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Cpu-Anzahl des Task-Managers.
Die Größe des Task-Managers.
Optionen für den Strukturkatalog. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Trino-Benutzer-Plug-Ins geben Unterstützung shorthand-Syntax, json-file und yaml-file. Probieren Sie "??" aus, um mehr anzuzeigen.
Trino-Benutzer-Telemetriespezifikation. Unterstützung von Shorthand-Syntax, JSON-Datei und Yaml-Datei. Probieren Sie "??" aus, um mehr anzuzeigen.
Spark-Benutzer-Plug-Ins geben Unterstützung shorthand-Syntax, json-file und yaml-file. Probieren Sie "??" aus, um mehr anzuzeigen.
Die SKU des virtuellen Computers.
Der Debugport. Standard: 8008.
Das Kennzeichen, das das Debuggen eines Trinoclusters angehalten hat oder nicht. Standardwert: false.
Globale Parameter
Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.
Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.
Nur Fehler anzeigen und Warnungen unterdrücken.
Ausgabeformat.
JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.
Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID
konfigurieren.
Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.
az hdinsight-on-aks cluster wait
Die Befehlsgruppe "az hdinsight-on-aks cluster" befindet sich in der Vorschau und in der Entwicklung. Referenz- und Supportebenen: https://aka.ms/CLI_refstatus
Platzieren Sie die CLI in einem Wartezustand, bis eine Bedingung erfüllt ist.
az hdinsight-on-aks cluster wait [--cluster-name]
[--cluster-pool-name]
[--created]
[--custom]
[--deleted]
[--exists]
[--ids]
[--interval]
[--resource-group]
[--subscription]
[--timeout]
[--updated]
Optionale Parameter
Der Name des HDInsight-Clusters.
Der Name des Clusterpools.
Warten Sie, bis sie mit 'provisioningState' unter 'Succeeded' erstellt wurde.
Warten Sie, bis die Bedingung eine benutzerdefinierte JMESPath-Abfrage erfüllt. Beispiel: provisioningState!='InProgress', instanceView.statuses[?code=='PowerState/running'].
Warten Sie, bis sie gelöscht wurde.
Warten Sie, bis die Ressource vorhanden ist.
Eine oder mehrere Ressourcen-IDs (durch Leerzeichen getrennt). Dabei sollte es sich um eine vollständige Ressourcen-ID mit allen Informationen der „Ressource id“-Argumente handeln. Sie sollten entweder „--ids“ oder andere „Resource Id“-Argumente angeben.
Abrufintervall in Sekunden.
Name der Ressourcengruppe Sie können die Standardgruppe mit az configure --defaults group=<name>
konfigurieren.
Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID
konfigurieren.
Maximale Wartezeit in Sekunden.
Warten Sie, bis sie mit provisioningState unter 'Succeeded' aktualisiert wurde.
Globale Parameter
Ausführlichkeit der Protokollierung erhöhen, um alle Debugprotokolle anzuzeigen.
Zeigen Sie diese Hilfemeldung an, und schließen Sie sie.
Nur Fehler anzeigen und Warnungen unterdrücken.
Ausgabeformat.
JMESPath-Abfragezeichenfolge. Weitere Informationen und Beispiele finden Sie unter http://jmespath.org/.
Der Name oder die ID des Abonnements. Sie können das standardmäßig verwendete Abonnement mittels az account set -s NAME_OR_ID
konfigurieren.
Ausführlichkeit der Protokollierung erhöhen. „--debug“ für vollständige Debugprotokolle verwenden.