Installera och använd CLI (v1)
GÄLLER FÖR: Azure CLI ml-tillägget v1
Viktigt!
Några av Azure CLI-kommandona i den här artikeln använder azure-cli-ml
tillägget , eller v1, för Azure Machine Learning. Stödet för v1-tillägget upphör den 30 september 2025. Du kommer att kunna installera och använda v1-tillägget fram till det datumet.
Vi rekommenderar att du övergår till ml
tillägget , eller v2, före den 30 september 2025. Mer information om v2-tillägget finns i Azure ML CLI-tillägget och Python SDK v2.
Azure Machine Learning CLI är ett tillägg till Azure CLI, ett plattformsoberoende kommandoradsgränssnitt för Azure-plattformen. Det här tillägget innehåller kommandon för att arbeta med Azure Machine Learning. Det gör att du kan automatisera dina maskininlärningsaktiviteter. Följande lista innehåller några exempelåtgärder som du kan göra med CLI-tillägget:
Köra experiment för att skapa maskininlärningsmodeller
Registrera maskininlärningsmodeller för kundanvändning
Paketera, distribuera och spåra livscykeln för dina maskininlärningsmodeller
CLI ersätter inte Azure Machine Learning SDK. Det är ett kompletterande verktyg som är optimerat för att hantera mycket parametriserade uppgifter som passar dem väl för automatisering.
Förutsättningar
Om du vill använda CLI måste du ha en Azure-prenumeration. Om du inte har någon Azure-prenumeration skapar du ett kostnadsfritt konto innan du börjar. Prova den kostnadsfria eller betalda versionen av Azure Machine Learning idag.
Om du vill använda CLI-kommandona i det här dokumentet från din lokala miljö behöver du Azure CLI.
Om du använder Azure Cloud Shell nås CLI via webbläsaren och finns i molnet.
Fullständiga referensdokument
Hitta de fullständiga referensdokumenten för azure-cli-ml-tillägget för Azure CLI.
Ansluta CLI till din Azure-prenumeration
Viktigt!
Om du använder Azure Cloud Shell kan du hoppa över det här avsnittet. Cloud Shell autentiserar dig automatiskt med det konto som du loggar in på din Azure-prenumeration.
Det finns flera sätt att autentisera till din Azure-prenumeration från CLI. Det mest grundläggande är att interaktivt autentisera med hjälp av en webbläsare. Om du vill autentisera interaktivt öppnar du en kommandorad eller terminal och använder följande kommando:
az login
Om CLI kan öppna din standardwebbläsare så sker det och en inloggningssida läses in. Annars måste du öppna en webbläsare och följa anvisningarna på kommandoraden. Anvisningarna omfattar att bläddra till https://aka.ms/devicelogin och ange en auktoriseringskod.
Dricks
När du har loggat in visas en lista över prenumerationer som är associerade med ditt Azure-konto. Prenumerationsinformationen med isDefault: true
är den för närvarande aktiverade prenumerationen för Azure CLI-kommandon. Den här prenumerationen måste vara samma som innehåller din Azure Machine Learning-arbetsyta. Du hittar prenumerationsinformationen på översiktssidan för din arbetsyta i Azure Portal.
Om du vill välja en annan prenumeration som ska användas för Azure CLI-kommandon kör az account set -s <subscription>
du kommandot och anger prenumerationsnamnet eller ID:t att växla till. Mer information om val av prenumeration finns i Använda flera Azure-prenumerationer.
Andra metoder för autentisering finns i Logga in med Azure CLI.
Installera tillägget
Så här installerar du CLI-tillägget (v1):
az extension add -n azure-cli-ml
Uppdatera tillägget
Om du vill uppdatera Machine Learning CLI-tillägget använder du följande kommando:
az extension update -n azure-cli-ml
Ta bort tillägget
Om du vill ta bort CLI-tillägget använder du följande kommando:
az extension remove -n azure-cli-ml
Resurshantering
Följande kommandon visar hur du använder CLI för att hantera resurser som används av Azure Machine Learning.
Om du inte redan har en skapar du en resursgrupp:
az group create -n myresourcegroup -l westus2
Skapa en Azure Machine Learning-arbetsyta:
az ml workspace create -w myworkspace -g myresourcegroup
Mer information finns i az ml workspace create.
Koppla en arbetsytekonfiguration till en mapp för att aktivera CLI-sammanhangsmedvetenhet.
az ml folder attach -w myworkspace -g myresourcegroup
Det här kommandot skapar en
.azureml
underkatalog som innehåller exempel på runconfig- och conda-miljöfiler. Den innehåller också enconfig.json
fil som används för att kommunicera med din Azure Machine Learning-arbetsyta.Mer information finns i az ml folder attach.
Bifoga en Azure-blobcontainer som ett datalager.
az ml datastore attach-blob -n datastorename -a accountname -c containername
Mer information finns i az ml datastore attach-blob.
Ladda upp filer till ett datalager.
az ml datastore upload -n datastorename -p sourcepath
Mer information finns i az ml datastore upload(Az ml datastore upload).
Koppla ett AKS-kluster som beräkningsmål.
az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
Mer information finns i az ml computetarget attach aks
Beräkningskluster
Skapa ett nytt hanterat beräkningskluster.
az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
Skapa ett nytt hanterat beräkningskluster med hanterad identitet
Användartilldelad hanterad identitet
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
Systemtilldelad hanterad identitet
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
Lägg till en hanterad identitet i ett befintligt kluster:
Användartilldelad hanterad identitet
az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
Systemtilldelad hanterad identitet
az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
Mer information finns i az ml computetarget create amlcompute.
Kommentar
Azure Machine Learning-beräkningskluster stöder endast en systemtilldelad identitet eller flera användartilldelade identiteter, inte båda samtidigt.
Beräkningsinstans
Hantera beräkningsinstanser. I alla exempel nedan är namnet på beräkningsinstansen cpu
Skapa en ny beräkningsinstans.
az ml computetarget create computeinstance -n cpu -s "STANDARD_D3_V2" -v
Mer information finns i az ml computetarget create computeinstance.
Stoppa en beräkningsintance.
az ml computetarget computeinstance stop -n cpu -v
Mer information finns i az ml computetarget computeinstance stop.
Starta en beräkningsintance.
az ml computetarget computeinstance start -n cpu -v
Mer information finns i az ml computetarget computeinstance start.
Starta om en beräkningsinstans.
az ml computetarget computeinstance restart -n cpu -v
Mer information finns i az ml computetarget computeinstance restart.
Ta bort en beräkningsintance.
az ml computetarget delete -n cpu -v
Mer information finns i az ml computetarget delete computeinstance.
Köra experiment
Starta en körning av experimentet. När du använder det här kommandot anger du namnet på runconfig-filen (texten före *.runconfig om du tittar på filsystemet) mot parametern -c.
az ml run submit-script -c sklearn -e testexperiment train.py
Dricks
Kommandot
az ml folder attach
skapar en.azureml
underkatalog som innehåller två exempel på runconfig-filer.Om du har ett Python-skript som skapar ett körningskonfigurationsobjekt programmatiskt kan du använda RunConfig.save() för att spara det som en runconfig-fil.
Det fullständiga runconfig-schemat finns i den här JSON-filen. Schemat självdokumenterar genom nyckeln för
description
varje objekt. Dessutom finns det uppräkningar för möjliga värden och ett mallfragment i slutet.Mer information finns i az ml run submit-script.
Visa en lista över experiment:
az ml experiment list
Mer information finns i az ml experiment list.
HyperDrive-körning
Du kan använda HyperDrive med Azure CLI för att utföra parameterjusteringskörningar. Skapa först en HyperDrive-konfigurationsfil i följande format. Mer information om hyperparameterjusteringsparametrar finns i artikeln Justera hyperparametrar för din modell .
# hdconfig.yml
sampling:
type: random # Supported options: Random, Grid, Bayesian
parameter_space: # specify a name|expression|values tuple for each parameter.
- name: --penalty # The name of a script parameter to generate values for.
expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy:
type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.
Lägg till den här filen tillsammans med körningskonfigurationsfilerna. Skicka sedan en HyperDrive-körning med hjälp av:
az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py
Observera argumentavsnittet i runconfig och parameterutrymmet i HyperDrive-konfigurationen. De innehåller de kommandoradsargument som ska skickas till träningsskriptet. Värdet i runconfig förblir detsamma för varje iteration, medan intervallet i HyperDrive-konfigurationen itereras över. Ange inte samma argument i båda filerna.
Datamängdshantering
Följande kommandon visar hur du arbetar med datauppsättningar i Azure Machine Learning:
Registrera en datauppsättning:
az ml dataset register -f mydataset.json
Om du vill ha information om formatet på JSON-filen som används för att definiera datamängden använder du
az ml dataset register --show-template
.Mer information finns i az ml dataset register.
Visa en lista över alla datauppsättningar på en arbetsyta:
az ml dataset list
Mer information finns i az ml dataset list.
Få information om en datauppsättning:
az ml dataset show -n dataset-name
Mer information finns i az ml dataset show.
Avregistrera en datauppsättning:
az ml dataset unregister -n dataset-name
Mer information finns i az ml dataset unregister.
Miljöhantering
Följande kommandon visar hur du skapar, registrerar och listar Azure Machine Learning-miljöer för din arbetsyta:
Skapa scaffolding-filer för en miljö:
az ml environment scaffold -n myenv -d myenvdirectory
Mer information finns i az ml environment scaffold.
Registrera en miljö:
az ml environment register -d myenvdirectory
Mer information finns i az ml environment register.
Lista registrerade miljöer:
az ml environment list
Mer information finns i az ml environment list (az ml environment list).
Ladda ned en registrerad miljö:
az ml environment download -n myenv -d downloaddirectory
Mer information finns i az ml environment download ( az ml environment download).
Schema för miljökonfiguration
Om du använde az ml environment scaffold
kommandot genereras en mallfil azureml_environment.json
som kan ändras och användas för att skapa anpassade miljökonfigurationer med CLI. Det översta objektet mappar löst till Environment
klassen i Python SDK.
{
"name": "testenv",
"version": null,
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"python": {
"userManagedDependencies": false,
"interpreterPath": "python",
"condaDependenciesFile": null,
"baseCondaEnvironment": null
},
"docker": {
"enabled": false,
"baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
"baseDockerfile": null,
"sharedVolumes": true,
"shmSize": "2g",
"arguments": [],
"baseImageRegistry": {
"address": null,
"username": null,
"password": null
}
},
"spark": {
"repositories": [],
"packages": [],
"precachePackages": true
},
"databricks": {
"mavenLibraries": [],
"pypiLibraries": [],
"rcranLibraries": [],
"jarLibraries": [],
"eggLibraries": []
},
"inferencingStackVersion": null
}
I följande tabell beskrivs varje fält på den översta nivån i JSON-filen, dess typ och en beskrivning. Om en objekttyp är länkad till en klass från Python SDK finns det en lös 1:1-matchning mellan varje JSON-fält och det offentliga variabelnamnet i Python-klassen. I vissa fall kan fältet mappas till ett konstruktorargument i stället för en klassvariabel. Fältet mappar till exempel environmentVariables
variabeln environment_variables
i Environment
klassen.
JSON-fält | Typ | Beskrivning |
---|---|---|
name |
string |
Namnet på miljön. Starta inte namnet med Microsoft eller AzureML. |
version |
string |
Version av miljön. |
environmentVariables |
{string: string} |
En hash-karta över miljövariabelnamn och värden. |
python |
PythonSection hat definierar Python-miljön och tolken som ska användas på målberäkningsresursen. |
|
docker |
DockerSection |
Definierar inställningar för att anpassa Docker-avbildningen som skapats enligt miljöns specifikationer. |
spark |
SparkSection |
Avsnittet konfigurerar Spark-inställningar. Det används bara när ramverket är inställt på PySpark. |
databricks |
DatabricksSection |
Konfigurerar Beroenden för Databricks-bibliotek. |
inferencingStackVersion |
string |
Anger den version av inferensstacken som lagts till i avbildningen. Lämna det här fältet null för att undvika att lägga till en slutsatsdragningsstack. Giltigt värde: "senaste". |
HANTERING av ML-pipeline
Följande kommandon visar hur du arbetar med maskininlärningspipelines:
Skapa en maskininlärningspipeline:
az ml pipeline create -n mypipeline -y mypipeline.yml
Mer information finns i az ml pipeline create.
Mer information om YAML-pipelinefilen finns i Definiera maskininlärningspipelines i YAML.
Kör en pipeline:
az ml run submit-pipeline -n myexperiment -y mypipeline.yml
Mer information finns i az ml run submit-pipeline( az ml run submit-pipeline).
Mer information om YAML-pipelinefilen finns i Definiera maskininlärningspipelines i YAML.
Schemalägg en pipeline:
az ml pipeline create-schedule -n myschedule -e myexperiment -i mypipelineid -y myschedule.yml
Mer information finns i az ml pipeline create-schedule.
Modellregistrering, profilering, distribution
Följande kommandon visar hur du registrerar en tränad modell och sedan distribuerar den som en produktionstjänst:
Registrera en modell med Azure Machine Learning:
az ml model register -n mymodel -p sklearn_regression_model.pkl
Mer information finns i az ml model register.
VALFRITT Profilera din modell för att få optimala CPU- och minnesvärden för distribution.
az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
Mer information finns i az ml model profile ( az ml model profile).
Distribuera din modell till AKS
az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
Mer information om filschemat för slutsatsdragningskonfiguration finns i Schema för inferenskonfiguration.
Mer information om distributionskonfigurationsfilschemat finns i Konfigurationsschema för distribution.
Mer information finns i az ml model deploy ( az ml model deploy).
Konfigurationsschema för slutsatsdragning
Posterna i inferenceconfig.json
dokumentet mappas till parametrarna för klassen InferenceConfig . I följande tabell beskrivs mappningen mellan entiteter i JSON-dokumentet och parametrarna för metoden:
Du kan inkludera fullständiga specifikationer för en Azure Machine Learning-miljö i inferenskonfigurationsfilen. Om den här miljön inte finns på din arbetsyta skapar Azure Machine Learning den. Annars uppdaterar Azure Machine Learning miljön om det behövs. Följande JSON är ett exempel:
{
"entryScript": "score.py",
"environment": {
"docker": {
"arguments": [],
"baseDockerfile": null,
"baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
"enabled": false,
"sharedVolumes": true,
"shmSize": null
},
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"name": "my-deploy-env",
"python": {
"baseCondaEnvironment": null,
"condaDependencies": {
"channels": [
"conda-forge"
],
"dependencies": [
"python=3.7",
{
"pip": [
"azureml-defaults",
"azureml-telemetry",
"scikit-learn==0.22.1",
"inference-schema[numpy-support]"
]
}
],
"name": "project_environment"
},
"condaDependenciesFile": null,
"interpreterPath": "python",
"userManagedDependencies": false
},
"version": "1"
}
}
Du kan också använda en befintlig Azure Machine Learning-miljö i avgränsade CLI-parametrar och ta bort "miljönyckeln" från inferenskonfigurationsfilen. Använd -e för miljönamnet och --ev för miljöversionen. Om du inte anger --ev används den senaste versionen. Här är ett exempel på en inferenskonfigurationsfil:
{
"entryScript": "score.py",
"sourceDirectory": null
}
Följande kommando visar hur du distribuerar en modell med hjälp av den tidigare inferenskonfigurationsfilen (med namnet myInferenceConfig.json).
Den använder också den senaste versionen av en befintlig Azure Machine Learning-miljö (med namnet AzureML-Minimal).
az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json
Konfigurationsschema för distribution
Konfigurationsschema för lokal distribution
Posterna i deploymentconfig.json
dokumentet mappas till parametrarna för LocalWebservice.deploy_configuration. I följande tabell beskrivs mappningen mellan entiteterna i JSON-dokumentet och parametrarna för metoden:
JSON-entitet | Metodparameter | beskrivning |
---|---|---|
computeType |
NA | Beräkningsmålet. För lokala mål måste värdet vara local . |
port |
port |
Den lokala port där tjänstens HTTP-slutpunkt ska exponeras. |
Den här JSON är ett exempel på distributionskonfiguration för användning med CLI:
{
"computeType": "local",
"port": 32267
}
Spara den här JSON-filen som heter deploymentconfig.json
.
Konfigurationsschema för Azure Container Instance-distribution
Posterna i deploymentconfig.json
dokumentet mappas till parametrarna för AciWebservice.deploy_configuration. I följande tabell beskrivs mappningen mellan entiteterna i JSON-dokumentet och parametrarna för metoden:
JSON-entitet | Metodparameter | beskrivning |
---|---|---|
computeType |
NA | Beräkningsmålet. För ACI måste värdet vara ACI . |
containerResourceRequirements |
NA | Container för cpu- och minnesentiteterna. |
cpu |
cpu_cores |
Antalet CPU-kärnor som ska allokeras. Standardvärden 0.1 |
memoryInGB |
memory_gb |
Mängden minne (i GB) som ska allokeras för den här webbtjänsten. Standard 0.5 |
location |
location |
Den Azure-region som den här webbtjänsten ska distribueras till. Om den inte anges används arbetsytans plats. Mer information om tillgängliga regioner finns här: ACI-regioner |
authEnabled |
auth_enabled |
Om du vill aktivera autentisering för den här webbtjänsten. Standardvärdet är False |
sslEnabled |
ssl_enabled |
Om du vill aktivera SSL för den här webbtjänsten. Standardvärdet är Falskt. |
appInsightsEnabled |
enable_app_insights |
Om du vill aktivera AppInsights för den här webbtjänsten. Standardvärdet är False |
sslCertificate |
ssl_cert_pem_file |
Certifikatfilen som behövs om SSL är aktiverat |
sslKey |
ssl_key_pem_file |
Nyckelfilen som behövs om SSL är aktiverat |
cname |
ssl_cname |
Cname för om SSL är aktiverat |
dnsNameLabel |
dns_name_label |
Dns-namnetiketten för bedömningsslutpunkten. Om den inte anges genereras en unik dns-namnetikett för bedömningsslutpunkten. |
Följande JSON är ett exempel på distributionskonfiguration för användning med CLI:
{
"computeType": "aci",
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
},
"authEnabled": true,
"sslEnabled": false,
"appInsightsEnabled": false
}
Konfigurationsschema för Azure Kubernetes Service-distribution
Posterna i deploymentconfig.json
dokumentet mappas till parametrarna för AksWebservice.deploy_configuration. I följande tabell beskrivs mappningen mellan entiteterna i JSON-dokumentet och parametrarna för metoden:
JSON-entitet | Metodparameter | beskrivning |
---|---|---|
computeType |
NA | Beräkningsmålet. För AKS måste värdet vara aks . |
autoScaler |
NA | Innehåller konfigurationselement för autoskalning. Se autoskalningstabellen. |
autoscaleEnabled |
autoscale_enabled |
Om du vill aktivera automatisk skalning för webbtjänsten. Om numReplicas = 0 , True ; annars . False |
minReplicas |
autoscale_min_replicas |
Det minsta antalet containrar som ska användas vid automatisk skalning av den här webbtjänsten. Standard, 1 . |
maxReplicas |
autoscale_max_replicas |
Det maximala antalet containrar som ska användas vid automatisk skalning av den här webbtjänsten. Standard, 10 . |
refreshPeriodInSeconds |
autoscale_refresh_seconds |
Hur ofta autoskalningstjänsten försöker skala den här webbtjänsten. Standard, 1 . |
targetUtilization |
autoscale_target_utilization |
Den målanvändning (i procent av 100) som autoskalningen ska försöka underhålla för den här webbtjänsten. Standard, 70 . |
dataCollection |
NA | Innehåller konfigurationselement för datainsamling. |
storageEnabled |
collect_model_data |
Om du vill aktivera modelldatainsamling för webbtjänsten. Standard, False . |
authEnabled |
auth_enabled |
Om du vill aktivera nyckelautentisering för webbtjänsten eller inte. Både tokenAuthEnabled och authEnabled kan inte vara True . Standard, True . |
tokenAuthEnabled |
token_auth_enabled |
Om du vill aktivera tokenautentisering för webbtjänsten eller inte. Både tokenAuthEnabled och authEnabled kan inte vara True . Standard, False . |
containerResourceRequirements |
NA | Container för cpu- och minnesentiteterna. |
cpu |
cpu_cores |
Antalet CPU-kärnor som ska allokeras för den här webbtjänsten. Standardvärden 0.1 |
memoryInGB |
memory_gb |
Mängden minne (i GB) som ska allokeras för den här webbtjänsten. Standard 0.5 |
appInsightsEnabled |
enable_app_insights |
Om du vill aktivera Application Insights-loggning för webbtjänsten. Standard, False . |
scoringTimeoutMs |
scoring_timeout_ms |
En timeout för att framtvinga för bedömning av anrop till webbtjänsten. Standard, 60000 . |
maxConcurrentRequestsPerContainer |
replica_max_concurrent_requests |
Maximalt antal samtidiga begäranden per nod för den här webbtjänsten. Standard, 1 . |
maxQueueWaitMs |
max_request_wait_time |
Den maximala tid som en begäran stannar i kön (i millisekunder) innan ett 503-fel returneras. Standard, 500 . |
numReplicas |
num_replicas |
Antalet containrar som ska allokeras för den här webbtjänsten. Inget standardvärde. Om den här parametern inte har angetts aktiveras autoskalningsfunktionen som standard. |
keys |
NA | Innehåller konfigurationselement för nycklar. |
primaryKey |
primary_key |
En primär autentiseringsnyckel som ska användas för den här webbtjänsten |
secondaryKey |
secondary_key |
En sekundär autentiseringsnyckel som ska användas för den här webbtjänsten |
gpuCores |
gpu_cores |
Antalet GPU-kärnor (per containerreplik) som ska allokeras för den här webbtjänsten. Standard är 1. Stöder endast heltalsvärden. |
livenessProbeRequirements |
NA | Innehåller konfigurationselement för krav på liveness-avsökning. |
periodSeconds |
period_seconds |
Hur ofta (i sekunder) du utför liveness-avsökningen. Standardvärdet är 10 sekunder. Minimivärdet är 1. |
initialDelaySeconds |
initial_delay_seconds |
Antal sekunder efter att containern har startats innan liveness-avsökningar initieras. Standardvärdet är 310 |
timeoutSeconds |
timeout_seconds |
Antal sekunder efter vilken livenessavsökningen överskrider tidsgränsen. Standardvärdet är 2 sekunder. Minsta värde är 1 |
successThreshold |
success_threshold |
Minsta lyckade resultat i följd för att liveness-avsökningen ska anses vara lyckad efter att ha misslyckats. Standardvärdet är 1. Minimivärdet är 1. |
failureThreshold |
failure_threshold |
När en podd startar och liveness-avsökningen misslyckas kommer Kubernetes att försöka felDå gånger innan de ger upp. Standardvärdet är 3. Minimivärdet är 1. |
namespace |
namespace |
Kubernetes-namnområdet som webbtjänsten distribueras till. Upp till 63 alfanumeriska gemener ('a'-'z', '0'-'9') och bindestreck ('-') tecken. De första och sista tecknen får inte vara bindestreck. |
Följande JSON är ett exempel på distributionskonfiguration för användning med CLI:
{
"computeType": "aks",
"autoScaler":
{
"autoscaleEnabled": true,
"minReplicas": 1,
"maxReplicas": 3,
"refreshPeriodInSeconds": 1,
"targetUtilization": 70
},
"dataCollection":
{
"storageEnabled": true
},
"authEnabled": true,
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
}
}