CLI 설치 및 사용(v1)
적용 대상: Azure CLI ml extension v1
Important
이 문서의 일부 Azure CLI 명령에서는 azure-cli-ml
또는 v1(Azure Machine Learning용 확장)을 사용합니다. v1 확장에 대한 지원은 2025년 9월 30일에 종료됩니다. v1 확장은 이 날짜까지 설치하고 사용할 수 있습니다.
2025년 9월 30일 이전에 ml
또는 v2 확장으로 전환하는 것이 좋습니다. v2 확장에 대한 자세한 내용은 Azure ML CLI 확장 및 Python SDK v2를 참조하세요.
Azure Machine Learning CLI는 Azure 플랫폼용 플랫폼 간 명령줄 인터페이스인 Azure CLI에 대한 확장입니다. 이 확장은 Azure Machine Learning을 사용하기 위한 명령을 제공합니다. 이를 통해 기계 학습 활동을 자동화할 수 있습니다. 다음 목록에서는 CLI 확장을 사용하여 수행할 수 있는 몇 가지 예제 작업을 제공합니다.
실험을 실행하여 기계 학습 모델 만들기
고객 사용을 위한 기계 학습 모델 등록
기계 학습 모델 패키징, 배포 및 수명 주기 추적
CLI는 Azure Machine Learning SDK를 대체하는 것이 아닙니다. 자동화에 적합한 매개 변수가 많은 작업을 처리하는 데 최적화된 보완 도구입니다.
필수 조건
CLI를 사용하려면 Azure 구독이 있어야 합니다. Azure 구독이 없는 경우 시작하기 전에 체험 계정을 만듭니다. 지금 Azure Machine Learning 평가판 또는 유료 버전을 사용해 보세요.
로컬 환경에서 이 문서의 CLI 명령을 사용하려면 Azure CLI가 필요합니다.
Azure Cloud Shell을 사용하는 경우 CLI는 브라우저를 통해 액세스하고 클라우드에 있습니다.
전체 참조 문서
Azure CLI의 azure-cli-ml 확장에 대한 전체 참조 문서를 찾습니다.
Azure 구독에 CLI 연결
Important
Azure Cloud Shell을 사용하는 경우 이 섹션을 건너뛸 수 있습니다. Cloud Shell은 Azure 구독에 로그인하는 계정을 사용하여 사용자를 자동으로 인증합니다.
CLI에서 Azure 구독에 인증하는 방법에는 여러 가지가 있습니다. 가장 기본적인 방법은 브라우저를 사용하여 대화형으로 인증하는 것입니다. 대화형으로 인증하려면 명령줄 또는 터미널을 열고 다음 명령을 사용합니다.
az login
CLI가 기본 브라우저를 열 수 있는 경우, 그렇게 하고 로그인 페이지를 로드합니다. CLI가 브라우저를 열 수 없는 경우에는 사용자가 브라우저를 열고 명령줄의 지침을 따릅니다. 지침에 따라 https://aka.ms/devicelogin으로 이동하고 인증 코드를 입력합니다.
팁
로그인하면 Azure 계정과 연결된 구독 목록이 표시됩니다. isDefault: true
가 있는 구독 정보는 Azure CLI 명령에 대해 현재 활성화된 구독입니다. 이 구독은 Azure Machine Learning 작업 영역을 포함하는 구독과 동일해야 합니다. Azure Portal의 작업 영역 개요 페이지에서 구독 정보를 찾을 수 있습니다.
Azure CLI 명령에 사용할 다른 구독을 선택하려면 az account set -s <subscription>
명령을 실행하고 전환할 구독 이름 또는 ID를 지정합니다. 구독 선택에 대한 자세한 내용은 여러 Azure 구독 사용을 참조하세요.
다른 인증 방법은 Azure CLI로 로그인을 참조하세요.
익스텐션 설치
CLI(v1) 확장을 설치하려면:
az extension add -n azure-cli-ml
확장 업데이트
Machine Learning CLI 확장을 업데이트하려면 다음 명령을 사용합니다.
az extension update -n azure-cli-ml
확장 제거
CLI 확장을 제거하려면 다음 명령을 사용합니다.
az extension remove -n azure-cli-ml
리소스 관리
다음 명령은 CLI를 사용하여 Azure Machine Learning에서 사용하는 리소스를 관리하는 방법을 보여 줍니다.
아직 없는 경우 리소스 그룹을 만듭니다.
az group create -n myresourcegroup -l westus2
Azure Machine Learning 작업 영역을 만듭니다.
az ml workspace create -w myworkspace -g myresourcegroup
자세한 내용은 az ml workspace create를 참조 하세요.
CLI 컨텍스트 인식을 사용하도록 폴더에 작업 영역 구성을 연결합니다.
az ml folder attach -w myworkspace -g myresourcegroup
이 명령은 예제 runconfig 및 conda 환경 파일을 포함하는
.azureml
하위 디렉터리를 만듭니다. 또한 Azure Machine Learning 작업 영역과 통신하는 데 사용되는config.json
파일을 포함합니다.자세한 내용은 az ml folder attach를 참조하세요.
Azure Blob 컨테이너를 데이터 저장소로 연결합니다.
az ml datastore attach-blob -n datastorename -a accountname -c containername
자세한 내용은 az ml datastore attach-blob을 참조하세요.
데이터 저장소에 파일을 업로드합니다.
az ml datastore upload -n datastorename -p sourcepath
자세한 내용은 az ml datastore upload를 참조하세요.
AKS 클러스터를 컴퓨팅 대상으로 연결합니다.
az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
자세한 내용은 az ml computetarget attach aks를 참조 하세요.
컴퓨팅 클러스터
새 관리형 컴퓨팅 클러스터를 만듭니다.
az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
관리 ID를 사용하여 새 관리형 컴퓨팅 클러스터 만들기
사용자 할당 관리 ID
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
시스템 할당 관리 ID
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
기존 클러스터에 관리 ID를 추가:
사용자 할당 관리 ID
az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
시스템 할당 관리 ID
az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
자세한 내용은 az ml computetarget create amlcompute를 참조 하세요.
참고 항목
Azure Machine Learning 컴퓨팅 클러스터는 하나의 시스템 할당 ID 또는 여러 사용자 할당 ID(둘 다를 동시에 지원하지 않음)만 지원합니다.
컴퓨팅 인스턴스
컴퓨팅 인스턴스를 관리합니다. 아래의 모든 예제에서 컴퓨팅 인스턴스의 이름은 cpu입니다 .
새 컴퓨팅을 만듭니다.
az ml computetarget create computeinstance -n cpu -s "STANDARD_D3_V2" -v
자세한 내용은 az ml computetarget create computeinstance를 참조 하세요.
컴퓨팅을 중지합니다.
az ml computetarget computeinstance stop -n cpu -v
컴퓨팅 인스턴스를 시작합니다.
az ml computetarget computeinstance start -n cpu -v
자세한 내용은 az ml computetarget computeinstance start를 참조하세요.
컴퓨팅 인스턴스를 다시 시작합니다.
az ml computetarget computeinstance restart -n cpu -v
자세한 내용은 az ml computetarget computeinstance restart를 참조 하세요.
컴퓨팅 인스턴스를 삭제합니다.
az ml computetarget delete -n cpu -v
실험 실행
실험 실행을 시작합니다. 이 명령을 사용하는 경우 -c 매개 변수에 대해 runconfig 파일의 이름(파일 시스템을 보고 있는 경우 *.runconfig 앞의 텍스트)을 지정합니다.
az ml run submit-script -c sklearn -e testexperiment train.py
팁
이
az ml folder attach
명령은 두 개의 예제 runconfig 파일을 포함하는 하위 디렉터리를 만듭니다.azureml
.실행 구성 개체를 프로그래밍 방식으로 만드는 Python 스크립트가 있는 경우 RunConfig.save()를 사용하여 runconfig 파일로 저장합니다.
전체 runconfig 스키마는 이 JSON 파일에서 찾을 수 있습니다. 스키마는 각 개체의
description
키를 통해 자체 문서화됩니다. 또한 가능한 값에 대한 열거형과 끝에 템플릿 코드 조각이 있습니다.자세한 내용은 az ml run submit-script를 참조하세요.
실험 목록을 봅니다.
az ml experiment list
자세한 내용은 az ml experiment list를 참조하세요.
HyperDrive 실행
Azure CLI에서 HyperDrive를 사용하여 매개 변수 튜닝 실행을 수행할 수 있습니다. 먼저 다음 형식으로 HyperDrive 구성 파일을 만듭니다. 하이퍼 매개 변수 튜닝 매개 변수에 대한 자세한 내용은 모델 문서에 대한 하이퍼 매개 변수 조정을 참조하세요.
# hdconfig.yml
sampling:
type: random # Supported options: Random, Grid, Bayesian
parameter_space: # specify a name|expression|values tuple for each parameter.
- name: --penalty # The name of a script parameter to generate values for.
expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy:
type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.
실행 구성 파일과 함께 이 파일을 추가합니다. 그런 다음 다음을 사용하여 HyperDrive 실행을 제출합니다.
az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py
HyperDrive 구성의 runconfig 및 매개 변수 공간의 인수 섹션을 확인합니다. 학습 스크립트에 전달할 명령줄 인수를 포함합니다. Runconfig의 값은 반복할 때마다 동일하게 유지되지만 HyperDrive 구성의 범위는 반복됩니다. 두 파일에서 모두 같은 인수를 지정하지 마세요.
데이터 세트 관리
다음 명령은 Azure Machine Learning에서 데이터 세트를 사용하는 방법을 보여 줍니다.
데이터 세트를 등록합니다.
az ml dataset register -f mydataset.json
데이터 세트를 정의하는 데 사용되는 JSON 파일의 형식에 대한 자세한 내용은 다음을 사용합니다
az ml dataset register --show-template
.자세한 내용은 az ml 데이터 세트 레지스터를 참조하세요.
작업 영역의 모든 데이터 세트를 나열합니다.
az ml dataset list
자세한 내용은 az ml dataset list를 참조하세요.
데이터 세트의 세부 정보를 가져옵니다.
az ml dataset show -n dataset-name
자세한 내용은 az ml dataset show를 참조 하세요.
데이터 세트 등록 취소:
az ml dataset unregister -n dataset-name
자세한 내용은 az ml dataset unregister를 참조하세요.
환경 관리
다음 명령은 작업 영역에 대한 Azure Machine Learning 환경을 만들고 등록하고 나열하는 방법을 보여 줍니다 .
환경의 스캐폴딩 파일을 만듭니다.
az ml environment scaffold -n myenv -d myenvdirectory
자세한 내용은 az ml environment 스캐폴드를 참조 하세요.
환경을 등록합니다.
az ml environment register -d myenvdirectory
자세한 내용은 az ml environment register를 참조하세요.
등록된 환경을 나열합니다.
az ml environment list
자세한 내용은 az ml environment list를 참조 하세요.
등록된 환경을 다운로드합니다.
az ml environment download -n myenv -d downloaddirectory
자세한 내용은 az ml environment download를 참조 하세요.
환경 구성 스키마
명령을 사용한 경우 CLI를 사용하여 az ml environment scaffold
사용자 지정 환경 구성을 만드는 데 수정하고 사용할 수 있는 템플릿 azureml_environment.json
파일을 생성합니다. 최상위 개체는 Python SDK의 Environment
클래스에 느슨하게 매핑됩니다.
{
"name": "testenv",
"version": null,
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"python": {
"userManagedDependencies": false,
"interpreterPath": "python",
"condaDependenciesFile": null,
"baseCondaEnvironment": null
},
"docker": {
"enabled": false,
"baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
"baseDockerfile": null,
"sharedVolumes": true,
"shmSize": "2g",
"arguments": [],
"baseImageRegistry": {
"address": null,
"username": null,
"password": null
}
},
"spark": {
"repositories": [],
"packages": [],
"precachePackages": true
},
"databricks": {
"mavenLibraries": [],
"pypiLibraries": [],
"rcranLibraries": [],
"jarLibraries": [],
"eggLibraries": []
},
"inferencingStackVersion": null
}
다음 표에는 JSON 파일의 각 최상위 필드, 해당 형식 및 설명이 자세히 나와 있습니다. 개체 형식이 Python SDK의 클래스에 연결된 경우에는 각 JSON 필드와 Python 클래스의 퍼블릭 변수 이름 간에 느슨한 1:1 일치가 있습니다. 경우에 따라 필드는 클래스 변수가 아니라 생성자 인수에 매핑될 수 있습니다. 예를 들어 environmentVariables
필드는 Environment
클래스의 environment_variables
변수에 매핑됩니다.
JSON 필드 | Type | 설명 |
---|---|---|
name |
string |
환경의 이름입니다. 이름은 Microsoft 또는 AzureML로 시작하면 안 됩니다. |
version |
string |
환경의 버전입니다. |
environmentVariables |
{string: string} |
환경 변수 이름 및 값의 해시 맵입니다. |
python |
PythonSection hat은 대상 컴퓨팅 리소스에 사용할 Python 환경 및 인터프리터를 정의합니다. |
|
docker |
DockerSection |
환경 사양에 맞게 빌드된 Docker 이미지를 사용자 지정하는 설정을 정의합니다. |
spark |
SparkSection |
이 섹션에서는 Spark 설정을 구성합니다. 프레임워크가 PySpark로 설정된 경우에만 사용됩니다. |
databricks |
DatabricksSection |
Databricks 라이브러리 종속성을 구성합니다. |
inferencingStackVersion |
string |
이미지에 추가된 추론 스택 버전을 지정합니다. 추론 스택을 추가하지 않도록 하려면 이 필드를 null 그대로 둡니다. 유효한 값: “latest”. |
ML 파이프라인 관리
다음 명령은 기계 학습 파이프라인을 사용하는 방법을 보여 줍니다.
기계 학습 파이프라인을 만듭니다.
az ml pipeline create -n mypipeline -y mypipeline.yml
자세한 내용은 az ml pipeline create를 참조 하세요.
파이프라인 YAML 파일에 관한 자세한 내용은 YAML의 기계 학습 파이프라인 정의를 참조하세요.
파이프라인 실행:
az ml run submit-pipeline -n myexperiment -y mypipeline.yml
자세한 내용은 az ml run submit-pipeline을 참조하세요.
파이프라인 YAML 파일에 관한 자세한 내용은 YAML의 기계 학습 파이프라인 정의를 참조하세요.
파이프라인 예약:
az ml pipeline create-schedule -n myschedule -e myexperiment -i mypipelineid -y myschedule.yml
자세한 내용은 az ml pipeline create-schedule을 참조하세요.
모델 등록, 프로파일링, 배포
다음 명령은 학습된 모델을 등록한 다음 프로덕션 서비스로 배포하는 방법을 보여 줍니다.
Azure Machine Learning에 모델 등록:
az ml model register -n mymodel -p sklearn_regression_model.pkl
자세한 내용은 az ml model register를 참조하세요.
선택적 모델을 프로파일하여 배포에 대한 최적의 CPU 및 메모리 값을 가져옵니다.
az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
자세한 내용은 az ml model profile을 참조하세요.
AKS에 모델 배포
az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
유추 구성 파일 스키마에 대한 자세한 내용은 유추 구성 스키마를 참조 하세요.
배포 구성 파일 스키마에 대한 자세한 내용은 배포 구성 스키마를 참조 하세요.
자세한 내용은 az ml model deploy를 참조하세요.
유추 구성 스키마
문서의 항목 inferenceconfig.json
은 InferenceConfig 클래스의 매개 변수에 매핑됩니다. 다음 표에서는 JSON 문서의 엔터티 및 메서드에 대한 매개 변수 간의 매핑에 대해 설명합니다.
JSON 엔터티 | 메서드 매개 변수 | 설명 |
---|---|---|
entryScript |
entry_script |
이미지에 대해 실행할 코드가 포함된 로컬 파일의 경로입니다. |
sourceDirectory |
source_directory |
선택 사항. 이미지를 만들 모든 파일이 포함된 폴더의 경로로, 이 폴더 또는 하위 폴더 내의 모든 파일에 쉽게 액세스할 수 있습니다. 로컬 컴퓨터에서 전체 폴더를 웹 서비스에 대한 종속성으로 업로드할 수 있습니다. 참고: entry_script, conda_file 및 extra_docker_file_steps 경로는 source_directory 경로에 대한 상대 경로입니다. |
environment |
environment |
선택 사항. Azure Machine Learning 환경. |
유추 구성 파일에 Azure Machine Learning 환경 의 전체 사양을 포함할 수 있습니다. 이 환경이 작업 영역에 없는 경우 Azure Machine Learning에서 해당 환경을 만듭니다. 그렇지 않으면 필요한 경우 Azure Machine Learning에서 환경을 업데이트합니다. 다음 JSON은 예제입니다.
{
"entryScript": "score.py",
"environment": {
"docker": {
"arguments": [],
"baseDockerfile": null,
"baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
"enabled": false,
"sharedVolumes": true,
"shmSize": null
},
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"name": "my-deploy-env",
"python": {
"baseCondaEnvironment": null,
"condaDependencies": {
"channels": [
"conda-forge"
],
"dependencies": [
"python=3.7",
{
"pip": [
"azureml-defaults",
"azureml-telemetry",
"scikit-learn==0.22.1",
"inference-schema[numpy-support]"
]
}
],
"name": "project_environment"
},
"condaDependenciesFile": null,
"interpreterPath": "python",
"userManagedDependencies": false
},
"version": "1"
}
}
또한 분리된 CLI 매개 변수에서 기존 Azure Machine Learning 환경을 사용하고 유추 구성 파일에서 "환경" 키를 제거할 수도 있습니다. 환경 이름에 -e를 사용하고 환경 버전에 --ev를 사용합니다. --ev를 지정하지 않으면 최신 버전이 사용됩니다. 유추 구성 파일의 예는 다음과 같습니다.
{
"entryScript": "score.py",
"sourceDirectory": null
}
다음 명령은 이전 유추 구성 파일(myInferenceConfig.json)을 사용하여 모델을 배포하는 방법을 보여 줍니다.
또한 기존 Azure Machine Learning 환경(AzureML-Minimal)의 최신 버전을 사용합니다.
az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json
배포 구성 스키마
로컬 배포 구성 스키마
deploymentconfig.json
문서의 항목은 LocalWebservice.deploy_configuration에 대한 매개 변수에 매핑됩니다. 다음 표에서는 JSON 문서의 엔터티 및 메서드에 대한 매개 변수 간의 매핑에 대해 설명합니다.
JSON 엔터티 | 메서드 매개 변수 | 설명 |
---|---|---|
computeType |
해당 없음 | 컴퓨팅 대상. 로컬 대상의 경우 값은 local 이어야 합니다. |
port |
port |
서비스의 HTTP 엔드포인트를 노출할 로컬 포트입니다. |
이 JSON은 CLI에서 사용할 수 있는 배포 구성의 예제입니다.
{
"computeType": "local",
"port": 32267
}
이 JSON을 deploymentconfig.json
파일로 저장합니다.
Azure Container Instance 배포 구성 스키마
deploymentconfig.json
문서의 항목은 AciWebservice.deploy_configuration에 대한 매개 변수에 매핑됩니다. 다음 표에서는 JSON 문서의 엔터티 및 메서드에 대한 매개 변수 간의 매핑에 대해 설명합니다.
JSON 엔터티 | 메서드 매개 변수 | 설명 |
---|---|---|
computeType |
해당 없음 | 컴퓨팅 대상. ACI의 경우 값은 ACI 여야 합니다. |
containerResourceRequirements |
해당 없음 | CPU 및 메모리 엔터티에 대한 컨테이너입니다. |
cpu |
cpu_cores |
할당할 CPU 코어 수입니다. 기본값은 0.1 입니다 |
memoryInGB |
memory_gb |
이 웹 서비스에 할당할 메모리 양(GB)입니다. 기본값은 0.5 입니다 |
location |
location |
이 웹 서비스를 배포할 Azure 지역입니다. 지정하지 않으면 작업 영역 위치가 사용됩니다. 사용 가능한 지역에 대한 자세한 내용은 ACI 지역에서 확인할 수 있습니다. |
authEnabled |
auth_enabled |
이 웹 서비스에 대해 인증을 사용할지 여부. 기본값은 False입니다. |
sslEnabled |
ssl_enabled |
이 웹 서비스에 대해 SSL을 사용할지 여부. 기본값은 False입니다. |
appInsightsEnabled |
enable_app_insights |
이 웹 서비스에 대해 AppInsights를 사용할지 여부. 기본값은 False입니다. |
sslCertificate |
ssl_cert_pem_file |
SSL을 사용하는 경우 필요한 인증서 파일 |
sslKey |
ssl_key_pem_file |
SSL을 사용하는 경우 필요한 키 파일 |
cname |
ssl_cname |
SSL을 사용하는 경우의 cname |
dnsNameLabel |
dns_name_label |
채점 엔드포인트에 대한 DNS 이름 레이블 지정하지 않으면 채점 엔드포인트에 대해 고유한 DNS 이름 레이블이 생성됩니다. |
다음 JSON은 CLI에서 사용할 수 있는 배포 구성의 예제입니다.
{
"computeType": "aci",
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
},
"authEnabled": true,
"sslEnabled": false,
"appInsightsEnabled": false
}
Azure Kubernetes Service 배포 구성 스키마
deploymentconfig.json
문서의 항목은 AksWebservice.deploy_configuration에 대한 매개 변수에 매핑됩니다. 다음 표에서는 JSON 문서의 엔터티 및 메서드에 대한 매개 변수 간의 매핑에 대해 설명합니다.
JSON 엔터티 | 메서드 매개 변수 | 설명 |
---|---|---|
computeType |
해당 없음 | 컴퓨팅 대상. AKS의 경우 값은 aks 여야 합니다. |
autoScaler |
해당 없음 | 자동 크기 조정에 대한 구성 요소를 포함합니다. 자동 크기 조정기 표를 참조하세요. |
autoscaleEnabled |
autoscale_enabled |
자동 크기 조정을 웹 서비스에 사용하도록 설정할지 여부입니다. numReplicas = 0 이면 True 이고, 그렇지 않으면 False 입니다. |
minReplicas |
autoscale_min_replicas |
이 웹 서비스의 크기를 자동으로 조정할 때 사용할 최소 컨테이너 수입니다. 기본값은 1 입니다. |
maxReplicas |
autoscale_max_replicas |
이 웹 서비스의 크기를 자동으로 조정할 때 사용할 최대 컨테이너 수입니다. 기본값은 10 입니다. |
refreshPeriodInSeconds |
autoscale_refresh_seconds |
자동 크기 조정기에서 이 웹 서비스의 크기를 조정하려고 시도하는 빈도입니다. 기본값은 1 입니다. |
targetUtilization |
autoscale_target_utilization |
자동 크기 조정기에서 이 웹 서비스에 대해 유지하려고 시도해야 하는 목표 사용률(백분율)입니다. 기본값은 70 입니다. |
dataCollection |
해당 없음 | 데이터 수집을 위한 구성 요소를 포함합니다. |
storageEnabled |
collect_model_data |
모델 데이터 수집을 웹 서비스에 사용하도록 설정할지 여부입니다. 기본값은 False 입니다. |
authEnabled |
auth_enabled |
키 인증을 웹 서비스에 사용하도록 설정할지 여부입니다. tokenAuthEnabled 및 authEnabled 는 모두 True 일 수 없습니다. 기본값은 True 입니다. |
tokenAuthEnabled |
token_auth_enabled |
토큰 인증을 웹 서비스에 사용하도록 설정할지 여부입니다. tokenAuthEnabled 및 authEnabled 는 모두 True 일 수 없습니다. 기본값은 False 입니다. |
containerResourceRequirements |
해당 없음 | CPU 및 메모리 엔터티에 대한 컨테이너입니다. |
cpu |
cpu_cores |
이 웹 서비스에 할당할 CPU 코어 수입니다. 기본값은 0.1 입니다 |
memoryInGB |
memory_gb |
이 웹 서비스에 할당할 메모리 양(GB)입니다. 기본값은 0.5 입니다 |
appInsightsEnabled |
enable_app_insights |
Application Insights 로깅을 웹 서비스에 사용하도록 설정할지 여부입니다. 기본값은 False 입니다. |
scoringTimeoutMs |
scoring_timeout_ms |
웹 서비스 호출에 대한 점수 매기기에 적용할 시간 제한입니다. 기본값은 60000 입니다. |
maxConcurrentRequestsPerContainer |
replica_max_concurrent_requests |
이 웹 서비스에 대한 노드당 최대 동시 요청 수입니다. 기본값은 1 입니다. |
maxQueueWaitMs |
max_request_wait_time |
503 오류가 반환되기 전까지 요청을 큐에서 유지하는 최대 시간(밀리초)입니다. 기본값은 500 입니다. |
numReplicas |
num_replicas |
이 웹 서비스에 할당할 컨테이너 수입니다. 기본값이 없습니다. 이 매개 변수를 설정하지 않으면 기본적으로 자동 크기 조정기를 사용하도록 설정됩니다. |
keys |
해당 없음 | 키에 대한 구성 요소를 포함합니다. |
primaryKey |
primary_key |
이 웹 서비스에 사용할 기본 인증 키입니다. |
secondaryKey |
secondary_key |
이 웹 서비스에 사용할 보조 인증 키입니다. |
gpuCores |
gpu_cores |
이 웹 서비스에 할당할 GPU 코어 수(컨테이너 복제본당)입니다. 기본값은 1입니다. 정수 값만 지원합니다. |
livenessProbeRequirements |
해당 없음 | 활동성 프로브 요구 사항에 대한 구성 요소를 포함합니다. |
periodSeconds |
period_seconds |
활동성 프로브를 수행하는 빈도(초)입니다. 기본값은 10초입니다. 최솟값은 1입니다. |
initialDelaySeconds |
initial_delay_seconds |
컨테이너가 시작된 후 활동성 프로브가 시작되기 전까지의 시간(초)입니다. 기본값은 310입니다. |
timeoutSeconds |
timeout_seconds |
활동성 프로브의 시간이 초과된 후 경과된 시간(초)입니다. 기본값은 2초입니다. 최솟값은 1입니다. |
successThreshold |
success_threshold |
활동성 프로브가 실패한 후 성공한 것으로 간주되는 최소 연속 성공 횟수입니다. 기본값은 1입니다. 최솟값은 1입니다. |
failureThreshold |
failure_threshold |
Pod가 시작되고 활동성 프로브가 실패하면 Kubernetes에서 포기하기 전에 failureThreshold 시간을 시도합니다. 기본값은 3입니다. 최솟값은 1입니다. |
namespace |
namespace |
웹 서비스가 배포되는 Kubernetes 네임스페이스입니다. 최대 63자의 소문자 영숫자('a'-'z', '0'-'9') 및 하이픈('-') 문자입니다. 첫 번째 및 마지막 문자는 하이픈이 될 수 없습니다. |
다음 JSON은 CLI에서 사용할 수 있는 배포 구성의 예제입니다.
{
"computeType": "aks",
"autoScaler":
{
"autoscaleEnabled": true,
"minReplicas": 1,
"maxReplicas": 3,
"refreshPeriodInSeconds": 1,
"targetUtilization": 70
},
"dataCollection":
{
"storageEnabled": true
},
"authEnabled": true,
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
}
}