Установка и использование интерфейса командной строки (версия 1)
ОБЛАСТЬ ПРИМЕНЕНИЯ: расширение машинного обучения Azure CLI версии 1
Внимание
Для использования некоторых команд Azure CLI, приведенных в этой статье, используйте расширение azure-cli-ml
(версия 1) для Машинного обучения Azure. Поддержка расширения версии 1 будет прекращена 30 сентября 2025 г. Вы можете установить и использовать расширение версии 1 до этой даты.
Рекомендуется перейти на расширение ml
(версия 2) до 30 сентября 2025 г. Дополнительные сведения о расширении версии 2 см. на странице расширения CLI для Azure ML и пакета SDK для Python версии 2.
CLI для Машинного обучения Azure представляет собой расширение кроссплатформенного интерфейса командной строки для платформы Azure. Это расширение предоставляет команды CLI для работы с Машинным обучением Azure. С его помощью можно автоматизировать операции машинного обучения. В следующем списке приведены примеры действий, которые можно выполнить с помощью расширения CLI:
выполнять эксперименты для создания моделей машинного обучения;
регистрировать модели машинного обучения для использования клиентами;
упаковывать, развертывать и отслеживать жизненный цикл моделей машинного обучения.
Интерфейс командной строки не является заменой пакета SDK для Машинное обучение Azure. Это дополнительный инструмент, оптимизированный для обработки высоко параметризованных задач, которые хорошо подходят для автоматизации.
Необходимые компоненты
Для использования интерфейса командной строки необходима подписка Azure. Если у вас нет подписки Azure, создайте бесплатную учетную запись, прежде чем приступить к работе. Опробуйте бесплатную или платную версию Машинного обучения Azure уже сегодня.
Чтобы выполнять приведенные в этом документе команды CLI в локальной среде, вам потребуется Azure CLI.
Если вы используете Azure Cloud Shell, интерфейс командной строки доступен через браузер и находится в облаке.
Полная справочная документация
Ознакомьтесь с полной справочной документацией по расширению azure-cli-ml (Azure CLI).
Подключение интерфейса командной строки к своей подписке Azure
Внимание
Если вы используете Azure Cloud Shell, этот раздел можно пропустить. Cloud Shell автоматически выполняет аутентификацию, используя учетную запись, с помощью которой вы вошли в подписку Azure.
Существует несколько способов проверки подлинности в подписке Azure с помощью интерфейса командной строки. Самый простой — выполнить интерактивную аутентификацию с помощью браузера. Чтобы выполнить аутентификацию в интерактивном режиме, откройте командную строку или терминал и выполните следующую команду:
az login
Если CLI сможет запустить браузер по умолчанию, он откроет в браузере страницу входа. Или откройте браузер и выполните инструкции из командной строки. В инструкции входит переход к https://aka.ms/devicelogin и ввод кода авторизации.
Совет
После входа вы увидите список подписок, связанных с вашей учетной записью Azure. В сведениях о подписке с isDefault: true
указана текущая активная подписка для команд Azure CLI. Эта подписка должна быть той же, которая содержит рабочую область Машинного обучения Azure. Сведения о подписке можно найти на странице обзора рабочей области в портал Azure.
Чтобы выбрать другую подписку для команд Azure CLI, выполните az account set -s <subscription>
команду и укажите имя подписки или идентификатор для переключения. См. дополнительные сведения о выборе нужной подписки при использовании нескольких подписок Azure.
Другие методы аутентификации см. в статье Вход с помощью Azure CLI.
Установка расширения
Установите расширение CLI (версия 1):
az extension add -n azure-cli-ml
Обновление расширения
Чтобы обновить расширение CLI для Машинного обучения, выполните следующую команду:
az extension update -n azure-cli-ml
Удаление расширения
Чтобы удалить расширение интерфейса командной строки, используйте следующую команду:
az extension remove -n azure-cli-ml
Управление ресурсами
Следующие команды демонстрируют использование интерфейса командной строки для управления ресурсами, используемыми службой "Машинное обучение Azure".
Если у вас еще нет, создайте группу ресурсов:
az group create -n myresourcegroup -l westus2
Создайте рабочую область Машинного обучения Azure:
az ml workspace create -w myworkspace -g myresourcegroup
См. дополнительные сведения о команде az ml workspace create.
Подключите конфигурацию рабочей области к папке, чтобы включить поддержку контекста в CLI.
az ml folder attach -w myworkspace -g myresourcegroup
Эта команда создает подкаталог
.azureml
, содержащий примеры файлов runconfig и среды Conda. Он также содержит файлconfig.json
, который используется для взаимодействия с рабочей областью Машинного обучения Azure.См. дополнительные сведения о команде az ml folder attach.
Прикрепите контейнер BLOB-объектов Azure в качестве хранилища данных.
az ml datastore attach-blob -n datastorename -a accountname -c containername
См. дополнительные сведения о команде az ml datastore attach-blob.
Передайте файлы в хранилище данных.
az ml datastore upload -n datastorename -p sourcepath
См. дополнительные сведения о команде az ml datastore upload.
Подключите кластер AKS в качестве целевого объекта вычислений.
az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
См. дополнительные сведения о команде az ml computetarget attach aks.
Вычислительные кластеры
Создайте новый управляемый вычислительный кластер.
az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
Создание нового управляемого вычислительного кластера с управляемым удостоверением
Управляемое удостоверение, назначаемое пользователем
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
Управляемое удостоверение, назначаемое системой
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
Добавление управляемого удостоверения в существующий кластер:
Управляемое удостоверение, назначаемое пользователем
az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
Управляемое удостоверение, назначаемое системой
az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
См. дополнительные сведения о команде az ml computetarget create amlcompute.
Примечание.
Вычислительные кластеры машинного обучения Azure поддерживают только одно назначенное системой удостоверение или несколько определяемых пользователем удостоверений при условии использования каждого из этих вариантов по отдельности.
Вычислительная операция
Управляйте вычислительными экземплярами. Во всех приведенных ниже примерах имя вычислительного экземпляра — cpu.
Создайте computeinstance.
az ml computetarget create computeinstance -n cpu -s "STANDARD_D3_V2" -v
См. дополнительные сведения о команде az ml computetarget create computeinstance.
Остановите computeinstance.
az ml computetarget computeinstance stop -n cpu -v
См. дополнительные сведения о команде az ml computetarget computeinstance stop.
Запустите computeinstance.
az ml computetarget computeinstance start -n cpu -v
См. дополнительные сведения о команде az ml computetarget computeinstance start.
Перезапустите computeinstance.
az ml computetarget computeinstance restart -n cpu -v
См. дополнительные сведения о команде az ml computetarget computeinstance restart.
Удалите computeinstance.
az ml computetarget delete -n cpu -v
См. дополнительные сведения о команде az ml computetarget delete computeinstance.
Запуск экспериментов
Запустите выполнение эксперимента. При использовании этой команды укажите имя файла runconfig (текст перед *.runconfig в вашей файловой системе) в параметре -c.
az ml run submit-script -c sklearn -e testexperiment train.py
Совет
Команда
az ml folder attach
создает подкаталог.azureml
, который содержит два примера файлов runconfig.При наличии скрипта Python, который программно создает объект конфигурации запуска, вы можете использовать метод RunConfig.Save(), чтобы сохранить его как файл runconfig.
Полную схему runconfig можно найти в этом файле JSON. Схема содержит самодокументирующийся код за счет использования ключа
description
для каждого объекта. Кроме того, для каждого объекта предусмотрены перечисления возможных значений, а в конце приведен фрагмент кода с шаблоном.См. дополнительные сведения о команде az ml run submit-script.
Просмотрите список экспериментов:
az ml experiment list
См. дополнительные сведения о команде az ml experiment list.
Запуск HyperDrive
Используя HyperDrive с Azure CLI, можно запускать выполнение для настройки параметров. Сначала создайте файл конфигурации HyperDrive в следующем формате. Дополнительные сведения о параметрах настройки гиперпараметров см. в статье Настройка гиперпараметров модели.
# hdconfig.yml
sampling:
type: random # Supported options: Random, Grid, Bayesian
parameter_space: # specify a name|expression|values tuple for each parameter.
- name: --penalty # The name of a script parameter to generate values for.
expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy:
type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.
Добавьте этот файл вместе с файлами конфигурации запуска. Затем отправьте запрос на запуск HyperDrive с помощью следующей команды.
az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py
Обратите внимание на раздел аргументов в пространстве runconfig и параметров в конфигурации HyperDrive. Они содержат аргументы командной строки, передаваемые в скрипт обучения. Значение в схеме runconfig остается неизменным для каждой итерации, в то время как диапазон в файле конфигурации HyperDrive меняется. Не указывайте один и тот же аргумент в обоих файлах.
Управление наборами данных
Следующие команды показывают, как работать с наборами данных в службе "Машинное обучение Azure".
Регистрация набора данных:
az ml dataset register -f mydataset.json
Для получения сведений о формате файла JSON, используемого для определения набора данных, используйте
az ml dataset register --show-template
.См. дополнительные сведения о команде az ml dataset register.
Получите список всех наборов данных в рабочей области:
az ml dataset list
См. дополнительные сведения о команде az ml dataset list.
Получите сведения о наборе данных:
az ml dataset show -n dataset-name
См. дополнительные сведения о команде az ml dataset show.
Отмените регистрацию набора данных:
az ml dataset unregister -n dataset-name
См. дополнительные сведения о команде az ml dataset unregister.
Управление средой
Следующие команды демонстрируют создание, регистрацию и перечисление сред Машинного обучения Azure для рабочей области.
Создайте файлы формирования шаблонов для среды:
az ml environment scaffold -n myenv -d myenvdirectory
См. дополнительные сведения о команде az ml environment scaffold.
Зарегистрируйте среду:
az ml environment register -d myenvdirectory
См. дополнительные сведения о команде az ml environment register.
Получите список зарегистрированных сред:
az ml environment list
См. дополнительные сведения о команде az ml environment list.
Загрузите зарегистрированную среду:
az ml environment download -n myenv -d downloaddirectory
См. дополнительные сведения о команде az ml environment download.
Схема конфигурации среды
Если вы использовали команду az ml environment scaffold
, она создает файл шаблона azureml_environment.json
, который можно изменить и использовать для создания настраиваемых конфигураций среды с помощью интерфейса командной строки. Объект верхнего уровня нестрого сопоставлен с классом Environment
в пакете SDK для Python.
{
"name": "testenv",
"version": null,
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"python": {
"userManagedDependencies": false,
"interpreterPath": "python",
"condaDependenciesFile": null,
"baseCondaEnvironment": null
},
"docker": {
"enabled": false,
"baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
"baseDockerfile": null,
"sharedVolumes": true,
"shmSize": "2g",
"arguments": [],
"baseImageRegistry": {
"address": null,
"username": null,
"password": null
}
},
"spark": {
"repositories": [],
"packages": [],
"precachePackages": true
},
"databricks": {
"mavenLibraries": [],
"pypiLibraries": [],
"rcranLibraries": [],
"jarLibraries": [],
"eggLibraries": []
},
"inferencingStackVersion": null
}
В следующей таблице приведены сведения о каждом поле верхнего уровня в JSON-файле, его типе и описании. Если тип объекта связан с классом из пакета SDK для Python, между каждым полем JSON и именем общедоступной переменной в классе Python существует слабое совпадение 1:1. В некоторых случаях поле может сопоставляться с аргументом конструктора, а не переменной класса. Например, поле environmentVariables
сопоставляется с переменной environment_variables
в классе Environment
.
Поле JSON | Тип | Описание |
---|---|---|
name |
string |
Имя среды. Не начинайте имя с Microsoft или AzureML. |
version |
string |
Версия среды. |
environmentVariables |
{string: string} |
Хэш-карта имен и значений переменных среды. |
python |
PythonSection , определяющий среду и интерпретатор Python, который нужно использовать в целевом ресурсе вычислений. |
|
docker |
DockerSection |
Определяет параметры для настройки образа Docker, созданного согласно спецификациям среды. |
spark |
SparkSection |
В разделе настраиваются параметры Spark. Он используется только в том случае, если для платформы задано значение PySpark. |
databricks |
DatabricksSection |
Настраивает зависимости библиотеки Databricks. |
inferencingStackVersion |
string |
Указывает версию стека вывода, добавленного в образ. Чтобы не добавлять стек вывода, оставьте для этого поля значение null . Допустимое значение: "latest". |
Управление конвейером Машинного обучения
Следующие команды показывают, как работать с конвейерами машинного обучения.
Создайте конвейер машинного обучения:
az ml pipeline create -n mypipeline -y mypipeline.yml
См. дополнительные сведения о команде az ml pipeline create.
Дополнительные сведения о файле конвейера YAML см. в статье Определение конвейеров машинного обучения в YAML.
Выполните конвейер:
az ml run submit-pipeline -n myexperiment -y mypipeline.yml
См. дополнительные сведения о команде az ml run submit-pipeline.
Дополнительные сведения о файле конвейера YAML см. в статье Определение конвейеров машинного обучения в YAML.
Запланируйте выполнение конвейера:
az ml pipeline create-schedule -n myschedule -e myexperiment -i mypipelineid -y myschedule.yml
См. дополнительные сведения о команде az ml pipeline create-schedule.
Регистрация модели, профилирование, развертывание
Следующие команды демонстрируют регистрацию обученной модели, а затем ее развертывание в качестве рабочей службы:
Зарегистрируйте модель с помощью Машинного обучения Azure.
az ml model register -n mymodel -p sklearn_regression_model.pkl
См. дополнительные сведения о команде az ml model register.
НЕОБЯЗАТЕЛЬНО. Выполните профилирование модели, чтобы получить оптимальные значения нагрузки на ЦП и память для развертывания.
az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
См. дополнительные сведения о команде az ml model profile.
Развертывание модели в AKS
az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
Дополнительные сведения о схеме файла конфигурации вывода см. в разделе Схема конфигурации вывода.
Дополнительные сведения о схеме файла конфигурации развертывания см. в разделе Схема конфигурации развертывания.
См. дополнительные сведения о команде az ml model deploy.
Схема конфигурации вывода
Записи в документе inferenceconfig.json
соответствуют параметрам класса InferenceConfig. В следующей таблице представлено сопоставление сущностей в документе JSON и параметров метода.
Сущность JSON | Параметр метода | Description |
---|---|---|
entryScript |
entry_script |
Путь к локальному файлу, содержащему код, выполняемый для образа. |
sourceDirectory |
source_directory |
Необязательно. Путь к папкам, содержащим все файлы для создания образа, что упрощает доступ к любым файлам в этой папке или вложенной папке. Вы можете отправить всю папку с локального компьютера в качестве зависимостей для веб-службы. Примечание. Пути entry_script, conda_file и extra_docker_file_steps являются относительными по отношению к пути source_directory. |
environment |
environment |
Необязательно. Среда Машинного обучения Azure. |
В файл конфигурации вывода можно включить полные спецификации среды Машинного обучения Azure. Если эта среда не существует в рабочей области, Машинное обучение Azure создаст ее. В противном случае Машинное обучение Azure обновит среду при необходимости. Приведенный ниже код JSON является примером.
{
"entryScript": "score.py",
"environment": {
"docker": {
"arguments": [],
"baseDockerfile": null,
"baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
"enabled": false,
"sharedVolumes": true,
"shmSize": null
},
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"name": "my-deploy-env",
"python": {
"baseCondaEnvironment": null,
"condaDependencies": {
"channels": [
"conda-forge"
],
"dependencies": [
"python=3.7",
{
"pip": [
"azureml-defaults",
"azureml-telemetry",
"scikit-learn==0.22.1",
"inference-schema[numpy-support]"
]
}
],
"name": "project_environment"
},
"condaDependenciesFile": null,
"interpreterPath": "python",
"userManagedDependencies": false
},
"version": "1"
}
}
Вы также можете использовать существующую среду Машинного обучения Azure в отдельных параметрах CLI и удалить ключ environment из файла конфигурации вывода. Используйте параметр -e для имени среды и --ev для версии среды. Если --ev не указывать, будет использоваться последняя версия. Ниже приведен пример файла конфигурации вывода.
{
"entryScript": "score.py",
"sourceDirectory": null
}
Следующая команда развертывает модель с использованием предыдущего файла конфигурации вывода (с именем myInferenceConfig.json).
При этом также используется последняя версия существующей среды Машинного обучения Azure (с именем AzureML-Minimal).
az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json
Схема конфигурации развертывания
Схема конфигурации локального развертывания
Записи в документе deploymentconfig.json
соответствуют параметрам для LocalWebservice.deploy_configuration. В следующей таблице описано сопоставление сущностей в документе JSON и параметров метода:
Сущность JSON | Параметр метода | Description |
---|---|---|
computeType |
Неприменимо | Целевой объект вычислений. Для локальных целевых объектов нужно задать значение local . |
port |
port |
Локальный порт, на который будет предоставляться конечная точка HTTP службы. |
Код JSON — это пример конфигурации развертывания для использования с CLI:
{
"computeType": "local",
"port": 32267
}
Сохраните этот JSON как файл с именем deploymentconfig.json
.
Схема конфигурации для развертывания экземпляра контейнера Azure
Записи в документе deploymentconfig.json
соответствуют параметрам для AciWebservice.deploy_configuration. В следующей таблице описано сопоставление сущностей в документе JSON и параметров метода:
Сущность JSON | Параметр метода | Description |
---|---|---|
computeType |
Неприменимо | Целевой объект вычислений. Для ACI нужно задать значение ACI . |
containerResourceRequirements |
Неприменимо | Контейнер для сущностей ЦП и памяти. |
cpu |
cpu_cores |
Количество ядер ЦП для выделения. Значение по умолчанию — 0.1 . |
memoryInGB |
memory_gb |
Объем памяти (в ГБ), выделяемой для этой веб-службы. Значение по умолчанию — 0.5 . |
location |
location |
Регион Azure для развертывания этой веб-службы. Если не указать, будет использоваться расположение рабочей области. Дополнительные сведения о доступных регионах см. здесь: Регионы ACI |
authEnabled |
auth_enabled |
Позволяет включить аутентификацию для этой веб-службы. Значение по умолчанию — False. |
sslEnabled |
ssl_enabled |
Позволяет включить SSL для этой веб-службы. Значение по умолчанию — False. |
appInsightsEnabled |
enable_app_insights |
Позволяет включить AppInsights для этой веб-службы. Значение по умолчанию — False. |
sslCertificate |
ssl_cert_pem_file |
Файл сертификата, требуемый при включении SSL. |
sslKey |
ssl_key_pem_file |
Файл ключа, требуемый при включении SSL. |
cname |
ssl_cname |
Запись CNAME, требуемая при включении SSL. |
dnsNameLabel |
dns_name_label |
Метка DNS-имени для конечной точки оценки. Если не указать, для конечной точки оценки будет создана уникальная метка DNS-имени. |
Следующий код JSON — это пример конфигурации развертывания для использования с CLI:
{
"computeType": "aci",
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
},
"authEnabled": true,
"sslEnabled": false,
"appInsightsEnabled": false
}
Схема конфигурации для развертывания экземпляра Службы Azure Kubernetes
Записи в документе deploymentconfig.json
соответствуют параметрам для AksWebservice.deploy_configuration. В следующей таблице описано сопоставление сущностей в документе JSON и параметров метода:
Сущность JSON | Параметр метода | Description |
---|---|---|
computeType |
Неприменимо | Целевой объект вычислений. Для AKS нужно задать значение aks . |
autoScaler |
Неприменимо | Содержит элементы конфигурации для автомасштабирования. См. сведения об autoScaler в таблице. |
autoscaleEnabled |
autoscale_enabled |
Позволяет указать, нужно ли включить автомасштабирование для веб-службы. Если numReplicas = 0 — True , в противном случае — False . |
minReplicas |
autoscale_min_replicas |
Минимальное число используемых контейнеров при автомасштабировании этой веб-службы. Значение по умолчанию — 1 . |
maxReplicas |
autoscale_max_replicas |
Максимальное число используемых контейнеров при автомасштабировании этой веб-службы. Значение по умолчанию — 10 . |
refreshPeriodInSeconds |
autoscale_refresh_seconds |
Частота попыток автомасштабирования этой веб-службы. Значение по умолчанию — 1 . |
targetUtilization |
autoscale_target_utilization |
Целевой объем использования, который нужно пытаться поддерживать при автомасштабировании этой веб-службы (в процентах до 100). Значение по умолчанию — 70 . |
dataCollection |
Неприменимо | Содержит элементы конфигурации для коллекции данных. |
storageEnabled |
collect_model_data |
Позволяет указать, нужно ли включить коллекцию данных модели для веб-службы. Значение по умолчанию — False . |
authEnabled |
auth_enabled |
Позволяет указать, нужно ли для веб-службы включить проверку подлинности на основе ключа. Нельзя указать значение True одновременно для tokenAuthEnabled и authEnabled . Значение по умолчанию — True . |
tokenAuthEnabled |
token_auth_enabled |
Позволяет указать, нужно ли для веб-службы включить проверку подлинности на основе маркера. Нельзя указать значение True одновременно для tokenAuthEnabled и authEnabled . Значение по умолчанию — False . |
containerResourceRequirements |
Неприменимо | Контейнер для сущностей ЦП и памяти. |
cpu |
cpu_cores |
Количество ядер ЦП, выделяемых для этой веб-службы. Значение по умолчанию — 0.1 . |
memoryInGB |
memory_gb |
Объем памяти (в ГБ), выделяемой для этой веб-службы. Значение по умолчанию — 0.5 . |
appInsightsEnabled |
enable_app_insights |
Позволяет указать, нужно ли включить ведение журнала в Application Insights для веб-службы. Значение по умолчанию — False . |
scoringTimeoutMs |
scoring_timeout_ms |
Принудительно применяемое время ожидания вызовов оценки веб-службы. Значение по умолчанию — 60000 . |
maxConcurrentRequestsPerContainer |
replica_max_concurrent_requests |
Максимальное число одновременных запросов на узел для этой веб-службы. Значение по умолчанию — 1 . |
maxQueueWaitMs |
max_request_wait_time |
Максимальное время, в течение которого запрос будет оставаться в очереди (в миллисекундах), прежде чем отобразится сообщение об ошибке 503. Значение по умолчанию — 500 . |
numReplicas |
num_replicas |
Количество контейнеров, выделяемых для этой веб-службы. Нет значения по умолчанию. Если этот параметр не задан, средство автомасштабирования будет включено по умолчанию. |
keys |
Неприменимо | Содержит элементы конфигурации для ключей. |
primaryKey |
primary_key |
Первичный ключ проверки подлинности, используемый для этой веб-службы. |
secondaryKey |
secondary_key |
Вторичный ключ проверки подлинности, используемый для этой веб-службы. |
gpuCores |
gpu_cores |
Число ядер GPU (на реплику контейнера), выделяемых для этой веб-службы. По умолчанию 1. Поддерживаются только целочисленные значения. |
livenessProbeRequirements |
Неприменимо | Содержит элементы конфигурации для требований пробы активности. |
periodSeconds |
period_seconds |
Частота (в секундах) выполнения пробы активности. Значение по умолчанию — 10 секунд. Минимальное значение — 1. |
initialDelaySeconds |
initial_delay_seconds |
Количество секунд после запуска контейнера до начала пробы активности. Значение по умолчанию — 310. |
timeoutSeconds |
timeout_seconds |
Количество секунд, после которого время ожидания пробы активности истекает. Значение по умолчанию — 2 секунды. Минимальное значение — 1. |
successThreshold |
success_threshold |
Минимальное число последовательных успешных попыток пробы активности после сбоя, после которых проба будет считаться успешной. По умолчанию равен 1. Минимальное значение — 1. |
failureThreshold |
failure_threshold |
Количество попыток (failureThreshold), выполняемых Kubernetes, до их полного прекращения в случае запуска pod, но сбоя пробы активности. Значение по умолчанию — 3. Минимальное значение — 1. |
namespace |
namespace |
Пространство имен Kubernetes, в котором развернута веб-служба. Не больше 63 буквенно-цифровых символов (a–z, 0–9), включая дефисы (-), в нижнем регистре. Первый и последний символы не могут быть дефисами. |
Следующий код JSON — это пример конфигурации развертывания для использования с CLI:
{
"computeType": "aks",
"autoScaler":
{
"autoscaleEnabled": true,
"minReplicas": 1,
"maxReplicas": 3,
"refreshPeriodInSeconds": 1,
"targetUtilization": 70
},
"dataCollection":
{
"storageEnabled": true
},
"authEnabled": true,
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
}
}