instalación y uso de la CLI (v1)
SE APLICA A: Extensión de ML de la CLI de Azure v1
Importante
Algunos de los comandos de la CLI de Azure de este artículo usan la extensión azure-cli-ml
o v1 para Azure Machine Learning. La compatibilidad con la extensión v1 finalizará el 30 de septiembre de 2025. La extensión v1 se podrá instalar y usar hasta esa fecha.
Se recomienda pasar a la extensión ml
, o v2, antes del 30 de septiembre de 2025. Para más información sobre la extensión v2, consulte Extensión de la CLI de Azure ML y SDK de Python v2.
La CLI de Azure Machine Learning es una extensión de la CLI de Azure, una interfaz de la línea de comandos multiplataforma para la plataforma Azure. Esta extensión proporciona comandos para trabajar con Azure Machine Learning. Permite automatizar las actividades de aprendizaje automático. En esta lista se muestran algunas acciones de ejemplo que puede realizar con la extensión de la CLI:
Realizar experimentos para crear modelos de aprendizaje automático
Registrar los modelos de aprendizaje automático para el uso del cliente
Empaquetar, implementar y realizar un seguimiento del ciclo de vida de los modelos de aprendizaje automático
La CLI no sustituye al SDK de Azure Machine Learning. Es una herramienta complementaria que está optimizada para administrar tareas con muchos parámetros y que están bien adaptadas para la automatización.
Prerrequisitos
Para usar la CLI, debe tener una suscripción de Azure. Si no tiene una suscripción de Azure, cree una cuenta gratuita antes de empezar. Pruebe hoy mismo la versión gratuita o de pago de Azure Machine Learning.
Para usar los comandos de la CLI de este documento desde su entorno local, necesita la CLI de Azure.
Si usa el Azure Cloud Shell, la CLI es accesible a través del explorador y reside en la nube.
Documentos de referencia completos
Busque los documentos de referencia completos sobre la extensión azure-cli-ml de la CLI de Azure.
Conexión de la CLI a una suscripción de Azure
Importante
Puede omitir esta sección si usa Azure Cloud Shell. Cloud Shell se autentica automáticamente mediante la cuenta con la que inicia sesión en su suscripción a Azure.
Hay varias maneras de autenticarse en la suscripción a Azure desde la CLI. La manera más básica consiste en autenticarse interactivamente a través de un explorador. Para autenticarse de forma interactiva, abra una línea de comandos o un terminal y use el siguiente comando:
az login
Si la CLI puede abrir el explorador predeterminado, lo hará y cargará una página de inicio de sesión. De lo contrario, tendrá que abrir un explorador y seguir las instrucciones de la línea de comandos. Las instrucciones implican navegar a https://aka.ms/devicelogin y escribir un código de autorización.
Sugerencia
Después de iniciar sesión, verá una lista de suscripciones asociadas con la cuenta de Azure. La información de suscripción con isDefault: true
es la suscripción actualmente activada para los comandos de la CLI de Azure. Esta suscripción debe ser la misma que la que contiene el área de trabajo de Azure Machine Learning. Puede buscar la información de suscripción en la página de información general del área de trabajo en Azure Portal.
Para seleccionar otra suscripción para utilizar los comandos de la CLI de Azure, ejecute el comando az account set -s <subscription>
y especifique el nombre o id. de la suscripción a la que quiere cambiar. Para más información sobre la selección de suscripción, consulte Uso de varias suscripciones de Azure.
Para obtener otros métodos de autenticación, consulte Inicio de sesión con la CLI de Azure.
Instalación de la extensión
Para instalar la extensión de la CLI (v1):
az extension add -n azure-cli-ml
Actualización de la extensión
Para actualizar la extensión de la CLI de Machine Learning, use el siguiente comando:
az extension update -n azure-cli-ml
Eliminación de la extensión
Para eliminar la extensión de la CLI, use el siguiente comando:
az extension remove -n azure-cli-ml
Administración de recursos
Los siguientes comandos muestran cómo utilizar la CLI para administrar los recursos que usa Azure Machine Learning.
Si aún no tiene uno, cree un grupo de recursos:
az group create -n myresourcegroup -l westus2
Cree un área de trabajo de Azure Machine Learning:
az ml workspace create -w myworkspace -g myresourcegroup
Para más información, consulte az ml workspace create.
Adjunte una configuración de área de trabajo a una carpeta para permitir el reconocimiento contextual de la CLI.
az ml folder attach -w myworkspace -g myresourcegroup
Este comando crea un subdirectorio
.azureml
que contiene archivos de entorno de conda y runconfig de ejemplo. También contiene un archivoconfig.json
que se usa para comunicarse con el área de trabajo de Azure Machine Learning.Para obtener más información, consulte az ml folder attach.
Adjunte un contenedor de blobs de Azure como almacén de datos.
az ml datastore attach-blob -n datastorename -a accountname -c containername
Para más información, consulte az ml datastore attach-blob.
Cargue archivos a un almacén de archivos.
az ml datastore upload -n datastorename -p sourcepath
Para más información, consulte az ml datastore upload.
Adjunte un clúster de AKS como destino de proceso.
az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
Para más información, consulte az ml computetarget attach aks
Clústeres de proceso
Cree un nuevo clúster de proceso administrado.
az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
Cree un nuevo clúster de proceso administrado con identidad administrada.
Identidad administrada asignada por el usuario
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
Identidad administrada asignada por el sistema
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
Agregue una identidad administrada a un clúster existente:
Identidad administrada asignada por el usuario
az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
Identidad administrada asignada por el sistema
az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
Para más información, consulte az ml computetarget create amlcompute.
Nota
Los clústeres de proceso de Azure Machine Learning solo admiten una identidad asignada por el sistema o varias identidades asignadas por el usuario, no ambas de forma simultánea.
Instancia de proceso
Administrar instancias de proceso. En todos los siguientes ejemplos, el nombre de la instancia de proceso es CPU
Crear una nueva computeinstance.
az ml computetarget create computeinstance -n cpu -s "STANDARD_D3_V2" -v
Para más información, consulte az ml computetarget create computeinstance.
Detener una computeinstance.
az ml computetarget computeinstance stop -n cpu -v
Para obtener más información, consulte az ml computetarget computeinstance stop.
Iniciar una computeinstance.
az ml computetarget computeinstance start -n cpu -v
Para obtener más información, consulte az ml computetarget computeinstance start.
Reiniciar una computeinstance.
az ml computetarget computeinstance restart -n cpu -v
Para obtener más información, consulte az ml computetarget computeinstance restart.
Elimine una computeinstance.
az ml computetarget delete -n cpu -v
Para más información, consulte az ml computetarget delete computeinstance.
Ejecución de los experimentos
Inicie la ejecución del experimento. Cuando use este comando, especifique el nombre del archivo runconfig (el texto antes de *.runconfig si está mirando el sistema de archivos) en el parámetro -c.
az ml run submit-script -c sklearn -e testexperiment train.py
Sugerencia
El comando
az ml folder attach
crea un subdirectorio.azureml
, que contiene dos archivos runconfig de ejemplo.Si tiene un script de Python que crea un objeto de configuración de ejecución mediante programación, puede usar RunConfig.save() para guardarlo como un archivo runconfig.
El esquema runconfig completo se puede encontrar en este archivo JSON. El esquema se documenta automáticamente mediante la clave
description
de cada objeto. Además, hay enumeraciones de valores posibles y un fragmento de código de plantilla al final.Para obtener más información, consulte az ml run submit-script.
Vea una lista de los experimentos:
az ml experiment list
Para obtener más información, consulte az ml experiment list.
Ejecución de HyperDrive
Puede usar HyperDrive con la CLI de Azure para realizar ejecuciones de ajuste de parámetros. En primer lugar, cree un archivo de configuración de HyperDrive con el siguiente formato. Consulte el artículo sobre el ajuste de hiperparámetros del modelo para obtener más información sobre los parámetros de ajuste de hiperparámetros.
# hdconfig.yml
sampling:
type: random # Supported options: Random, Grid, Bayesian
parameter_space: # specify a name|expression|values tuple for each parameter.
- name: --penalty # The name of a script parameter to generate values for.
expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy:
type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.
Agregue este archivo junto con los archivos de configuración de ejecución. A continuación, envíe una ejecución de HyperDrive mediante:
az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py
Observe la sección arguments (argumentos) en runconfig y el espacio de parámetros en la configuración de HyperDrive. Contienen los argumentos de la línea de comandos que se van a pasar al script de aprendizaje. El valor de runconfig permanece igual para cada iteración, mientras que el intervalo de la configuración de HyperDrive se repite en interación. No especifique el mismo argumento en ambos archivos.
Administración de conjuntos de datos
Los siguientes comandos muestran cómo trabajar con conjuntos de datos en Azure Machine Learning:
Registre un conjunto de datos:
az ml dataset register -f mydataset.json
Para obtener información sobre el formato del archivo JSON que se usa para definir el conjunto de datos, use
az ml dataset register --show-template
.Para más información, consulte az ml dataset register.
Enumerar todos los conjuntos de datos de un área de trabajo:
az ml dataset list
Para más información, consulte az ml dataset list.
Obtenga los detalles de un conjunto de datos:
az ml dataset show -n dataset-name
Para más información, consulte az ml dataset show.
Anule el registro de un conjunto de datos:
az ml dataset unregister -n dataset-name
Para más información, consulte az ml dataset unregister.
Administrador de entornos
Los comandos siguientes muestran cómo crear, registrar y enumerar los entornos de Azure Machine Learning para el área de trabajo:
Creación de archivos de scaffolding para un entorno:
az ml environment scaffold -n myenv -d myenvdirectory
Para más información, consulte az ml environment scaffold.
Registro de un entorno:
az ml environment register -d myenvdirectory
Para más información, consulte az ml environment register.
Lista de entornos registrados:
az ml environment list
Para más información, consulte az ml environment list.
Descargue un entorno registrado:
az ml environment download -n myenv -d downloaddirectory
Para más información, consulte az ml environment download.
Esquema de configuración del entorno
Si usa el comando az ml environment scaffold
, se genera un archivo de plantilla azureml_environment.json
que puede modificarse y usarse para crear configuraciones de entorno personalizadas con la CLI. El objeto de nivel superior se asigna de forma flexible a la clase Environment
en el SDK de Python.
{
"name": "testenv",
"version": null,
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"python": {
"userManagedDependencies": false,
"interpreterPath": "python",
"condaDependenciesFile": null,
"baseCondaEnvironment": null
},
"docker": {
"enabled": false,
"baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
"baseDockerfile": null,
"sharedVolumes": true,
"shmSize": "2g",
"arguments": [],
"baseImageRegistry": {
"address": null,
"username": null,
"password": null
}
},
"spark": {
"repositories": [],
"packages": [],
"precachePackages": true
},
"databricks": {
"mavenLibraries": [],
"pypiLibraries": [],
"rcranLibraries": [],
"jarLibraries": [],
"eggLibraries": []
},
"inferencingStackVersion": null
}
En la tabla que aparece más abajo se detallan todos los campos de nivel superior del archivo JSON, su tipo y su descripción. Si un tipo de objeto está vinculado a una clase del SDK de Python, hay una coincidencia 1:1 débil entre cada campo JSON y el nombre de la variable pública en la clase de Python. En algunos casos, el campo puede asignarse a un argumento de constructor en lugar de a una variable de clase. Por ejemplo, el campo environmentVariables
se asigna a la variable environment_variables
en la clase Environment
.
Campo JSON | Tipo | Descripción |
---|---|---|
name |
string |
Nombre del entorno. No escriba Microsoft o AzureML al principio del nombre. |
version |
string |
Versión del entorno. |
environmentVariables |
{string: string} |
Mapa hash de nombres y valores de variables de entorno. |
python |
PythonSection que define el entorno de Python y el intérprete que se va a usar en el recurso de proceso de destino. |
|
docker |
DockerSection |
Sección que define la configuración para personalizar la imagen de Docker compilada según las especificaciones del entorno. |
spark |
SparkSection |
Sección que define la configuración de Spark. Solo se usa cuando el marco se establece en PySpark. |
databricks |
DatabricksSection |
Sección que define la configuración de las dependencias de las bibliotecas de Databricks. |
inferencingStackVersion |
string |
Campo que especifica la versión de la pila de inferencia agregada a la imagen. Para evitar agregar una pila de inferencia, deje este campo como null . Valor válido: "latest" (más reciente). |
Administración de canalizaciones de aprendizaje automático
Los siguientes comandos muestran cómo trabajar con canalizaciones de aprendizaje automático:
Creación de una canalización de aprendizaje automático:
az ml pipeline create -n mypipeline -y mypipeline.yml
Para obtener más información, consulte az ml pipeline create.
Para obtener más información sobre el archivo de canalización YAML, vea Definición de canalizaciones de aprendizaje automático en YAML.
Ejecución de una canalización:
az ml run submit-pipeline -n myexperiment -y mypipeline.yml
Para obtener más información, consulte az ml run submit-pipeline.
Para obtener más información sobre el archivo de canalización YAML, vea Definición de canalizaciones de aprendizaje automático en YAML.
Programación de una canalización:
az ml pipeline create-schedule -n myschedule -e myexperiment -i mypipelineid -y myschedule.yml
Para obtener más información, consulte az ml pipeline create-schedule.
Registro del modelo, generación de perfiles, implementación
Los siguientes comandos muestran cómo registrar un modelo entrenado e implementarlo como servicio de producción:
Registre un modelo con Azure Machine Learning:
az ml model register -n mymodel -p sklearn_regression_model.pkl
Para más información, consulte az ml model register.
OPCIONAL Genere un perfil del modelo para obtener los valores óptimos de CPU y memoria para la implementación.
az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
Para más información, consulte az ml model profile.
Implementación del modelo en AKS
az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
Para más información sobre el esquema del archivo de configuración de inferencia, consulte Esquema de configuración de inferencia.
Para más información sobre el esquema del archivo de configuración de implementación, consulte Esquema de configuración de implementación.
Para más información, consulte az ml model deploy.
Esquema de configuración de inferencia
Las entidades del documento inferenceconfig.json
se asignan a los parámetros de la clase InferenceConfig. En la tabla siguiente se describe la asignación entre las entidades del documento JSON y los parámetros del método:
Entidad JSON | Parámetro del método | Description |
---|---|---|
entryScript |
entry_script |
Ruta de acceso al archivo local que contiene el código que se ejecuta para la imagen. |
sourceDirectory |
source_directory |
Opcional. Ruta de acceso a carpetas que contienen todos los archivos para crear la imagen, lo que facilita el acceso a los archivos de esta carpeta o subcarpeta. Puede cargar una carpeta completa desde la máquina local como dependencias para el servicio web. Nota: Las rutas de acceso entry_script, conda_file y extra_docker_file_steps son rutas de acceso relativas a la ruta de acceso source_directory. |
environment |
environment |
Opcional. Entorno de Azure Machine Learning. |
Puede incluir especificaciones completas de un entorno de Azure Machine Learning en el archivo de configuración de inferencia. Si este entorno no existe en el área de trabajo, Azure Machine Learning lo creará. De lo contrario, Azure Machine Learning actualizará el entorno si es necesario. El siguiente código JSON es un ejemplo:
{
"entryScript": "score.py",
"environment": {
"docker": {
"arguments": [],
"baseDockerfile": null,
"baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
"enabled": false,
"sharedVolumes": true,
"shmSize": null
},
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"name": "my-deploy-env",
"python": {
"baseCondaEnvironment": null,
"condaDependencies": {
"channels": [
"conda-forge"
],
"dependencies": [
"python=3.7",
{
"pip": [
"azureml-defaults",
"azureml-telemetry",
"scikit-learn==0.22.1",
"inference-schema[numpy-support]"
]
}
],
"name": "project_environment"
},
"condaDependenciesFile": null,
"interpreterPath": "python",
"userManagedDependencies": false
},
"version": "1"
}
}
También puede usar un entorno de Azure Machine Learning existente en parámetros de la CLI distintos y quitar la clave de "entorno" del archivo de configuración de inferencia. Use -e como nombre del entorno y --ev como versión del entorno. Si no especifica --ev, se usará la versión más reciente. Este es un ejemplo de un archivo de configuración de inferencia:
{
"entryScript": "score.py",
"sourceDirectory": null
}
El siguiente comando muestra cómo implementar un modelo mediante el archivo de configuración de inferencia anterior (denominado myInferenceConfig.json).
También usa la versión más reciente de un entorno existente de Azure Machine Learning (llamado AzureML-Minimal).
az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json
Esquema de configuración de implementación
Esquema de configuración de implementación local
Las entradas del documento deploymentconfig.json
se asignan a los parámetros de LocalWebservice.deploy_configuration. En la tabla siguiente se describe la asignación entre las entidades del documento JSON y los parámetros del método:
Entidad JSON | Parámetro del método | Description |
---|---|---|
computeType |
N/D | El destino de proceso. Para los destinos locales, el valor tiene que ser local . |
port |
port |
Puerto local en el que se va a exponer el punto de conexión HTTP del servicio. |
Este elemento JSON es un ejemplo de la configuración de implementación que se puede usar con la CLI:
{
"computeType": "local",
"port": 32267
}
Guarde este JSON como un archivo llamado deploymentconfig.json
.
Esquema de configuración de implementación de Azure Container Instances
Las entradas del documento deploymentconfig.json
se asignan a los parámetros de AciWebservice.deploy_configuration. En la tabla siguiente se describe la asignación entre las entidades del documento JSON y los parámetros del método:
Entidad JSON | Parámetro del método | Description |
---|---|---|
computeType |
N/D | El destino de proceso. Para ACI, el valor debe ser ACI . |
containerResourceRequirements |
N/D | Contenedor de las entidades de CPU y memoria. |
cpu |
cpu_cores |
Número de núcleos de CPU que se van a asignar. El valor predeterminado es 0.1 . |
memoryInGB |
memory_gb |
Cantidad de memoria (en GB) que se va a asignar a este servicio web. El valor predeterminado es 0.5 . |
location |
location |
Región de Azure en la que se implementará este servicio web. Si no se especifica, se usará la ubicación del área de trabajo. Aquí puede encontrar más información sobre las regiones disponibles: regiones de ACI |
authEnabled |
auth_enabled |
Indica si se debe habilitar la autenticación para este servicio web. El valor predeterminado es False. |
sslEnabled |
ssl_enabled |
Indica si se debe habilitar SSL para este servicio web. El valor predeterminado es False. |
appInsightsEnabled |
enable_app_insights |
Indica si se debe habilitar AppInsights para este servicio web. El valor predeterminado es False. |
sslCertificate |
ssl_cert_pem_file |
Archivo de certificado necesario si SSL está habilitado |
sslKey |
ssl_key_pem_file |
Archivo de clave necesario si SSL está habilitado |
cname |
ssl_cname |
CNAME si SSL está habilitado |
dnsNameLabel |
dns_name_label |
Etiqueta del nombre DNS para el punto de conexión de puntuación. Si no se especifica, se generará una etiqueta de nombre DNS única para el punto de conexión de puntuación. |
El siguiente elemento JSON es un ejemplo de la configuración de implementación que se puede usar con la CLI:
{
"computeType": "aci",
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
},
"authEnabled": true,
"sslEnabled": false,
"appInsightsEnabled": false
}
Esquema de configuración de implementación de Azure Kubernetes Service
Las entradas del documento deploymentconfig.json
se asignan a los parámetros de AksWebservice.deploy_configuration. En la tabla siguiente se describe la asignación entre las entidades del documento JSON y los parámetros del método:
Entidad JSON | Parámetro del método | Description |
---|---|---|
computeType |
N/D | El destino de proceso. Para AKS, el valor debe ser aks . |
autoScaler |
N/D | Contiene elementos de configuración para la escalabilidad automática. Consulte la tabla del escalador automático. |
autoscaleEnabled |
autoscale_enabled |
Indica si se debe habilitar la escalabilidad automática para el servicio web. Si numReplicas = 0 , True ; de lo contrario, False . |
minReplicas |
autoscale_min_replicas |
Número mínimo de contenedores que se van a usar al escalar automáticamente este servicio web. El valor predeterminado es 1 . |
maxReplicas |
autoscale_max_replicas |
Número máximo de contenedores que se van a usar al escalar automáticamente este servicio web. El valor predeterminado es 10 . |
refreshPeriodInSeconds |
autoscale_refresh_seconds |
Frecuencia con la que el escalador automático intenta escalar este servicio web. El valor predeterminado es 1 . |
targetUtilization |
autoscale_target_utilization |
Uso objetivo (en un porcentaje de 100) que el escalador automático debe intentar mantener para este servicio web. El valor predeterminado es 70 . |
dataCollection |
N/D | Contiene elementos de configuración para la colección de datos. |
storageEnabled |
collect_model_data |
Indica si se debe habilitar la recopilación de datos del modelo para el servicio web. El valor predeterminado es False . |
authEnabled |
auth_enabled |
Indica si se debe habilitar o no la autenticación mediante clave para el servicio web. tokenAuthEnabled y authEnabled no pueden ser True . El valor predeterminado es True . |
tokenAuthEnabled |
token_auth_enabled |
Indica si se debe habilitar o no la autenticación por tokens para el servicio web. tokenAuthEnabled y authEnabled no pueden ser True . El valor predeterminado es False . |
containerResourceRequirements |
N/D | Contenedor de las entidades de CPU y memoria. |
cpu |
cpu_cores |
Número de núcleos de CPU que se asigna a este servicio web. El valor predeterminado es 0.1 . |
memoryInGB |
memory_gb |
Cantidad de memoria (en GB) que se va a asignar a este servicio web. El valor predeterminado es 0.5 . |
appInsightsEnabled |
enable_app_insights |
Indica si se debe habilitar el registro de Application Insights para el servicio web. El valor predeterminado es False . |
scoringTimeoutMs |
scoring_timeout_ms |
Tiempo de espera que se aplicará a las llamadas de puntuación al servicio web. El valor predeterminado es 60000 . |
maxConcurrentRequestsPerContainer |
replica_max_concurrent_requests |
Número máximo de solicitudes simultáneas por nodo para este servicio web. El valor predeterminado es 1 . |
maxQueueWaitMs |
max_request_wait_time |
Tiempo máximo que permanecerá en la cola una solicitud (en milisegundos) antes de que se devuelva un error 503. El valor predeterminado es 500 . |
numReplicas |
num_replicas |
Número de contenedores que se asignarán a este servicio web. Ningún valor predeterminado. Si no se establece este parámetro, el escalador automático se habilita de forma predeterminada. |
keys |
N/D | Contiene elementos de configuración para las claves. |
primaryKey |
primary_key |
Clave de autenticación principal que se usará para este servicio web |
secondaryKey |
secondary_key |
Clave de autenticación secundaria que se usará para este servicio web |
gpuCores |
gpu_cores |
El número de núcleos de GPU (por réplica de contenedor) que se van a asignar a este servicio web. El valor predeterminado es 1. Solo admite valores de números enteros. |
livenessProbeRequirements |
N/D | Contiene elementos de configuración para los requisitos del sondeo de ejecución. |
periodSeconds |
period_seconds |
Frecuencia (en segundos) en que se ejecutará el sondeo de ejecución. El valor predeterminado es de 10 segundos. El valor mínimo es 1. |
initialDelaySeconds |
initial_delay_seconds |
Número de segundos después de que se haya iniciado el contenedor antes de que se inicien los sondeos de ejecución. El valor predeterminado es 310 |
timeoutSeconds |
timeout_seconds |
Número de segundos tras los cuales el sondeo de ejecución agota el tiempo de espera. El valor predeterminado es de 2 segundos. El valor mínimo es 1 |
successThreshold |
success_threshold |
Número mínimo de valores correctos consecutivos para que el sondeo de ejecución se considere correcto después de que se haya producido un error. De manera predeterminada, su valor es 1. El valor mínimo es 1. |
failureThreshold |
failure_threshold |
Cuando se inicie un pod y se produzca un error en el sondeo de ejecución, Kubernetes probará las veces especificadas en failureThreshold antes de abandonarlo. El valor predeterminado es 3. El valor mínimo es 1. |
namespace |
namespace |
Espacio de nombres de Kubernetes en el que está implementado el servicio web. Hasta 63 caracteres alfanuméricos en minúsculas (de la "a" a la "z" y de "0" a "9") y guiones ("-"). El primer y el último carácter no pueden ser un guion. |
El siguiente elemento JSON es un ejemplo de la configuración de implementación que se puede usar con la CLI:
{
"computeType": "aks",
"autoScaler":
{
"autoscaleEnabled": true,
"minReplicas": 1,
"maxReplicas": 3,
"refreshPeriodInSeconds": 1,
"targetUtilization": 70
},
"dataCollection":
{
"storageEnabled": true
},
"authEnabled": true,
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
}
}