Compartir vía


instalación y uso de la CLI (v1)

SE APLICA A: Extensión de ML de la CLI de Azure v1

Importante

Algunos de los comandos de la CLI de Azure de este artículo usan la extensión azure-cli-ml o v1 para Azure Machine Learning. La compatibilidad con la extensión v1 finalizará el 30 de septiembre de 2025. La extensión v1 se podrá instalar y usar hasta esa fecha.

Se recomienda pasar a la extensión ml, o v2, antes del 30 de septiembre de 2025. Para más información sobre la extensión v2, consulte Extensión de la CLI de Azure ML y SDK de Python v2.

La CLI de Azure Machine Learning es una extensión de la CLI de Azure, una interfaz de la línea de comandos multiplataforma para la plataforma Azure. Esta extensión proporciona comandos para trabajar con Azure Machine Learning. Permite automatizar las actividades de aprendizaje automático. En esta lista se muestran algunas acciones de ejemplo que puede realizar con la extensión de la CLI:

  • Realizar experimentos para crear modelos de aprendizaje automático

  • Registrar los modelos de aprendizaje automático para el uso del cliente

  • Empaquetar, implementar y realizar un seguimiento del ciclo de vida de los modelos de aprendizaje automático

La CLI no sustituye al SDK de Azure Machine Learning. Es una herramienta complementaria que está optimizada para administrar tareas con muchos parámetros y que están bien adaptadas para la automatización.

Prerrequisitos

  • Para usar la CLI, debe tener una suscripción de Azure. Si no tiene una suscripción de Azure, cree una cuenta gratuita antes de empezar. Pruebe hoy mismo la versión gratuita o de pago de Azure Machine Learning.

  • Para usar los comandos de la CLI de este documento desde su entorno local, necesita la CLI de Azure.

    Si usa el Azure Cloud Shell, la CLI es accesible a través del explorador y reside en la nube.

Documentos de referencia completos

Busque los documentos de referencia completos sobre la extensión azure-cli-ml de la CLI de Azure.

Conexión de la CLI a una suscripción de Azure

Importante

Puede omitir esta sección si usa Azure Cloud Shell. Cloud Shell se autentica automáticamente mediante la cuenta con la que inicia sesión en su suscripción a Azure.

Hay varias maneras de autenticarse en la suscripción a Azure desde la CLI. La manera más básica consiste en autenticarse interactivamente a través de un explorador. Para autenticarse de forma interactiva, abra una línea de comandos o un terminal y use el siguiente comando:

az login

Si la CLI puede abrir el explorador predeterminado, lo hará y cargará una página de inicio de sesión. De lo contrario, tendrá que abrir un explorador y seguir las instrucciones de la línea de comandos. Las instrucciones implican navegar a https://aka.ms/devicelogin y escribir un código de autorización.

Sugerencia

Después de iniciar sesión, verá una lista de suscripciones asociadas con la cuenta de Azure. La información de suscripción con isDefault: true es la suscripción actualmente activada para los comandos de la CLI de Azure. Esta suscripción debe ser la misma que la que contiene el área de trabajo de Azure Machine Learning. Puede buscar la información de suscripción en la página de información general del área de trabajo en Azure Portal.

Para seleccionar otra suscripción para utilizar los comandos de la CLI de Azure, ejecute el comando az account set -s <subscription> y especifique el nombre o id. de la suscripción a la que quiere cambiar. Para más información sobre la selección de suscripción, consulte Uso de varias suscripciones de Azure.

Para obtener otros métodos de autenticación, consulte Inicio de sesión con la CLI de Azure.

Instalación de la extensión

Para instalar la extensión de la CLI (v1):

az extension add -n azure-cli-ml

Actualización de la extensión

Para actualizar la extensión de la CLI de Machine Learning, use el siguiente comando:

az extension update -n azure-cli-ml

Eliminación de la extensión

Para eliminar la extensión de la CLI, use el siguiente comando:

az extension remove -n azure-cli-ml

Administración de recursos

Los siguientes comandos muestran cómo utilizar la CLI para administrar los recursos que usa Azure Machine Learning.

  • Si aún no tiene uno, cree un grupo de recursos:

    az group create -n myresourcegroup -l westus2
    
  • Cree un área de trabajo de Azure Machine Learning:

    az ml workspace create -w myworkspace -g myresourcegroup
    

    Para más información, consulte az ml workspace create.

  • Adjunte una configuración de área de trabajo a una carpeta para permitir el reconocimiento contextual de la CLI.

    az ml folder attach -w myworkspace -g myresourcegroup
    

    Este comando crea un subdirectorio .azureml que contiene archivos de entorno de conda y runconfig de ejemplo. También contiene un archivo config.json que se usa para comunicarse con el área de trabajo de Azure Machine Learning.

    Para obtener más información, consulte az ml folder attach.

  • Adjunte un contenedor de blobs de Azure como almacén de datos.

    az ml datastore attach-blob  -n datastorename -a accountname -c containername
    

    Para más información, consulte az ml datastore attach-blob.

  • Cargue archivos a un almacén de archivos.

    az ml datastore upload  -n datastorename -p sourcepath
    

    Para más información, consulte az ml datastore upload.

  • Adjunte un clúster de AKS como destino de proceso.

    az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
    

    Para más información, consulte az ml computetarget attach aks

Clústeres de proceso

  • Cree un nuevo clúster de proceso administrado.

    az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
    
  • Cree un nuevo clúster de proceso administrado con identidad administrada.

    • Identidad administrada asignada por el usuario

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • Identidad administrada asignada por el sistema

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
      
  • Agregue una identidad administrada a un clúster existente:

    • Identidad administrada asignada por el usuario

      az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • Identidad administrada asignada por el sistema

      az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
      

Para más información, consulte az ml computetarget create amlcompute.

Nota

Los clústeres de proceso de Azure Machine Learning solo admiten una identidad asignada por el sistema o varias identidades asignadas por el usuario, no ambas de forma simultánea.

Instancia de proceso

Administrar instancias de proceso. En todos los siguientes ejemplos, el nombre de la instancia de proceso es CPU

Ejecución de los experimentos

  • Inicie la ejecución del experimento. Cuando use este comando, especifique el nombre del archivo runconfig (el texto antes de *.runconfig si está mirando el sistema de archivos) en el parámetro -c.

    az ml run submit-script -c sklearn -e testexperiment train.py
    

    Sugerencia

    El comando az ml folder attach crea un subdirectorio .azureml, que contiene dos archivos runconfig de ejemplo.

    Si tiene un script de Python que crea un objeto de configuración de ejecución mediante programación, puede usar RunConfig.save() para guardarlo como un archivo runconfig.

    El esquema runconfig completo se puede encontrar en este archivo JSON. El esquema se documenta automáticamente mediante la clave description de cada objeto. Además, hay enumeraciones de valores posibles y un fragmento de código de plantilla al final.

    Para obtener más información, consulte az ml run submit-script.

  • Vea una lista de los experimentos:

    az ml experiment list
    

    Para obtener más información, consulte az ml experiment list.

Ejecución de HyperDrive

Puede usar HyperDrive con la CLI de Azure para realizar ejecuciones de ajuste de parámetros. En primer lugar, cree un archivo de configuración de HyperDrive con el siguiente formato. Consulte el artículo sobre el ajuste de hiperparámetros del modelo para obtener más información sobre los parámetros de ajuste de hiperparámetros.

# hdconfig.yml
sampling: 
    type: random # Supported options: Random, Grid, Bayesian
    parameter_space: # specify a name|expression|values tuple for each parameter.
    - name: --penalty # The name of a script parameter to generate values for.
      expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
      values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy: 
    type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
    evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
    slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.

Agregue este archivo junto con los archivos de configuración de ejecución. A continuación, envíe una ejecución de HyperDrive mediante:

az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py

Observe la sección arguments (argumentos) en runconfig y el espacio de parámetros en la configuración de HyperDrive. Contienen los argumentos de la línea de comandos que se van a pasar al script de aprendizaje. El valor de runconfig permanece igual para cada iteración, mientras que el intervalo de la configuración de HyperDrive se repite en interación. No especifique el mismo argumento en ambos archivos.

Administración de conjuntos de datos

Los siguientes comandos muestran cómo trabajar con conjuntos de datos en Azure Machine Learning:

  • Registre un conjunto de datos:

    az ml dataset register -f mydataset.json
    

    Para obtener información sobre el formato del archivo JSON que se usa para definir el conjunto de datos, use az ml dataset register --show-template.

    Para más información, consulte az ml dataset register.

  • Enumerar todos los conjuntos de datos de un área de trabajo:

    az ml dataset list
    

    Para más información, consulte az ml dataset list.

  • Obtenga los detalles de un conjunto de datos:

    az ml dataset show -n dataset-name
    

    Para más información, consulte az ml dataset show.

  • Anule el registro de un conjunto de datos:

    az ml dataset unregister -n dataset-name
    

    Para más información, consulte az ml dataset unregister.

Administrador de entornos

Los comandos siguientes muestran cómo crear, registrar y enumerar los entornos de Azure Machine Learning para el área de trabajo:

  • Creación de archivos de scaffolding para un entorno:

    az ml environment scaffold -n myenv -d myenvdirectory
    

    Para más información, consulte az ml environment scaffold.

  • Registro de un entorno:

    az ml environment register -d myenvdirectory
    

    Para más información, consulte az ml environment register.

  • Lista de entornos registrados:

    az ml environment list
    

    Para más información, consulte az ml environment list.

  • Descargue un entorno registrado:

    az ml environment download -n myenv -d downloaddirectory
    

    Para más información, consulte az ml environment download.

Esquema de configuración del entorno

Si usa el comando az ml environment scaffold, se genera un archivo de plantilla azureml_environment.json que puede modificarse y usarse para crear configuraciones de entorno personalizadas con la CLI. El objeto de nivel superior se asigna de forma flexible a la clase Environment en el SDK de Python.

{
    "name": "testenv",
    "version": null,
    "environmentVariables": {
        "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
    },
    "python": {
        "userManagedDependencies": false,
        "interpreterPath": "python",
        "condaDependenciesFile": null,
        "baseCondaEnvironment": null
    },
    "docker": {
        "enabled": false,
        "baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
        "baseDockerfile": null,
        "sharedVolumes": true,
        "shmSize": "2g",
        "arguments": [],
        "baseImageRegistry": {
            "address": null,
            "username": null,
            "password": null
        }
    },
    "spark": {
        "repositories": [],
        "packages": [],
        "precachePackages": true
    },
    "databricks": {
        "mavenLibraries": [],
        "pypiLibraries": [],
        "rcranLibraries": [],
        "jarLibraries": [],
        "eggLibraries": []
    },
    "inferencingStackVersion": null
}

En la tabla que aparece más abajo se detallan todos los campos de nivel superior del archivo JSON, su tipo y su descripción. Si un tipo de objeto está vinculado a una clase del SDK de Python, hay una coincidencia 1:1 débil entre cada campo JSON y el nombre de la variable pública en la clase de Python. En algunos casos, el campo puede asignarse a un argumento de constructor en lugar de a una variable de clase. Por ejemplo, el campo environmentVariables se asigna a la variable environment_variables en la clase Environment.

Campo JSON Tipo Descripción
name string Nombre del entorno. No escriba Microsoft o AzureML al principio del nombre.
version string Versión del entorno.
environmentVariables {string: string} Mapa hash de nombres y valores de variables de entorno.
python PythonSection que define el entorno de Python y el intérprete que se va a usar en el recurso de proceso de destino.
docker DockerSection Sección que define la configuración para personalizar la imagen de Docker compilada según las especificaciones del entorno.
spark SparkSection Sección que define la configuración de Spark. Solo se usa cuando el marco se establece en PySpark.
databricks DatabricksSection Sección que define la configuración de las dependencias de las bibliotecas de Databricks.
inferencingStackVersion string Campo que especifica la versión de la pila de inferencia agregada a la imagen. Para evitar agregar una pila de inferencia, deje este campo como null. Valor válido: "latest" (más reciente).

Administración de canalizaciones de aprendizaje automático

Los siguientes comandos muestran cómo trabajar con canalizaciones de aprendizaje automático:

Registro del modelo, generación de perfiles, implementación

Los siguientes comandos muestran cómo registrar un modelo entrenado e implementarlo como servicio de producción:

  • Registre un modelo con Azure Machine Learning:

    az ml model register -n mymodel -p sklearn_regression_model.pkl
    

    Para más información, consulte az ml model register.

  • OPCIONAL Genere un perfil del modelo para obtener los valores óptimos de CPU y memoria para la implementación.

    az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
    

    Para más información, consulte az ml model profile.

  • Implementación del modelo en AKS

    az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
    

    Para más información sobre el esquema del archivo de configuración de inferencia, consulte Esquema de configuración de inferencia.

    Para más información sobre el esquema del archivo de configuración de implementación, consulte Esquema de configuración de implementación.

    Para más información, consulte az ml model deploy.

Esquema de configuración de inferencia

Las entidades del documento inferenceconfig.json se asignan a los parámetros de la clase InferenceConfig. En la tabla siguiente se describe la asignación entre las entidades del documento JSON y los parámetros del método:

Entidad JSON Parámetro del método Description
entryScript entry_script Ruta de acceso al archivo local que contiene el código que se ejecuta para la imagen.
sourceDirectory source_directory Opcional. Ruta de acceso a carpetas que contienen todos los archivos para crear la imagen, lo que facilita el acceso a los archivos de esta carpeta o subcarpeta. Puede cargar una carpeta completa desde la máquina local como dependencias para el servicio web. Nota: Las rutas de acceso entry_script, conda_file y extra_docker_file_steps son rutas de acceso relativas a la ruta de acceso source_directory.
environment environment Opcional. Entorno de Azure Machine Learning.

Puede incluir especificaciones completas de un entorno de Azure Machine Learning en el archivo de configuración de inferencia. Si este entorno no existe en el área de trabajo, Azure Machine Learning lo creará. De lo contrario, Azure Machine Learning actualizará el entorno si es necesario. El siguiente código JSON es un ejemplo:

{
    "entryScript": "score.py",
    "environment": {
        "docker": {
            "arguments": [],
            "baseDockerfile": null,
            "baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
            "enabled": false,
            "sharedVolumes": true,
            "shmSize": null
        },
        "environmentVariables": {
            "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
        },
        "name": "my-deploy-env",
        "python": {
            "baseCondaEnvironment": null,
            "condaDependencies": {
                "channels": [
                    "conda-forge"
                ],
                "dependencies": [
                    "python=3.7",
                    {
                        "pip": [
                            "azureml-defaults",
                            "azureml-telemetry",
                            "scikit-learn==0.22.1",
                            "inference-schema[numpy-support]"
                        ]
                    }
                ],
                "name": "project_environment"
            },
            "condaDependenciesFile": null,
            "interpreterPath": "python",
            "userManagedDependencies": false
        },
        "version": "1"
    }
}

También puede usar un entorno de Azure Machine Learning existente en parámetros de la CLI distintos y quitar la clave de "entorno" del archivo de configuración de inferencia. Use -e como nombre del entorno y --ev como versión del entorno. Si no especifica --ev, se usará la versión más reciente. Este es un ejemplo de un archivo de configuración de inferencia:

{
    "entryScript": "score.py",
    "sourceDirectory": null
}

El siguiente comando muestra cómo implementar un modelo mediante el archivo de configuración de inferencia anterior (denominado myInferenceConfig.json).

También usa la versión más reciente de un entorno existente de Azure Machine Learning (llamado AzureML-Minimal).

az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json

Esquema de configuración de implementación

Esquema de configuración de implementación local

Las entradas del documento deploymentconfig.json se asignan a los parámetros de LocalWebservice.deploy_configuration. En la tabla siguiente se describe la asignación entre las entidades del documento JSON y los parámetros del método:

Entidad JSON Parámetro del método Description
computeType N/D El destino de proceso. Para los destinos locales, el valor tiene que ser local.
port port Puerto local en el que se va a exponer el punto de conexión HTTP del servicio.

Este elemento JSON es un ejemplo de la configuración de implementación que se puede usar con la CLI:

{
    "computeType": "local",
    "port": 32267
}

Guarde este JSON como un archivo llamado deploymentconfig.json.

Esquema de configuración de implementación de Azure Container Instances

Las entradas del documento deploymentconfig.json se asignan a los parámetros de AciWebservice.deploy_configuration. En la tabla siguiente se describe la asignación entre las entidades del documento JSON y los parámetros del método:

Entidad JSON Parámetro del método Description
computeType N/D El destino de proceso. Para ACI, el valor debe ser ACI.
containerResourceRequirements N/D Contenedor de las entidades de CPU y memoria.
  cpu cpu_cores Número de núcleos de CPU que se van a asignar. El valor predeterminado es 0.1.
  memoryInGB memory_gb Cantidad de memoria (en GB) que se va a asignar a este servicio web. El valor predeterminado es 0.5.
location location Región de Azure en la que se implementará este servicio web. Si no se especifica, se usará la ubicación del área de trabajo. Aquí puede encontrar más información sobre las regiones disponibles: regiones de ACI
authEnabled auth_enabled Indica si se debe habilitar la autenticación para este servicio web. El valor predeterminado es False.
sslEnabled ssl_enabled Indica si se debe habilitar SSL para este servicio web. El valor predeterminado es False.
appInsightsEnabled enable_app_insights Indica si se debe habilitar AppInsights para este servicio web. El valor predeterminado es False.
sslCertificate ssl_cert_pem_file Archivo de certificado necesario si SSL está habilitado
sslKey ssl_key_pem_file Archivo de clave necesario si SSL está habilitado
cname ssl_cname CNAME si SSL está habilitado
dnsNameLabel dns_name_label Etiqueta del nombre DNS para el punto de conexión de puntuación. Si no se especifica, se generará una etiqueta de nombre DNS única para el punto de conexión de puntuación.

El siguiente elemento JSON es un ejemplo de la configuración de implementación que se puede usar con la CLI:

{
    "computeType": "aci",
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    },
    "authEnabled": true,
    "sslEnabled": false,
    "appInsightsEnabled": false
}

Esquema de configuración de implementación de Azure Kubernetes Service

Las entradas del documento deploymentconfig.json se asignan a los parámetros de AksWebservice.deploy_configuration. En la tabla siguiente se describe la asignación entre las entidades del documento JSON y los parámetros del método:

Entidad JSON Parámetro del método Description
computeType N/D El destino de proceso. Para AKS, el valor debe ser aks.
autoScaler N/D Contiene elementos de configuración para la escalabilidad automática. Consulte la tabla del escalador automático.
  autoscaleEnabled autoscale_enabled Indica si se debe habilitar la escalabilidad automática para el servicio web. Si numReplicas = 0, True; de lo contrario, False.
  minReplicas autoscale_min_replicas Número mínimo de contenedores que se van a usar al escalar automáticamente este servicio web. El valor predeterminado es 1.
  maxReplicas autoscale_max_replicas Número máximo de contenedores que se van a usar al escalar automáticamente este servicio web. El valor predeterminado es 10.
  refreshPeriodInSeconds autoscale_refresh_seconds Frecuencia con la que el escalador automático intenta escalar este servicio web. El valor predeterminado es 1.
  targetUtilization autoscale_target_utilization Uso objetivo (en un porcentaje de 100) que el escalador automático debe intentar mantener para este servicio web. El valor predeterminado es 70.
dataCollection N/D Contiene elementos de configuración para la colección de datos.
  storageEnabled collect_model_data Indica si se debe habilitar la recopilación de datos del modelo para el servicio web. El valor predeterminado es False.
authEnabled auth_enabled Indica si se debe habilitar o no la autenticación mediante clave para el servicio web. tokenAuthEnabled y authEnabled no pueden ser True. El valor predeterminado es True.
tokenAuthEnabled token_auth_enabled Indica si se debe habilitar o no la autenticación por tokens para el servicio web. tokenAuthEnabled y authEnabled no pueden ser True. El valor predeterminado es False.
containerResourceRequirements N/D Contenedor de las entidades de CPU y memoria.
  cpu cpu_cores Número de núcleos de CPU que se asigna a este servicio web. El valor predeterminado es 0.1.
  memoryInGB memory_gb Cantidad de memoria (en GB) que se va a asignar a este servicio web. El valor predeterminado es 0.5.
appInsightsEnabled enable_app_insights Indica si se debe habilitar el registro de Application Insights para el servicio web. El valor predeterminado es False.
scoringTimeoutMs scoring_timeout_ms Tiempo de espera que se aplicará a las llamadas de puntuación al servicio web. El valor predeterminado es 60000.
maxConcurrentRequestsPerContainer replica_max_concurrent_requests Número máximo de solicitudes simultáneas por nodo para este servicio web. El valor predeterminado es 1.
maxQueueWaitMs max_request_wait_time Tiempo máximo que permanecerá en la cola una solicitud (en milisegundos) antes de que se devuelva un error 503. El valor predeterminado es 500.
numReplicas num_replicas Número de contenedores que se asignarán a este servicio web. Ningún valor predeterminado. Si no se establece este parámetro, el escalador automático se habilita de forma predeterminada.
keys N/D Contiene elementos de configuración para las claves.
  primaryKey primary_key Clave de autenticación principal que se usará para este servicio web
  secondaryKey secondary_key Clave de autenticación secundaria que se usará para este servicio web
gpuCores gpu_cores El número de núcleos de GPU (por réplica de contenedor) que se van a asignar a este servicio web. El valor predeterminado es 1. Solo admite valores de números enteros.
livenessProbeRequirements N/D Contiene elementos de configuración para los requisitos del sondeo de ejecución.
  periodSeconds period_seconds Frecuencia (en segundos) en que se ejecutará el sondeo de ejecución. El valor predeterminado es de 10 segundos. El valor mínimo es 1.
  initialDelaySeconds initial_delay_seconds Número de segundos después de que se haya iniciado el contenedor antes de que se inicien los sondeos de ejecución. El valor predeterminado es 310
  timeoutSeconds timeout_seconds Número de segundos tras los cuales el sondeo de ejecución agota el tiempo de espera. El valor predeterminado es de 2 segundos. El valor mínimo es 1
  successThreshold success_threshold Número mínimo de valores correctos consecutivos para que el sondeo de ejecución se considere correcto después de que se haya producido un error. De manera predeterminada, su valor es 1. El valor mínimo es 1.
  failureThreshold failure_threshold Cuando se inicie un pod y se produzca un error en el sondeo de ejecución, Kubernetes probará las veces especificadas en failureThreshold antes de abandonarlo. El valor predeterminado es 3. El valor mínimo es 1.
namespace namespace Espacio de nombres de Kubernetes en el que está implementado el servicio web. Hasta 63 caracteres alfanuméricos en minúsculas (de la "a" a la "z" y de "0" a "9") y guiones ("-"). El primer y el último carácter no pueden ser un guion.

El siguiente elemento JSON es un ejemplo de la configuración de implementación que se puede usar con la CLI:

{
    "computeType": "aks",
    "autoScaler":
    {
        "autoscaleEnabled": true,
        "minReplicas": 1,
        "maxReplicas": 3,
        "refreshPeriodInSeconds": 1,
        "targetUtilization": 70
    },
    "dataCollection":
    {
        "storageEnabled": true
    },
    "authEnabled": true,
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    }
}

Pasos siguientes