Compartir a través de


Implementación de un modelo de forma local

Obtenga información sobre cómo usar Azure Machine Learning para implementar un modelo como un servicio web en la instancia de proceso de Azure Machine Learning. Use las instancias de proceso si se cumple una de las condiciones siguientes:

  • Debe implementar y validar rápidamente el modelo.
  • Está probando un modelo que está en desarrollo.

Sugerencia

La implementación de un modelo de Jupyter Notebook de una instancia de proceso, en un servicio web de la misma máquina virtual es una implementación local. En este caso, la máquina "local" es la instancia de proceso.

Nota:

Los puntos de conexión de Azure Machine Learning (v2) proporcionan una experiencia de implementación mejorada y más sencilla. Los puntos de conexión admiten escenarios de inferencia por lotes y en tiempo real. Los puntos de conexión proporcionan una interfaz unificada para invocar y administrar implementaciones de modelos entre tipos de proceso. Consulte ¿Qué son los puntos de conexión de Azure Machine Learning?.

Prerrequisitos

  • Un área de trabajo de Azure Machine Learning con una instancia de proceso en ejecución. Para obtener más información, consulta Crear recursos para empezar.

Implementación en instancias de proceso

En la instancia de proceso se incluye un cuaderno de ejemplo en el que se muestran las implementaciones locales. Siga estos pasos para cargar el cuaderno e implementar el modelo como un servicio web en la máquina virtual:

  1. En Azure Machine Learning Studio, seleccione "Cuadernos" y luego seleccione how-to-use-azureml/deployment/deploy-to-local/register-model-deploy-local.ipynb en "Cuadernos de ejemplo". Clone este cuaderno en la carpeta de usuario.

  2. Busque el cuaderno clonado en el paso 1 y elija o cree una instancia de proceso para ejecutar el cuaderno.

    Captura de pantalla del servicio local en ejecución en el cuaderno

  3. El cuaderno muestra la dirección URL y el puerto en el que se está ejecutando el servicio. Por ejemplo, https://localhost:6789. También puede ejecutar la celda que contiene print('Local service port: {}'.format(local_service.port)) para mostrar el puerto.

    Captura de pantalla del puerto del servicio local en ejecución

  4. Para probar el servicio desde una instancia de proceso, use la dirección URL de https://localhost:<local_service.port>. Para realizar una prueba desde un cliente remoto, obtenga la dirección URL pública del servicio que se ejecuta en la instancia de proceso. La dirección URL pública se puede determinar mediante la siguiente fórmula:

    • Máquina virtual de cuadernos: https://<vm_name>-<local_service_port>.<azure_region_of_workspace>.notebooks.azureml.net/score.
    • Instancia de proceso: https://<vm_name>-<local_service_port>.<azure_region_of_workspace>.instances.azureml.net/score.

    Por ejemplo,

    • Máquina virtual de cuadernos: https://vm-name-6789.northcentralus.notebooks.azureml.net/score
    • Instancia de proceso: https://vm-name-6789.northcentralus.instances.azureml.net/score

Probar el servicio

Para enviar datos de ejemplo al servicio en ejecución, use el código siguiente. Reemplace el valor service_url por la dirección URL del paso anterior:

Nota:

Al autenticarse en una implementación en la instancia de proceso, la autenticación se realiza mediante Microsoft Entra ID. La llamada a interactive_auth.get_authentication_header() en el código de ejemplo se autentica mediante Microsoft Entra ID y devuelve un encabezado que se puede usar para autenticarse en el servicio en la instancia de proceso. Para obtener más información, consulta el artículo Configuración de la autenticación para recursos y flujos de trabajo de Azure Machine Learning.

Al autenticarse en una implementación en Azure Kubernetes Service o Azure Container Instances, se usa un método de autenticación diferente. Para obtener más información, consulte Configuración de la autenticación para modelos de Azure Machine Learning implementados como servicios web.

import requests
import json
from azureml.core.authentication import InteractiveLoginAuthentication

# Get a token to authenticate to the compute instance from remote
interactive_auth = InteractiveLoginAuthentication()
auth_header = interactive_auth.get_authentication_header()

# Create and submit a request using the auth header
headers = auth_header
# Add content type header
headers.update({'Content-Type':'application/json'})

# Sample data to send to the service
test_sample = json.dumps({'data': [
    [1,2,3,4,5,6,7,8,9,10],
    [10,9,8,7,6,5,4,3,2,1]
]})
test_sample = bytes(test_sample,encoding = 'utf8')

# Replace with the URL for your compute instance, as determined from the previous section
service_url = "https://vm-name-6789.northcentralus.notebooks.azureml.net/score"
# for a compute instance, the url would be https://vm-name-6789.northcentralus.instances.azureml.net/score
resp = requests.post(service_url, test_sample, headers=headers)
print("prediction:", resp.text)

Pasos siguientes