InferenceConfig Classe
- Ereditarietà
-
builtins.objectInferenceConfig
Costruttore
InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)
Parametri
Nome | Descrizione |
---|---|
entry_script
Necessario
|
Percorso di un file locale contenente il codice da eseguire per l'immagine. |
runtime
|
Runtime da usare per l'immagine. I runtime supportati correnti sono "spark-py" e "python". Valore predefinito: None
|
conda_file
|
Percorso di un file locale contenente una definizione di ambiente conda da usare per l'immagine. Valore predefinito: None
|
extra_docker_file_steps
|
Percorso di un file locale contenente passaggi Docker aggiuntivi da eseguire durante la configurazione dell'immagine. Valore predefinito: None
|
source_directory
|
Percorso della cartella contenente tutti i file per creare l'immagine. Valore predefinito: None
|
enable_gpu
|
Indica se abilitare il supporto GPU nell'immagine. L'immagine GPU deve essere usata in Servizi di Microsoft Azure, ad esempio Istanze di Azure Container, Calcolo di Azure Machine Learning, Macchine virtuali di Azure e servizio Azure Kubernetes. Il valore predefinito è False. Valore predefinito: None
|
description
|
Descrizione da assegnare all'immagine. Valore predefinito: None
|
base_image
|
Immagine personalizzata da usare come immagine di base. Se non viene specificata alcuna immagine di base, l'immagine di base verrà usata in base al parametro di runtime specificato. Valore predefinito: None
|
base_image_registry
|
Registro immagini contenente l'immagine di base. Valore predefinito: None
|
cuda_version
|
Versione di CUDA da installare per le immagini che necessitano del supporto della GPU. L'immagine GPU deve essere usata in Servizi di Microsoft Azure, ad esempio Istanze di Azure Container, Calcolo di Azure Machine Learning, Macchine virtuali di Azure e servizio Azure Kubernetes. Le versioni supportate sono 9.0, 9.1 e 10.0.
Se Valore predefinito: None
|
environment
|
Oggetto ambiente da usare per la distribuzione. L'ambiente non deve essere registrato. Specificare questo parametro o gli altri parametri, ma non entrambi. I singoli parametri non fungono da override per l'oggetto ambiente. Le eccezioni includono Valore predefinito: None
|
entry_script
Necessario
|
Percorso di un file locale contenente il codice da eseguire per l'immagine. |
runtime
Necessario
|
Runtime da usare per l'immagine. I runtime supportati correnti sono "spark-py" e "python". |
conda_file
Necessario
|
Percorso di un file locale contenente una definizione di ambiente conda da usare per l'immagine. |
extra_docker_file_steps
Necessario
|
Percorso di un file locale contenente passaggi Docker aggiuntivi da eseguire durante la configurazione dell'immagine. |
source_directory
Necessario
|
Percorso della cartella contenente tutti i file per creare l'immagine. |
enable_gpu
Necessario
|
Indica se abilitare il supporto GPU nell'immagine. L'immagine GPU deve essere usata in Servizi di Microsoft Azure, ad esempio Istanze di Azure Container, Calcolo di Azure Machine Learning, Macchine virtuali di Azure e servizio Azure Kubernetes. Il valore predefinito è False. |
description
Necessario
|
Descrizione da assegnare all'immagine. |
base_image
Necessario
|
Immagine personalizzata da usare come immagine di base. Se non viene specificata alcuna immagine di base, l'immagine di base verrà usata in base al parametro di runtime specificato. |
base_image_registry
Necessario
|
Registro immagini contenente l'immagine di base. |
cuda_version
Necessario
|
Versione di CUDA da installare per le immagini che necessitano del supporto della GPU. L'immagine GPU deve essere usata in Servizi di Microsoft Azure, ad esempio Istanze di Azure Container, Calcolo di Azure Machine Learning, Macchine virtuali di Azure e servizio Azure Kubernetes. Le versioni supportate sono 9.0, 9.1 e 10.0.
Se |
environment
Necessario
|
Oggetto ambiente da usare per la distribuzione. L'ambiente non deve essere registrato. Specificare questo parametro o gli altri parametri, ma non entrambi. I singoli parametri non fungono da override per l'oggetto ambiente. Le eccezioni includono |
Commenti
Nell'esempio seguente viene illustrato come creare un oggetto InferenceConfig e usarlo per distribuire un modello.
from azureml.core.model import InferenceConfig
from azureml.core.webservice import AciWebservice
service_name = 'my-custom-env-service'
inference_config = InferenceConfig(entry_script='score.py', environment=environment)
aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)
service = Model.deploy(workspace=ws,
name=service_name,
models=[model],
inference_config=inference_config,
deployment_config=aci_config,
overwrite=True)
service.wait_for_deployment(show_output=True)
Variabili
Nome | Descrizione |
---|---|
entry_script
|
Percorso di un file locale contenente il codice da eseguire per l'immagine. |
runtime
|
Runtime da usare per l'immagine. I runtime supportati correnti sono "spark-py" e "python". |
conda_file
|
Percorso di un file locale contenente una definizione di ambiente conda da usare per l'immagine. |
extra_docker_file_steps
|
Percorso di un file locale contenente passaggi Docker aggiuntivi da eseguire durante la configurazione dell'immagine. |
source_directory
|
Percorso della cartella contenente tutti i file per creare l'immagine. |
enable_gpu
|
Indica se abilitare il supporto GPU nell'immagine. L'immagine GPU deve essere usata in Servizi di Microsoft Azure, ad esempio Istanze di Azure Container, Calcolo di Azure Machine Learning, Macchine virtuali di Azure e servizio Azure Kubernetes. |
azureml.core.model.InferenceConfig.description
|
Descrizione da assegnare all'immagine. |
base_image
|
Immagine personalizzata da usare come immagine di base. Se non viene specificata alcuna immagine di base, l'immagine di base verrà usata in base al parametro di runtime specificato. |
base_image_registry
|
Registro immagini contenente l'immagine di base. |
cuda_version
|
Versione di CUDA da installare per le immagini che richiedono supporto GPU. L'immagine GPU deve essere usata in Servizi di Microsoft Azure, ad esempio Istanze di Azure Container, Calcolo di Azure Machine Learning, Macchine virtuali di Azure e servizio Azure Kubernetes. Le versioni supportate sono 9.0, 9.1 e 10.0.
Se |
azureml.core.model.InferenceConfig.environment
|
Oggetto ambiente da usare per la distribuzione. L'ambiente non deve essere registrato. Specificare questo parametro o gli altri parametri, ma non entrambi. I singoli parametri non fungono da override per l'oggetto ambiente. Le eccezioni includono |
Metodi
build_create_payload |
Compilare il payload di creazione per l'immagine contenitore. |
build_profile_payload |
Compilare il payload di profilatura per il pacchetto Modello. |
validate_configuration |
Verificare che i valori di configurazione specificati siano validi. Genera un valore WebserviceException se la convalida ha esito negativo. |
validation_script_content |
Verificare che la sintassi dello script di punteggio sia valida con ast.parse. Genera un valore UserErrorException se la convalida ha esito negativo. |
build_create_payload
Compilare il payload di creazione per l'immagine contenitore.
build_create_payload(workspace, name, model_ids)
Parametri
Nome | Descrizione |
---|---|
workspace
Necessario
|
Oggetto area di lavoro in cui creare l'immagine. |
name
Necessario
|
Nome dell'immagine. |
model_ids
Necessario
|
Elenco di ID modello da inserire nell'immagine. |
Restituisce
Tipo | Descrizione |
---|---|
Payload di creazione dell'immagine del contenitore. |
Eccezioni
Tipo | Descrizione |
---|---|
build_profile_payload
Compilare il payload di profilatura per il pacchetto Modello.
build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)
Parametri
Nome | Descrizione |
---|---|
profile_name
Necessario
|
Nome dell'esecuzione della profilatura. |
input_data
|
Dati di input per la profilatura. Valore predefinito: None
|
workspace
|
Oggetto Workspace in cui profilare il modello. Valore predefinito: None
|
models
|
Elenco di oggetti modello. Può essere un elenco vuoto. Valore predefinito: None
|
dataset_id
|
ID associato al set di dati contenente i dati di input per l'esecuzione della profilatura. Valore predefinito: None
|
container_resource_requirements
|
requisiti di risorsa contenitore per l'istanza più grande in cui deve essere distribuito il modello Valore predefinito: None
|
description
|
Descrizione da associare all'esecuzione della profilatura. Valore predefinito: None
|
Restituisce
Tipo | Descrizione |
---|---|
Payload del profilo del modello |
Eccezioni
Tipo | Descrizione |
---|---|
validate_configuration
Verificare che i valori di configurazione specificati siano validi.
Genera un valore WebserviceException se la convalida ha esito negativo.
validate_configuration()
Eccezioni
Tipo | Descrizione |
---|---|
validation_script_content
Verificare che la sintassi dello script di punteggio sia valida con ast.parse.
Genera un valore UserErrorException se la convalida ha esito negativo.
validation_script_content()
Eccezioni
Tipo | Descrizione |
---|---|