TritonInferencingServer Classe
Notes
Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.
Configurations d’inférence de triton Azure ML.
- Héritage
-
builtins.objectTritonInferencingServer
Constructeur
TritonInferencingServer(*, inference_configuration: CodeConfiguration | None = None, **kwargs: Any)
Paramètres
Nom | Description |
---|---|
inference_configuration
Obligatoire
|
Configuration d’inférence du serveur d’inférence. |
Variables
Nom | Description |
---|---|
type
|
Type du serveur d’inférence. |
Collaborer avec nous sur GitHub
La source de ce contenu se trouve sur GitHub, où vous pouvez également créer et examiner les problèmes et les demandes de tirage. Pour plus d’informations, consultez notre guide du contributeur.
Azure SDK for Python