Partager via


TritonInferencingServer Classe

Notes

Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

Configurations d’inférence de triton Azure ML.

Héritage
builtins.object
TritonInferencingServer

Constructeur

TritonInferencingServer(*, inference_configuration: CodeConfiguration | None = None, **kwargs: Any)

Paramètres

Nom Description
inference_configuration
Obligatoire

Configuration d’inférence du serveur d’inférence.

Variables

Nom Description
type

Type du serveur d’inférence.