TritonInferencingServer Classe
Nota
Esta é uma classe experimental e pode mudar em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental.
Configurações de inferência de triton do Azure ML.
- Herança
-
builtins.objectTritonInferencingServer
Construtor
TritonInferencingServer(*, inference_configuration: CodeConfiguration | None = None, **kwargs: Any)
Parâmetros
Name | Description |
---|---|
inference_configuration
Necessário
|
A configuração de inferência do servidor de inferência. |
Variáveis
Name | Description |
---|---|
type
|
O tipo do servidor de inferência. |
Colabore connosco no GitHub
A origem deste conteúdo pode ser encontrada no GitHub, onde também pode criar e rever problemas e pedidos Pull. Para mais informações, consulte o nosso guia do contribuidor.
Azure SDK for Python