Imagens do Docker pré-criadas para inferência
As imagens de contêiner do Docker pré-criadas para inferência são usadas ao implantar um modelo com o Aprendizado de Máquina do Azure. As imagens são pré-construídas com estruturas populares de aprendizado de máquina e pacotes Python. Você também pode estender os pacotes para adicionar outros pacotes usando um dos seguintes métodos:
Por que devo usar imagens pré-construídas?
- Reduz a latência de implantação do modelo
- Melhora a taxa de sucesso da implantação do modelo
- Evita a criação desnecessária de imagens durante a implantação do modelo
- Inclui apenas as dependências necessárias e o direito de acesso na imagem/contêiner
Lista de imagens pré-construídas do Docker para inferência
Importante
A lista fornecida na tabela a seguir inclui apenas as imagens de inferência do Docker que o Azure Machine Learning suporta atualmente.
- Todas as imagens do Docker são executadas como usuário não-root.
- Recomendamos o uso da tag para imagens do
latest
Docker. As imagens pré-criadas do Docker para inferência são publicadas no Registro de contêiner da Microsoft (MCR). Para obter informações sobre como consultar a lista de tags disponíveis, consulte o repositório MCR GitHub. - Se você quiser usar uma marca específica para qualquer imagem do Docker de inferência, o Aprendizado de Máquina do Azure dá suporte a tags que variam de
latest
até seis meses mais antigas do quelatest
.
Inferência de imagens de base mínimas
Versão do Framework | CPU/GPU | Pacotes pré-instalados | Caminho MCR |
---|---|---|---|
ND | CPU | ND | mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cpu-inference:latest |
ND | GPU | ND | mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cuda11.6.2-gpu-inference:latest |
ND | CPU | ND | mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cpu-inference:latest |
ND | GPU | ND | mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cuda11.8-gpu-inference:latest |
Nota
O Azure Machine Learning dá suporte a ambientes com curadoria. Você pode navegar em ambientes selecionados e adicionar filtro para Tags: Inferencing
.