Immagini Docker predefinite per l'inferenza

Le immagini del contenitore Docker predefinite per l'inferenza vengono usate durante la distribuzione di un modello con Azure Machine Learning. Le immagini sono predefinite nei framework di Machine Learning e pacchetti Python più diffusi. È anche possibile estendere i pacchetti per aggiungere altri pacchetti usando uno dei metodi seguenti:

Perché è consigliabile usare le immagini predefinite?

  • Riduce la latenza di distribuzione del modello
  • Migliorare la percentuale di successo della distribuzione del modello
  • Evita la compilazione di immagini non necessarie durante la distribuzione del modello
  • Include solo le dipendenze necessarie e il diritto di accesso nell'immagine/contenitore

Elenco delle immagini Docker predefinite per l'inferenza

Importante

L'elenco fornito nella tabella seguente include solo le immagini Docker di inferenza attualmente supportate da Azure Machine Learning.

  • Tutte le immagini Docker vengono eseguite come utente non radice.
  • È consigliabile usare il tag latest per le immagini Docker. Le immagini Docker predefinite per l'inferenza vengono pubblicate nel Registro Contenitori Microsoft (MCR). Per informazioni su come eseguire una query sull'elenco dei tag disponibili, vedere il repository di GitHub MCR.
  • Se si vuole usare un tag specifico per qualsiasi immagine Docker di inferenza, Azure Machine Learning supporta tag compresi tra latest e sei mesi più vecchi di latest.

Immagini di base minime per l’inferenza

Versione framework CPU/GPU Pacchetti preinstallati Percorso MCR
N/D CPU N/D mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cpu-inference:latest
N/D GPU N/D mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cuda11.6.2-gpu-inference:latest
N/D CPU N/D mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cpu-inference:latest
N/D GPU ND mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cuda11.8-gpu-inference:latest

Nota

Azure Machine Learning supporta Ambienti curati. È possibile esplorare gli ambienti curati e aggiungere un filtro per Tags: Inferencing.