Introdução aos experimentos do MLflow
Esta coleção de notebooks demonstra como você pode começar a trabalhar com execuções de experimentos do MLflow.
Componentes do MLflow
O MLflow é uma plataforma de fonte aberta para gerenciar o ciclo de vida de machine learning de ponta a ponta. O MLflow tem três componentes principais:
- Acompanhamento
- Modelos
- Projetos
O componente Acompanhamento do MLflow permite registrar em log e consultar sessões de treinamento de modelo de computador (execuções) usando as seguintes APIs:
Uma execução do MLflow é uma coleção de parâmetros, métricas, marcas e artefatos associados a um processo de treinamento de modelo de machine learning.
O que são experimentos no MLflow?
Os experimentos são a principal unidade da organização no MLflow; todas as execuções do MLflow pertencem a um experimento. Cada experimento permite visualizar, pesquisar e comparar execuções, bem como baixar artefatos de execução ou metadados para análise em outras ferramentas. Os experimentos são mantidos em um servidor de acompanhamento do MLflow hospedado no Azure Databricks.
Os experimentos estão localizados na árvore de arquivos do workspace. Você gerencia experimentos usando as mesmas ferramentas usadas para gerenciar outros objetos do workspace, como pastas, notebooks e bibliotecas.
Notebooks de exemplo do MLflow
Os notebooks a seguir demonstram como criar e registrar em log uma execução do MLflow usando as APIs de acompanhamento do MLflow, bem como usar a interface do usuário do experimento para exibir a execução. Esses notebooks estão disponíveis no Python, Scala e R.
Os notebooks Python e R usam um experimento de notebook. O notebook Scala cria um experimento na pasta Shared
.
Observação
Com o Databricks Runtime 10.4 LTS ML e superior, o Registro Automático do Databricks está habilitado por padrão para notebooks Python.