PipelineJob Classe
Trabalho de pipeline.
Você não deve instanciar essa classe diretamente. Em vez disso, você deve usar o decorador @pipeline para criar um PipelineJob.
] :p am compute: nome de destino de computação do pipeline criado. O padrão é None :type compute: str :p aram tags: dicionário de marcas. As marcas podem ser adicionadas, removidas e atualizadas. O padrão é None :type tags: dict[str, str] :p aram kwargs: um dicionário de parâmetros de configuração adicionais. O padrão é None :type kwargs: dict
- Herança
-
azure.ai.ml.entities._job.job.JobPipelineJobazure.ai.ml.entities._mixins.YamlTranslatableMixinPipelineJobazure.ai.ml.entities._job.pipeline._io.mixin.PipelineJobIOMixinPipelineJobazure.ai.ml.entities._validation.path_aware_schema.PathAwareSchemaValidatableMixinPipelineJob
Construtor
PipelineJob(*, component: str | PipelineComponent | None = None, inputs: Dict[str, int | str | float | bool | Input] | None = None, outputs: Dict[str, Output] | None = None, name: str | None = None, description: str | None = None, display_name: str | None = None, experiment_name: str | None = None, jobs: Dict[str, BaseNode] | None = None, settings: PipelineJobSettings | None = None, identity: ManagedIdentityConfiguration | AmlTokenConfiguration | UserIdentityConfiguration | None = None, compute: str | None = None, tags: Dict[str, str] | None = None, **kwargs)
Parâmetros
- component
- Union[str, PipelineComponent]
Versão do componente do pipeline. O campo é mutuamente exclusivo com "trabalhos".
Entradas para o trabalho de pipeline.
- experiment_name
- str
Nome do experimento em que o trabalho será criado. Se None for fornecido, o experimento será definido como o diretório atual. Padrão como Nenhum
Nome do nó do componente do pipeline para o objeto de componente. Padrão como Nenhum
Identidade que o trabalho de treinamento usará durante a execução na computação. Padrão como Nenhum
Exemplos
Mostra como criar um pipeline usando essa classe.
from azure.ai.ml.entities import PipelineJob, PipelineJobSettings
pipeline_job = PipelineJob(
description="test pipeline job",
tags={},
display_name="test display name",
experiment_name="pipeline_job_samples",
properties={},
settings=PipelineJobSettings(force_rerun=True, default_compute="cpu-cluster"),
jobs={"component1": component_func(component_in_number=1.0, component_in_path=uri_file_input)},
)
ml_client.jobs.create_or_update(pipeline_job)
Métodos
dump |
Despeja o conteúdo do trabalho em um arquivo no formato YAML. |
dump
Despeja o conteúdo do trabalho em um arquivo no formato YAML.
dump(dest: str | PathLike | IO, **kwargs) -> None
Parâmetros
O caminho local ou fluxo de arquivos para o qual gravar o conteúdo YAML. Se dest for um caminho de arquivo, um novo arquivo será criado. Se dest for um arquivo aberto, o arquivo será gravado diretamente.
- kwargs
- dict
Argumentos adicionais a serem passados para o serializador YAML.
Exceções
Gerado se dest for um caminho de arquivo e o arquivo já existir.
Gerado se dest for um arquivo aberto e o arquivo não for gravável.
Atributos
base_path
creation_context
O contexto de criação do recurso.
Retornos
Os metadados de criação do recurso.
Tipo de retorno
id
A ID do recurso.
Retornos
A ID global do recurso, uma ID do ARM (Resource Manager do Azure).
Tipo de retorno
inputs
Entradas do trabalho de pipeline.
Retornos
Entradas do trabalho de pipeline.
Tipo de retorno
jobs
Retornar trabalhos do trabalho de pipeline.
Retornos
Trabalhos de trabalho de pipeline.
Tipo de retorno
log_files
Arquivos de saída do trabalho.
Retornos
O dicionário de nomes de log e URLs.
Tipo de retorno
outputs
Saídas do trabalho de pipeline.
Retornos
Saídas do trabalho de pipeline.
Tipo de retorno
settings
Configurações do trabalho de pipeline.
Retornos
Configurações do trabalho de pipeline.
Tipo de retorno
status
O status do trabalho.
Os valores comuns retornados incluem "Running", "Completed" e "Failed". Todos os valores possíveis são:
NotStarted - Esse é um estado temporário em que os objetos Run do lado do cliente estão antes do envio na nuvem.
Starting – A Execução começou a ser processada na nuvem. O chamador tem uma ID de execução neste ponto.
Provisionamento – a computação sob demanda está sendo criada para um determinado envio de trabalho.
Preparação – o ambiente de execução está sendo preparado e está em um dos dois estágios:
Build de imagem do Docker
conda environment setup
Enfileirado – o trabalho está na fila no destino de computação. Por exemplo, no BatchAI, o trabalho está em um estado enfileirado
enquanto aguarda que todos os nós solicitados estejam prontos.
Em execução – o trabalho começou a ser executado no destino de computação.
Finalização – a execução do código do usuário foi concluída e a execução está em estágios pós-processamento.
CancelRequested – O cancelamento foi solicitado para o trabalho.
Concluído – a execução foi concluída com êxito. Isso inclui a execução e a execução do código do usuário
estágios de pós-processamento.
Failed – A execução falhou. Normalmente, a propriedade de Erro em uma execução fornecerá detalhes sobre o motivo.
Canceled – Segue uma solicitação de cancelamento e indica que a execução foi cancelada com êxito.
NotResponding – Para execuções que têm Pulsações habilitadas, nenhuma pulsação foi enviada recentemente.
Retornos
Status do trabalho.
Tipo de retorno
studio_url
Ponto de extremidade do estúdio do Azure ML.
Retornos
A URL para a página de detalhes do trabalho.
Tipo de retorno
type
Azure SDK for Python