AutoMLConfig Classe
Representa a configuração para submeter uma experimentação de ML automatizada no Azure Machine Learning.
Este objeto de configuração contém e mantém os parâmetros para configurar a execução da experimentação, bem como os dados de preparação a serem utilizados no tempo de execução. Para obter orientações sobre como selecionar as suas definições, consulte https://aka.ms/AutoMLConfig.
Crie um AutoMLConfig.
- Herança
-
builtins.objectAutoMLConfig
Construtor
AutoMLConfig(task: str, path: str | None = None, iterations: int | None = None, primary_metric: str | None = None, positive_label: Any | None = None, compute_target: Any | None = None, spark_context: Any | None = None, X: Any | None = None, y: Any | None = None, sample_weight: Any | None = None, X_valid: Any | None = None, y_valid: Any | None = None, sample_weight_valid: Any | None = None, cv_splits_indices: List[List[Any]] | None = None, validation_size: float | None = None, n_cross_validations: int | str | None = None, y_min: float | None = None, y_max: float | None = None, num_classes: int | None = None, featurization: str | FeaturizationConfig = 'auto', max_cores_per_iteration: int = 1, max_concurrent_iterations: int = 1, iteration_timeout_minutes: int | None = None, mem_in_mb: int | None = None, enforce_time_on_windows: bool = True, experiment_timeout_hours: float | None = None, experiment_exit_score: float | None = None, enable_early_stopping: bool = True, blocked_models: List[str] | None = None, blacklist_models: List[str] | None = None, exclude_nan_labels: bool = True, verbosity: int = 20, enable_tf: bool = False, model_explainability: bool = True, allowed_models: List[str] | None = None, whitelist_models: List[str] | None = None, enable_onnx_compatible_models: bool = False, enable_voting_ensemble: bool = True, enable_stack_ensemble: bool | None = None, debug_log: str = 'automl.log', training_data: Any | None = None, validation_data: Any | None = None, test_data: Any | None = None, test_size: float | None = None, label_column_name: str | None = None, weight_column_name: str | None = None, cv_split_column_names: List[str] | None = None, enable_local_managed: bool = False, enable_dnn: bool | None = None, forecasting_parameters: ForecastingParameters | None = None, **kwargs: Any)
Parâmetros
Name | Description |
---|---|
task
Necessário
|
O tipo de tarefa a executar. Os valores podem ser "classificação", "regressão" ou "previsão", consoante o tipo de problema de ML automatizado a resolver. |
path
Necessário
|
O caminho completo para a pasta do projeto do Azure Machine Learning. Se não for especificado, a predefinição é utilizar o diretório atual ou "". |
iterations
Necessário
|
O número total de diferentes combinações de algoritmos e parâmetros a testar durante uma experimentação de ML automatizada. Se não for especificado, a predefinição é 1000 iterações. |
primary_metric
Necessário
|
A métrica que o Machine Learning Automatizado irá otimizar para a seleção de modelos. O Machine Learning Automatizado recolhe mais métricas do que as que pode otimizar. Pode utilizar get_primary_metrics para obter uma lista de métricas válidas para a tarefa especificada. Para obter mais informações sobre como as métricas são calculadas, consulte https://docs.microsoft.com/azure/machine-learning/how-to-configure-auto-train#primary-metric. Se não for especificado, a precisão é utilizada para tarefas de classificação, a média de raiz normalizada quadrada é utilizada para tarefas de previsão e regressão, a precisão é utilizada para classificação de imagens e classificação de várias etiquetas de imagem e a precisão média é utilizada para a deteção de objetos de imagem. |
positive_label
Necessário
|
A etiqueta de classe positiva que o Machine Learning Automatizado utilizará para calcular métricas binárias com. As métricas binárias são calculadas em duas condições para tarefas de classificação:
Para obter mais informações sobre classificação, veja as métricas para cenários de classificação. |
compute_target
Necessário
|
O destino de computação do Azure Machine Learning para executar a experimentação do Machine Learning Automatizado. Veja https://docs.microsoft.com/en-us/azure/machine-learning/concept-automated-ml#local-remote para obter mais informações sobre destinos de computação. |
spark_context
Necessário
|
<xref:SparkContext>
O contexto do Spark. Aplicável apenas quando utilizado no ambiente do Azure Databricks/Spark. |
X
Necessário
|
As funcionalidades de preparação a utilizar ao ajustar pipelines durante uma experimentação. Esta definição está a ser preterida. Em alternativa, utilize training_data e label_column_name. |
y
Necessário
|
As etiquetas de preparação a utilizar ao ajustar pipelines durante uma experimentação. Este é o valor que o modelo irá prever. Esta definição está a ser preterida. Em alternativa, utilize training_data e label_column_name. |
sample_weight
Necessário
|
O peso a atribuir a cada exemplo de preparação ao executar pipelines de ajuste, cada linha deve corresponder a uma linha em dados X e y. Especifique este parâmetro ao especificar |
X_valid
Necessário
|
Funcionalidades de validação a utilizar ao ajustar pipelines durante uma experimentação. Se especificado, |
y_valid
Necessário
|
Etiquetas de validação a utilizar ao ajustar pipelines durante uma experimentação. Ambos |
sample_weight_valid
Necessário
|
O peso a atribuir a cada exemplo de validação ao executar pipelines de classificação, cada linha deve corresponder a uma linha em dados X e y. Especifique este parâmetro ao especificar |
cv_splits_indices
Necessário
|
Índices onde dividir dados de preparação para validação cruzada. Cada linha é uma dobra cruzada separada e dentro de cada dobra cruzada, fornece duas matrizes numpy, a primeira com os índices para exemplos a utilizar para dados de preparação e a segunda com os índices a utilizar para dados de validação. ou seja, [[t1, v1], [t2, v2], ...] em que t1 são os índices de preparação para a primeira dobra cruzada e v1 são os índices de validação para a primeira dobra cruzada. Para especificar dados existentes como dados de validação, utilize |
validation_size
Necessário
|
Que fração dos dados a reter para validação quando os dados de validação do utilizador não são especificados. Isto deve ser entre 0,0 e 1.0 não inclusivo. Especifique Para obter mais informações, veja Configurar divisões de dados e validação cruzada no machine learning automatizado. |
n_cross_validations
Necessário
|
Quantas validações cruzadas deve executar quando os dados de validação do utilizador não são especificados. Especifique Para obter mais informações, veja Configurar divisões de dados e validação cruzada no machine learning automatizado. |
y_min
Necessário
|
Valor mínimo de y para uma experimentação de regressão. A combinação de e |
y_max
Necessário
|
Valor máximo de y para uma experimentação de regressão. A combinação de e |
num_classes
Necessário
|
O número de classes nos dados de etiqueta para uma experimentação de classificação. Esta definição está a ser preterida. Em vez disso, este valor será calculado a partir dos dados. |
featurization
Necessário
|
Indicador "auto"/"off" /FeaturizationConfig para saber se o passo de caracterização deve ou não ser feito automaticamente ou se deve ser utilizada a caracterização personalizada. Nota: se os dados de entrada forem dispersos, a caracterização não pode ser ativada. O tipo de coluna é detetado automaticamente. Com base no tipo de coluna detetado, a pré-processamento/caracterização é efetuada da seguinte forma:
Pode encontrar mais detalhes no artigo Configurar experimentações de ML automatizadas no Python. Para personalizar o passo de caracterização, forneça um objeto FeaturizationConfig. Atualmente, a caracterização personalizada suporta o bloqueio de um conjunto de transformadores, a atualização da finalidade da coluna, a edição de parâmetros do transformador e a remoção de colunas. Para obter mais informações, veja Personalizar engenharia de funcionalidades. Nota: as funcionalidades da Timeseries são processadas separadamente quando o tipo de tarefa está definido como previsão independente deste parâmetro. |
max_cores_per_iteration
Necessário
|
O número máximo de threads a utilizar para uma determinada iteração de preparação. Valores aceitáveis:
|
max_concurrent_iterations
Necessário
|
Representa o número máximo de iterações que seriam executadas em paralelo. O valor predefinido é 1.
|
iteration_timeout_minutes
Necessário
|
Tempo máximo em minutos para o qual cada iteração pode ser executada antes de terminar. Se não for especificado, é utilizado um valor de 1 mês ou 43200 minutos. |
mem_in_mb
Necessário
|
Utilização máxima da memória para a qual cada iteração pode ser executada antes de terminar. Se não for especificado, é utilizado um valor de 1 PB ou 1073741824 MB. |
enforce_time_on_windows
Necessário
|
Se pretende impor um limite de tempo à preparação de modelos em cada iteração no Windows. A predefinição é Verdadeiro. Se estiver a ser executado a partir de um ficheiro de script python (.py), veja a documentação para permitir limites de recursos no Windows. |
experiment_timeout_hours
Necessário
|
Quantidade máxima de tempo em horas que todas as iterações combinadas podem demorar até que a experimentação termine. Pode ser um valor decimal como 0,25 que representa 15 minutos. Se não for especificado, o tempo limite da experimentação predefinido é de 6 dias. Para especificar um tempo limite inferior ou igual a 1 hora, certifique-se de que o tamanho do conjunto de dados não é superior a 10 000 000 (linhas vezes coluna) ou resultados de erros. |
experiment_exit_score
Necessário
|
Classificação de destino para experimentação. A experimentação termina depois de esta classificação ser atingida. Se não for especificada (sem critérios), a experimentação é executada até que não sejam feitos mais progressos na métrica primária. Para obter mais informações sobre critérios de saída, veja este artigo. |
enable_early_stopping
Necessário
|
Se pretende ativar a cessação antecipada se a classificação não estiver a melhorar a curto prazo. A predefinição é Verdadeiro. Lógica de paragem precoce:
|
blocked_models
Necessário
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Uma lista de algoritmos a ignorar para uma experimentação. Se |
blacklist_models
Necessário
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Em vez disso, o parâmetro preterido utiliza blocked_models. |
exclude_nan_labels
Necessário
|
Se pretende excluir linhas com valores naN na etiqueta. A predefinição é Verdadeiro. |
verbosity
Necessário
|
O nível de verbosidade para escrever no ficheiro de registo. A predefinição é INFO ou 20. Os valores aceitáveis são definidos na biblioteca de registos do Python. |
enable_tf
Necessário
|
Parâmetro preterido para ativar/desativar algoritmos do Tensorflow. A predefinição é Falso. |
model_explainability
Necessário
|
Se pretende ativar a explicação do melhor modelo autoML no final de todas as iterações de preparação autoML. A predefinição é Verdadeiro. Para obter mais informações, veja Interpretability: model explanations in automated machine learning (Interpretabilidade: explicações de modelos na aprendizagem automática automatizada). |
allowed_models
Necessário
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Uma lista de nomes de modelos para procurar uma experimentação. Se não for especificado, todos os modelos suportados para a tarefa são utilizados menos os modelos do TensorFlow especificados ou |
whitelist_models
Necessário
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Em vez disso, o parâmetro preterido utiliza allowed_models. |
enable_onnx_compatible_models
Necessário
|
Quer ativar ou desativar a imposição dos modelos compatíveis com ONNX. A predefinição é Falso. Para obter mais informações sobre o Open Neural Network Exchange (ONNX) e o Azure Machine Learning, veja este artigo. |
forecasting_parameters
Necessário
|
Um objeto ForecastingParameters para conter todos os parâmetros específicos de previsão. |
time_column_name
Necessário
|
O nome da coluna time. Este parâmetro é necessário ao prever para especificar a coluna datetime nos dados de entrada utilizados para criar a série temporal e inferir a respetiva frequência. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. |
max_horizon
Necessário
|
O horizonte de previsão máximo pretendido em unidades de frequência de série temporal. O valor predefinido é 1. As unidades baseiam-se no intervalo de tempo dos seus dados de preparação, por exemplo, mensalmente, semanalmente que o meteorologista deve prever. Quando o tipo de tarefa está a ser previsto, este parâmetro é necessário. Para obter mais informações sobre como definir parâmetros de previsão, veja Preparar automaticamente um modelo de previsão de série temporal. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. |
grain_column_names
Necessário
|
Os nomes das colunas utilizadas para agrupar uma série de horas. Pode ser utilizado para criar várias séries. Se o grão não estiver definido, assume-se que o conjunto de dados é uma série temporal. Este parâmetro é utilizado com a previsão do tipo de tarefa. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. |
target_lags
Necessário
|
O número de períodos passados a desfasar da coluna de destino. A predefinição é 1. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. Ao prever, este parâmetro representa o número de linhas para atrasar os valores de destino com base na frequência dos dados. Isto é representado como uma lista ou um único número inteiro. O atraso deve ser utilizado quando a relação entre as variáveis independentes e a variável dependente não corresponder ou correlacionar por predefinição. Por exemplo, ao tentar prever a procura de um produto, a procura em qualquer mês pode depender do preço de mercadorias específicas 3 meses antes. Neste exemplo, poderá querer atrasar negativamente o destino (procura) em 3 meses para que o modelo esteja a preparar a relação correta. Para obter mais informações, veja Preparar automaticamente um modelo de previsão de série temporal. |
feature_lags
Necessário
|
Sinalizar para gerar atrasos para as funcionalidades numéricas. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. |
target_rolling_window_size
Necessário
|
O número de períodos anteriores utilizados para criar uma média de janela rolante da coluna de destino. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. Ao prever, este parâmetro representa n períodos históricos a utilizar para gerar valores previstos, <= tamanho do conjunto de preparação. Se omitido, n é o tamanho completo do conjunto de preparação. Especifique este parâmetro quando quiser considerar apenas uma determinada quantidade de histórico ao preparar o modelo. |
country_or_region
Necessário
|
O país/região utilizado para gerar funcionalidades de feriados. Estes devem ser CÓDIGO ISO 3166 código de país/região de duas letras, por exemplo" E.U.A. ou "GB". Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. |
use_stl
Necessário
|
Configure a Decomposição de STL da coluna de destino da série temporal. use_stl pode levar três valores: Nenhum (predefinição) - sem decomposição stl, 'season' - apenas gerar componente de temporada e season_trend - gerar componentes de estação e tendência. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. |
seasonality
Necessário
|
Definir sazonalidade da série temporal. Se a sazonalidade estiver definida como "automática", será inferida. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. |
short_series_handling_configuration
Necessário
|
O parâmetro que define como se o AutoML deve processar séries de tempo curtos. Valores possíveis: "auto" (predefinição), "pad", "drop" e None.
Data numeric_value string destino 2020-01-01 23 green 55 Saída assumindo que o número mínimo de valores é quatro: Data numeric_value string destino 2019-12-29 0 ND 55.1 2019-12-30 0 ND 55.6 2019-12-31 0 ND 54.5 2020-01-01 23 green 55 Nota: Temos dois parâmetros short_series_handling_configuration e short_series_handling legados. Quando ambos os parâmetros estão definidos, estamos a sincronizá-los conforme mostrado na tabela abaixo (short_series_handling_configuration e short_series_handling para a brevidade são marcados como handling_configuration e processamento, respetivamente). processamento handling_configuration processamento resultante resultante handling_configuration Verdadeiro auto Verdadeiro auto Verdadeiro teclado Verdadeiro auto Verdadeiro drop Verdadeiro auto Verdadeiro Nenhuma Falso Nenhuma Falso auto Falso Nenhuma Falso teclado Falso Nenhuma Falso drop Falso Nenhuma Falso Nenhuma Falso Nenhuma |
freq
Necessário
|
Frequência de previsão. Ao prever, este parâmetro representa o período com o qual a previsão é pretendida, por exemplo, diariamente, semanalmente, anualmente, etc. Por predefinição, a frequência de previsão é a frequência do conjunto de dados. Opcionalmente, pode defini-lo como maior (mas não menor) do que a frequência do conjunto de dados. Vamos agregar os dados e gerar os resultados na frequência de previsão. Por exemplo, para dados diários, pode definir a frequência como diária, semanal ou mensal, mas não por hora. A frequência tem de ser um alias de deslocamento pandas. Veja a documentação do pandas para obter mais informações: https://pandas.pydata.org/pandas-docs/stable/user_guide/timeseries.html#dateoffset-objects |
target_aggregation_function
Necessário
|
A função a ser utilizada para agregar a coluna de destino da série temporal para estar em conformidade com uma frequência especificada por um utilizador. Se o target_aggregation_function estiver definido, mas o parâmetro freq não estiver definido, o erro será gerado. As possíveis funções de agregação de destino são: "sum", "max", "min" e "mean". freq target_aggregation_function Mecanismo de correção da regularidade de dados Nenhum (Predefinição) Nenhum (Predefinição) A agregação não é aplicada. Se a frequência válida não puder ser indeterminada, o erro será gerado. Algum Valor Nenhum (Predefinição) A agregação não é aplicada. Se o número de pontos de dados em conformidade com a grelha de frequência for menor, 90%estes pontos serão removidos, caso contrário, o erro será gerado. Nenhum (Predefinição) Função de agregação O erro sobre os parâmetros de frequência em falta é gerado. Algum Valor Função de agregação Agregar à frequência com a função providedaggregation. |
enable_voting_ensemble
Necessário
|
Quer ativar/desativar a iteração VotingEnsemble. A predefinição é Verdadeiro. Para obter mais informações sobre conjuntos, veja Configuração do conjunto. |
enable_stack_ensemble
Necessário
|
Quer ativar/desativar a iteração stackEnsemble. A predefinição é Nenhuma. Se enable_onnx_compatible_models sinalizador estiver a ser definido, a iteração StackEnsemble será desativada. Da mesma forma, para tarefas do Timeseries, a iteração StackEnsemble será desativada por predefinição, para evitar riscos de sobreajuste devido ao pequeno conjunto de preparação utilizado na adaptação do meta-aluno. Para obter mais informações sobre conjuntos, veja Configuração do conjunto. |
debug_log
Necessário
|
O ficheiro de registo para escrever informações de depuração. Se não for especificado, é utilizado "automl.log". |
training_data
Necessário
|
Os dados de preparação a utilizar na experimentação.
Deve conter as funcionalidades de preparação e uma coluna de etiqueta (opcionalmente uma coluna de pesos de exemplo).
Se
|
validation_data
Necessário
|
Os dados de validação a utilizar na experimentação.
Deve conter as funcionalidades de preparação e a coluna de etiquetas (opcionalmente uma coluna de pesos de exemplo).
Se
|
test_data
Necessário
|
A funcionalidade Teste de Modelo com conjuntos de dados de teste ou divisões de dados de teste é uma funcionalidade no estado de Pré-visualização e pode ser alterada em qualquer altura. Os dados de teste a utilizar para uma execução de teste que será iniciada automaticamente após a conclusão da preparação do modelo. A execução de teste obterá predições com o melhor modelo e calculará as métricas dadas estas predições. Se este parâmetro ou o |
test_size
Necessário
|
A funcionalidade Teste de Modelo com conjuntos de dados de teste ou divisões de dados de teste é uma funcionalidade no estado de Pré-visualização e pode ser alterada em qualquer altura. Que fração dos dados de preparação a reter para dados de teste para uma execução de teste que será iniciada automaticamente após a conclusão da preparação do modelo. A execução de teste obterá predições com o melhor modelo e calculará as métricas dadas estas predições. Isto deve ser entre 0,0 e 1.0 não inclusivo.
Se Para tarefas baseadas em regressão, é utilizada uma amostragem aleatória. Para tarefas de classificação, é utilizada a amostragem estratificada. A previsão não suporta atualmente a especificação de um conjunto de dados de teste com uma divisão de preparação/teste. Se este parâmetro ou o |
label_column_name
Necessário
|
O nome da coluna de etiqueta. Se os dados de entrada forem de um pandas. DataFrame que não tem nomes de colunas, os índices de colunas podem ser utilizados, expressos como números inteiros. Este parâmetro é aplicável a |
weight_column_name
Necessário
|
O nome da coluna de peso de exemplo. O ML automatizado suporta uma coluna ponderada como entrada, fazendo com que as linhas nos dados sejam ponderadas para cima ou para baixo. Se os dados de entrada forem de um pandas. DataFrame que não tem nomes de colunas, os índices de colunas podem ser utilizados, expressos como números inteiros. Este parâmetro é aplicável a |
cv_split_column_names
Necessário
|
Lista de nomes das colunas que contêm a divisão de validação cruzada personalizada. Cada uma das colunas divididas por CV representa uma divisão cv em que cada linha está marcada como 1 para preparação ou 0 para validação. Este parâmetro é aplicável ao Utilize ou Para obter mais informações, veja Configurar divisões de dados e validação cruzada no machine learning automatizado. |
enable_local_managed
Necessário
|
Parâmetro desativado. As execuções geridas locais não podem ser ativadas neste momento. |
enable_dnn
Necessário
|
Se pretende incluir modelos baseados em DNN durante a seleção de modelos. A predefinição no init é Nenhuma. No entanto, a predefinição é Verdadeiro para tarefas NLP DNN e é Falso para todas as outras tarefas de AutoML. |
task
Necessário
|
O tipo de tarefa a executar. Os valores podem ser "classificação", "regressão" ou "previsão", consoante o tipo de problema de ML automatizado a resolver. |
path
Necessário
|
O caminho completo para a pasta do projeto do Azure Machine Learning. Se não for especificado, a predefinição é utilizar o diretório atual ou "". |
iterations
Necessário
|
O número total de diferentes combinações de algoritmos e parâmetros a testar durante uma experimentação de ML automatizada. Se não for especificado, a predefinição é 1000 iterações. |
primary_metric
Necessário
|
A métrica que o Machine Learning Automatizado irá otimizar para a seleção de modelos. O Machine Learning Automatizado recolhe mais métricas do que as que pode otimizar. Pode utilizar get_primary_metrics para obter uma lista de métricas válidas para a tarefa especificada. Para obter mais informações sobre como as métricas são calculadas, consulte https://docs.microsoft.com/azure/machine-learning/how-to-configure-auto-train#primary-metric. Se não for especificado, a precisão é utilizada para tarefas de classificação, a média de raiz normalizada quadrada é utilizada para tarefas de previsão e regressão, a precisão é utilizada para classificação de imagens e classificação de várias etiquetas de imagem e a precisão média é utilizada para a deteção de objetos de imagem. |
positive_label
Necessário
|
A etiqueta de classe positiva que o Machine Learning Automatizado utilizará para calcular métricas binárias com. As métricas binárias são calculadas em duas condições para tarefas de classificação:
Para obter mais informações sobre classificação, veja as métricas para cenários de classificação. |
compute_target
Necessário
|
O destino de computação do Azure Machine Learning para executar a experimentação do Machine Learning Automatizado. Veja https://docs.microsoft.com/azure/machine-learning/how-to-auto-train-remote para obter mais informações sobre destinos de computação. |
spark_context
Necessário
|
<xref:SparkContext>
O contexto do Spark. Aplicável apenas quando utilizado no ambiente do Azure Databricks/Spark. |
X
Necessário
|
As funcionalidades de preparação a utilizar ao ajustar pipelines durante uma experimentação. Esta definição está a ser preterida. Em alternativa, utilize training_data e label_column_name. |
y
Necessário
|
As etiquetas de preparação a utilizar ao ajustar pipelines durante uma experimentação. Este é o valor que o modelo irá prever. Esta definição está a ser preterida. Em alternativa, utilize training_data e label_column_name. |
sample_weight
Necessário
|
O peso a atribuir a cada exemplo de preparação ao executar pipelines de ajuste, cada linha deve corresponder a uma linha em dados X e y. Especifique este parâmetro ao especificar |
X_valid
Necessário
|
Funcionalidades de validação a utilizar ao ajustar pipelines durante uma experimentação. Se especificado, |
y_valid
Necessário
|
Etiquetas de validação a utilizar ao ajustar pipelines durante uma experimentação. Ambos |
sample_weight_valid
Necessário
|
O peso a atribuir a cada exemplo de validação ao executar pipelines de classificação, cada linha deve corresponder a uma linha em dados X e y. Especifique este parâmetro ao especificar |
cv_splits_indices
Necessário
|
Índices onde dividir dados de preparação para validação cruzada. Cada linha é uma dobra cruzada separada e dentro de cada dobra cruzada, fornece duas matrizes numpy, a primeira com os índices para exemplos a utilizar para dados de preparação e a segunda com os índices a utilizar para dados de validação. ou seja, [[t1, v1], [t2, v2], ...] em que t1 são os índices de preparação para a primeira dobra cruzada e v1 são os índices de validação para a primeira dobra cruzada. Esta opção é suportada quando os dados são transmitidos como conjunto de dados Funcionalidades separado e coluna Etiqueta. Para especificar dados existentes como dados de validação, utilize |
validation_size
Necessário
|
Que fração dos dados a reter para validação quando os dados de validação do utilizador não são especificados. Isto deve ser entre 0,0 e 1.0 não inclusivo. Especifique Para obter mais informações, veja Configurar divisões de dados e validação cruzada no machine learning automatizado. |
n_cross_validations
Necessário
|
Quantas validações cruzadas deve executar quando os dados de validação do utilizador não são especificados. Especifique Para obter mais informações, veja Configurar divisões de dados e validação cruzada no machine learning automatizado. |
y_min
Necessário
|
Valor mínimo de y para uma experimentação de regressão. A combinação de e |
y_max
Necessário
|
Valor máximo de y para uma experimentação de regressão. A combinação de e |
num_classes
Necessário
|
O número de classes nos dados de etiqueta para uma experimentação de classificação. Esta definição está a ser preterida. Em vez disso, este valor será calculado a partir dos dados. |
featurization
Necessário
|
Indicador "auto"/"off" /FeaturizationConfig para saber se o passo de caracterização deve ou não ser feito automaticamente ou se deve ser utilizada a caracterização personalizada. Nota: se os dados de entrada forem dispersos, a caracterização não pode ser ativada. O tipo de coluna é detetado automaticamente. Com base no tipo de coluna detetado, a pré-processamento/caracterização é efetuada da seguinte forma:
Pode encontrar mais detalhes no artigo Configurar experimentações de ML automatizadas no Python. Para personalizar o passo de caracterização, forneça um objeto FeaturizationConfig. Atualmente, a caracterização personalizada suporta o bloqueio de um conjunto de transformadores, a atualização da finalidade da coluna, a edição de parâmetros do transformador e a remoção de colunas. Para obter mais informações, veja Personalizar engenharia de funcionalidades. Nota: as funcionalidades da Timeseries são processadas separadamente quando o tipo de tarefa está definido como previsão independente deste parâmetro. |
max_cores_per_iteration
Necessário
|
O número máximo de threads a utilizar para uma determinada iteração de preparação. Valores aceitáveis:
|
max_concurrent_iterations
Necessário
|
Representa o número máximo de iterações que seriam executadas em paralelo. O valor predefinido é 1.
|
iteration_timeout_minutes
Necessário
|
Tempo máximo em minutos para o qual cada iteração pode ser executada antes de terminar. Se não for especificado, é utilizado um valor de 1 mês ou 43200 minutos. |
mem_in_mb
Necessário
|
Utilização máxima da memória para a qual cada iteração pode ser executada antes de terminar. Se não for especificado, é utilizado um valor de 1 PB ou 1073741824 MB. |
enforce_time_on_windows
Necessário
|
Se pretende impor um limite de tempo à preparação de modelos em cada iteração no Windows. A predefinição é Verdadeiro. Se estiver a ser executado a partir de um ficheiro de script python (.py), veja a documentação para permitir limites de recursos no Windows. |
experiment_timeout_hours
Necessário
|
Quantidade máxima de tempo em horas que todas as iterações combinadas podem demorar até que a experimentação termine. Pode ser um valor decimal como 0,25 que representa 15 minutos. Se não for especificado, o tempo limite da experimentação predefinido é de 6 dias. Para especificar um tempo limite inferior ou igual a 1 hora, certifique-se de que o tamanho do conjunto de dados não é superior a 10 000 000 (linhas vezes coluna) ou resultados de erros. |
experiment_exit_score
Necessário
|
Classificação de destino para experimentação. A experimentação termina depois de esta classificação ser atingida.
Se não for especificada (sem critérios), a experimentação é executada até que não sejam feitos mais progressos na métrica primária. Para obter mais informações sobre critérios de saída, veja este >> |
enable_early_stopping
Necessário
|
Se pretende ativar a cessação antecipada se a classificação não estiver a melhorar a curto prazo. A predefinição é Verdadeiro. Lógica de paragem precoce:
|
blocked_models
Necessário
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Uma lista de algoritmos a ignorar para uma experimentação. Se |
blacklist_models
Necessário
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Em vez disso, o parâmetro preterido utiliza blocked_models. |
exclude_nan_labels
Necessário
|
Se pretende excluir linhas com valores naN na etiqueta. A predefinição é Verdadeiro. |
verbosity
Necessário
|
O nível de verbosidade para escrever no ficheiro de registo. A predefinição é INFO ou 20. Os valores aceitáveis são definidos na biblioteca de registos do Python. |
enable_tf
Necessário
|
Quer ativar/desativar algoritmos do TensorFlow. A predefinição é Falso. |
model_explainability
Necessário
|
Se pretende ativar a explicação do melhor modelo autoML no final de todas as iterações de preparação autoML. A predefinição é Verdadeiro. Para obter mais informações, veja Interpretability: model explanations in automated machine learning (Interpretabilidade: explicações de modelos na aprendizagem automática automatizada). |
allowed_models
Necessário
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Uma lista de nomes de modelos para procurar uma experimentação. Se não for especificado, todos os modelos suportados para a tarefa são utilizados menos os modelos do TensorFlow especificados ou |
allowed_models
Necessário
|
Uma lista de nomes de modelos para procurar uma experimentação. Se não for especificado, todos os modelos suportados para a tarefa são utilizados menos os modelos do TensorFlow especificados ou |
whitelist_models
Necessário
|
Em vez disso, o parâmetro preterido utiliza allowed_models. |
enable_onnx_compatible_models
Necessário
|
Quer ativar ou desativar a imposição dos modelos compatíveis com ONNX. A predefinição é Falso. Para obter mais informações sobre o Open Neural Network Exchange (ONNX) e o Azure Machine Learning, veja este artigo. |
forecasting_parameters
Necessário
|
Um objeto para conter todos os parâmetros específicos de previsão. |
time_column_name
Necessário
|
O nome da coluna de hora. Este parâmetro é necessário quando se prevê especificar a coluna datetime nos dados de entrada utilizados para criar a série temporal e inferir a respetiva frequência. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. |
max_horizon
Necessário
|
O horizonte de previsão máximo pretendido em unidades de frequência de série temporal. O valor predefinido é 1. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. As unidades baseiam-se no intervalo de tempo dos seus dados de preparação, por exemplo, mensalmente, semanalmente, que o meteorologista deve prever. Quando o tipo de tarefa é previsto, este parâmetro é necessário. Para obter mais informações sobre como definir parâmetros de previsão, veja Preparar automaticamente um modelo de previsão de série temporal. |
grain_column_names
Necessário
|
Os nomes das colunas utilizadas para agrupar uma série de tempo. Pode ser utilizado para criar várias séries. Se a agregação não estiver definida, assume-se que o conjunto de dados é uma série temporal. Este parâmetro é utilizado com a previsão do tipo de tarefa. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. |
target_lags
Necessário
|
O número de períodos anteriores a desfasar da coluna de destino. A predefinição é 1. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. Ao prever, este parâmetro representa o número de linhas a desfasar os valores de destino com base na frequência dos dados. Isto é representado como uma lista ou um único número inteiro. O atraso deve ser utilizado quando a relação entre as variáveis independentes e a variável dependente não corresponder ou correlacionar por predefinição. Por exemplo, ao tentar prever a procura de um produto, a procura em qualquer mês pode depender do preço de mercadorias específicas 3 meses antes. Neste exemplo, poderá querer atrasar negativamente o destino (procura) em 3 meses para que o modelo esteja a preparar a relação correta. Para obter mais informações, veja Preparar automaticamente um modelo de previsão de série temporal. |
feature_lags
Necessário
|
Sinalizar para gerar atrasos para as funcionalidades numéricas. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. |
target_rolling_window_size
Necessário
|
O número de períodos anteriores utilizados para criar uma média de janela temporal da coluna de destino. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. Ao prever, este parâmetro representa n períodos históricos a utilizar para gerar valores previstos, <= tamanho do conjunto de preparação. Se omitido, n é o tamanho completo do conjunto de preparação. Especifique este parâmetro quando quiser considerar apenas uma determinada quantidade de histórico ao preparar o modelo. |
country_or_region
Necessário
|
O país/região utilizado para gerar funcionalidades de feriados. Estes devem ser códigos de país/região ISO 3166 de duas letras, por exemplo "EUA" ou "GB". Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. |
use_stl
Necessário
|
Configure a Decomposição de STL da coluna de destino da série temporal. use_stl pode levar três valores: Nenhum (predefinição) - sem decomposição stl, 'temporada' - apenas gerar componente de estação e season_trend - gerar componentes de estação e tendência. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. |
seasonality
Necessário
|
Definir sazonalidade de série temporal. Se a sazonalidade estiver definida como -1, será inferida. Se use_stl não estiver definido, este parâmetro não será utilizado. Esta definição está a ser preterida. Em alternativa, utilize forecasting_parameters. |
short_series_handling_configuration
Necessário
|
O parâmetro que define como se o AutoML deve processar séries de tempo curtos. Valores possíveis: "auto" (predefinição), "pad", "drop" e None.
Data numeric_value string destino 2020-01-01 23 green 55 Saída partindo do princípio de que o número mínimo de valores é quatro: +————+—————+———-+——+| Data | numeric_value | cadeia | destino | +============+===============+==========+========+ | 2019-12-29 | 0 | NA | 55.1 | +————+—————+———-+——–+ | 2019-12-30 | 0 | NA | 55.6 | +————+—————+———-+——–+ | 2019-12-31 | 0 | NA | 54,5 | +————+—————+———-+——–+ | 01-2020 | 23 | verde | 55 | +————+—————+———-+——–+ Nota: Temos dois parâmetros short_series_handling_configuration e short_series_handling legados. Quando ambos os parâmetros estão definidos, estamos a sincronizá-los conforme mostrado na tabela abaixo (short_series_handling_configuration e short_series_handling para brevidade são marcados como handling_configuration e a processar, respetivamente). processamento handling_configuration processamento resultante handling_configuration resultante Verdadeiro auto Verdadeiro auto Verdadeiro teclado Verdadeiro auto Verdadeiro drop Verdadeiro auto Verdadeiro Nenhuma Falso Nenhuma Falso auto Falso Nenhuma Falso teclado Falso Nenhuma Falso drop Falso Nenhuma Falso Nenhuma Falso Nenhuma |
freq
Necessário
|
Frequência de previsão. Ao prever, este parâmetro representa o período com o qual a previsão é pretendida, por exemplo, diariamente, semanalmente, anualmente, etc. Por predefinição, a frequência de previsão é a frequência do conjunto de dados. Opcionalmente, pode defini-lo como maior (mas não menor) do que a frequência do conjunto de dados. Vamos agregar os dados e gerar os resultados na frequência de previsão. Por exemplo, para dados diários, pode definir a frequência como diária, semanal ou mensal, mas não por hora. A frequência tem de ser um alias de deslocamento pandas. Veja a documentação do pandas para obter mais informações: https://pandas.pydata.org/pandas-docs/stable/user_guide/timeseries.html#dateoffset-objects |
target_aggregation_function
Necessário
|
A função a ser utilizada para agregar a coluna de destino da série temporal para estar em conformidade com uma frequência especificada por um utilizador. Se o target_aggregation_function estiver definido, mas o parâmetro freq não estiver definido, o erro será gerado. As possíveis funções de agregação de destino são: "sum", "max", "min" e "mean". freq target_aggregation_function Mecanismo de correção da regularidade de dados Nenhum (Predefinição) Nenhum (Predefinição) A agregação não é aplicada. Se a frequência válida não puder ser indeterminada, o erro será gerado. Algum Valor Nenhum (Predefinição) A agregação não é aplicada. Se o número de pontos de dados em conformidade com a grelha de frequência for menor, 90%estes pontos serão removidos, caso contrário, o erro será gerado. Nenhum (Predefinição) Função de agregação O erro sobre os parâmetros de frequência em falta é gerado. Algum Valor Função de agregação Agregar à frequência com a função providedaggregation. |
enable_voting_ensemble
Necessário
|
Quer ativar/desativar a iteração VotingEnsemble. A predefinição é Verdadeiro. Para obter mais informações sobre conjuntos, veja Configuração do conjunto. |
enable_stack_ensemble
Necessário
|
Quer ativar/desativar a iteração stackEnsemble. A predefinição é Nenhuma. Se enable_onnx_compatible_models sinalizador estiver a ser definido, a iteração StackEnsemble será desativada. Da mesma forma, para tarefas do Timeseries, a iteração StackEnsemble será desativada por predefinição, para evitar riscos de sobreajuste devido ao pequeno conjunto de preparação utilizado na adaptação do meta-aluno. Para obter mais informações sobre conjuntos, veja Configuração do conjunto. |
debug_log
Necessário
|
O ficheiro de registo para escrever informações de depuração. Se não for especificado, é utilizado "automl.log". |
training_data
Necessário
|
Os dados de preparação a utilizar na experimentação.
Deve conter as funcionalidades de preparação e uma coluna de etiqueta (opcionalmente uma coluna de pesos de exemplo).
Se
|
validation_data
Necessário
|
Os dados de validação a utilizar na experimentação.
Deve conter as funcionalidades de preparação e a coluna de etiquetas (opcionalmente uma coluna de pesos de exemplo).
Se
|
test_data
Necessário
|
A funcionalidade Teste de Modelo com conjuntos de dados de teste ou divisões de dados de teste é uma funcionalidade no estado de Pré-visualização e pode ser alterada em qualquer altura. Os dados de teste a utilizar para uma execução de teste que será iniciada automaticamente após a conclusão da preparação do modelo. A execução de teste obterá predições com o melhor modelo e calculará as métricas dadas estas predições. Se este parâmetro ou o |
test_size
Necessário
|
A funcionalidade Teste de Modelo com conjuntos de dados de teste ou divisões de dados de teste é uma funcionalidade no estado de Pré-visualização e pode ser alterada em qualquer altura. Que fração dos dados de preparação a reter para dados de teste para uma execução de teste que será iniciada automaticamente após a conclusão da preparação do modelo. A execução de teste obterá predições com o melhor modelo e calculará as métricas dadas estas predições. Isto deve ser entre 0,0 e 1.0 não inclusivo.
Se Para tarefas baseadas em regressão, é utilizada uma amostragem aleatória. Para tarefas de classificação, é utilizada a amostragem estratificada. A previsão não suporta atualmente a especificação de um conjunto de dados de teste com uma divisão de preparação/teste. Se este parâmetro ou o |
label_column_name
Necessário
|
O nome da coluna de etiqueta. Se os dados de entrada forem de um pandas. DataFrame que não tem nomes de colunas, os índices de colunas podem ser utilizados, expressos como números inteiros. Este parâmetro é aplicável a |
weight_column_name
Necessário
|
O nome da coluna de peso de exemplo. O ML automatizado suporta uma coluna ponderada como entrada, fazendo com que as linhas nos dados sejam ponderadas para cima ou para baixo. Se os dados de entrada forem de um pandas. DataFrame que não tem nomes de colunas, os índices de colunas podem ser utilizados, expressos como números inteiros. Este parâmetro é aplicável a |
cv_split_column_names
Necessário
|
Lista de nomes das colunas que contêm a divisão de validação cruzada personalizada. Cada uma das colunas divididas por CV representa uma divisão cv em que cada linha está marcada como 1 para preparação ou 0 para validação. Este parâmetro é aplicável ao Utilize ou Para obter mais informações, veja Configurar divisões de dados e validação cruzada no machine learning automatizado. |
enable_local_managed
Necessário
|
Parâmetro desativado. As execuções geridas locais não podem ser ativadas neste momento. |
enable_dnn
Necessário
|
Se pretende incluir modelos baseados em DNN durante a seleção de modelos. A predefinição no init é Nenhuma. No entanto, a predefinição é Verdadeiro para tarefas NLP DNN e é Falso para todas as outras tarefas de AutoML. |
Observações
O código seguinte mostra um exemplo básico de criação de um objeto AutoMLConfig e submissão de uma experimentação para regressão:
automl_settings = {
"n_cross_validations": 3,
"primary_metric": 'r2_score',
"enable_early_stopping": True,
"experiment_timeout_hours": 1.0,
"max_concurrent_iterations": 4,
"max_cores_per_iteration": -1,
"verbosity": logging.INFO,
}
automl_config = AutoMLConfig(task = 'regression',
compute_target = compute_target,
training_data = train_data,
label_column_name = label,
**automl_settings
)
ws = Workspace.from_config()
experiment = Experiment(ws, "your-experiment-name")
run = experiment.submit(automl_config, show_output=True)
Está disponível um exemplo completo na Regressão
Os exemplos de utilização do AutoMLConfig para previsão estão nestes blocos de notas:
Pode encontrar exemplos de utilização do AutoMLConfig para todos os tipos de tarefas nestes blocos de notas ML automatizados.
Para obter informações sobre o ML automatizado, veja os artigos:
Configurar experimentações de ML automatizadas no Python. Neste artigo, existem informações sobre os diferentes algoritmos e métricas primárias utilizadas para cada tipo de tarefa.
Preparar automaticamente um modelo de previsão de série temporal. Neste artigo, existem informações sobre que parâmetros de construtor e
**kwargs
são utilizados na previsão.
Para obter mais informações sobre diferentes opções para configurar divisões de dados de preparação/validação e validação cruzada para machine learning automatizado, AutoML, experimentações, veja Configurar divisões de dados e validação cruzada no machine learning automatizado.
Métodos
as_serializable_dict |
Converta o objeto em dicionário. |
get_supported_dataset_languages |
Obtenha idiomas suportados e os códigos de idioma correspondentes no ISO 639-3. |
as_serializable_dict
Converta o objeto em dicionário.
as_serializable_dict() -> Dict[str, Any]
get_supported_dataset_languages
Obtenha idiomas suportados e os códigos de idioma correspondentes no ISO 639-3.
get_supported_dataset_languages(use_gpu: bool) -> Dict[Any, Any]
Parâmetros
Name | Description |
---|---|
cls
Necessário
|
Objeto de classe de AutoMLConfig. |
use_gpu
Necessário
|
booleano que indica se a computação gpu está ou não a ser utilizada. |
Devoluções
Tipo | Description |
---|---|
dicionário do formato {: }. O código de idioma cumpre a norma ISO 639-3. Veja https://en.wikipedia.org/wiki/List_of_ISO_639-3_codes |