Instalar e usar a CLI (v1)
APLICA-SE A:Extensão de ML da CLI do Azure v1
Importante
Alguns comandos da CLI do Azure neste artigo usam a extensão azure-cli-ml
ou v1 do Azure Machine Learning. O suporte à extensão v1 terminará em 30 de setembro de 2025. Você poderá instalar e usar a extensão v1 até essa data.
Recomendamos que você faça a transição para a extensão ml
ou v2, antes de 30 de setembro de 2025. Para obter mais informações sobre a extensão v2, confira Extensão da CLI do Azure ML e SDK do Python v2.
A CLI do Azure Machine Learning é uma extensão do Azure CLI, uma interface de linha de comando de plataforma cruzada para a plataforma Azure. Essa extensão fornece comandos para trabalhar com o Azure Machine Learning. Ela permite automatizar suas atividades de machine learning. A seguinte lista fornece algumas ações de exemplo que você pode fazer com a extensão CLI:
Executar experimentos para criar modelos de aprendizado de máquina
Registrar modelos de aprendizado de máquina para uso do cliente
Empacote, implante e rastreie o ciclo de vida de seus modelos de aprendizado de máquina
A CLI não é uma substituta do SDK do Azure Machine Learning. Ela é uma ferramenta complementar que é otimizada para lidar com tarefas altamente parametrizadas, que se adaptam bem à automação.
Pré-requisitos
Para usar a CLI, você deve ter uma assinatura do Azure. Caso não tenha uma assinatura do Azure, crie uma conta gratuita antes de começar. Experimente hoje mesmo a versão gratuita ou paga do Azure Machine Learning.
Para usar os comandos da CLI deste documento em seu ambiente local, você precisará da CLI do Azure.
Se você usar o Azure Cloud Shell, a CLI será acessada por meio do navegador e residirá na nuvem.
Documentos de referência completos
Localize os documentos de referência completos para a extensão azure-cli-ml da CLI do Azure.
Conectar a CLI à assinatura do Azure
Importante
Se você estiver usando o Azure Cloud Shell, ignore esta seção. O Cloud Shell autentica automaticamente você usando a conta que você faz logon em sua assinatura do Azure.
Há várias maneiras de se autenticar em sua assinatura do Azure por meio da CLI. O mais básico é autenticar-se interativamente usando um navegador. Para se autenticar interativamente, abra uma linha de comando ou terminal e use o seguinte comando:
az login
Se a CLI pode abrir seu navegador padrão, ela irá fazê-lo e carregar uma página de entrada. Caso contrário, você precisará abrir um navegador e seguir as instruções na linha de comando. As instruções envolvem a navegação para https://aka.ms/devicelogin e a inserção de um código de autorização.
Dica
Depois de entrar, você verá uma lista de assinaturas associadas à sua conta do Azure. A informação de assinatura com isDefault: true
é a assinatura ativada no momento para os comandos da CLI do Azure. Essa assinatura precisa ser a mesma que contém o seu workspace do Azure Machine Learning. Você pode encontrar as informações de assinatura na página de visão geral do seu workspace no portal do Azure.
Para selecionar outra assinatura para usar nos comandos da CLI do Azure, execute o comando az account set -s <subscription>
e especifique o nome ou ID da assinatura para a qual alternar. Para obter mais informações sobre a seleção da assinatura, confira Usar várias assinaturas do Azure.
Para outros métodos de autenticação, confira Entrar com a CLI do Azure.
Instalar a extensão
Para instalar a extensão da CLI (v1):
az extension add -n azure-cli-ml
Atualizar a extensão
Para atualizar a extensão CLI do Machine Learning, use o seguinte comando:
az extension update -n azure-cli-ml
Remover a extensão
Para remover a extensão CLI, use o seguinte comando:
az extension remove -n azure-cli-ml
Gerenciamento de recursos
Os comandos a seguir demonstram como usar a CLI para gerenciar recursos usados pelo Azure Machine Learning.
Crie um grupo de recursos se você ainda não tem nenhum:
az group create -n myresourcegroup -l westus2
Criar um workspace do Azure Machine Learning:
az ml workspace create -w myworkspace -g myresourcegroup
Para obter mais informações, consulte az ml workspace create.
Anexe uma configuração de workspace a uma pasta para habilitar a conscientização contextual da CLI.
az ml folder attach -w myworkspace -g myresourcegroup
Este comando cria um subdiretório
.azureml
que contém os arquivos de ambiente runconfig e conda de exemplo. Ele também contém um arquivoconfig.json
que é usado para se comunicar com seu workspace do Azure Machine Learning.Para obter mais informações, consulte az ml folder attach.
Anexe um contêiner de Blob do Azure como um armazenamento de dados.
az ml datastore attach-blob -n datastorename -a accountname -c containername
Para obter mais informações, consulte az ml datastore attach-blob.
Carregue arquivos em um armazenamento de dados.
az ml datastore upload -n datastorename -p sourcepath
Para obter mais informações, consulte az ml datastore upload.
Anexe um cluster do AKS como um destino de computação.
az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
Para obter mais informações, consulte az ml computetarget attach aks
Clusters de cálculo
Crie um novo cluster de computação gerenciado.
az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
Criar um novo cluster de cálculo gerenciado com identidade gerenciada
Identidade gerenciada atribuída pelo usuário
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
Identidade gerenciada atribuída pelo sistema
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
Adicionar uma identidade gerenciada a um cluster de cálculo existente:
Identidade gerenciada atribuída pelo usuário
az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
Identidade gerenciada atribuída pelo sistema
az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
Para obter mais informações, consulte az ml computetarget create amlcompute.
Observação
Os clusters de computação do Azure Machine Learning oferecem suporte a apenas uma identidade atribuída pelo sistema ou a várias identidades atribuídas pelo usuário, não a ambas ao mesmo tempo.
Instância de computação
Gerenciar instâncias de computação. Nos exemplos abaixo, o nome da instância de computação é cpu
Criar uma nova instância de computação.
az ml computetarget create computeinstance -n cpu -s "STANDARD_D3_V2" -v
Para obter mais informações, consulte az ml computetarget create computeinstance.
Parar uma computeinstance.
az ml computetarget computeinstance stop -n cpu -v
Para obter mais informações, consulte az ml computetarget computeinstance stop.
Inicie uma computeinstance.
az ml computetarget computeinstance start -n cpu -v
Para obter mais informações, consulte az ml computetarget computeinstance start.
Reinicie uma computeinstance.
az ml computetarget computeinstance restart -n cpu -v
Para obter mais informações, consulte az ml computetarget computeinstance restart.
Excluir uma computeinstance.
az ml computetarget delete -n cpu -v
Para obter mais informações, consulte az ml computetarget delete computeinstance.
Executar experimentos
Comece uma corrida de sua experiência. Ao usar esse comando, especifique o nome do arquivo runconfig (o texto antes de *.runconfig, se você estiver olhando o seu sistema de arquivos) em relação ao parâmetro -c.
az ml run submit-script -c sklearn -e testexperiment train.py
Dica
O comando
az ml folder attach
cria um subdiretório.azureml
, que contém dois arquivos de exemplo de runconfig.Se você tiver um script Python que cria um objeto de configuração de execução programaticamente, poderá usar RunConfig.save() para salvá-lo como um arquivo runconfig.
O esquema runconfig completo pode ser encontrado neste arquivo JSON. O esquema está autodocumentando por meio da chave
description
de cada objeto. Além disso, há enumerações para valores possíveis e um snippet de modelo no final.Para obter mais informações, consulte az ml run submit-script.
Exibir uma lista de experimentos:
az ml experiment list
Para obter mais informações, consulte az ml experiment list.
Execução de HyperDrive
Você pode usar o HyperDrive com a CLI do Azure para realizar as execuções de ajuste de parâmetro. Primeiro, crie um arquivo de configuração HyperDrive no formato a seguir. Consulte o artigo Ajustar hiperparâmetros para seu modelo para obter detalhes sobre parâmetros de ajuste de hiperparâmetro.
# hdconfig.yml
sampling:
type: random # Supported options: Random, Grid, Bayesian
parameter_space: # specify a name|expression|values tuple for each parameter.
- name: --penalty # The name of a script parameter to generate values for.
expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy:
type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.
Adicione esse arquivo junto com os arquivos de configuração de execução. Em seguida, envie uma execução de HyperDrive usando:
az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py
Observe a seção argumentos no runconfig e o espaço de parâmetro na configuração do HyperDrive. Eles contêm os argumentos de linha de comando a serem passados ao script de treinamento. O valor em runconfig permanece o mesmo em cada iteração, enquanto o intervalo na configuração de HyperDrive é iterado. Não especifique o mesmo argumento em ambos os arquivos.
Gerenciamento de conjunto de dados
Os seguintes comandos demonstram como trabalhar com conjuntos de dados no Azure Machine Learning:
Registrar um conjunto de dados:
az ml dataset register -f mydataset.json
Para obter informações sobre o formato do arquivo JSON usado para definir o conjunto de dados, use
az ml dataset register --show-template
.Para obter mais informações, consulte az ml dataset register.
Listar todos os conjuntos de dados em um workspace:
az ml dataset list
Para obter mais informações, consulte az ml dataset list.
Obter detalhes de um conjunto de dados:
az ml dataset show -n dataset-name
Para obter mais informações, consulte az ml dataset show.
Cancelar o registro de um conjunto de dados:
az ml dataset unregister -n dataset-name
Para obter mais informações, consulte az ml dataset unregister.
Gerenciamento de ambiente
Os seguintes comandos demonstram como criar, registrar e listar ambientes do Azure Machine Learning para seu workspace:
Criar arquivos scaffolding para um ambiente:
az ml environment scaffold -n myenv -d myenvdirectory
Para obter mais informações, consulte az ml environment scaffold.
Registrar um ambiente:
az ml environment register -d myenvdirectory
Para obter mais informações, consulte az ml environment register.
Listar ambientes registrados:
az ml environment list
Para obter mais informações, consulte az ml environment list.
Baixar um ambiente registrado:
az ml environment download -n myenv -d downloaddirectory
Para obter mais informações, consulte az ml environment download.
Esquema de configuração de ambiente
Se você usou o comando az ml environment scaffold
, ele gera um arquivo azureml_environment.json
de modelo que pode ser modificado e usado para criar configurações de ambiente personalizadas com a CLI. O objeto de nível superior é mapeado de modo flexível para a classe Environment
no SDK do Python.
{
"name": "testenv",
"version": null,
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"python": {
"userManagedDependencies": false,
"interpreterPath": "python",
"condaDependenciesFile": null,
"baseCondaEnvironment": null
},
"docker": {
"enabled": false,
"baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
"baseDockerfile": null,
"sharedVolumes": true,
"shmSize": "2g",
"arguments": [],
"baseImageRegistry": {
"address": null,
"username": null,
"password": null
}
},
"spark": {
"repositories": [],
"packages": [],
"precachePackages": true
},
"databricks": {
"mavenLibraries": [],
"pypiLibraries": [],
"rcranLibraries": [],
"jarLibraries": [],
"eggLibraries": []
},
"inferencingStackVersion": null
}
A tabela a seguir detalha cada campo de nível superior no arquivo JSON, bem como o tipo e uma descrição. Se um tipo de objeto estiver vinculado a uma classe do SDK do Python, haverá uma correspondência de 1:1 flexível entre cada campo JSON e o nome da variável pública na classe Python. Em alguns casos, o campo pode ser mapeado para um argumento de construtor em vez de uma variável de classe. Por exemplo, o campo environmentVariables
é mapeado para a variável environment_variables
na classe Environment
.
Campo JSON | Type | Descrição |
---|---|---|
name |
string |
Nome do ambiente. Não inicie o nome com Microsoft ou AzureML. |
version |
string |
Versão do ambiente. |
environmentVariables |
{string: string} |
Um mapa de hash de valores e nomes de variável de ambiente. |
python |
PythonSection que define o ambiente Python e o interpretador a ser usado no recurso de computação de destino. |
|
docker |
DockerSection |
Define as configurações para personalizar a imagem do Docker criada para as especificações do ambiente. |
spark |
SparkSection |
A seção define as configurações do Spark. Ela só é usada quando a estrutura é definida como PySpark. |
databricks |
DatabricksSection |
Configura as dependências da biblioteca do Databricks. |
inferencingStackVersion |
string |
Especifica a versão da pilha de inferência adicionada à imagem. Para evitar a adição de uma pilha de inferência, deixe esse campo null . Valor válido: "latest". |
Gerenciamento de pipeline do ML
Os seguintes comandos demonstram como trabalhar com pipelines de machine learning:
Criar um pipeline de machine learning:
az ml pipeline create -n mypipeline -y mypipeline.yml
Para obter mais informações, consulte az ml pipeline create.
Para obter mais informações sobre o arquivo YAML do pipeline, consulte Definir pipelines de machine learning no YAML.
Executar um pipeline:
az ml run submit-pipeline -n myexperiment -y mypipeline.yml
Para obter mais informações, consulte az ml run submit-pipeline.
Para obter mais informações sobre o arquivo YAML do pipeline, consulte Definir pipelines de machine learning no YAML.
Agendar um pipeline:
az ml pipeline create-schedule -n myschedule -e myexperiment -i mypipelineid -y myschedule.yml
Para obter mais informações, consulte az ml pipeline create-schedule.
Registro de modelo, criação de perfil, implantação
Os comandos a seguir demonstram como registrar um modelo treinado e implantá-lo como um serviço de produção:
Registre um modelo com o Azure Machine Learning:
az ml model register -n mymodel -p sklearn_regression_model.pkl
Para obter mais informações, consulte az ml model register.
OPCIONAL Analise seu modelo para obter valores de CPU e memória ideais para implantação.
az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
Para obter mais informações, consulte az ml model profile.
Implantar seu modelo no AKS
az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
Para obter mais informações sobre o esquema do arquivo de configuração de inferência, consulte Esquema de configuração de inferência.
Para obter mais informações sobre o esquema do arquivo de configuração de implantação, consulte Esquema de configuração de implantação.
Para obter mais informações, consulte az ml model deploy.
Esquema de configuração de inferência
As entradas no documento inferenceconfig.json
são mapeadas para os parâmetros da classe InferenceConfig. A seguinte tabela descreve o mapeamento entre as entidades no documento JSON e os parâmetros do método:
Entidade JSON | Parâmetro de método | Descrição |
---|---|---|
entryScript |
entry_script |
Caminho para um arquivo local que contém o código a ser executado para a imagem. |
sourceDirectory |
source_directory |
Opcional. Caminho para as pastas que contêm todos os arquivos para criar a imagem, o que facilita o acesso a arquivos dessa pasta ou subpasta. É possível fazer upload de uma pasta inteira do computador local como dependências do Webservice. Observação: entry_script, conda_file e extra_docker_file_steps são caminhos relativos para o caminho source_directory. |
environment |
environment |
Opcional. Ambiente do Azure Machine Learning. |
É possível incluir especificações completas de um ambiente do Azure Machine Learning no arquivo de configuração da inferência. Se esse ambiente não existir no seu workspace, o Azure Machine Learning o criará. Caso contrário, se necessário, o Azure Machine Learning atualizará o ambiente. Este JSON é um exemplo:
{
"entryScript": "score.py",
"environment": {
"docker": {
"arguments": [],
"baseDockerfile": null,
"baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
"enabled": false,
"sharedVolumes": true,
"shmSize": null
},
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"name": "my-deploy-env",
"python": {
"baseCondaEnvironment": null,
"condaDependencies": {
"channels": [
"conda-forge"
],
"dependencies": [
"python=3.7",
{
"pip": [
"azureml-defaults",
"azureml-telemetry",
"scikit-learn==0.22.1",
"inference-schema[numpy-support]"
]
}
],
"name": "project_environment"
},
"condaDependenciesFile": null,
"interpreterPath": "python",
"userManagedDependencies": false
},
"version": "1"
}
}
Também é possível usar um ambiente existente do Azure Machine Learning em parâmetros separados da CLI e remover a chave do "ambiente" do arquivo de configuração da inferência. Use -e para o nome do ambiente e --ev para a versão do ambiente. Se você não especificar --ev, a versão mais recente será usada. Veja um exemplo de arquivo de configuração de inferência:
{
"entryScript": "score.py",
"sourceDirectory": null
}
O comando a seguir demonstra como implantar um modelo usando o arquivo de configuração de inferência anterior, chamado myInferenceConfig.json.
Ele também usa a versão mais recente de um ambiente existente do Azure Machine Learning, chamado AzureML-Minimal.
az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json
Esquema de configuração de implantação
Esquema de configuração de implantação local
As entradas no documento deploymentconfig.json
são mapeadas para os parâmetros de LocalWebservice.deploy_configuration. A seguinte tabela descreve o mapeamento entre as entidades no documento JSON e os parâmetros do método:
Entidade JSON | Parâmetro de método | Descrição |
---|---|---|
computeType |
NA | O destino de computação. Para destinos locais, o valor precisa ser local . |
port |
port |
A porta local na qual expor o ponto de extremidade HTTP do serviço. |
O seguinte JSON é um exemplo de configuração de implantação a ser usada com a CLI:
{
"computeType": "local",
"port": 32267
}
Salve esse JSON como um arquivo chamado deploymentconfig.json
.
Esquema de configuração de implantação da Instância de Contêiner do Azure
As entradas no documento deploymentconfig.json
são mapeadas para os parâmetros de AciWebservice.deploy_configuration. A seguinte tabela descreve o mapeamento entre as entidades no documento JSON e os parâmetros do método:
Entidade JSON | Parâmetro de método | Descrição |
---|---|---|
computeType |
NA | O destino de computação. Para o ACI, o valor precisa ser ACI . |
containerResourceRequirements |
NA | Contêiner para as entidades de CPU e de memória. |
cpu |
cpu_cores |
O número de núcleos de CPU a serem alocados. Padrões, 0.1 |
memoryInGB |
memory_gb |
A quantidade de memória (em GB) a ser alocada para esse serviço Web. Padrão, 0.5 |
location |
location |
A região do Azure na qual implantar esse serviço Web. Se não for especificado, o local do workspace será usado. Mais detalhes sobre as regiões disponíveis podem ser encontrados aqui: Regiões do ACI |
authEnabled |
auth_enabled |
Se a autenticação deve ser habilitada para esse serviço Web. Usa False como padrão |
sslEnabled |
ssl_enabled |
Se o SSL deve ser habilitado para esse serviço Web. Usa False como padrão. |
appInsightsEnabled |
enable_app_insights |
Se o AppInsights deve ser habilitado para esse serviço Web. Usa False como padrão |
sslCertificate |
ssl_cert_pem_file |
O arquivo de certificado necessário se o SSL estiver habilitado |
sslKey |
ssl_key_pem_file |
O arquivo de chave necessário se o SSL estiver habilitado |
cname |
ssl_cname |
O CNAME a ser usado se o SSL estiver habilitado |
dnsNameLabel |
dns_name_label |
O rótulo de nome DNS do ponto de extremidade de pontuação. Se ele não for especificado, um rótulo de nome DNS exclusivo será gerado para o ponto de extremidade de pontuação. |
O seguinte JSON é um exemplo de configuração de implantação a ser usada com a CLI:
{
"computeType": "aci",
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
},
"authEnabled": true,
"sslEnabled": false,
"appInsightsEnabled": false
}
Esquema de configuração de implantação do Serviço de Kubernetes do Azure
As entradas no documento deploymentconfig.json
são mapeadas para os parâmetros de AksWebservice.deploy_configuration. A seguinte tabela descreve o mapeamento entre as entidades no documento JSON e os parâmetros do método:
Entidade JSON | Parâmetro de método | Descrição |
---|---|---|
computeType |
NA | O destino de computação. Para o AKS, o valor deve ser aks . |
autoScaler |
NA | Contém elementos de configuração para dimensionamento automático. Confira a tabela do dimensionador automático. |
autoscaleEnabled |
autoscale_enabled |
Habilitar o dimensionamento automático para o serviço Web. Se numReplicas = 0 , True ; caso contrário, False . |
minReplicas |
autoscale_min_replicas |
O número mínimo de contêineres a serem usados no dimensionamento automático desse serviço Web. Padrão, 1 . |
maxReplicas |
autoscale_max_replicas |
O número máximo de contêineres a serem usados no dimensionamento automático desse serviço Web. Padrão, 10 . |
refreshPeriodInSeconds |
autoscale_refresh_seconds |
A frequência em que o dimensionador automático tenta dimensionar esse serviço Web. Padrão, 1 . |
targetUtilization |
autoscale_target_utilization |
A utilização de destino (em percentual) que o dimensionador automático deve tentar manter para esse serviço Web. Padrão, 70 . |
dataCollection |
NA | Contém elementos de configuração para coleta de dados. |
storageEnabled |
collect_model_data |
Habilitar a coleta de dados do modelo para o serviço Web. Padrão, False . |
authEnabled |
auth_enabled |
Habilitar ou não a autenticação de chave para o serviço Web. tokenAuthEnabled e authEnabled não podem ser True . Padrão, True . |
tokenAuthEnabled |
token_auth_enabled |
Habilitar ou não a autenticação de token para o serviço Web. tokenAuthEnabled e authEnabled não podem ser True . Padrão, False . |
containerResourceRequirements |
NA | Contêiner para as entidades de CPU e de memória. |
cpu |
cpu_cores |
O número de núcleos de CPU a serem alocados para esse serviço Web. Padrões, 0.1 |
memoryInGB |
memory_gb |
A quantidade de memória (em GB) a ser alocada para esse serviço Web. Padrão, 0.5 |
appInsightsEnabled |
enable_app_insights |
Habilitar o registro em log do Application Insights para o serviço Web. Padrão, False . |
scoringTimeoutMs |
scoring_timeout_ms |
Um tempo limite para impor as chamadas de pontuação ao serviço Web. Padrão, 60000 . |
maxConcurrentRequestsPerContainer |
replica_max_concurrent_requests |
O máximo de solicitações simultâneas por nó para esse serviço Web. Padrão, 1 . |
maxQueueWaitMs |
max_request_wait_time |
O tempo máximo que uma solicitação permanecerá na fila (em milissegundos) antes de um erro 503 ser retornado. Padrão, 500 . |
numReplicas |
num_replicas |
O número de contêineres a serem alocados para esse serviço Web. Sem valor padrão. Se esse parâmetro não for definido, o dimensionador automático será habilitado por padrão. |
keys |
NA | Contém elementos de configuração para chaves. |
primaryKey |
primary_key |
Uma chave de autenticação primária a ser usada para esse serviço Web |
secondaryKey |
secondary_key |
Uma chave de autenticação secundária a ser usada para esse serviço Web |
gpuCores |
gpu_cores |
O número de núcleos de GPU (réplica por contêiner) a serem alocados para esse serviço Web. O padrão é UTF-1. Dá suporte apenas a valores de números inteiros. |
livenessProbeRequirements |
NA | Contém elementos de configuração para requisitos de investigação de atividade. |
periodSeconds |
period_seconds |
A frequência (em segundos) para realizar a investigação de atividade. O padrão é 10 segundos. O valor mínimo é 1. |
initialDelaySeconds |
initial_delay_seconds |
Número de segundos depois que o contêiner é iniciado antes que as investigações de atividade sejam iniciadas. O valor padrão é 310 |
timeoutSeconds |
timeout_seconds |
Número de segundos após os quais a investigação de atividade expira. O valor padrão é 2 segundos. O valor mínimo é 1 |
successThreshold |
success_threshold |
O mínimo de sucessos consecutivos para que a investigação de atividade seja considerada bem-sucedida após apresentar falha. O valor padrão é 1. O valor mínimo é 1. |
failureThreshold |
failure_threshold |
Quando um pod for iniciado e a investigação de atividade falhar, o Kubernetes tentará o failureThreshold vezes antes de desistir. O valor padrão é 3. O valor mínimo é 1. |
namespace |
namespace |
O namespace do Kubernetes em que o serviço Web é implantado. Até 63 letras minúsculas alfanuméricas ('a' – 'z', '0' – '9') e hifens ('-'). O primeiro e o último caractere não podem ser hifens. |
O seguinte JSON é um exemplo de configuração de implantação a ser usada com a CLI:
{
"computeType": "aks",
"autoScaler":
{
"autoscaleEnabled": true,
"minReplicas": 1,
"maxReplicas": 3,
"refreshPeriodInSeconds": 1,
"targetUtilization": 70
},
"dataCollection":
{
"storageEnabled": true
},
"authEnabled": true,
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
}
}