InferenceConfig クラス
- 継承
-
builtins.objectInferenceConfig
コンストラクター
InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)
パラメーター
名前 | 説明 |
---|---|
entry_script
必須
|
イメージに対して実行するコードを含むローカル ファイルのパス。 |
runtime
|
イメージに使用するランタイム。 現在サポートされているランタイムは "spark-py" と "python" です。 規定値: None
|
conda_file
|
イメージに使用する Conda 環境定義を含むローカル ファイルのパス。 規定値: None
|
extra_docker_file_steps
|
イメージを設定するときに実行する追加の Docker 手順を含むローカル ファイルのパス。 規定値: None
|
source_directory
|
イメージを作成するためのすべてのファイルを含むフォルダーのパス。 規定値: None
|
enable_gpu
|
イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 既定値は False です。 規定値: None
|
description
|
このイメージに付与する説明。 規定値: None
|
base_image
|
基本イメージとして使用するカスタム イメージ。 基本イメージが指定されていない場合、基本イメージは、指定されたランタイム パラメーターに基づいて使用されます。 規定値: None
|
base_image_registry
|
基本イメージを含むイメージ レジストリ。 規定値: None
|
cuda_version
|
GPU のサポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。
規定値: None
|
environment
|
デプロイに使用する環境オブジェクト。 この環境は登録する必要ありません。 このパラメーターか、他のパラメーターかどちらか一方を指定してください。両方を指定することはできません。 個々のパラメーターは、環境オブジェクトのオーバーライドとしては機能しません。 例外として、 規定値: None
|
entry_script
必須
|
イメージに対して実行するコードを含むローカル ファイルのパス。 |
runtime
必須
|
イメージに使用するランタイム。 現在サポートされているランタイムは "spark-py" と "python" です。 |
conda_file
必須
|
イメージに使用する Conda 環境定義を含むローカル ファイルのパス。 |
extra_docker_file_steps
必須
|
イメージを設定するときに実行する追加の Docker 手順を含むローカル ファイルのパス。 |
source_directory
必須
|
イメージを作成するためのすべてのファイルを含むフォルダーのパス。 |
enable_gpu
必須
|
イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 既定値は False です。 |
description
必須
|
このイメージに付与する説明。 |
base_image
必須
|
基本イメージとして使用するカスタム イメージ。 基本イメージが指定されていない場合、基本イメージは、指定されたランタイム パラメーターに基づいて使用されます。 |
base_image_registry
必須
|
基本イメージを含むイメージ レジストリ。 |
cuda_version
必須
|
GPU のサポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。
|
environment
必須
|
デプロイに使用する環境オブジェクト。 この環境は登録する必要ありません。 このパラメーターか、他のパラメーターかどちらか一方を指定してください。両方を指定することはできません。 個々のパラメーターは、環境オブジェクトのオーバーライドとしては機能しません。 例外として、 |
注釈
次のサンプルは、InferenceConfig オブジェクトを作成し、それを使用してモデルをデプロイする方法を示しています。
from azureml.core.model import InferenceConfig
from azureml.core.webservice import AciWebservice
service_name = 'my-custom-env-service'
inference_config = InferenceConfig(entry_script='score.py', environment=environment)
aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)
service = Model.deploy(workspace=ws,
name=service_name,
models=[model],
inference_config=inference_config,
deployment_config=aci_config,
overwrite=True)
service.wait_for_deployment(show_output=True)
変数
名前 | 説明 |
---|---|
entry_script
|
イメージに対して実行するコードを含むローカル ファイルのパス。 |
runtime
|
イメージに使用するランタイム。 現在サポートされているランタイムは "spark-py" と "python" です。 |
conda_file
|
イメージに使用する Conda 環境定義を含むローカル ファイルのパス。 |
extra_docker_file_steps
|
イメージを設定するときに実行する追加の Docker 手順を含むローカル ファイルのパス。 |
source_directory
|
イメージを作成するためのすべてのファイルを含むフォルダーのパス。 |
enable_gpu
|
イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 |
azureml.core.model.InferenceConfig.description
|
このイメージに付与する説明。 |
base_image
|
基本イメージとして使用するカスタム イメージ。 基本イメージが指定されていない場合、基本イメージは、指定されたランタイム パラメーターに基づいて使用されます。 |
base_image_registry
|
基本イメージを含むイメージ レジストリ。 |
cuda_version
|
GPU のサポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。
|
azureml.core.model.InferenceConfig.environment
|
デプロイに使用する環境オブジェクト。 この環境は登録する必要ありません。 このパラメーターか、他のパラメーターかどちらか一方を指定してください。両方を指定することはできません。 個々のパラメーターは、環境オブジェクトのオーバーライドとしては機能しません。 例外として、 |
メソッド
build_create_payload |
コンテナー イメージの作成ペイロードをビルドします。 |
build_profile_payload |
モデル パッケージのプロファイル ペイロードをビルドします。 |
validate_configuration |
指定された構成値が有効であることを確認します。 検証が失敗した場合、WebserviceException を発生させます。 |
validation_script_content |
ast.parse を使用してスコア スクリプトの構文が有効であるかを確認します。 検証が失敗した場合、UserErrorException を発生させます。 |
build_create_payload
コンテナー イメージの作成ペイロードをビルドします。
build_create_payload(workspace, name, model_ids)
パラメーター
名前 | 説明 |
---|---|
workspace
必須
|
イメージを作成するワークスペース オブジェクト。 |
name
必須
|
イメージの名前。 |
model_ids
必須
|
イメージにパッケージ化するモデル ID のリスト。 |
戻り値
型 | 説明 |
---|---|
コンテナー イメージの作成ペイロード。 |
例外
型 | 説明 |
---|---|
build_profile_payload
モデル パッケージのプロファイル ペイロードをビルドします。
build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)
パラメーター
名前 | 説明 |
---|---|
profile_name
必須
|
プロファイル実行の名前。 |
input_data
|
プロファイルの入力データ。 規定値: None
|
workspace
|
モデルをプロファイルするワークスペース オブジェクト。 規定値: None
|
models
|
モデル オブジェクトのリスト。 空のリストにすることができます。 規定値: None
|
dataset_id
|
プロファイル実行の入力データを含むデータセットに関連付けられている ID。 規定値: None
|
container_resource_requirements
|
モデルをデプロイする先の最大インスタンスのコンテナー リソース要件 規定値: None
|
description
|
プロファイル実行に関連付ける説明。 規定値: None
|
戻り値
型 | 説明 |
---|---|
モデルのプロファイル ペイロード |
例外
型 | 説明 |
---|---|
validate_configuration
validation_script_content
ast.parse を使用してスコア スクリプトの構文が有効であるかを確認します。
検証が失敗した場合、UserErrorException を発生させます。
validation_script_content()
例外
型 | 説明 |
---|---|