Azure Machine Learning デザイナー パイプラインでログ記録を有効にする
この記事では、デザイナー パイプラインにログ コードを追加する方法について説明します。 また、Azure Machine Learning Studio の Web ポータルを使用してこれらのログを表示する方法についても説明します。
SDK 作成エクスペリエンスを使用したメトリックのログ記録の詳細については、Azure Machine Learning の実験の実行とメトリックの監視に関する記事を参照してください。
Execute Python Script を使用してログ記録を有効にする
Execute Python Script コンポーネントを使用して、デザイナー パイプラインでログ記録を有効にします。 このワークフローを使用して任意の値をログに記録することができますが、Evaluate Model コンポーネントからメトリックをログに記録し、複数の実行にわたってモデルのパフォーマンスを追跡する場合に特に便利です。
次の例では、Evaluate Model コンポーネントと Execute Python Script コンポーネントを使用して、トレーニングされた 2 つのモデルの平均二乗誤差をログに記録する方法を示します。
Execute Python Script コンポーネントを Evaluate Model コンポーネントの出力に接続します。
Execute Python Script のコード エディターに次のコードを貼り付けて、トレーニングされたモデルの平均絶対誤差をログに記録します。 同様のパターンを使用して、デザイナーで他の値をログに記録できます。
適用対象: Python SDK azureml v1
# dataframe1 contains the values from Evaluate Model def azureml_main(dataframe1=None, dataframe2=None): print(f'Input pandas.DataFrame #1: {dataframe1}') from azureml.core import Run run = Run.get_context() # Log the mean absolute error to the parent run to see the metric in the run details page. # Note: 'run.parent.log()' should not be called multiple times because of performance issues. # If repeated calls are necessary, cache 'run.parent' as a local variable and call 'log()' on that variable. parent_run = Run.get_context().parent # Log left output port result of Evaluate Model. This also works when evaluate only 1 model. parent_run.log(name='Mean_Absolute_Error (left port)', value=dataframe1['Mean_Absolute_Error'][0]) # Log right output port result of Evaluate Model. The following line should be deleted if you only connect one Score component to the` left port of Evaluate Model component. parent_run.log(name='Mean_Absolute_Error (right port)', value=dataframe1['Mean_Absolute_Error'][1]) return dataframe1,
このコードでは、Azure Machine Learning Python SDK を使用して値をログに記録します。 これは Run.get_context() を使用して、現在の実行のコンテキストを取得します。 次に、run.parent.log() メソッドを使用して、そのコンテキストに値を記録します。 parent
を使用して、コンポーネントの実行ではなく、親パイプラインの実行に値を記録します。
Python SDK を使用して値をログに記録する方法の詳細については、「Azure Machine Learning のトレーニングの実行でログ記録を有効にする」を参照してください。
ログを表示する
パイプラインの実行が完了すると、実験ページに Mean_Absolute_Error が表示されます。
[ジョブ] セクションに移動します。
実験を選択します。
表示する実験でジョブを選択します。
[メトリック] を選びます。
次のステップ
この記事では、デザイナーでログを使用する方法について説明しました。 次の手順については、次の関連記事を参照してください。
- デザイナー パイプラインのトラブルシューティング方法については、ML パイプラインのデバッグとトラブルシューティングに関する記事を参照してください。
- Python SDK を使用して SDK 作成エクスペリエンスのメトリックをログに記録する方法については、「Azure Machine Learning のトレーニングの実行でログ記録を有効にする」を参照してください。
- デザイナーで Python スクリプトの実行を使用する方法をご覧ください。