Microsoft Fabric でカスタム Spark プールを作成する方法

このドキュメントでは、分析ワークロード用に Microsoft Fabric でカスタム Apache Spark プールを作成する方法について説明します。 Apache Spark プールを使用すると、ユーザーは特定の要件に基づいて調整されたコンピューティング環境を作成でき、最適なパフォーマンスとリソース使用率を維持できます。

自動スケーリングの最小と最大のノード数を指定します。 これらの値に基づいて、システムではジョブのコンピューティング要件の変化に応じてノードを動的に取得および廃止し、効率的なスケーリングとパフォーマンスの向上を実現します。 Spark プールでの Executor の動的割り当てにより、Executor の手動構成の必要性も軽減されます。 代わりに、データ ボリュームとジョブ レベルのコンピューティング ニーズに応じて Executor の数が調整されます。 このプロセスにより、ユーザーはパフォーマンスの最適化やリソース管理を気にすることなく、ワークロードに集中することができます。

Note

カスタム Spark プールを作成するには、ワークスペースへの管理者アクセス権が必要です。 容量管理者は、[Capacity Admin settings](容量管理設定)[Spark コンピューティング] セクションで [Customized workspace pools](カスタマイズされたワークスペース プール) オプションを有効にする必要があります。 詳細については、Fabric 容量のための Spark コンピューティング設定に関する記事を参照してください。

カスタム Spark プールを作成する

ワークスペースに関連付けられている Spark プールを作成または管理するには:

  1. ワークスペースに移動し、[ワークスペース設定] を選択します。

    Screenshot showing where to select Data Engineering in the Workspace settings menu.

  2. 次に、[データ エンジニアリング/サイエンス\] オプションを選択してメニューを展開し、[Spark Compute] を選択します。

    Screenshot showing Spark Settings detail view.

  3. [新しいプール] オプションを選択します。 [プールの作成] 画面で、Spark プールに名前を付けます。 [ノード ファミリ] と、ワークロードのコンピューティング要件に基づいて、使用可能なサイズ ([小][中][大][特大][極大]) から [ノード サイズ] も選択します。

    Screenshot showing custom pool creation options.

  4. カスタム プールの最小ノード構成を 1 に設定することができます。 Fabric Spark では 1 つのノードを持つクラスターに対して復元可能な可用性が提供されるため、ジョブの失敗、障害時のセッションの損失、または小規模な Spark ジョブに対するコンピューティング料金の過払いについて心配する必要はありません。

  5. カスタム Spark プールの自動スケーリングを有効または無効にすることができます。 自動スケーリングが有効になっている場合、プールではユーザーが指定した最大ノード制限まで新しいノードが動的に取得され、ジョブの実行後に廃止されます。 この機能により、ジョブの要件に基づいてリソースを調整することで、パフォーマンスが向上します。 Fabric の容量 SKU の一部として購入した容量ユニット内に収まるノードのサイズを設定できます。

    Screenshot showing custom pool creation options for autoscaling and dynamic allocation.

  6. Spark プールに対して動的な Executor 割り当てを有効にすることもできます。これにより、ユーザー指定の最大バインド内の Executor の最適な数が自動的に決定されます。 この機能により、データ ボリュームに基づいて Executor の数が調整され、パフォーマンスとリソース使用率が向上します。

これらのカスタム プールの既定の自動一時停止時間は 2 分です。 自動一時停止時間に達すると、セッションは期限切れになり、クラスターは割り当て解除されます。 ノードの数と、カスタム Spark プールが使用される期間に基づいて課金されます。