Spark プールを Azure Synapse から Fabric に移行する

Azure Synapse には Spark プールが用意され、Fabric にはスターター プールカスタム プールが用意されています。 Azure Synapse にカスタム構成もライブラリもない単一のプールがある場合、および中程度のノード サイズが要件を満たしている場合は、スターター プールをお勧めします。 ただし、Spark プール構成の柔軟性を高める場合は、"カスタム プール" の使用をお勧めします。 次の 2 つのオプションがあります。

  • オプション 1: Spark プールをワークスペースの既定のプールに移動します。
  • オプション 2: Spark プールを Fabric のカスタム環境に移動します。

複数の Spark プールがあり、それらを同じ Fabric ワークスペースに移動する予定の場合は、オプション 2 を使用して、複数のカスタム環境とプールを作成することをお勧めします。

Spark プールの考慮事項については、Azure Synapse Spark と Fabric の違いに関するページを参照してください。

前提条件

まだ持っていない場合は、テナントに Fabric ワークスペースを作成します。

オプション 1: Spark プールからワークスペースの既定のプールに

Fabric ワークスペースからカスタム Spark プールを作成し、ワークスペースの既定のプールとして使用できます。 既定のプールは、同じワークスペース内のすべてのノートブックと Spark ジョブ定義で使用されます。

既存の Spark プールを Azure Synapse からワークスペースの既定のプールに移動するには、次のようにします。

  1. Azure Synapse ワークスペースにアクセスする: Azure にサインインします。 Azure Synapse ワークスペースに移動し、Analytics プールに進み、Apache Spark プールを選択します。
  2. Spark プールを見つける: Apache Spark プールから、ファブリックに移動する Spark プールを見つけて、プールのプロパティを確認します。
  3. プロパティを取得する: Apache Spark のバージョン、ノード サイズ ファミリ、ノード サイズ、自動スケールなどの Spark プールのプロパティを取得します。 違いを確認するには、Spark プールの考慮事項に関するページを参照してください。
  4. Fabric でカスタム Spark プールを作成する:
    • Fabric ワークスペースに移動し、[ワークスペース設定] を選択します。
    • [Data Engineering/Science] に進み、[Spark の設定] を選択します。
    • [プール] タブと [ワークスペースの既定のプール] セクションで、ドロップダウン メニューを展開し、[新しいプール] の作成を選択します。
    • 対応するターゲット値を使用してカスタム プールを作成します。 名前、ノード ファミリ、ノード サイズ、自動スケール、動的 Executor 割り当てオプションを入力します。
  5. ランタイム バージョンを選択する:
    • [環境] タブに移動し、必要なランタイム バージョンを選択します。 ここで利用可能なランタイムを参照してください。
    • [既定の環境の設定] オプションを無効にします。

既定のプールを示すスクリーンショット。

Note

このオプションでは、プール レベルのライブラリまたは構成はサポートされません。 ただし、ノートブックや Spark ジョブ定義などの個々の項目のコンピューティング構成を調整したり、インライン ライブラリを追加したりできます。 カスタム ライブラリと構成を環境に追加する必要がある場合は、カスタム環境を検討してください。

オプション 2: Spark プールからカスタム環境へ

カスタム環境では、カスタム Spark のプロパティとライブラリを設定できます。 カスタム環境を作成するには、次のようにします。

  1. Azure Synapse ワークスペースにアクセスする: Azure にサインインします。 Azure Synapse ワークスペースに移動し、Analytics プールに進み、Apache Spark プールを選択します。
  2. Spark プールを見つける: Apache Spark プールから、ファブリックに移動する Spark プールを見つけて、プールのプロパティを確認します。
  3. プロパティを取得する: Apache Spark のバージョン、ノード サイズ ファミリ、ノード サイズ、自動スケールなどの Spark プールのプロパティを取得します。 違いを確認するには、Spark プールの考慮事項に関するページを参照してください。
  4. カスタム Spark プールを作成する:
    • Fabric ワークスペースに移動し、[ワークスペース設定] を選択します。
    • [Data Engineering/Science] に進み、[Spark の設定] を選択します。
    • [プール] タブと [ワークスペースの既定のプール] セクションで、ドロップダウン メニューを展開し、[新しいプール] の作成を選択します。
    • 対応するターゲット値を使用してカスタム プールを作成します。 名前、ノード ファミリ、ノード サイズ、自動スケール、動的 Executor 割り当てオプションを入力します。
  5. ない場合は、環境項目を作成します
  6. Spark コンピューティングを構成する:
    • 環境内で、[Spark コンピューティング]>[コンピューティング] に移動します。
    • 新しい環境用に新たに作成されたプールを選択します。
    • ドライバーと Executor のコアとメモリを構成できます。
  7. 環境のランタイム バージョンを選択しますここで利用可能なランタイムを参照してください。
  8. [保存] をクリックして変更を [発行] します。

環境の作成と使用の詳細を参照してください。

カスタム環境を示すスクリーンショット。