Se connecter à Infoworks
Important
Cette fonctionnalité est disponible en préversion publique.
InfoWorks DataFoundry est un système automatisé d’orchestration et d’opérations de données d’entreprise qui s’exécute en mode natif sur Azure Databricks et tire parti de toute la puissance d’Azure Databricks pour fournir une solution simple d’intégration de données. Il s’agit d’une première étape importante pour l’opérationnalisation de votre lac de données. En plus d’automatiser l’ingestion des données, DataFoundry automatise les fonctionnalités clés qui doivent accompagner l’ingestion afin d’établir une base pour l’analyse. L’intégration de données avec DataFoundry automatise les aspects suivants :
- Ingestion des données : à partir de toutes les sources de données d’entreprise et externes
- Synchronisation des données : capture des changements de données (CDC) pour garder les données synchronisées avec la source
- Gouvernance des données : catalogue, traçabilité, gestion des métadonnées, audit et historique
Voici les étapes à suivre pour utiliser InfoWorks avec Azure Databricks.
Étape 1 : Générer un jeton d’accès personnel Databricks
InfoWorks s’authentifie auprès d’Azure Databricks à l’aide d’un jeton d’accès personnel Azure Databricks.
Notes
En guise de bonne pratique de sécurité, quand vous vous authentifiez avec des outils, systèmes, scripts et applications automatisés, Databricks recommande d’utiliser des jetons d’accès personnels appartenant à des principaux de service et non des utilisateurs de l’espace de travail. Pour créer des jetons d’accès pour des principaux de service, consultez la section Gérer les jetons pour un principal de service.
Étape 2 : Configurer un cluster pour prendre en charge l’intégration
Infoworks écrit des données dans un chemin Azure Data Lake Storage et le cluster d’intégration Azure Databricks lit les données à partir de cet emplacement. Par conséquent, le cluster d’intégration nécessite un accès sécurisé au chemin Azure Data Lake Storage.
Sécuriser l’accès à un chemin Azure Data Lake Storage
Pour sécuriser l’accès aux données dans Azure Data Lake Storage (ADLS), vous pouvez utiliser une clé d’accès au compte de stockage Azure (recommandé) ou un principal de service Microsoft Entra ID.
Utiliser une clé d’accès au compte de stockage Azure
Vous pouvez configurer une clé d’accès au compte de stockage dans le cluster d’intégration dans le cadre d’une configuration Spark. Vérifiez que le compte de stockage a accès au conteneur ADLS et au système de fichiers qui sont utilisés pour les données intermédiaires, ainsi qu’au conteneur ADLS et au système de fichiers dans lesquels vous souhaitez écrire les tables Delta Lake. Pour configurer le cluster d’intégration afin qu’il utilise la clé, suivez les étapes décrites dans Se connecter à Azure Data Lake Storage Gen2 et au Stockage Blob.
Utiliser un principal de service Microsoft Entra ID
Vous pouvez configurer un principal de service dans le cluster d’intégration Azure Databricks dans le cadre de la configuration Spark. Vérifiez que le principal de service a accès au conteneur ADLS qui est utilisé pour les données intermédiaires, ainsi qu’au conteneur ADLS dans lequel vous souhaitez écrire les tables Delta. Pour configurer le cluster d’intégration afin qu’il utilise le principal de service, suivez les étapes décrites dans Accéder à ADLS Gen2 à l’aide d’un principal de service.
Spécifier la configuration du cluster
Définissez le mode de cluster sur Standard.
Dans Databricks Runtime Version, sélectionnez une version pour Databricks Runtime.
Activez les écritures optimisées et le compactage automatique en ajoutant les propriétés suivantes à votre configuration Spark :
spark.databricks.delta.optimizeWrite.enabled true spark.databricks.delta.autoCompact.enabled true
Configurez votre cluster en fonction de vos besoins en matière d’intégration et de mise à l’échelle.
Pour plus d’informations sur la configuration du cluster, consultez Informations de référence sur la configuration de calcul.
Pour connaître les étapes à suivre pour obtenir l’URL JDBC et le chemin d’accès HTTP, consultez Obtenir les détails de connexion pour une ressource de calcul Azure Databricks.
Étape 3 : Obtenir les détails de connexion JDBC et ODBC pour se connecter à un cluster
Pour connecter un cluster Azure Databricks à InfoWorks, vous avez besoin des propriétés de connexion JDBC/ODBC suivantes :
- URL JDBC
- HTTP Path
Étape 4 : obtenir InfoWorks pour Azure Databricks
Accédez à InfoWorks pour en savoir plus et obtenir une démonstration.