Inserire dati in una databricks lakehouse
Azure Databricks offre diversi modi per inserire dati da varie origini in un lakehouse supportato da Delta Lake. Questo articolo elenca le origini dati e fornisce collegamenti ai passaggi per l'inserimento di dati da ogni tipo di origine.
Archiviazione di oggetti cloud
Per informazioni su come configurare l'inserimento incrementale dall'archiviazione di oggetti cloud, vedere Inserire dati dall'archiviazione di oggetti cloud.
LakeFlow Connect
Databricks LakeFlow Connect offre connettori nativi per l'inserimento da applicazioni e database aziendali. La pipeline di inserimento risultante è governata dal catalogo unity ed è basata su calcolo serverless e tabelle live Delta.
LakeFlow Connect sfrutta letture incrementali e scritture efficienti per rendere l'inserimento dei dati più veloce, scalabile e più conveniente, mentre i dati rimangono aggiornati per l'utilizzo downstream.
Origini di streaming
Azure Databricks può essere integrato con i servizi di messaggistica di flusso per l'inserimento di dati quasi in tempo reale in un lakehouse. Vedere Streaming e inserimento incrementale.
File di dati locali
È possibile caricare in modo sicuro i file di dati locali o scaricare file da un URL pubblico. Vedere Caricare file in Azure Databricks.
Eseguire la migrazione dei dati a Delta Lake
Per informazioni su come eseguire la migrazione dei dati esistenti a Delta Lake, vedere Eseguire la migrazione dei dati a Delta Lake.