Opções para obter dados no Fabric Lakehouse
A experiência get data abrange todos os cenários de usuário para trazer dados para o lakehouse, como:
- Conectando-se ao SQL Server existente e copiando dados para a tabela Delta no lakehouse.
- Carregar ficheiros a partir do seu computador.
- Copiando e mesclando várias tabelas de outras casas do lago em uma nova tabela Delta.
- Conectando-se a uma fonte de streaming para pousar dados em uma casa de lago.
- Referenciar dados sem copiá-los de outras fontes internas ou externas.
Diferentes maneiras de carregar dados em uma casa de lago
No Microsoft Fabric, há algumas maneiras de obter dados em uma casa de lago:
- Upload de arquivos do computador local
- Executar uma ferramenta de cópia em pipelines
- Configurar um fluxo de dados
- Bibliotecas do Apache Spark no código do notebook
Upload de arquivo local
Também pode carregar dados armazenados na sua máquina local. Você pode fazê-lo diretamente no explorador Lakehouse.
Ferramenta de cópia em pipelines
A ferramenta Copiar é uma solução de integração de dados altamente escalável que permite conectar-se a diferentes fontes de dados e carregar os dados no formato original ou convertê-los em uma tabela Delta. A ferramenta de cópia é uma parte das atividades de pipelines que você pode modificar de várias maneiras, como agendamento ou acionamento com base em um evento. Para obter mais informações, consulte Como copiar dados usando a atividade de cópia.
Fluxos de Dados
Para usuários que estão familiarizados com os fluxos de dados do Power BI, a mesma ferramenta está disponível para carregar dados em sua casa do lago. Você pode acessá-lo rapidamente a partir da opção "Obter dados" do Lakehouse explorer e carregar dados de mais de 200 conectores. Para obter mais informações, consulte Guia de início rápido: criar seu primeiro fluxo de dados para obter e transformar dados.
Código do bloco de notas
Você pode usar as bibliotecas do Spark disponíveis para se conectar diretamente a uma fonte de dados, carregar dados em um quadro de dados e salvá-los em uma casa de lago. Esse método é a maneira mais aberta de carregar dados na casa do lago que o código do usuário está gerenciando completamente.
Nota
As tabelas Delta externas criadas com o código Spark não serão visíveis para um ponto de extremidade de análise SQL. Use atalhos no espaço Tabela para tornar as tabelas Delta externas visíveis para um ponto de extremidade de análise SQL.
Considerações ao escolher a abordagem para carregar dados
Cenário de teste | Recomendação |
---|---|
Carregamento de pequenos ficheiros a partir da máquina local | Usar o upload de arquivo local |
Dados pequenos ou conector específico | Usar fluxos de dados |
Fonte de dados grande | Usar a ferramenta Copiar em pipelines |
Transformações de dados complexas | Usar o código do bloco de anotações |