Partilhar via


Opções para obter dados no Fabric Lakehouse

A experiência get data abrange todos os cenários de usuário para trazer dados para a lakehouse, como:

  • Conectando-se ao SQL Server existente e copiando dados para a tabela Delta no lakehouse.
  • Carregar ficheiros a partir do seu computador.
  • Copiando e mesclando várias tabelas de outras casas do lago em uma nova tabela Delta.
  • Conectando-se a uma fonte de streaming para pousar dados em uma casa de lago.
  • Referenciar dados sem copiá-los de outras fontes internas ou externas.

Diferentes maneiras de carregar dados em uma casa de lago

No Microsoft Fabric, há algumas maneiras de obter dados em uma casa de lago:

  • Upload de arquivos do computador local
  • Executar uma ferramenta de cópia em pipelines
  • Configurar um fluxo de dados
  • Bibliotecas do Apache Spark no código do notebook
  • Transmita eventos em tempo real com o Eventstream
  • Obter dados da Eventhouse

Upload de arquivo local

Também pode carregar dados armazenados na sua máquina local. Você pode fazê-lo diretamente no explorador Lakehouse.

Captura de tela da caixa de diálogo de upload de arquivo no Lakehouse explorer.

Ferramenta de cópia em pipelines

A ferramenta Copiar é uma solução de integração de dados altamente escalável que permite que você se conecte a diferentes fontes de dados e carregue os dados no formato original ou converta-os em uma tabela Delta. A ferramenta de cópia é uma parte das atividades de pipelines que você pode modificar de várias maneiras, como agendamento ou acionamento com base em um evento. Para obter mais informações, consulte Como copiar dados usando a atividade de cópia.

Fluxos de Dados

Para usuários que estão familiarizados com os fluxos de dados do Power BI, a mesma ferramenta está disponível para carregar dados em sua casa do lago. Você pode acessá-lo rapidamente a partir da opção "Obter dados" do Lakehouse explorer e carregar dados de mais de 200 conectores. Para obter mais informações, consulte Guia de início rápido: criar seu primeiro fluxo de dados para obter e transformar dados.

Código do bloco de notas

Você pode usar as bibliotecas do Spark disponíveis para se conectar diretamente a uma fonte de dados, carregar dados em um quadro de dados e salvá-los em uma casa de lago. Esse método é a maneira mais aberta de carregar dados na casa do lago que o código do usuário está gerenciando completamente.

Nota

As tabelas Delta externas criadas com o código Spark não serão visíveis para um ponto de extremidade de análise SQL. Use atalhos no espaço Tabela para tornar as tabelas Delta externas visíveis para um ponto de extremidade de análise SQL. Para saber como criar um atalho, consulte Criar um atalho para ficheiros ou tabelas.

Transmita eventos em tempo real com o Eventstream

Com o Eventstream, você pode obter, processar e rotear eventos em tempo real de grandes volumes a partir de uma ampla variedade de fontes.

Captura de tela de como obter dados em um lago a partir do Eventstream.

Para ver como adicionar lakehouse como destino para o Eventstream, consulte Obter dados do Eventstream em uma lakehouse.

Para um desempenho de streaming ideal, você pode transmitir dados do Eventstream para uma Eventhouse e, em seguida, habilitar a disponibilidade do OneLake.

Obter dados da Eventhouse

Quando você habilita a disponibilidade do OneLake em dados em uma Eventhouse, uma tabela Delta é criada no OneLake. Esta tabela Delta pode ser acessada por uma casa do lago usando um atalho. Para obter mais informações, consulte Atalhos do OneLake. Para obter mais informações, consulte Disponibilidade do Eventhouse OneLake.

Considerações ao escolher a abordagem para carregar dados

Cenário de teste Recomendação
Carregamento de pequenos ficheiros a partir da máquina local Usar o upload de arquivo local
Dados pequenos ou conector específico Usar fluxos de dados
Fonte de dados grande Usar a ferramenta Copiar em pipelines
Transformações de dados complexas Usar o código do bloco de anotações
Transmissão em fluxo de dados Use o Eventstream para transmitir dados para o Eventhouse; habilitar a disponibilidade do OneLake e criar um atalho a partir do Lakehouse
Dados de séries cronológicas Obter dados da Eventhouse