Compartilhar via


Terminologia do Microsoft Fabric

Conheça as definições de termos usados no Microsoft Fabric, incluindo termos específicos do Data Warehouse do Fabric, Engenharia de Dados do Fabric, Ciência de Dados do Fabric, Inteligência em Tempo Real, Data Factory e Power BI.

Termos gerais

  • Capacidade: é um conjunto dedicado de recursos que está disponível em um determinado momento para ser usado. A capacidade define a possibilidade de um recurso executar uma atividade ou produzir uma saída. Itens diferentes consomem capacidades diferentes em um determinado momento. O Fabric oferece capacidade por meio do SKU e das avaliações da plataforma. Para saber mais, consulteO que é Capacidade?

  • Experiência: uma coleção de recursos direcionados a uma funcionalidade específica. As experiências do Fabric incluem Data Warehouse do Fabric, Engenharia de Dados do Fabric, Ciência de Dados do Fabric, Inteligência em Tempo Real, Data Factory e Power BI.

  • Item: um item um conjunto de recursos dentro de uma experiência. Os usuários podem criar, editar e excluí-los. Cada tipo de item fornece recursos diferentes. Por exemplo, a experiência de Engenharia de Dados inclui os itens de definição de tarefa lakehouse, notebook e Spark.

  • Locatário: um locatário é uma única instância do Fabric para uma organização e está alinhado com o Microsoft Entra ID.

  • Espaço de trabalho: é uma coleção de itens que reúne diferentes funcionalidades em um único ambiente projetado para colaboração. Ele atua como um contêiner que utiliza a capacidade para o trabalho a ser executado e fornece controles com relação a quem pode acessar os itens nele. Por exemplo, em um espaço de trabalho, os usuários criam relatórios, notebooks, modelos semânticos etc. Para saber mais, confira o artigo Espaços de trabalho.

Engenharia de Dados do Fabric

  • Lakehouse: é uma coleção de arquivos, pastas e tabelas que representam um banco de dados em um data lake utilizado pelo Apache Spark e pelo SQL para processamento de big data. Um lakehouse inclui recursos aprimorados para transações ACID ao usar as tabelas formatadas delta de software livre. O item lakehouse é hospedado em uma pasta de espaço de trabalho exclusiva no Microsoft OneLake. Ele contém arquivos em vários formatos (estruturados e não estruturados) organizados em pastas e subpastas. Para obter mais informações, consulte O que é um lakehouse?

  • Notebook: um notebook do Fabric é uma ferramenta de programação interativa de várias linguagens com funções avançadas. Isso inclui a criação de código e markdown, a execução e o monitoramento de um trabalho do Spark, a exibição e a visualização do resultado e a colaboração com a equipe. Ele ajuda engenheiros de dados e cientistas de dados a explorar e processar dados e a criar experimentos de aprendizado de máquina com o código e a experiência de baixo código. Ele pode ser facilmente transformado em uma atividade de pipeline para orquestração.

  • Aplicativo Spark: um aplicativo do Apache Spark é um programa escrito por um usuário usando uma das linguagens de API do Spark (Scala, Python, Spark SQL ou Java) ou idiomas adicionados pela Microsoft (.NET com C# ou F#). Quando um aplicativo é executado, ele é dividido em um ou mais trabalhos do Spark executados em paralelo para processar os dados mais rapidamente. Para obter mais informações, consulte Monitoramento do aplicativo do Spark.

  • Trabalho do Apache Spark: um trabalho do Spark faz parte de um aplicativo Spark que é executado em paralelo com outros trabalhos no aplicativo. Um trabalho consiste em várias tarefas. Para obter mais informações, consulte Monitoramento de trabalho do Spark.

  • Definição de trabalho do Apache Spark: uma definição de trabalho do Spark é um conjunto de parâmetros, definido pelo usuário, indicando como um aplicativo Spark deve ser executado. Ele permite que você envie trabalhos de lote ou streaming para o cluster do Spark. Para obter mais informações, consulte O que é uma definição de trabalho do Apache Spark?

  • Ordem V: uma otimização de gravação para o formato de arquivo parquet que permite leituras rápidas e fornece eficiência de custo e melhor desempenho. Todos os mecanismos do Fabric gravam arquivos parquet ordenados por v por padrão.

Data Factory

  • Conector: o Data Factory oferece um rico conjunto de conectores que permitem conectar-se a diferentes tipos de armazenamentos de dados. Uma vez conectado, você pode transformar os dados. Para obter mais informações, consulte conectores.

  • Pipeline de dados: no Data Factory, um pipeline de dados é usado para orquestrar a movimentação e a transformação de dados. Esses pipelines são diferentes dos pipelines de implantação no Fabric. Para obter mais informações, consulte Pipelines na visão geral do Data Factory.

  • Fluxos de Dados Gen2: Os fluxos de dados fornecem uma interface de baixo código para ingerir dados de centenas de fontes de dados e transformar seus dados. Os fluxos de dados no Fabric são chamados de Fluxo de Dados Gen2. O Fluxo de Dados Gen1 existe no Power BI. O Fluxo de Dados Gen2 oferece recursos extras em comparação com fluxos de dados no Azure Data Factory ou no Power BI. Você não pode atualizar do Gen1 para o Gen2. Para obter mais informações, consulte Fluxos de Dados na visão geral do Data Factory.

  • Gatilho: um recurso de automação no Data Factory que inicia pipelines com base em condições específicas, como agendamentos ou disponibilidade de dados.

Ciência de Dados do Fabric

  • Data Wrangler: o Data Wrangler é uma ferramenta baseada em notebook que fornece aos usuários uma experiência imersiva para conduzir a análise exploratória de dados. O recurso combina uma exibição de dados semelhante à grade com estatísticas de resumo dinâmico e um conjunto de operações comuns de limpeza de dados, todas disponíveis com alguns ícones selecionados. Cada operação gera código que pode ser salvo de volta no notebook como um script reutilizável.

  • Experimento: um experimento de machine learning é a principal unidade de organização e controle para todas as execuções de aprendizado de máquina relacionadas. Para obter mais informações, consulte Experimentos de machine learning no Microsoft Fabric.

  • Modelo: um modelo de machine learning é um arquivo que foi treinado para reconhecer determinados tipos de padrões. Você treina um modelo em um conjunto de dados e fornece um algoritmo que ele usa para raciocinar e aprender com esse conjunto de dados. Para obter mais informações, consulte Modelo de Machine Learning.

  • Execução: uma execução corresponde a uma única execução do código do modelo. No MLflow, o acompanhamento é baseado em experimentos e execuções.

Data Warehousing do Fabric

  • Ponto de extremidade de análise de SQL: cada Lakehouse tem um ponto de extremidade de análise de SQL que permite que um usuário consulte dados de tabela delta com TSQL por TDS. Para saber mais, confira Ponto de extremidade de análise de SQL.

  • Warehouse Data do Fabric: o Warehouse Data do Fabric funciona como um data warehouse tradicional e dá suporte a todos os recursos T-SQL transacionais que você esperaria de um data warehouse corporativo. Para obter mais informações, consulte Warehouse Data do Fabric.

Inteligência em Tempo Real

  • Activator: o Activator é uma ferramenta no-code e low-code que permite criar alertas, gatilhos e ações em seus dados. O Activator é usado para criar alertas em seus fluxos de dados. Para obter mais informações, consulte Activator.

  • Eventhouse: Eventhouses fornecem uma solução para lidar e analisar grandes volumes de dados, especialmente em cenários que exigem análise e exploração em tempo real. Eles são desenvolvidos para lidar com fluxos de dados em tempo real de forma eficiente, o que permite que as organizações ingiram, processem e analisem dados quase em tempo real. Um único workspace pode conter vários Eventhouses, cada eventhouse pode conter vários bancos de dados KQL e cada banco de dados pode conter várias tabelas. Para obter mais informações, consulte Visão geral de eventhouse.

  • Eventstream: o recurso de eventstreams no Microsoft Fabric oferece um local centralizado na plataforma do Fabric para capturar, transformar e rotear eventos em tempo real para destinos com uma experiência sem código. Um eventstream consiste em várias fontes de dados de streaming, destinos de ingestão e um processador de eventos quando a transformação é necessária. Para obter mais informações, consulte Eventstreams do Microsoft Fabric.

  • Banco de dados KQL: o banco de dados KQL contém dados em um formato no qual você pode executar consultas KQL. Bancos de dados KQL são itens em um Eventhouse. Para obter mais informações, consulte Banco de dados KQL.

  • Conjunto de consultas KQL: o conjunto de consultas KQL é o item usado para executar consultas, exibir resultados e manipular resultados de consulta em dados do banco de dados Data Explorer. O conjunto de consultas inclui os bancos de dados e tabelas, as consultas e os resultados. O KQL Queryset permite salvar consultas para uso futuro ou exportar e compartilhar consultas com outras pessoas. Para obter mais informações, veja Consultar dados em um conjunto de consultas KQL

hub em Tempo Real

  • Hub em tempo real: o hub em tempo real é o único lugar para todos os dados em movimento em toda a sua organização. Cada locatário do Microsoft Fabric é provisionado automaticamente com o hub. Para obter mais informações, confira Visão Geral do Hub em Tempo Real.

OneLake

  • Atalho: os atalhos são referências internas no OneLake que apontam para os locais de repositório de outros arquivos. Eles fornecem uma maneira de se conectar aos dados existentes sem precisar copiá-los diretamente. Para obter mais informações, consulte Atalhos do teclado.