Editar

Partilhar via


Analytics de ponta a ponta com o Azure Synapse

Azure Synapse Analytics
Azure Cosmos DB
Azure Data Factory
Azure Databricks
Azure Event Hubs

A solução descrita neste artigo combina uma variedade de serviços do Azure que ingerirão, armazenarão, processarão, enriquecerão e fornecerão dados e informações de diferentes fontes (estruturados, semiestruturados, não estruturados e de streaming).

Arquitetura

Diagrama de arquitetura para uma plataforma de dados moderna usando os serviços de dados do Azure.

Transfira um ficheiro do Visio desta arquitetura.

Nota

  • Os serviços cobertos por essa arquitetura são apenas um subconjunto de uma família muito maior de serviços do Azure. Resultados semelhantes podem ser alcançados usando outros serviços ou recursos que não são cobertos por este design.
  • Requisitos de negócios específicos para seu caso de uso de análise podem exigir o uso de diferentes serviços ou recursos que não são considerados neste design.

Fluxo de dados

Os casos de uso de análise cobertos pela arquitetura são ilustrados pelas diferentes fontes de dados no lado esquerdo do diagrama. Os dados fluem através da solução de baixo para cima da seguinte forma:

Nota

Nas seções a seguir, o Azure Data Lake é usado como a base para os dados ao longo dos vários estágios do ciclo de vida dos dados. O Azure Data Lake é organizado por diferentes camadas e contêineres da seguinte maneira:

  • A camada Raw é a área de aterrissagem de dados provenientes de sistemas de origem. Como o nome indica, os dados nesta camada estão em forma bruta, não filtrada e não purificada.
  • No próximo estágio do ciclo de vida, os dados são movidos para a camada Enriquecida, onde os dados são limpos, filtrados e possivelmente transformados.
  • Em seguida, os dados são movidos para a camada Curated, que é onde os dados prontos para o consumidor são mantidos.

Consulte a documentação de zonas e contêineres Data lake para obter uma revisão completa das camadas e contêineres do Azure Data Lake e seus usos.

Serviços de dados do Azure, HTAP nativo da nuvem com o Azure Cosmos DB e o Dataverse

Processo
  1. O Azure Synapse Link for Azure Cosmos DB e o Azure Synapse Link for Dataverse permitem que você execute análises quase em tempo real sobre dados operacionais e de aplicativos de negócios, usando os mecanismos de análise disponíveis em seu espaço de trabalho do Azure Synapse: SQL Serverless e Spark Pools.

  2. Ao usar o Azure Synapse Link para o Azure Cosmos DB, use uma consulta SQL Serverless ou um bloco de anotações do Spark Pool. Pode aceder ao repositório analítico do Azure Cosmos DB e, em seguida, combinar conjuntos de dados dos seus dados operacionais quase em tempo real com dados do seu data lake ou do seu armazém de dados.

  3. Ao usar o Azure Synapse Link for Dataverse, use uma consulta SQL Serverless ou um bloco de anotações do Spark Pool. Você pode acessar as tabelas Dataverse selecionadas e, em seguida, combinar conjuntos de dados de seus dados de aplicativos de negócios quase em tempo real com dados do seu data lake ou do seu data warehouse.

Armazenamento
  1. Os conjuntos de dados resultantes de suas consultas SQL Serverless podem ser persistidos em seu data lake. Se você estiver usando blocos de anotações do Spark, os conjuntos de dados resultantes poderão ser persistidos em seu data lake ou data warehouse (pool SQL).
Servir
  1. Carregue dados relevantes do pool SQL do Azure Synapse ou data lake em conjuntos de dados do Power BI para visualização e exploração de dados. Os modelos do Power BI implementam um modelo semântico para simplificar a análise de dados e relacionamentos corporativos. Os analistas de negócios usam relatórios e painéis do Power BI para analisar dados e obter insights de negócios.

  2. Os dados também podem ser compartilhados com segurança com outras unidades de negócios ou parceiros externos confiáveis usando o Compartilhamento de Dados do Azure. Os consumidores de dados têm a liberdade de escolher qual formato de dados desejam usar e também qual mecanismo de computação é melhor para processar os conjuntos de dados compartilhados.

  3. Os dados estruturados e não estruturados armazenados em seu espaço de trabalho Synapse também podem ser usados para criar soluções de mineração de conhecimento e usar IA para descobrir informações comerciais valiosas em diferentes tipos e formatos de documentos, incluindo documentos do Office, PDFs, imagens, áudio, formulários e páginas da Web.

Bases de dados relacionais

Ingerir
  1. Use os pipelines do Azure Synapse para extrair dados de uma ampla variedade de bancos de dados, tanto no local quanto na nuvem. Os pipelines podem ser acionados com base em um cronograma predefinido, em resposta a um evento, ou podem ser explicitamente chamados por meio de APIs REST.
Armazenamento
  1. Na camada Data lake bruto, organize seu data lake seguindo as práticas recomendadas em torno de quais camadas criar, quais estruturas de pastas usar em cada camada e qual formato de arquivos usar para cada cenário de análise.

  2. No pipeline do Azure Synapse, use uma atividade Copiar dados para preparar os dados copiados dos bancos de dados relacionais para a camada bruta do seu data lake do Azure Data Lake Store Gen 2 . Você pode salvar os dados em formato de texto delimitado ou compactados como arquivos Parquet.

Processo
  1. Use fluxos de dados, consultas SQL sem servidor ou blocos de anotações do Spark para validar, transformar e mover os conjuntos de dados da camada Raw, através da camada Enriquecida e para a camada Selecionada no data lake.

    1. Como parte de suas transformações de dados, você pode invocar modelos de treinamento de máquina de seus pools SQL usando blocos de anotações T-SQL ou Spark padrão. Esses modelos de ML podem ser usados para enriquecer seus conjuntos de dados e gerar mais insights de negócios. Esses modelos de aprendizado de máquina podem ser consumidos dos Serviços Cognitivos do Azure ou modelos de ML personalizados do Azure ML.
Servir
  1. Você pode servir seu conjunto de dados final diretamente da camada curada do data lake ou pode usar a atividade Copiar dados para ingerir o conjunto de dados final em suas tabelas de pool SQL usando o comando COPY para ingestão rápida.

  2. Carregue dados relevantes do pool SQL do Azure Synapse ou data lake em conjuntos de dados do Power BI para visualização de dados. Os modelos do Power BI implementam um modelo semântico para simplificar a análise de dados e relacionamentos corporativos. Os analistas de negócios usam relatórios e painéis do Power BI para analisar dados e obter insights de negócios.

  3. Os dados também podem ser compartilhados com segurança com outras unidades de negócios ou parceiros externos confiáveis usando o Compartilhamento de Dados do Azure. Os consumidores de dados têm a liberdade de escolher qual formato de dados desejam usar e também qual mecanismo de computação é melhor para processar os conjuntos de dados compartilhados.

  4. Os dados estruturados e não estruturados armazenados em seu espaço de trabalho Synapse também podem ser usados para criar soluções de mineração de conhecimento e usar IA para descobrir informações comerciais valiosas em diferentes tipos e formatos de documentos, incluindo documentos do Office, PDFs, imagens, áudio, formulários e páginas da Web.

Fontes de dados semiestruturadas

Ingerir
  1. Use os pipelines do Azure Synapse para extrair dados de uma ampla variedade de fontes de dados semiestruturadas, tanto no local quanto na nuvem. Por exemplo:

    • Ingerir dados de fontes baseadas em arquivos que contenham arquivos CSV ou JSON.
    • Conecte-se a bancos de dados No-SQL, como Azure Cosmos DB ou MongoDB.
    • Chame APIs REST fornecidas por aplicativos SaaS que funcionarão como sua fonte de dados para o pipeline.
Armazenamento
  1. Na camada Data lake bruto, organize seu data lake seguindo as práticas recomendadas em torno de quais camadas criar, quais estruturas de pastas usar em cada camada e qual formato de arquivos usar para cada cenário de análise.

  2. No pipeline do Azure Synapse, use uma atividade Copiar dados para preparar os dados copiados das fontes de dados semiestruturadas para a camada bruta do seu data lake Gen 2 do Azure Data Lake Store. Salve os dados para preservar o formato original, conforme adquirido das fontes de dados.

Processo
  1. Para pipelines em lote/microlote, use fluxos de dados, consultas SQL sem servidor ou blocos de anotações do Spark para validar, transformar e mover seus conjuntos de dados para a camada selecionada em seu data lake. As consultas SQL Serverless expõem arquivos CSV, Parquet ou JSON subjacentes como tabelas externas, para que possam ser consultados usando T-SQL.

    1. Como parte de suas transformações de dados, você pode invocar modelos de aprendizado de máquina de seus pools SQL usando blocos de anotações T-SQL ou Spark padrão. Esses modelos de ML podem ser usados para enriquecer seus conjuntos de dados e gerar mais insights de negócios. Esses modelos de aprendizado de máquina podem ser consumidos dos Serviços Cognitivos do Azure ou modelos de ML personalizados do Azure ML.
  2. Para cenários de telemetria quase em tempo real e análise de séries temporais, use pools do Data Explorer para ingerir, consolidar e correlacionar facilmente logs e dados de eventos de IoT em várias fontes de dados. Com pools do Data Explorer, você pode usar consultas Kusto (KQL) para executar análises de séries temporais, clustering geoespacial e enriquecimento de aprendizado de máquina.

Servir
  1. Você pode servir seu conjunto de dados final diretamente da camada curada do data lake ou pode usar a atividade Copiar dados para ingerir o conjunto de dados final em suas tabelas de pool SQL usando o comando COPY para ingestão rápida.

  2. Carregue dados relevantes dos pools SQL do Azure Synapse, pools do Data Explorer ou um data lake em conjuntos de dados do Power BI para visualização de dados. Os modelos do Power BI implementam um modelo semântico para simplificar a análise de dados e relacionamentos corporativos. Os analistas de negócios usam relatórios e painéis do Power BI para analisar dados e obter insights de negócios.

  3. Os dados também podem ser compartilhados com segurança com outras unidades de negócios ou parceiros externos confiáveis usando o Compartilhamento de Dados do Azure. Os consumidores de dados têm a liberdade de escolher qual formato de dados desejam usar e também qual mecanismo de computação é melhor para processar os conjuntos de dados compartilhados.

  4. Os dados estruturados e não estruturados armazenados em seu espaço de trabalho Synapse também podem ser usados para criar soluções de mineração de conhecimento e usar IA para descobrir informações comerciais valiosas em diferentes tipos e formatos de documentos, incluindo documentos do Office, PDFs, imagens, áudio, formulários e páginas da Web.

Fontes de dados não estruturadas

Ingerir
  1. Use os pipelines do Azure Synapse para extrair dados de uma ampla variedade de fontes de dados não estruturadas, tanto no local quanto na nuvem. Por exemplo:

    • Ingerir vídeo, imagem, áudio ou texto livre de fontes baseadas em arquivos que contenham os arquivos de origem.
    • Chame APIs REST fornecidas por aplicativos SaaS que funcionarão como sua fonte de dados para o pipeline.
Armazenamento
  1. Dentro da camada Data lake bruto, organize seu data lake seguindo as práticas recomendadas sobre quais camadas criar, quais estruturas de pastas usar em cada camada e qual formato de arquivos usar para cada cenário de análise.

  2. No pipeline do Azure Synapse, use uma atividade Copiar dados para preparar os dados copiados das fontes de dados não estruturadas para a camada bruta do seu data lake do Azure Data Lake Store Gen 2 . Salve os dados preservando o formato original, conforme adquirido das fontes de dados.

Processo
  1. Use os blocos de anotações do Spark para validar, transformar, enriquecer e mover seus conjuntos de dados da camada Raw, através da camada Enriquecida e para a camada Selecionada no data lake.

    1. Como parte de suas transformações de dados, você pode invocar modelos de aprendizado de máquina de seus pools SQL usando blocos de anotações T-SQL ou Spark padrão. Esses modelos de ML podem ser usados para enriquecer seus conjuntos de dados e gerar mais insights de negócios. Esses modelos de aprendizado de máquina podem ser consumidos dos Serviços Cognitivos do Azure ou modelos de ML personalizados do Azure ML.
Servir
  1. Você pode servir seu conjunto de dados final diretamente da camada curada do data lake ou pode usar a atividade Copiar dados para ingerir o conjunto de dados final em suas tabelas de data warehouse usando o comando COPY para ingestão rápida.

  2. Carregue dados relevantes do pool SQL do Azure Synapse ou data lake em conjuntos de dados do Power BI para visualização de dados. Os modelos do Power BI implementam um modelo semântico para simplificar a análise de dados e relacionamentos corporativos.

  3. Os analistas de negócios usam relatórios e painéis do Power BI para analisar dados e obter insights de negócios.

  4. Os dados também podem ser compartilhados com segurança com outras unidades de negócios ou parceiros externos confiáveis usando o Compartilhamento de Dados do Azure. Os consumidores de dados têm a liberdade de escolher qual formato de dados desejam usar e também qual mecanismo de computação é melhor para processar os conjuntos de dados compartilhados.

  5. Os dados estruturados e não estruturados armazenados em seu espaço de trabalho Synapse também podem ser usados para criar soluções de mineração de conhecimento e usar IA para descobrir informações comerciais valiosas em diferentes tipos e formatos de documentos, incluindo documentos do Office, PDFs, imagens, áudio, formulários e páginas da Web.

Transmissão

Ingerir
  1. Use os Hubs de Eventos do Azure ou os Hubs IoT do Azure para ingerir fluxos de dados gerados por aplicativos cliente ou dispositivos IoT. Os Hubs de Eventos ou o Hub IoT irão então ingerir e armazenar dados de streaming, preservando a sequência de eventos recebidos. Os consumidores podem então se conectar a Hubs de Eventos ou pontos de extremidade do Hub IoT e recuperar mensagens para processamento.
Armazenamento
  1. Na camada Data lake bruto, organize seu data lake seguindo as práticas recomendadas em torno de quais camadas criar, quais estruturas de pastas usar em cada camada e qual formato de arquivos usar para cada cenário de análise.

  2. Configure a Captura de Hubs de Eventos ou os Pontos de Extremidade de Armazenamento do Hub IoT para salvar uma cópia dos eventos na camada Raw do seu data lake do Azure Data Lake Store Gen 2 . Esse recurso implementa o "Caminho frio" do padrão de arquitetura do Lambda e permite que você execute análises históricas e de tendências nos dados de fluxo salvos em seu data lake usando consultas SQL Serverless ou blocos de anotações Spark seguindo o padrão para fontes de dados semiestruturadas descrito acima.

Processo
  1. Para obter informações em tempo real, use um trabalho do Stream Analytics para implementar o "Hot Path" do padrão de arquitetura do Lambda e obter insights dos dados de fluxo em trânsito. Defina pelo menos uma entrada para o fluxo de dados proveniente dos Hubs de Eventos ou do Hub IoT, uma consulta para processar o fluxo de dados de entrada e uma saída do Power BI para onde os resultados da consulta serão enviados.

    1. Como parte do processamento de dados com o Stream Analytics, você pode invocar modelos de aprendizado de máquina para enriquecer seus conjuntos de dados de fluxo e orientar decisões de negócios com base nas previsões geradas. Estes modelos de aprendizagem automática podem ser consumidos a partir dos Serviços Cognitivos do Azure ou de modelos de ML personalizados no Azure Machine Learning.
  2. Use outras saídas de trabalho do Stream Analytics para enviar eventos processados para pools SQL do Azure Synapse ou pools do Data Explorer para casos de uso de análise adicionais.

  3. Para cenários de telemetria quase em tempo real e análise de séries temporais, use pools do Data Explorer para ingerir facilmente eventos de IoT diretamente de Hubs de Eventos ou Hubs IoT. Com pools do Data Explorer, você pode usar consultas Kusto (KQL) para executar análises de séries temporais, clustering geoespacial e enriquecimento de aprendizado de máquina.

Servir
  1. Em seguida, os analistas de negócios usam os conjuntos de dados em tempo real e os recursos do painel do Power BI para visualizar os insights em rápida mudança gerados pela sua consulta do Stream Analytics.

  2. Os dados também podem ser compartilhados com segurança com outras unidades de negócios ou parceiros externos confiáveis usando o Compartilhamento de Dados do Azure. Os consumidores de dados têm a liberdade de escolher qual formato de dados desejam usar e também qual mecanismo de computação é melhor para processar os conjuntos de dados compartilhados.

  3. Os dados estruturados e não estruturados armazenados em seu espaço de trabalho Synapse também podem ser usados para criar soluções de mineração de conhecimento e usar IA para descobrir informações comerciais valiosas em diferentes tipos e formatos de documentos, incluindo documentos do Office, PDFs, imagens, áudio, formulários e páginas da Web.

Componentes

Os seguintes serviços do Azure foram usados na arquitetura:

Alternativas

Detalhes do cenário

Este cenário de exemplo demonstra como usar o Azure Synapse Analytics com a extensa família de Serviços de Dados do Azure para criar uma plataforma de dados moderna capaz de lidar com os desafios de dados mais comuns em uma organização.

Potenciais casos de utilização

Esta abordagem também pode ser utilizada para:

  • Estabeleça uma arquitetura de produto de dados, que consiste em um data warehouse para dados estruturados e um data lake para dados semiestruturados e não estruturados. Você pode optar por implantar um único produto de dados para ambientes centralizados ou vários produtos de dados para ambientes distribuídos, como o Data Mesh. Veja mais informações sobre Gerenciamento de Dados e Zonas de Pouso de Dados.
  • Integre fontes de dados relacionais com outros conjuntos de dados não estruturados, com o uso de tecnologias de processamento de big data.
  • Use modelagem semântica e poderosas ferramentas de visualização para uma análise de dados mais simples.
  • Partilhe conjuntos de dados dentro da organização ou com parceiros externos de confiança.
  • Implemente soluções de mineração de conhecimento para extrair informações comerciais valiosas ocultas em imagens, PDFs, documentos e assim por diante.

Recomendações

Descubra e governe

A governança de dados é um desafio comum em ambientes corporativos de grande porte. Por um lado, os analistas de negócios precisam ser capazes de descobrir e entender ativos de dados que podem ajudá-los a resolver problemas de negócios. Por outro lado, os Chief Data Officers querem informações sobre privacidade e segurança dos dados empresariais.

Microsoft Purview

  1. Use o Microsoft Purview para descoberta de dados e informações sobre seus ativos de dados, classificação de dados e sensibilidade, que abrange todo o cenário de dados organizacionais.

  2. O Microsoft Purview pode ajudá-lo a manter um glossário de negócios com a terminologia de negócios específica necessária para que os usuários entendam a semântica do que os conjuntos de dados significam e como eles devem ser usados em toda a organização.

  3. Você pode registrar todas as suas fontes de dados e organizá-las em Coleções, que também serve como um limite de segurança para seus metadados.

  4. Configure verificações regulares para catalogar e atualizar automaticamente metadados relevantes sobre ativos de dados na organização. O Microsoft Purview também pode adicionar automaticamente informações de linhagem de dados com base em informações do Azure Data Factory ou dos pipelines do Azure Synapse.

  5. As etiquetas de classificação e sensibilidade de dados podem ser adicionadas automaticamente aos seus ativos de dados com base em regras pré-configuradas ou alfandegárias aplicadas durante as verificações regulares.

  6. Os profissionais de governança de dados podem usar os relatórios e insights gerados pelo Microsoft Purview para manter o controle sobre todo o cenário de dados e proteger a organização contra quaisquer problemas de segurança e privacidade.

Serviços de plataforma

Para melhorar a qualidade das suas soluções Azure, siga as recomendações e diretrizes definidas no Azure Well-Architected Framework cinco pilares de excelência de arquitetura: Otimização de Custos, Excelência Operacional, Eficiência de Desempenho, Fiabilidade e Segurança.

Seguindo essas recomendações, os serviços abaixo devem ser considerados como parte do projeto:

  1. Microsoft Entra ID: serviços de identidade, logon único e autenticação multifator em cargas de trabalho do Azure.
  2. Microsoft Cost Management: governança financeira sobre suas cargas de trabalho do Azure.
  3. Azure Key Vault: gerenciamento seguro de credenciais e certificados. Por exemplo, o Azure Synapse Pipelines, o Azure Synapse Spark Pools e o Azure ML podem recuperar credenciais e certificados do Azure Key Vault usados para acessar armazenamentos de dados com segurança.
  4. Azure Monitor: colete, analise e atue com base nas informações de telemetria de seus recursos do Azure para identificar problemas proativamente e maximizar o desempenho e a confiabilidade.
  5. Microsoft Defender for Cloud: fortaleça e monitore a postura de segurança de suas cargas de trabalho do Azure.
  6. Azure DevOps & GitHub: implemente práticas de DevOps para impor automação e conformidade aos pipelines de desenvolvimento e implantação de sua carga de trabalho para o Azure Synapse e o Azure ML.
  7. Política do Azure: implemente padrões organizacionais e governança para consistência de recursos, conformidade regulamentar, segurança, custo e gerenciamento.

Considerações

Essas considerações implementam os pilares do Azure Well-Architected Framework, que é um conjunto de princípios orientadores que podem ser usados para melhorar a qualidade de uma carga de trabalho. Para obter mais informações, consulte Microsoft Azure Well-Architected Framework.

As tecnologias nesta arquitetura foram escolhidas porque cada uma delas fornece a funcionalidade necessária para lidar com os desafios de dados mais comuns em uma organização. Esses serviços atendem aos requisitos de escalabilidade e disponibilidade, ao mesmo tempo em que os ajudam a controlar os custos. Os serviços cobertos por essa arquitetura são apenas um subconjunto de uma família muito maior de serviços do Azure. Resultados semelhantes podem ser alcançados usando outros serviços ou recursos não cobertos por este design.

Requisitos de negócios específicos para seus casos de uso de análise também podem exigir o uso de diferentes serviços ou recursos não considerados neste design.

Arquitetura semelhante também pode ser implementada para ambientes de pré-produção onde você pode desenvolver e testar suas cargas de trabalho. Considere os requisitos específicos para suas cargas de trabalho e os recursos de cada serviço para um ambiente de pré-produção econômico.

Otimização de custos

A otimização de custos consiste em procurar formas de reduzir despesas desnecessárias e melhorar a eficiência operacional. Para obter mais informações, consulte Visão geral do pilar de otimização de custos.

No geral, utilize a calculadora de preços do Azure para prever os custos. O nível de preço individual ideal e o custo total total de cada serviço incluído na arquitetura dependem da quantidade de dados a serem processados e armazenados e do nível de desempenho aceitável esperado. Use o guia abaixo para saber mais sobre o preço de cada serviço:

  • A arquitetura sem servidor do Azure Synapse Analytics permite dimensionar seus níveis de computação e armazenamento de forma independente. Os recursos de computação são cobrados com base no uso, e você pode dimensionar ou pausar esses recursos sob demanda. Os recursos de armazenamento são cobrados por terabyte, portanto, seus custos aumentarão à medida que você ingerir mais dados.

  • O Azure Data Lake Gen 2 é cobrado com base na quantidade de dados armazenados e no número de transações para ler e gravar dados.

  • Os Hubs de Eventos do Azure e os Hubs IoT do Azure são cobrados com base na quantidade de recursos de computação necessários para processar seus fluxos de mensagens.

  • As cobranças do Azure Machine Learning vêm da quantidade de recursos de computação usados para treinar e implantar seus modelos de aprendizado de máquina.

  • Os Serviços Cognitivos são cobrados com base no número de chamadas que você faz para as APIs de serviço.

  • O preço do Microsoft Purview é calculado com base no número de ativos de dados no catálogo e na quantidade de poder de computação necessária para examiná-los.

  • O Azure Stream Analytics é cobrado com base na quantidade de poder de computação necessária para processar suas consultas de fluxo.

  • O Power BI tem diferentes opções de produto para diferentes requisitos. O Power BI Embedded fornece uma opção baseada no Azure para incorporar a funcionalidade do Power BI em seus aplicativos. Uma instância do Power BI Embedded está incluída no exemplo de definição de preço acima.

  • O preço do Azure Cosmos DB é calculado com base na quantidade de recursos de armazenamento e computação exigidos pelos seus bancos de dados.

Implementar este cenário

Este artigo tem um repositório complementar disponível no GitHub que mostra como você automatiza a implantação dos serviços cobertos nessa arquitetura. Siga o guia de implantação de análise do Azure de ponta a ponta com o Azure Synapse para implantar essa arquitetura em sua assinatura. Esse guia de implantação tem instruções detalhadas e várias opções de implantação.

Contribuidores

Este artigo está sendo atualizado e mantido pela Microsoft. Foi originalmente escrito pelos seguintes contribuidores.

Autor principal:

  • Fabio Braga - Brasil | Arquiteto Técnico MTC Principal

Para ver perfis não públicos do LinkedIn, inicie sessão no LinkedIn.

Próximos passos

  • Analise as diretrizes definidas no cenário de gerenciamento e análise de dados do Azure para o ambiente de análise escalável no Azure.

  • Explore os Caminhos de Aprendizagem do Engenheiro de Dados na Microsoft para obter conteúdo de treinamento adicional e laboratórios sobre os serviços envolvidos nessa arquitetura de referência.

  • Revise a documentação e implante a arquitetura de referência usando o acelerador de implantação disponível no GitHub.