Compartilhar via


Visão geral da computação de métricas ambientais, sociais e de governança

Importante

Algumas ou todas estas funcionalidades estão disponíveis como parte de uma versão preliminar. O conteúdo e a funcionalidade estão sujeitos a alterações.

Você pode Select e calcular as métricas pré-criadas usando os notebooks pré-criados e pipelines implantados como parte desse recurso.

Observação

Você pode estender os notebooks e pipelines para oferecer suporte a métricas personalizadas. Para obter mais informações, acesse Criar métricas personalizadas.

Pré-requisitos

  1. Carregue as definições de métricas pré-criadas nas tabelas MetricsDefinitions e MetricsLabels no ComputedESGMetrics_LH lakehouse executando o bloco de notas LoadDefinitionsForMetrics . Você só precisa executar este etapa uma vez. Os cadernos de computação de métricas extraem a definição da métrica dessas tabelas.

    1. Você pode então consultar a tabela MetricsDefinitions para visualizar as definições de métricas. Para cada métrica, você pode ver as propriedades da métrica:

      • Nome da métrica
      • medida
      • dimensões
      • filtros
      • área de sustentabilidade
    2. Você também pode consultar a tabela MetricsLabels para explorar as métricas por rótulos, como Padrão de relatório e Ponto de dados de divulgação.

    3. Você pode então explorar a Biblioteca de métricas pré-criadas para determinar o conjunto de dados agregados a ser preenchido para calcular a respectiva métrica pré-criada.

    4. Consulte Gerar tabelas agregadas para descobrir as respectivas tabelas do modelo de dados ESG e os atributos a serem preenchidos para gerar as tabelas agregadas.

  2. Ingira, transforme e carregue os dados transformados nas tabelas do modelo de dados ESG no ProcessedESGData_LH lakehouse implantado como parte do recurso de propriedade de dados ESG no mesmo espaço de trabalho.

  3. Autentique os modelos semânticos pré-criados (DatasetForMetricsMeasures e DatasetForMetricsDashboard) usados no cálculo da métrica criando uma conexão. Você só precisa executar este etapa uma vez.

    1. Select o modelo semântico DatasetForMetricsMeasures_DTST da página de capacidade gerenciada para abrir o modelo semântico. Select Configurações no menu Arquivo . Você também pode abrir o item na página do espaço de trabalho.

      Captura de tela da seleção de DatasetForMetricsMeasures_DTST.

    2. Select Gateway e conexões de nuvem e, em seguida, Select Criar uma nova conexão na caixa suspensa Conexões de nuvem . Um painel lateral Nova conexão é aberto.

      Captura de tela da criação de uma nova conexão para o modelo semântico.

    3. No painel lateral Nova conexão , insira o nome da conexão, insira OAuth 2.0 para o método de autenticação, edite as credenciais e Select Criar.

    4. Select a conexão criada na seção Conexões de gateway e nuvem .

      Captura de tela da seleção da conexão recém-criada.

    5. Da mesma forma, configure uma conexão para o modelo semântico DatasetForMetricsDashboard_DTST . Abra o modelo semântico na página do espaço de trabalho, Select Configurações no menu Arquivo e siga as mesmas etapas que você seguiu para DatasetForMetricsMeasures_DTST.

  4. Use o runtime 1.3 (Spark 3.5, Delta 3.2) para executar os notebooks e pipelines pré-criados. Apache Spark

Se você estiver usando o pipeline ExecuteComputationForMetrics_DTPL para calcular métricas, também precisará executar estas etapas:

  1. Crie uma conexão para autenticar a atividade Criar tabelas agregadas do pipeline para usar o pipeline GenerateAggregateForMetrics :

    1. Abra o pipeline ExecuteComputationForMetrics_DTPL na página de capacidade gerenciada ou espaço de trabalho.

    2. Select a atividade do pipeline Criar tabelas agregadas .

    3. Para configurar uma conexão, Select Configurações.

      Captura de tela da configuração de uma conexão.

  2. Da mesma forma, autentique configurando conexões para medidas de atualização e métricas de atualização para as atividades do painel do pipeline:

    1. Select a atividade.

    2. Selecione Configurações.

    3. Select uma conexão do atributo Connection .

      Captura de tela da seleção de uma conexão.

Explore com dados de demonstração

Se você estiver explorando o recurso com dados de demonstração e quiser apenas visualizar a saída de todas as métricas, poderá executar o pipeline ExecuteComputationForMetrics_DTPL . Este pipeline fornece uma experiência de ponta a ponta, desde o carregamento dos dados de demonstração no ProcessedESGData_LH lakehouse até o cálculo das métricas pré-criadas. Para saber mais sobre como configurar dados de demonstração, acesse Configurar dados de demonstração.

Antes de executar o pipeline, certifique-se de ter seguido as etapas #3-5 na seção Pré-requisitos .

Em seguida, crie uma conexão para autenticar a atividade Criar tabelas agregadas do pipeline para usar o pipeline GenerateAggregateForMetrics :

  1. Abra o pipeline ExecuteComputationForMetrics_DTPL na página de capacidade gerenciada ou espaço de trabalho.

  2. Select a atividade do pipeline Criar tabelas agregadas e, em seguida, Select Configurações para configurar uma conexão.

    Captura de tela do painel lateral Nova conexão.

  3. Da mesma forma, autentique configurando conexões para Medidas de atualização e Métricas de atualização para as atividades do painel do pipeline. Select a atividade, Select Configurações e, em seguida, Select uma conexão do atributo Conexão .

    Captura de tela da criação de uma conexão.

    Observação

    Essas etapas de configuração de conexão são únicas e não são necessárias para execuções de pipeline subsequentes.

Após concluir essas etapas, Select Executar para executar o pipeline. Você pode monitorar o pipeline selecionando o botão Exibir histórico de execução .

Este pipeline realiza estas atividades:

Observação

Se você quiser executar uma atividade específica do pipeline, poderá desativar as outras atividades. Para obter mais informações, acesse Desativar uma atividade.

Computar dados de métricas

Para calcular as métricas ESG, siga as instruções nestes artigos:

  1. Gerar tabelas agregadas
  2. Gerar e armazenar dados de métricas
  3. Consumir dados de métricas

Próxima etapa