Compartilhar via


Pré-requisitos da plataforma Operador Nexus

As operadoras precisam preencher os pré-requisitos antes da implantação do software da plataforma Operator Nexus. Como algumas dessas etapas podem levar muito tempo, é recomendado examinar os pré-requisitos.

Em implantações subsequentes de instâncias do Operator Nexus, você pode pular para a criação do Network Fabric e do Cluster locais.

Pré-requisitos do Azure

Ao implantar o Operator Nexus pela primeira vez ou em uma nova região, primeiro você precisará criar um Network Fabric Controller e, em seguida, um Cluster Manager conforme especificado aqui. Além disso, as seguintes tarefas precisam ser realizadas:

  • Configurar usuários, políticas, permissões e o RBAC
  • Configure grupos de recursos para incluir e agrupar de maneira lógica os recursos que serão criados para a plataforma Operator Nexus.
  • Estabelecer a conectividade do ExpressRoute de sua WAN com uma região do Azure
  • Para habilitar o Microsoft Defender para Ponto de Extremidade para máquinas bare metal (BMMs) locais, você deve ter selecionado um plano Defender para Servidores em sua assinatura do Operador Nexus antes da implantação. Informações adicionais disponíveis aqui.

Pré-requisitos no local

Ao implantar a instância local do Operator Nexus em seu datacenter, é provável que várias equipes estejam envolvidas para desempenhar diversas funções. As tarefas a seguir devem ser executadas com precisão para garantir uma instalação bem-sucedida do software da plataforma.

Configuração de hardware físico

Uma operadora que desejar aproveitar as vantagens do serviço Operator Nexus precisa adquirir, instalar, configurar e operar recursos de hardware. Essa seção do documento descreve os componentes e esforços necessários para adquirir e implementar os sistemas de hardware apropriados. Essa seção discute a lista de materiais, o diagrama de elevação do rack e o diagrama de cabeamento, bem como as etapas necessárias para montar o hardware.

Usando a lista de materiais (BOM)

Para garantir uma experiência perfeita ao operador, a Operator Nexus desenvolveu uma lista técnica para aquisição de hardware necessária para o serviço. Essa BOM é uma lista abrangente dos componentes e quantidades necessárias para implementar o ambiente para uma implementação e manutenção bem-sucedidas da instância local. A BOM está estruturada para fornecer ao operador uma série de unidades de manutenção de estoque (SKU) que podem ser encomendadas de fornecedores de hardware. Os SKUs serão discutidos posteriormente nesse documento.

Usando o diagrama de elevação

O diagrama de elevação do rack é uma referência gráfica que demonstra como os servidores e outros componentes se encaixam nos racks montados e configurados. O diagrama de elevação do rack é fornecido como parte das instruções gerais de build. Ele ajudará a equipe de operadores a configurar e instalar corretamente todos os componentes de hardware necessários para a operação do serviço.

Diagrama de cabeamento

Os diagramas de cabeamento são representações gráficas das conexões de cabos necessárias para fornecer serviços de rede aos componentes instalados nos racks. Seguir o diagrama de cabeamento garante a implementação adequada dos vários componentes da build.

Como fazer pedidos com base no SKU

Definição de SKU

Um SKU é um método de gerenciamento e rastreamento de estoque que permite agrupar vários componentes em um único designador. Um SKU permite que um operador solicite todos os componentes necessários especificando um número de SKU. O SKU agiliza a interação entre operador e fornecedor, ao mesmo tempo que reduz erros de pedido devido a listas de peças complexas.

Fazendo um pedido baseado em SKU

A Operadora Nexus criou uma série de SKUs com fornecedores como Dell, Pure Storage e Arista que a operadora pode consultar quando fizer um pedido. Assim, um operador simplesmente precisa fazer um pedido com base nas informações de SKU fornecidas pelo Operador Nexus ao fornecedor para receber a lista de peças correta para a build.

Como fazer o build a pegada física do hardware

O build do hardware físico é executada através de uma série de etapas que serão detalhadas nessa seção. Existem três etapas de pré-requisito antes da execução do build. Essa seção também discutirá suposições relativas às habilidades dos funcionários da operadora para executar a build.

Pedido e recebimento do SKU específico da infraestrutura de hardware

O pedido do SKU apropriado e a entrega do hardware no local devem ocorrer antes do início da build. Deve ser concedido tempo adequado para essa etapa. Recomendamos que o operador comunique-se com o fornecedor do hardware no início do processo para garantir e compreender os prazos de entrega.

Preparação do local

O local de instalação pode suportar a infraestrutura de hardware do ponto de vista de espaço, energia e rede. Os requisitos específicos do site serão definidos pelo SKU adquirido para o site. Essa etapa pode ser realizada após a realização do pedido e antes do recebimento do SKU.

Agendamento de recursos

O processo de build exige vários membros diferentes da equipe para realizar a build, como engenheiros para fornecer energia, acesso à rede e cabeamento, equipe de sistemas para montar os racks, switches e servidores, para citar alguns. Para garantir que a build seja realizada em tempo hábil, recomendamos agendar esses membros da equipe com antecedência com base no cronograma de entrega.

Suposições sobre o desenvolvimento de habilidades da equipe

A equipe que executa a build deve ter experiência na montagem de hardware de sistemas, como racks, switches, PDUs e servidores. As instruções fornecidas discutirão as etapas do processo, ao mesmo tempo em que farão referência às elevações do rack e aos diagramas de cabeamento.

Visão geral do processo de build

Se a preparação do site estiver concluída e validada para suportar o SKU solicitado, o processo de build ocorrerá nas seguintes etapas:

  1. Monte os racks com base nas elevações do rack do SKU. Instruções específicas de montagem do rack serão fornecidas pelo fabricante do rack.
  2. Após a montagem dos racks, instale os dispositivos de tecido nos racks de acordo com o diagrama de elevação.
  3. Cabeie os dispositivos de malha conectando as interfaces de rede de acordo com o diagrama de cabeamento.
  4. Monte e instale os servidores de acordo com o diagrama de elevação do rack.
  5. Monte e instale o dispositivo de armazenamento de acordo com o diagrama de elevação do rack.
  6. Cabeie o servidor e os dispositivos de armazenamento conectando as interfaces de rede de acordo com o diagrama de cabeamento.
  7. Cabo de alimentação de cada dispositivo.
  8. Revise/valide a build por meio das listas de verificação fornecidas pelo Operador Nexus e outros fornecedores.

Como inspecionar visualmente a instalação física do hardware

Recomenda-se etiquetar todos os cabos seguindo os padrões ANSI/TIA 606, ou os padrões do operador, durante o processo de build. O processo de build também deve criar mapeamento reverso para o cabeamento de uma porta do switch até a conexão remota. O mapeamento reverso pode ser comparado ao diagrama de cabeamento para validar a instalação.

Configuração do Terminal Server e da matriz de armazenamento

Agora que a instalação física e a validação foram concluídas, as próximas etapas envolveram a definição das configurações padrão necessárias antes da instalação do software da plataforma.

Configurar o servidor de terminal

O Terminal Server foi implantado e configurado da seguinte forma:

  • O Terminal Server está configurado para gerenciamento fora de banda
    • As credenciais de autenticação foram configuradas
    • O cliente DHCP está habilitado na porta de gerenciamento fora de banda
    • o acesso HTTP está habilitado
  • A interface do Terminal Server é conectada aos roteadores do provedor Edge (PEs) locais da operadora e configurada com os endereços IP e credenciais
  • O Terminal Server é acessível por meio da VPN de gerenciamento

Etapa 1: configuração do nome do host

Para configurar o nome do host do seu servidor de terminal, siga estas etapas:

Use o comando a seguir na CLI:

sudo ogcli update system/hostname hostname=\"$TS_HOSTNAME\"

Parâmetros:

Nome do Parâmetro Descrição
TS_HOSTNAME Nome do host do servidor de terminal

Confira a Referência da CLI para mais informações.

Etapa 2: configuração da rede

Para configurar a rede, siga estas etapas:

Execute os seguintes comandos na CLI:

sudo ogcli create conn << 'END'
  description="PE1 to TS NET1"
  mode="static"
  ipv4_static_settings.address="$TS_NET1_IP"
  ipv4_static_settings.netmask="$TS_NET1_NETMASK"
  ipv4_static_settings.gateway="$TS_NET1_GW"
  physif="net1"
  END
sudo ogcli create conn << 'END'
  description="PE2 to TS NET2"
  mode="static"
  ipv4_static_settings.address="$TS_NET2_IP"
  ipv4_static_settings.netmask="$TS_NET2_NETMASK"
  ipv4_static_settings.gateway="$TS_NET2_GW"
  physif="net2"
  END

Parâmetros:

Nome do Parâmetro Descrição
TS_NET1_IP IP do servidor de terminal PE1 para TS NET1
TS_NET1_NETMASK Máscara de rede do servidor de terminal PE1 para TS NET1
TS_NET1_GW Gateway do servidor de terminal PE1 para TS NET1
TS_NET2_IP IP do servidor de terminal PE2 para TS NET2
TS_NET2_NETMASK Máscara de rede do servidor de terminal PE2 para TS NET2
TS_NET2_GW Gateway de servidor de terminal PE2 para TS NET2

Observação

Substitua esses parâmetros pelos valores adequados.

Etapa 3: Limpeza da interface net3 (se existente)

Para limpar a interface net3, siga estas etapas:

  1. Verifique se existe alguma interface configurada na interface física net3 e no "Endereço estático IPv4 padrão" usando o comando a seguir:
ogcli get conns 
**description="Default IPv4 Static Address"**
**name="$TS_NET3_CONN_NAME"**
**physif="net3"**

Parâmetros:

Nome do Parâmetro Descrição
TS_NET3_CONN_NAME Nome da conexão NET3 do servidor de terminal
  1. Remova a interface se ela existir:
ogcli delete conn "$TS_NET3_CONN_NAME"

Observação

Substitua esses parâmetros pelos valores adequados.

Etapa 4: Configuração do usuário administrador de suporte

Para configurar o usuário administrador de suporte, siga estas etapas:

  1. Para cada usuário, execute o comando a seguir na CLI:
ogcli create user << 'END'
description="Support Admin User"
enabled=true
groups[0]="admin"
groups[1]="netgrp"
hashed_password="$HASHED_SUPPORT_PWD"
username="$SUPPORT_USER"
END

Parâmetros:

Nome do Parâmetro Descrição
SUPPORT_USER Suporte ao usuário administrador
HASHED_SUPPORT_PWD Senha codificada do usuário administrador de suporte

Observação

Substitua esses parâmetros pelos valores adequados.

Etapa 5: Adição de suporte sudo para usuários administradores

Para adicionar suporte sudo para usuários administradores, siga estas etapas:

  1. Abra o arquivo de configuração sudoers:
sudo vi /etc/sudoers.d/opengear
  1. Inclua as linhas a seguir para conceder acesso ao sudo:
%netgrp ALL=(ALL) ALL
%admin ALL=(ALL) NOPASSWD: ALL

Observação

Salve as alterações depois de editar o arquivo.

Essa configuração permite que os membros do grupo "netgrp" executem qualquer comando como qualquer usuário e membro do grupo "administrador" para executar comandos como qualquer usuário sem a necessidade de uma senha.

Etapa 6: Garantia da disponibilidade do serviço LLDP

Para garantir que o serviço LLDP esteja disponível no seu servidor de terminal, siga estes passos:

Verifique se o serviço LLDP está em execução:

sudo systemctl status lldpd

Você deve ver uma saída semelhante à seguinte se o serviço estiver em execução:

lldpd.service - LLDP daemon
   Loaded: loaded (/lib/systemd/system/lldpd.service; enabled; vendor preset: disabled)
   Active: active (running) since Thu 2023-09-14 19:10:40 UTC; 3 months 25 days ago
     Docs: man:lldpd(8)
 Main PID: 926 (lldpd)
    Tasks: 2 (limit: 9495)
   Memory: 1.2M
   CGroup: /system.slice/lldpd.service
           ├─926 lldpd: monitor.
           └─992 lldpd: 3 neighbors.
Notice: journal has been rotated since unit was started, output may be incomplete.

Se o serviço não estiver ativo (em execução), inicie o serviço:

sudo systemctl start lldpd

Habilite o serviço para começar na reinicialização:

sudo systemctl enable lldpd

Observação

Realize estas etapas para garantir que o serviço LLDP fique sempre disponível e inicie automaticamente após a reinicialização.

Etapa 7: Verificação da data/hora do sistema

Verifique se a data/hora do sistema está configurada corretamente e se o fuso horário do servidor de terminal está em UTC.

Verificar a configuração do fuso horário:

Para verificar a configuração atual do fuso horário:

ogcli get system/timezone

Definir o fuso horário como UTC:

Se o fuso horário não estiver definido como UTC, você poderá configurá-lo usando:

ogcli update system/timezone timezone=\"UTC\"

Verificar a data/hora atual:

Verifique a data e hora atuais:

date

Corrigir data/hora se estiverem incorretas:

Se a data e hora estiverem incorretas, você poderá corrigi-las usando:

ogcli replace system/time
Reading information from stdin. Press Ctrl-D to submit and Ctrl-C to cancel.
time="$CURRENT_DATE_TIME"

Parâmetros:

Nome do Parâmetro Descrição
CURRENT_DATE_TIME Data e hora atual no formato hh:mm MMM DD, YYYY

Observação

Garanta que a data/hora do sistema estejam precisas para evitar problemas com aplicativos ou serviços que dependam disso.

Etapa 8: Rotulação das portas do Servidor de Terminal (se ausentes/incorretas)

Para rotular portas do Servidor de Terminal, use o comando a seguir:

ogcli update port "port-<PORT_#>"  label=\"<NEW_NAME>\"	<PORT_#>

Parâmetros:

Nome do Parâmetro Descrição
NEW_NAME Nome do rótulo da porta
PORTA_# Número da porta do Terminal Server

Etapa 9: configurações necessárias para conexões seriais do PURE Array

As matrizes do Armazenamento Pura adquiridas antes de 2024 têm controladores R3 de revisão que usam cabos de console de substituição e exigem os comandos de conexão de porta serial personalizados abaixo:

Controladores R3 do Armazenamento Pura:

ogcli update port ports-<PORT_#> 'baudrate="115200"' <PORT_#> Pure Storage Controller console
ogcli update port ports-<PORT_#> 'pinout="X1"' <PORT_#>	Pure Storage Controller console

Os dispositivos mais recentes do Armazenamento Pura e dos sistemas atualizados dos controladores do Armazenamento Pura R3 para R4 usarão cabos de console de passagem direta com as configurações atualizadas abaixo:

Controladores R4 do Armazenamento Pura:

ogcli update port ports-<PORT_#> 'baudrate="115200"' <PORT_#> Pure Storage Controller console
ogcli update port ports-<PORT_#> 'pinout="X2"' <PORT_#>	Pure Storage Controller console

Parâmetros:

Nome do Parâmetro Descrição
PORTA_# Número da porta do Terminal Server

Esses comandos definem a taxa de transmissão e a pinagem da conexão com o console do Controlador do Armazenamento Pura.

Observação

Todas as outras definições de configuração da porta do Terminal Server devem permanecer as mesmas e funcionar por padrão com um cabo de console RJ45 de passagem direta.

Etapa 10: Verificação das configurações

Para verificar as configurações, execute os comandos a seguir:

ping $PE1_IP -c 3  # Ping test to PE1 //TS subnet +2
ping $PE2_IP -c 3  # Ping test to PE2 //TS subnet +2
ogcli get conns     # Verify NET1, NET2, NET3 Removed
ogcli get users     # Verify support admin user
ogcli get static_routes  # Ensure there are no static routes
ip r                # Verify only interface routes
ip a                # Verify loopback, NET1, NET2
date                # Check current date/time
pmshell             # Check ports labelled

sudo lldpctl
sudo lldpcli show neighbors  # Check LLDP neighbors - should show data from NET1 and NET2

Observação

Verifique se os vizinhos do LLDP estão conforme o esperado, indicando conexões bem-sucedidas com PE1 e PE2.

Exemplo de saída de vizinhos LLDP:

-------------------------------------------------------------------------------
LLDP neighbors:
-------------------------------------------------------------------------------
Interface:    net2, via: LLDP, RID: 2, Time: 0 day, 20:28:36
  Chassis:     
    ChassisID:    mac 12:00:00:00:00:85
    SysName:      austx502xh1.els-an.att.net
    SysDescr:     7.7.2, S9700-53DX-R8
    Capability:   Router, on
  Port:         
    PortID:       ifname TenGigE0/0/0/0/3
    PortDescr:    GE10_Bundle-Ether83_austx4511ts1_net2_net2_CircuitID__austxm1-AUSTX45_[CBB][MCGW][AODS]
    TTL:          120
-------------------------------------------------------------------------------
Interface:    net1, via: LLDP, RID: 1, Time: 0 day, 20:28:36
  Chassis:     
    ChassisID:    mac 12:00:00:00:00:05
    SysName:      austx501xh1.els-an.att.net
    SysDescr:     7.7.2, S9700-53DX-R8
    Capability:   Router, on
  Port:         
    PortID:       ifname TenGigE0/0/0/0/3
    PortDescr:    GE10_Bundle-Ether83_austx4511ts1_net1_net1_CircuitID__austxm1-AUSTX45_[CBB][MCGW][AODS]
    TTL:          120
-------------------------------------------------------------------------------

Observação

Verifique se a saída corresponde às suas expectativas e se todas as configurações estão corretas.

Configurar uma matriz de armazenamento

  1. O operador precisa instalar o hardware da matriz de armazenamento conforme especificado pela BOM e de acordo com a elevação do Rack de Agregação.
  2. Ele também precisa fornecer informações ao técnico da matriz de armazenamento para que ele chegue ao local a fim de configurar o dispositivo.
  3. Dados específicos do local que são compartilhados com o técnico da matriz de armazenamento:
    • Nome do cliente:
    • Data da inspeção física:
    • Número de série do chassi:
    • Nome do host da matriz de armazenamento:
    • Código do CLLI (identificador de local de linguagem comum):
    • Endereço da instalação:
    • Local do FIC/rack/grade:
  4. Dados fornecidos ao operador e compartilhados com o técnico da matriz de armazenamento, que serão comuns a todas as instalações:
    • Nível do código de pureza: consulte as versões com suporte para Pureza
    • Modo de Segurança: desabilitado
    • Fuso horário da matriz: UTC
    • Endereço IP do servidor DNS (Sistema de Nomes de Domínio): 172.27.255.201
    • Sufixo do domínio de DNS: não é definido pelo operador durante a configuração
    • Endereço IP do servidor NTP (Protocolo de Tempo de Rede) ou FQDN: 172.27.255.212
    • Syslog primário: 172.27.255.210
    • Syslog secundário: 172.27.255.211
    • Endereço IP do gateway SMTP ou FQDN: não definido pela operadora durante a configuração
    • Nome de domínio do remetente do email: nome de domínio do remetente do email (exemplo.com)
    • Endereços de email a serem alertados: não definidos pelo operador durante a configuração
    • Servidor proxy e porta: não definidos pelo operador durante a configuração
    • Gerenciamento: interface virtual
      • Endereço IP: 172.27.255.200
      • Gateway: 172.27.255.1
      • Máscara de sub-rede: 255.255.255.0
      • MTU: 1500
      • Bond: não definido pelo operador durante a configuração
    • Gerenciamento: controlador 0
      • Endereço IP: 172.27.255.254
      • Gateway: 172.27.255.1
      • Máscara de sub-rede: 255.255.255.0
      • MTU: 1500
      • Bond: não definido pelo operador durante a configuração
    • Gerenciamento: controlador 1
      • Endereço IP: 172.27.255.253
      • Gateway: 172.27.255.1
      • Máscara de sub-rede: 255.255.255.0
      • MTU: 1500
      • Bond: não definido pelo operador durante a configuração
    • Número/prefixo da VLAN: 43
    • ct0.eth10: não definido pelo operador durante a configuração
    • ct0.eth11: não definido pelo operador durante a configuração
    • ct0.eth18: não definido pelo operador durante a configuração
    • ct0.eth19: não definido pelo operador durante a configuração
    • ct1.eth10: não definido pelo operador durante a configuração
    • ct1.eth11: não definido pelo operador durante a configuração
    • ct1.eth18: não definido pelo operador durante a configuração
    • ct1.eth19: não definido pelo operador durante a configuração
    • Pure Tunable a ser aplicado:
      • puretune -set PS_ENFORCE_IO_ORDERING 1 "PURE-209441";
      • puretune -set PS_STALE_IO_THRESH_SEC 4 "PURE-209441";
      • puretune -set PS_LANDLORD_QUORUM_LOSS_TIME_LIMIT_MS 0 "PURE-209441";
      • puretune -set PS_RDMA_STALE_OP_THRESH_MS 5000 "PURE-209441";
      • puretune -set PS_BDRV_REQ_MAXBUFS 128 "PURE-209441";

Atribuição de IP do iDRAC

Antes de implantar o Cluster Nexus, é melhor que o operador defina os IPs iDRAC, enquanto organiza os racks de hardware. Veja como mapear os servidores para IPs:

  • Atribua os IPs com base na posição de cada servidor no rack.
  • Use o quarto bloco /24 da sub-rede /19 alocada para Fabric.
  • Comece a atribuir os IPs do servidor inferior para cima em cada rack, começando com 0,11.
  • Continue atribuindo os IPs sequencialmente ao primeiro servidor na parte inferior do próximo rack.

Exemplo

Intervalo de malha: 10.1.0.0-10.1.31.255 – a sub-rede iDRAC no quarto bloco /24 é 10.1.3.0/24.

Rack Servidor IP do iDRAC
Rack 1 Trabalhador 1 10.1.3.11/24
Rack 1 Função de trabalho 2 10.1.3.12/24
Rack 1 Função de trabalho 3 10.1.3.13/24
Rack 1 Função de trabalho 4 10.1.3.14/24
Rack 1 Função de trabalho 5 10.1.3.15/24
Rack 1 Função de trabalho 6 10.1.3.16/24
Rack 1 Função de trabalho 7 10.1.3.17/24
Rack 1 Função de trabalho 8 10.1.3.18/24
Rack 1 Controlador 1 10.1.3.19/24
Rack 1 Controlador 2 10.1.3.20/24
Rack 2 Trabalhador 1 10.1.3.21/24
Rack 2 Função de trabalho 2 10.1.3.22/24
Rack 2 Função de trabalho 3 10.1.3.23/24
Rack 2 Função de trabalho 4 10.1.3.24/24
Rack 2 Função de trabalho 5 10.1.3.25/24
Rack 2 Função de trabalho 6 10.1.3.26/24
Rack 2 Função de trabalho 7 10.1.3.27/24
Rack 2 Função de trabalho 8 10.1.3.28/24
Rack 2 Controlador 1 10.1.3.29/24
Rack 2 Controlador 2 10.1.3.30/24
Rack 3 Trabalhador 1 10.1.3.31/24
Rack 3 Função de trabalho 2 10.1.3.32/24
Rack 3 Função de trabalho 3 10.1.3.33/24
Rack 3 Função de trabalho 4 10.1.3.34/24
Rack 3 Função de trabalho 5 10.1.3.35/24
Rack 3 Função de trabalho 6 10.1.3.36/24
Rack 3 Função de trabalho 7 10.1.3.37/24
Rack 3 Função de trabalho 8 10.1.3.38/24
Rack 3 Controlador 1 10.1.3.39/24
Rack 3 Controlador 2 10.1.3.40/24
Rack 4 Trabalhador 1 10.1.3.41/24
Rack 4 Função de trabalho 2 10.1.3.42/24
Rack 4 Função de trabalho 3 10.1.3.43/24
Rack 4 Função de trabalho 4 10.1.3.44/24
Rack 4 Função de trabalho 5 10.1.3.45/24
Rack 4 Função de trabalho 6 10.1.3.46/24
Rack 4 Função de trabalho 7 10.1.3.47/24
Rack 4 Função de trabalho 8 10.1.3.48/24
Rack 4 Controlador 1 10.1.3.49/24
Rack 4 Controlador 2 10.1.3.50/24

Um design de exemplo de três instâncias locais do mesmo par NFC/CM, usando redes sequenciais /19 em um /16:

Instância Intervalo de Malha Sub-rede do iDRAC
Instância 1 10.1.0.0-10.1.31.255 10.1.3.0/24
Instância 2 10.1.32.0-10.1.63.255 10.1.35.0/24
Instância 3 10.1.64.0-10.1.95.255 10.1.67.0/24

Configuração padrão para outros dispositivos instalados

  • Todos os dispositivos de malha de rede (exceto o Terminal Server) estão configurados para o modo ZTP
  • Os servidores têm configurações padrão de fábrica

Regras de firewall entre o Azure e o Cluster Nexus.

Para estabelecer as regras de firewall entre o Azure e o Cluster Nexus, o operador deve abrir as portas especificadas. Isso garante a comunicação e a conectividade adequadas para os serviços necessários usando os protocolos TCP e UDP.

N. de série Origem Destino Porta (TCP/UDP) Bidirecional Objetivo da Regra
1 rede virtual do Azure Cluster 22 TCP Não Para SSH para os servidores undercloud da sub-rede CM.
2 rede virtual do Azure Cluster 443 TCP Não Para acessar os nós undercloud do iDRAC
3 rede virtual do Azure Cluster 5900 TCP Não Gnmi
4 rede virtual do Azure Cluster 6030 TCP Não Gnmi Certs
5 rede virtual do Azure Cluster 6443 TCP Não Para acessar o cluster K8S undercloud
6 Cluster rede virtual do Azure 8080 TCP Yes Para montar a imagem ISO no iDRAC, atualização de runtime do NNF
7 Cluster rede virtual do Azure 3128 TCP Não Proxy para se conectar aos pontos de extremidade globais do Azure
8 Cluster rede virtual do Azure 53 TCP e UDP Não DNS
9 Cluster rede virtual do Azure 123 UDP Não NTP
10 Cluster rede virtual do Azure 8888 TCP Não Conectando-se ao serviço Web do Gerenciador de Clusters
11 Cluster rede virtual do Azure 514 TCP e UDP Não Para acessar logs undercloud no Gerenciador de Clusters

Instale extensões CLI e entre na sua assinatura do Azure

Instale a versão mais recente das extensões necessárias da CLI.

Entrada de assinatura do Azure

  az login
  az account set --subscription $SUBSCRIPTION_ID
  az account show

Observação

A conta deve ter permissões para ler/gravar/publicar na assinatura