Partager via


Démarrage rapide : remplir les conditions préalables pour déployer la préversion d’Azure Operator 5G Core sur Nexus Azure Kubernetes Service

Cet article explique comment approvisionner un cluster Nexus Azure Kubernetes Service (NAKS) en créant les éléments suivants :

  • Ressources (de connectivité) de la structure réseau
  • Ressources (de calcul) du cloud réseau

Remarque

L’exemple de configuration présenté dans cet article utilise Azure CLI. Vous pouvez également créer ces ressources à l’aide de scripts bicep, de scripts terraform, de modèles ARM ou de programmes personnalisés qui appellent directement des API appropriées.

Les commandes utilisées dans cet article font référence aux groupes de ressources suivants :

  • Groupes de ressources (managées) d’infrastructure :
    • Structure – Ressources réseau de plateforme
    • Undercloud – Ressources de calcul de plateforme
    • Groupe de ressources managées utilisé pour héberger les ressources Kubernetes avec Azure ARC
  • Groupes de ressources de locataire :
    • Structure – Ressources réseau de locataire (telles que des réseaux)
    • Calcul – Ressources de calcul de locataire [machines virtuelles (VM)et clusters Azure Kubernetes Service [AKS] Nexus, par exemple]

Prérequis

Avant d’approvisionner un cluster NAKS :

  • Configurez des réseaux externes entre les appareils de périphérie client (CE) et les routeurs de périphérie fournisseur (PE) (ou Telco Edge) qui assurent la connectivité avec la périphérie du fournisseur. La configuration de l’accès aux services externes que sont notamment les pare-feu et les services hébergés sur Azure (locataire, pas plateforme) sort du cadre de cet article.
  • Configurez un serveur de rebond (jumpbox) pour connecter les domaines de routage. La configuration d’un serveur de rebond (jumpbox) ne relève pas du présent article.
  • Configurez les éléments de réseau des routeurs PE/Telco Edge qui ne sont pas contrôlés par Nexus Network Fabric (circuits Express Route, par exemple) pour connecter les charges de travail du locataire à Azure (facultatif avec les configurations hybrides) ou assurer la connectivité via le réseau principal de l’opérateur.
  • Consultez le calendrier de publication Nexus Kubernetes pour identifier les versions disponibles et les plans de support.
  • Consultez la vue d’ensemble du cluster Nexus Kubernetes.
  • Consultez la vue d’ensemble de Network Fabric.
  • Consultez le guide pratique des domaines d’isolation Azure.
  • Consultez la vue d’ensemble du stockage.

Configurer les réseaux internes et les protocoles

Effectuez ces tâches pour configurer votre réseau interne.

Créer le domaine d’isolation (L3ISD)

Utilisez les commandes Azure CLI suivantes pour créer le domaine d’isolation (ISD) :

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedFabric="<RG-MANAGED-FABRIC>" 
export nnfId="<NETWORK-FABRIC-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
export region="<REGION>" 
 
az networkfabric l3domain create –resource-name $l3Isd \ 
--resource-group $rgFabric \ 
--location $region \ 
--nf-id "/subscriptions/$subscriptionId/resourceGroups/$rgManagedFabric/providers/Microsoft.ManagedNetworkFabric/networkFabrics/$nnfId" \ 
--redistribute-connected-subnets "True" \ 
--redistribute-static-routes "True" \ 
--subscription "$subscriptionId"

Pour afficher le nouveau domaine d’isolation L3ISD, entrez la commande suivante :

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
 
az networkfabric l3domain show --resource-name $l3Isd -g $rgFabric --subscription $subscriptionId

Créer le réseau interne

Avant de créer ou de modifier le réseau interne, vous devez désactiver l’ISD. Réactivez l’ISD après avoir apporté vos modifications.

Désactiver le domaine d’isolation

Utilisez les commandes suivantes pour désactiver l’ISD :

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
  
# Disable ISD to create internal networks, wait for 5 minutes and check the status is Disabled 
 
az networkfabric l3domain update-admin-state –resource-name "$l3Isd" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId" \ 
--state Disable 
 
# Check the status of the ISD 
 
az networkfabric l3domain show –resource-name "$l3Isd" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId"

Une fois l’ISD désactivé, vous pouvez ajouter, modifier ou supprimer le réseau interne. Lorsque vous avez terminé d’apporter des modifications, réactivez l’ISD comme décrit dans Activer le domaine d’isolation.

Créer le réseau interne Azure Container Network Interface par défaut

Utilisez les commandes suivantes pour créer le réseau interne Azure Container Network Interface (CNI) par défaut :

export subscriptionId="<SUBSCRIPTION-ID>" 
export intnwDefCni="<DEFAULT-CNI-NAME>" 
export l3Isd="<ISD-NAME>" 
export rgFabric="<RG-FABRIC>" 
export vlan=<VLAN-ID> 
export peerAsn=<PEER-ASN> 
export ipv4ListenRangePrefix="<DEFAULT-CNI-IPV4-PREFIX>/<PREFIX-LEN>" 
export mtu=9000 
 
az networkfabric internalnetwork create –resource-name "$intnwDefCni" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId" \ 
--l3domain "$l3Isd" \ 
--vlan-id $vlan \ 
--mtu $mtu \ 
--connected-ipv4-subnets "[{prefix:$ipv4ListenRangePrefix}]" \ 
--bgp-configuration
{peerASN:$peerAsn,allowAS:0,defaultRouteOriginate:True,ipv4ListenRangePrefixes:['$ipv4ListenRangePrefix']}" 

Créer des réseaux internes pour l’interface des fonctions de plan utilisateur (N3, N6) et de gestion des accès et de la mobilité (N2)

La création de réseaux internes pour la fonction de plan utilisateur (UPF, User Plane Function) est compatible avec la double pile IPv4/IPv6. Vous n’avez pas besoin de configurer le numéro de système autonome (ASN) côté infrastructure du protocole Border Gateway Protocol (BGP, Border Gateway Protocol), car l’ASN est inclus dans la création de ressources de l’infrastructure réseau. Utilisez les commandes suivantes pour créer ces réseaux internes.

Remarque

Créez le nombre de réseaux internes qui convient, comme décrit dans la section Prérequis.

export subscriptionId="<SUBSCRIPTION-ID>" 
export intnwName="<INTNW-NAME>" 
export l3Isd="<ISD-NAME>" // N2, N3, N6  
export rgFabric="<RG-FABRIC>" 
export vlan=<VLAN-ID> 
export peerAsn=<PEER-ASN> 
export ipv4ListenRangePrefix="<IPV4-PREFIX>/<PREFIX-LEN>" 
export ipv6ListenRangePrefix="<IPV6-PREFIX>/<PREFIX-LEN>" 
export mtu=9000 
 
az networkfabric internalnetwork create –resource-name "$intnwName" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId" \ 
--l3domain "$l3Isd" \ 
--vlan-id $vlan \ 
--mtu $mtu \ 
--connected-ipv4-subnets "[{prefix:$ipv4ListenRangePrefix}]" \ 
--connected-ipv6-subnets "[{prefix:'$ipv6ListenRangePrefix'}]" \ //optional
--bgp-configuration 
"{peerASN:$peerAsn,allowAS:0,defaultRouteOriginate:True,ipv4ListenRangePrefixes:[$ipv4ListenRangePrefix],ipv6ListenRangePrefixes:['$ipv6ListenRangePrefix']}"

Pour afficher la liste des réseaux internes créés, entrez les commandes suivantes :

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
 
az networkfabric internalnetwork list -o table --subscription $subscriptionId -g $rgFabric --l3domain $l3Isd

Pour afficher les détails d’un réseau interne spécifique, entrez les commandes suivantes :

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
export intnwName="<INTNW-NAME>" 
 
az networkfabric internalnetwork show --resource-name $intnwName -g $rgFabric --l3domain $l3Isd

Activer le domaine d’isolation

Utilisez les commandes suivantes pour activer l’ISD :

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
  
# Enable ISD, wait for 5 minutes and check the status is Enabled 
 
az networkfabric l3domain update-admin-state –resource-name "$l3Isd" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId" \ 
--state Enable 
 
# Check the status of the ISD 
 
az networkfabric l3domain show –resource-name "$l3Isd" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId"

Pour configurer le routage BGP et de détection de transfert bidirectionnel (BFD, Bidirectional Forwarding Detection) pour les réseaux internes, utilisez les paramètres par défaut. Consultez la documentation Nexus pour obtenir une description des paramètres.

Créer des réseaux L3

Avant de déployer le cluster NAKS, vous devez créer les ressources réseau de cloud réseau (NC) L3 qui sont mappées aux ressources de la structure réseau (NF, Network Fabric). Vous devez créer des ressources NC réseau L3 pour l’interface CNI par défaut, avec le préfixe ISD/VLAN/IP d’un réseau interne correspondant. Attachez ces ressources directement aux machines virtuelles pour effectuer un étiquetage VLAN au niveau de la fonction virtuelle (VF, Virtual Function) de la carte réseau (NIC, Network Interface Card) (VF) et non au niveau de l’application (ports d’accès du point de vue de l’application) et/ou si des adresses IP sont allouées par Nexus [avec la fonctionnalité de gestion des adresses IP (ipam)].

Un réseau L3 est utilisé pour l’interface CNI par défaut. Les autres interfaces qui exigent plusieurs VLAN par interface unique doivent être des interfaces trunk.

Utilisez les commandes suivantes pour créer le réseau L3 :

Export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedUndercloudCluster="<RG-MANAGED-UNDERCLOUD-CLUSTER>" 
export undercloudCustLocationName="<UNDERCLOUD-CUST-LOCATION-NAME>" 
export rgFabric="<RG-FABRIC>" 
export rgCompute="<RG-COMPUTE>" 
export l3Name="<L3-NET-NAME>" 
export l3Isd="<ISD-NAME>" 
export region="<REGION>" 
export vlan=<VLAN-ID> 
export ipAllocationType="IPV4" // DualStack, IPV4, IPV6 
export ipv4ConnectedPrefix="<DEFAULT-CNI-IPV4-PREFIX>/<PREFIX-LEN>" // if IPV4 or DualStack 
export ipv6ConnectedPrefix="<DEFAULT-CNI-IPV6-PREFIX>/<PREFIX-LEN>" // if IPV6 or DualStack 
 
 az networkcloud l3network create –l3-network-name $l3Name \ 
--l3-isolation-domain-id 
"/subscriptions/$subscriptionId/resourceGroups/$rgFabric/providers/Microsoft.ManagedNetworkFabric/l3IsolationDomains/$l3Isd" \ 
--vlan $vlan \ 
--ip-allocation-type $ipAllocationType \ 
--ipv4-connected-prefix $ipv4ConnectedPrefix \ 
--extended-location name="/subscriptions/$subscriptionId/resourceGroups/$rgManagedUndercloudCluster/providers/Microsoft.ExtendedLocation/customLocations/$undercloudCustLocationName" type="CustomLocation" \ 
--resource-group $rgCompute \ 
--location $region \ 
--subscription $subscriptionId \ 
--interface-name "vlan-$vlan"

Pour afficher les réseaux internes créés, entrez les commandes suivantes :

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgCompute="<RG-COMPUTE>" 
export l3Name="<L3-NET-NAME>" 
 
az networkcloud l3network show -n $l3Name -g $rgCompute --subscription $subscriptionId

Réseaux trunk

Une ressource cloud réseau trunkednetwork est nécessaire si un port/une interface unique connecté(e) à une machine virtuelle doit transporter le trafic de plusieurs réseaux locaux virtuels (VLAN). L’étiquetage s’effectue au niveau de la couche application et non de la carte réseau. Une interface trunk peut transporter le trafic de VLAN qui font partie de différents ISD.

Vous devez créer un réseau à jonctions pour la fonction de mobilité d’accès et de gestion (AMF, Access and Management Mobility) (N2) et UPF (N3, N6).

Utilisez les commandes suivantes pour créer un réseau trunk :

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedUndercloudCluster="<RG-MANAGED-UNDERCLOUD-CLUSTER>" 
export undercloudCustLocationName="<UNDERCLOUD-CUST-LOCATION-NAME>" 
export rgFabric="<RG-FABRIC>" 
export rgCompute="<RG-COMPUTE>" 
export trunkName="<TRUNK-NAME>" 
export l3IsdUlb="<ISD-ULB-NAME>" 
export vlanUlb=<VLAN-ULB-ID> 
export region="<REGION>" 
 
az networkcloud trunkednetwork create --name $trunkName \ 
--isolation-domain-ids
 "/subscriptions/$subscriptionId/resourceGroups/$rgFabric/providers/Microsoft.ManagedNetworkFabric/l3IsolationDomains/$l3IsdUlb" \ 
--vlans $vlanUlb \ 
--extended-location name="/subscriptions/$subscriptionId/resourceGroups/$rgManagedUndercloudCluster/providers/Microsoft.ExtendedLocation/customLocations/$undercloudCustLocationName" type="CustomLocation" \ 
--resource-group $rgCompute \ 
--location $region \ 
--interface-name "trunk-ulb" \ 
--subscription $subscriptionId

Pour afficher les ressources des réseaux à jonction créés, entrez les commandes suivantes :

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgCompute="<RG-COMPUTE>" 
export trunkName="<TRUNK-NAME>" 
 
az networkcloud trunkednetwork show -n $trunkName -g $rgCompute --subscription $subscriptionId

Configurer le proxy du réseau de services cloud et les domaines autorisés

Un proxy du réseau de services cloud (proxy CSN) est utilisé pour accéder aux destinations Azure et Internet. Vous devez ajouter explicitement ces domaines à une liste d’autorisation dans la configuration CSN d’un cluster NAKS pour accéder aux services Azure et à l’intégration d’Arc.

Points de terminaison des réseaux de services cloud basés sur Network Function Manager

Ajoutez les points de sortie suivants pour la prise en charge du déploiement basé sur Network Function Manager (NFM) [fournisseur de ressources (RP, Resource Provider) HybridNetwork, accessibilité du RP CustomLocation, ACR, Arc] :

  • .azurecr.io / port 80
  • .azurecr.io / port 443
  • .mecdevice.azure.com / port 443
  • eastus-prod.mecdevice.azure.com / port 443
  • .microsoftmetrics.com / port 443
  • crprivatemobilenetwork.azurecr.io / port 443
  • .guestconfiguration.azure.com / port 443
  • .kubernetesconfiguration.azure.com / port 443
  • eastus.obo.arc.azure.com / port 8084
  • .windows.net / port 80
  • .windows.net / port 443
  • .k8connecthelm.azureedge.net / port 80
  • .k8connecthelm.azureedge.net / port 443
  • .k8sconnectcsp.azureedge.net / port 80
  • .k8sconnectcsp.azureedge.net / port 443
  • .arc.azure.net / port 80
  • .arc.azure.net / port 443

Points de terminaison de réseaux de services cloud Python

Pour l’installation de packages Python (partie de la liste de commandes fed-kube_addons pod-node_config utilisée pour NAKS), ajoutez les points de terminaison suivants :

  • pypi.org / port 443
  • files.pythonhosted.org / port 443

Remarque

L’inclusion de points de terminaison Azure Detat Explorer (ADX) supplémentaires dans la liste d’autorisation peut s’avérer nécessaire si des données doivent être injectées dans ADX.

Points de terminaison de réseaux de services cloud facultatifs

Utilisez la destination suivante pour exécuter des conteneurs dont les points de terminaison sont stockés dans des registres de conteneurs publics ou pour installer des packages supplémentaires pour les machines virtuelles auxiliaires :

  • .ghcr.io / port 80
  • .ghcr.io / port 443
  • .k8s.gcr.io / port 80
  • .k8s.gcr.io / port 443
  • .k8s.io / port 80
  • .k8s.io / port 443
  • .docker.io / port 80
  • .docker.io / port 443
  • .docker.com / port 80
  • .docker.com / port 443
  • .pkg.dev / port 80
  • .pkg.dev / port 443
  • .ubuntu.com / port 80
  • .ubuntu.com / port 443

Créer des réseaux de services cloud

Vous devez créer une instance CSN distincte pour chaque cluster NAKS au moment de déployer Azure Operator 5G Core (version préliminaire) sur la plateforme Nexus.

Remarque

Ajustez la liste additional-egress-endpoints en fonction de la description et des listes fournies dans les sections précédentes.

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedUndercloudCluster="<RG-MANAGED-UNDERCLOUD-CLUSTER>" 
export undercloudCustLocationName="<UNDERCLOUD-CUST-LOCATION-NAME>" 
export rgCompute="<RG-COMPUTE>" 
export csnName="<CSN-NAME>" 
export region="<REGION>" 
 
az networkcloud cloudservicesnetwork create --cloud-services-network-name $csnName \ 
--extended-location name="/subscriptions/$subscriptionId/resourceGroups/$rgManagedUndercloudCluster/providers/Microsoft.ExtendedLocation/customLocations/$undercloudCustLocationName" type="CustomLocation" \06- \ 
--resource-group $rgCompute \ 
--location $region \ 
--enable-default-egress-endpoints True \ 
--subscription $subscriptionId \ 
--additional-egress-endpoints '[ 
    { 
      "category": "common", 
      "endpoints": [ 
        { 
          "domainName": ".io", 
          "port": 80 
        } 
      ] 
    }, 
    { 
      "category": "common", 
      "endpoints": [ 
        { 
          "domainName": ".io", 
          "port": 443 
        } 
      ] 
    } 
  ]'    07-

Après avoir créé le CSN, vérifiez les egress-endpoints en entrant les commandes suivantes dans la ligne de commande :

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgCompute="<RG-COMPUTE>" 
export csnName="<CSN-NAME>" 
 
az networkcloud cloudservicesnetwork show -n $csnName -g $rgCompute --subscription $subscriptionId

Créer un cluster Nexus Azure Kubernetes Services

Les fournisseurs de ressources liés à Nexus doivent déployer les groupes de ressources autogérés utilisés pour déployer les ressources nécessaires créées par les clients. Au moment d’approvisionner les clusters Nexus AKS, ceux-ci doivent être activés pour Arc. Le fournisseur de ressources de cloud réseau crée son propre groupe de ressources managées et le déploie dans une ressource de cluster Kubernetes avec Azure Arc. À la suite de ce déploiement, cette ressource de cluster est liée à la ressource de cluster NAKS.

Remarque

Une fois le cluster NAKS déployé et le groupe de ressources managées créé, vous pouvez être amené à accorder des privilèges complets à un utilisateur/groupe entra/principal de service pour accéder au groupe de ressources managées. Cette action dépend des paramètres de gestion des identités et des accès (IAM, Identity Access Management) au niveau de l’abonnement.

Utilisez les commandes Azure CLI suivantes pour créer le cluster NAKS :

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedUndercloudCluster="<RG-MANAGED-UNDERCLOUD-CLUSTER>" 
export undercloudCustLocationName="<UNDERCLOUD-CUST-LOCATION-NAME>" 
export rgCompute="<RG-COMPUTE>" 
export rgNcManaged="<RG-NETWORK-CLOUD-MANAGED>" 
export csnName="<CSN-NAME>" 
export defCniL3Net="<L3-NET-FOR-DEF-CNI>" 
export trunkName="<TRUNK-NAME>" 
export naksName="<NAKS-NAME>" 
export k8sVer="<K8S-VER>" 
export region="<REGION>" 
export regionRgNcManaged="<REGION-RG-NETWORK-CLOUD-MANAGED>" 
export sshPubKeys="<SSH-PUB-KEYS>"  
export adminUser="<ADMIN-USER>" // e.g. "azureuser" 
export controlVmSku="<CONTROL-NODE-SKU>" 
export controlVmCount="<CONTROL-NODE-COUNT>" 
export workerVmSku="<WORKER-NODE-SKU>" 
export workerVmCount="<WORKER-NODE-COUNT>" 
export nodePoolName="<NODE-POOL-NAME>" 
export lbIpv4Pool="<LOADBALANCER-IPV4-POOL>" 
export hugePages2MCount=<HUGEPAGES-2M-COUNT> 
export aadAdminGroupObjectId="<AAD-GROUP-TO-ACCESS-NAKS>" 
export maxSurge=1 // number of nodes added to the cluster during upgrade e.g. 1 or percentage "10%"   
 
 
az networkcloud kubernetescluster create --name $naksName \ 
--resource-group $rgCompute \ 
--location $region \ 
--kubernetes-version $k8sVer \ 
--extended-location name="/subscriptions/$subscriptionId/resourceGroups/$rgManagedUndercloudCluster/providers/Microsoft.ExtendedLocation/customLocations/$undercloudCustLocationName" type="CustomLocation" \ 
--admin-username $adminUser \ 
--ssh-key-values "$sshPubKeys" \ 
--initial-agent-pool-configurations "[{count:$workerVmCount,mode:'System',name:'$nodePoolName',vmSkuName:'$workerVmSku',agentOptions:{hugepagesCount:$hugePages2MCount,hugepagesSize:2M},upgradeSettings:{maxSurge:$maxSurge},adminUsername:'$adminUser',ssh-key-values:['$sshPubKeys']}]" \ 
--control-plane-node-configuration count=$workerVmCount vmSkuName=$controlVmSku adminUsername=$adminUser ssh-key-values=['$sshPubKeys'] \ 
--network-configuration cloud-services-network-id="/subscriptions/$subscriptionId/resourceGroups/$rgCompute/providers/Microsoft.NetworkCloud/cloudServicesNetworks/$csnName" cni-network-id="/subscriptions/$subscriptionId/resourceGroups/$rgCompute/providers/Microsoft.NetworkCloud/l3Networks/$defCniL3Net" pod-cidrs=["10.244.0.0/16"] service-cidrs=["10.96.0.0/16"] dns-service-ip="10.96.0.10" attached-network-configuration.trunked-networks="[{networkId:'/subscriptions/$subscriptionId/resourceGroups/$rgCompute/providers/Microsoft.NetworkCloud/trunkedNetworks/$trunkName',pluginType:'SRIOV'}]" bgp-service-load-balancer-configuration.fabric-peering-enabled="True" bgp-service-load-balancer-configuration.ip-address-pools="[{addresses:['$lbIpv4Pool'],autoAssign:'True',name:'pool1',onlyUseHostIps:'True'}]" \ 
--managed-resource-group-configuration "{location:$regionRgNcManaged,name:$rgNcManaged}" \ 
--aad-configuration admin-group-object-ids=[$aadAdminGroupObjectId] \ 
--subscription $subscriptionId

Pour vérifier la liste des clusters Nexus créés, entrez la commande suivante :

export subscriptionId="<SUBSCRIPTION-ID>" 
 
az networkcloud kubernetescluster list -o table --subscription $subscriptionId

Pour vérifier les détails d’un cluster créé, entrez la commande suivante :

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgCompute="<RG-COMPUTE>" 
export naksName="<NAKS-NAME>" 
 
az networkcloud kubernetescluster show -n $naksName -g $rgCompute --subscription $subscriptionId

Une fois le cluster créé, vous pouvez activer l’extension NFM et définir un emplacement personnalisé de sorte que le cluster puisse être déployé via AOSM (Azure Operator Service Manager) ou NFM.

Accéder au cluster Nexus Azure Kubernetes Services

Il existe plusieurs façons d’accéder au serveur d’API du cluster NAKS du locataire :

  • Directement à partir de l’adresse IP ou du port [à partir d’un serveur de rebond (jumpbox) connecté au serveur d’API NAKS du locataire]

  • Utilisez l’interface Azure CLI et l’option de proxy connectedk8s comme indiqué sous le lien pour accéder directement aux clusters. Le groupe EntraID/AAD du principal de service ou de l’utilisateur (utilisé avec Azure CLI) doit être fourni pendant le provisionnement du cluster NAKS. De plus, un rôle personnalisé doit être attribué au groupe de ressources managées créé par le fournisseur de ressources de cloud réseau. L’une des actions suivantes doit être autorisée dans ce rôle :

    • Microsoft.Kubernetes/connectedClusters/listClusterUserCredential/action
    • Un utilisateur ou un fournisseur de services en tant que contributeur du groupe de ressources managées

Services Azure Edge

Azure Operator 5G Core est une charge de travail de télécommunications qui vous permet d’offrir des services aux utilisateurs finaux particuliers et professionnels. Les charges de travail Azure Operator 5G Core s’exécutent sur une couche NFVI (Network Functions Virtualization Infrastructure) et peuvent dépendre d’autres services NFVI.

Fonctions NFVI Edge (en cours d’exécution sur Azure Operator Nexus)

Remarque

Les services liés à Edge NFVI peuvent ponctuellement être mis à jour. Pour plus d’informations, consultez la documentation du service concerné.

  • Azure Operator Nexus : Azure Operator Nexus est une plateforme cloud hybride nouvelle génération pour les opérateurs de télécommunications. Azure Operator Nexus est spécialement conçu pour les charges de travail intensives sur réseau et les applications stratégiques des opérateurs.

  • Tout autre matériel et service Azure Operator Nexus peut en dépendre.

  • Azure Arc : fournit une plateforme de gestion et de gouvernance unifiée pour les applications et services Azure Operator 5G Core dans les environnements Azure et locaux.

  • Azure Monitor : fournit une solution complète pour surveiller les performances et l’intégrité des applications et services Azure Operator 5G Core dans les environnements Azure et locaux.

  • EntraID : fournit une gestion des identités et des accès pour les utilisateurs et administrateurs Azure Operator 5G Core dans les environnements Azure et locaux.

  • Azure Key Vault : fournit un magasin sécurisé et centralisé pour gérer les clés de chiffrement et les secrets d’Azure Operator 5G Core dans les environnements Azure et locaux.