次の方法で共有


Azure Arc 対応 Kubernetes クラスター拡張機能に関する問題のトラブルシューティング

この記事では、Azure の GitOps (Flux v2) や Open Service Mesh (OSM) のようなクラスター拡張機能に関連する一般的な問題のトラブルシューティングのヒントについて説明します。

Azure Arc 対応 Kubernetes の一般的な問題に関するトラブルシューティングについては、「Azure Arc 対応 Kubernetes の問題のトラブルシューティング」を参照してください。

GitOps (Flux v2)

Note

Flux v2 拡張機能は、Azure Arc 対応 Kubernetes クラスターまたは Azure Kubernetes Service (AKS) クラスターで使用できます。 これらのトラブルシューティングのヒントは、通常、すべてのクラスターの種類に適用されます。

fluxConfigurations リソースを使用する場合の問題のトラブルシューティングについては、--debug パラメーターを使用して次の Azure CLI コマンドを実行してください。

az provider show -n Microsoft.KubernetesConfiguration --debug
az k8s-configuration flux create <parameters> --debug

Webhook/dry run エラー

Flux は失敗して dry-run failed, error: admission webhook "<webhook>" does not support dry run のようなエラーを表示する場合があります。 この問題を解決するには、ValidatingWebhookConfiguration または MutatingWebhookConfiguration に移動します。 構成で、sideEffects の値を None または NoneOnDryRun に設定します。

詳細については、webhook does not support dry run エラーを解決する方法に関するページを参照してください。

microsoft.flux 拡張機能のインストール時のエラー

microsoft.flux 拡張機能は、Azure Arc 対応 Kubernetes クラスターまたは Azure Kubernetes Service (AKS) クラスターに、Flux コントローラーと Azure GitOps エージェントをインストールします。 クラスターに拡張機能がまだインストールされていない場合、そのクラスターの GitOps 構成リソースを作成すると、拡張機能が自動的にインストールされます。

インストール中にエラーが発生した場合、または拡張機能に Failed 状態が表示される場合は、クラスターに flux-system 名前空間またはその名前空間内の任意のリソースの作成を制限するポリシーがないことを確認してください。

AKS クラスターの場合は、Azure サブスクリプションで Microsoft.ContainerService/AKS-ExtensionManager 機能フラグが有効になっていることを確かめます。

az feature register --namespace Microsoft.ContainerService --name AKS-ExtensionManager

次に、次のコマンドを実行して、他の問題があるかどうかを判断します。 クラスターの種類パラメーター (-t) は、Azure Arc 対応クラスターの場合は connectedClusters、AKS クラスターの場合は managedClusters に設定します。 拡張機能が GitOps 構成の作成時に自動的にインストールされた場合、microsoft.flux 拡張機能の名前は flux です。

az k8s-extension show -g <RESOURCE_GROUP> -c <CLUSTER_NAME> -n flux -t <connectedClusters or managedClusters>

この出力は、問題の特定とその解決に役立ちます。 考えられる修復アクションは次のとおりです。

  • az k8s-extension delete --force -g <RESOURCE_GROUP> -c <CLUSTER_NAME> -n flux -t <managedClusters OR connectedClusters> を実行して拡張機能を強制的に削除します。
  • helm uninstall flux -n flux-system 実行して Helm リリースをアンインストールします。
  • kubectl delete namespaces flux-system を実行してクラスターから flux-system 名前空間を削除します。

その後、新しい Flux 構成を再作成するか (microsoft.flux 拡張機能が自動的にインストールされます)、Flux 拡張機能を手動で再インストールすることができます。

Microsoft Entra ポッド マネージド ID があるクラスターへの microsoft.flux 拡張機能のインストール中に発生したエラー

Microsoft Entra ポッド マネージド ID があるクラスターに Flux 拡張機能をインストールしようとすると、extension-agent ポッドでエラーが発生する可能性があります。 出力は次の例のようになります。

{"Message":"2021/12/02 10:24:56 Error: in getting auth header : error {adal: Refresh request failed. Status Code = '404'. Response body: no azure identity found for request clientID <REDACTED>\n}","LogType":"ConfigAgentTrace","LogLevel":"Information","Environment":"prod","Role":"ClusterConfigAgent","Location":"westeurope","ArmId":"/subscriptions/<REDACTED>/resourceGroups/<REDACTED>/providers/Microsoft.Kubernetes/managedclusters/<REDACTED>","CorrelationId":"","AgentName":"FluxConfigAgent","AgentVersion":"0.4.2","AgentTimestamp":"2021/12/02 10:24:56"}

拡張機能の状態も Failed として返されます:

"{\"status\":\"Failed\",\"error\":{\"code\":\"ResourceOperationFailure\",\"message\":\"The resource operation completed with terminal provisioning state 'Failed'.\",\"details\":[{\"code\":\"ExtensionCreationFailed\",\"message\":\" error: Unable to get the status from the local CRD with the error : {Error : Retry for given duration didn't get any results with err {status not populated}}\"}]}}",

この場合、extension-agent ポッドはクラスター上の Azure Instance Metadata Service からトークンを取得しようとしますが、ポッド ID によってトークン要求が傍受されます。 この問題を解決するには、microsoft.flux 拡張機能を最新バージョンにアップグレードしてください

microsoft.flux 拡張機能のインストールに必要なメモリと CPU リソース

microsoft.flux 拡張機能をインストールして Kubernetes クラスターにインストールされたコントローラーでは、Kubernetes クラスター ノードで適切にスケジュールを設定するために十分な CPU とメモリ リソースが必要です。 クラスターが最小限のメモリおよび CPU リソース要件を満たしていることを確認してください。

次の表に、このシナリオで必要になる CPU とメモリ リソースの最小値と最大値を一覧表示します。

コンテナー名 最小 CPU 最小メモリ 最大 CPU 最大メモリ
fluxconfig-agent 5 m 30 Mi 50 m 150 Mi
fluxconfig-controller 5 m 30 Mi 100 m 150 Mi
fluent-bit 5 m 30 Mi 20 m 150 Mi
helm-controller 100 m 64 Mi 1,000 m 1 Gi
source-controller 50 m 64 Mi 1,000 m 1 Gi
kustomize-controller 100 m 64 Mi 1,000 m 1 Gi
notification-controller 100 m 64 Mi 1,000 m 1 Gi
image-automation-controller 100 m 64 Mi 1,000 m 1 Gi
image-reflector-controller 100 m 64 Mi 1,000 m 1 Gi

Kubernetes クラスターでコンテナーのリソースを制限するカスタムまたは組み込みの Azure Policy Gatekeeper Policy を有効にした場合は、ポリシーのリソース制限が上記の表に示す制限より上回るか、flux-system 名前空間がポリシー割り当ての excludedNamespaces パラメーターに含まれていることを確かめてください。 このシナリオにおけるポリシーの例は Kubernetes cluster containers CPU and memory resource limits should not exceed the specified limits です。

Flux v1

Note

できるだけ早く Flux v2 に移行 することをお勧めします。 2024 年 1 月 1 日より前に作成された Flux v1 ベースのクラスター構成リソースのサポートは、2025 年 5 月 24 日に終了します。 2024 年 1 月 1 日から、新しい Flux v1 ベースのクラスター構成リソースを作成することはできません。

Flux v1 の sourceControlConfigurations リソースに関する問題のトラブルシューティングに役立てるため、--debug パラメーターなどの Azure CLI コマンドを実行します。

az provider show -n Microsoft.KubernetesConfiguration --debug
az k8s-configuration flux create <parameters> --debug

Azure Monitor Container Insights

このセクションでは、Azure Arc 対応 Kubernetes クラスター の Azure Monitor の Container Insights に関する問題のトラブルシューティングについて説明します。

Canonical Charmed Kubernetes クラスターの特権モードを有効にする

Azure Monitor Container Insights では、その Kubernetes DaemonSet を特権モードで実行する必要があります。 監視のために Canonical Charmed Kubernetes クラスターを正常に設定するには、次のコマンドを実行します。

juju config kubernetes-worker allow-privileged=true

Oracle Linux 9.x に AMA ポッドをインストールできない

Oracle Linux (Red Hat Enterprise Linux (RHEL)) 9.x Kubernetes クラスターに Azure Monitor エージェント (AMA) をインストールしようとすると、ポッド内の addon-token-adapter コンテナーが原因で AMA ポッドと AMA-RS ポッドが正常に動作しない可能性があります。 ama-logs-rs ポッドのログを addon-token-adapter container で確認すると、次の例のような出力が表示されます。

Command: kubectl -n kube-system logs ama-logs-rs-xxxxxxxxxx-xxxxx -c addon-token-adapter
 
Error displayed: error modifying iptable rules: error adding rules to custom chain: running [/sbin/iptables -t nat -N aad-metadata --wait]: exit status 3: modprobe: can't change directory to '/lib/modules': No such file or directory

iptables v1.8.9 (legacy): can't initialize iptables table `nat': Table does not exist (do you need to insmod?)

Perhaps iptables or your kernel needs to be upgraded.

このエラーは、拡張機能をインストールするには iptable_nat モジュールが必要ですが、このモジュールが Oracle Linux (RHEL) 9.x ディストリビューションに自動的に読み込まれないために発生します。

この問題を解決するには、クラスター内の各ノードに iptables_nat モジュールを明示的に読み込む必要があります。 modprobe コマンド sudo modprobe iptables_nat を使用します。 各ノードにサインインし、iptable_nat モジュールを手動で追加したら、AMA のインストールを再試行します。

Note

この手順を実行しても、iptables_nat モジュールは永続的になりません。

Azure Arc 対応 Open Service Mesh

このセクションでは、クラスター上の Open Service Mesh (OSM) 拡張機能コンポーネントのデプロイの検証とトラブルシューティングに使用できるコマンドについて説明します。

OSM コントローラーのデプロイを確認する

kubectl get deployment -n arc-osm-system --selector app=osm-controller

OSM コントローラーが正常な場合は、次のような出力が表示されます。

NAME             READY   UP-TO-DATE   AVAILABLE   AGE
osm-controller   1/1     1            1           59m

OSM コントローラー ポッドを確認する

kubectl get pods -n arc-osm-system --selector app=osm-controller

OSM コントローラーが正常な場合は、次の例のような出力が表示されます。

NAME                            READY   STATUS    RESTARTS   AGE
osm-controller-b5bd66db-wglzl   0/1     Evicted   0          61m
osm-controller-b5bd66db-wvl9w   1/1     Running   0          31m

あるコントローラの状態が Evicted である場合でも、別のコントローラーは READY 状態 1/1 であり、0 を再起動する場合は Running です。 READY 状態が 1/1 以外の場合、サービス メッシュは破損した状態です。 READY0/1 である場合は、コントロール プレーン コンテナーがクラッシュしていることを示します。

コントローラーのログを調べるには、次のコマンドを使います。

kubectl logs -n arc-osm-system -l app=osm-controller

READY 状態が、フォワード スラッシュ (/) の後の 1 より大きい数値の場合は、サイドカーがインストールされます。 OSM コントローラーは、サイドカーが接続されている場合は、一般的に正しく動作しません。

OSM コントローラー サービスを確認する

OSM コントローラー サービスを確認するには、次のコマンドを実行します。

kubectl get service -n arc-osm-system osm-controller

OSM コントローラーが正常な場合は、次の例のような出力が表示されます。

NAME             TYPE        CLUSTER-IP    EXTERNAL-IP   PORT(S)              AGE
osm-controller   ClusterIP   10.0.31.254   <none>        15128/TCP,9092/TCP   67m

Note

CLUSTER-IP の実際の値はこの例とは異なります。 NAMEPORT(S) の値は、この例に示されているものと一致している必要があります。

OSM コントローラー エンドポイントを確認する

kubectl get endpoints -n arc-osm-system osm-controller

OSM コントローラーが正常な場合は、次の例のような出力が表示されます。

NAME             ENDPOINTS                              AGE
osm-controller   10.240.1.115:9092,10.240.1.115:15128   69m

クラスターに値 osm-controller を持つ ENDPOINTS がない場合、コントロール プレーンは異常です。 この異常な状態は、コントローラー ポッドがクラッシュしたか、正しくデプロイされなかったことを意味します。

OSM インジェクターのデプロイを確認する

kubectl get deployments -n arc-osm-system osm-injector

OSM インジェクターが正常な場合は、次の例のような出力が表示されます。

NAME           READY   UP-TO-DATE   AVAILABLE   AGE
osm-injector   1/1     1            1           73m

OSM インジェクター ポッドを確認する

kubectl get pod -n arc-osm-system --selector app=osm-injector

OSM インジェクターが正常な場合は、次の例のような出力が表示されます。

NAME                            READY   STATUS    RESTARTS   AGE
osm-injector-5986c57765-vlsdk   1/1     Running   0          73m

READY 状態は 1/1 である必要があります。 その他の値は、OSM インジェクター ポッドに異常があることを示します。

OSM インジェクター サービスを確認する

kubectl get service -n arc-osm-system osm-injector

OSM インジェクターが正常な場合は、次の例のような出力が表示されます。

NAME           TYPE        CLUSTER-IP   EXTERNAL-IP   PORT(S)    AGE
osm-injector   ClusterIP   10.0.39.54   <none>        9090/TCP   75m

osm-injector サービス用に一覧表示されている IP アドレスが 9090 であることを確認します。 EXTERNAL-IP 用に一覧表示されている値はありません。

OSM インジェクターのエンドポイントを確認する

kubectl get endpoints -n arc-osm-system osm-injector

OSM インジェクターが正常な場合は、次の例のような出力が表示されます。

NAME           ENDPOINTS           AGE
osm-injector   10.240.1.172:9090   75m

OSM を機能させるには、osm-injector のエンドポイントが少なくとも 1 つ必要です。 OSM インジェクター エンドポイントの IP アドレスは異なりますが、ポート値 9090 は同じである必要があります。

Webhook を確認する: Validating および Mutating

次のコマンドを実行して、Validating Webhook を確認します。

kubectl get ValidatingWebhookConfiguration --selector app=osm-controller

Validating Webhook が正常な場合は、次の例のような出力が表示されます。

NAME                     WEBHOOKS   AGE
osm-validator-mesh-osm   1          81m

次のコマンドを実行して、Mutating Webhook を確認します。

kubectl get MutatingWebhookConfiguration --selector app=osm-injector

Mutating Webhook が正常な場合は、次の例のような出力が表示されます。

NAME                  WEBHOOKS   AGE
arc-osm-webhook-osm   1          102m

次のコマンドを使用して、Validating Webhook のサービスと証明機関バンドル (CA バンドル) を確認します。

kubectl get ValidatingWebhookConfiguration osm-validator-mesh-osm -o json | jq '.webhooks[0].clientConfig.service'

適切に構成された Validating Webhook には、次の例のような出力があります。

{
  "name": "osm-config-validator",
  "namespace": "arc-osm-system",
  "path": "/validate",
  "port": 9093
}

次のコマンドを使用して、Mutating Webhook のサービスと CA バンドルを確認します。

kubectl get MutatingWebhookConfiguration arc-osm-webhook-osm -o json | jq '.webhooks[0].clientConfig.service'

適切に構成された Mutating Webhook には、次の例のような出力があります。

{
  "name": "osm-injector",
  "namespace": "arc-osm-system",
  "path": "/mutate-pod-creation",
  "port": 9090
}

次のコマンドを使用して、OSM コントローラーによって Validating (または Mutating) Webhook に CA バンドルが提供されているかどうかを確認します。

kubectl get ValidatingWebhookConfiguration osm-validator-mesh-osm -o json | jq -r '.webhooks[0].clientConfig.caBundle' | wc -c
kubectl get MutatingWebhookConfiguration arc-osm-webhook-osm -o json | jq -r '.webhooks[0].clientConfig.caBundle' | wc -c

出力例:

1845

出力のこの数値は、CA バンドルのバイト数またはサイズを示しています。 出力が空、0、または 1000 未満の数値である場合は、CA バンドルが正しくプロビジョニングされていません。 正しい CA バンドルがないと、ValidatingWebhook はエラーをスローします。

osm-mesh-config リソースを確認する

リソースの存在を確認します。

kubectl get meshconfig osm-mesh-config -n arc-osm-system

OSM meshconfig 設定の値を確認します。

kubectl get meshconfig osm-mesh-config -n arc-osm-system -o yaml

次の例のようになる出力を検索します。

apiVersion: config.openservicemesh.io/v1alpha1
kind: MeshConfig
metadata:
  creationTimestamp: "0000-00-00A00:00:00A"
  generation: 1
  name: osm-mesh-config
  namespace: arc-osm-system
  resourceVersion: "2494"
  uid: 6c4d67f3-c241-4aeb-bf4f-b029b08faa31
spec:
  certificate:
    certKeyBitSize: 2048
    serviceCertValidityDuration: 24h
  featureFlags:
    enableAsyncProxyServiceMapping: false
    enableEgressPolicy: true
    enableEnvoyActiveHealthChecks: false
    enableIngressBackendPolicy: true
    enableMulticlusterMode: false
    enableRetryPolicy: false
    enableSnapshotCacheMode: false
    enableWASMStats: true
  observability:
    enableDebugServer: false
    osmLogLevel: info
    tracing:
      enable: false
  sidecar:
    configResyncInterval: 0s
    enablePrivilegedInitContainer: false
    logLevel: error
    resources: {}
  traffic:
    enableEgress: false
    enablePermissiveTrafficPolicyMode: true
    inboundExternalAuthorization:
      enable: false
      failureModeAllow: false
      statPrefix: inboundExtAuthz
      timeout: 1s
    inboundPortExclusionList: []
    outboundIPRangeExclusionList: []
    outboundPortExclusionList: []
kind: List
metadata:
  resourceVersion: ""
  selfLink: ""

次の表に、osm-mesh-config リソース値の一覧を示します。

キー Type 規定値 Kubectl Patch コマンドの例
spec.traffic.enableEgress [bool] false kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"traffic":{"enableEgress":false}}}' --type=merge
spec.traffic.enablePermissiveTrafficPolicyMode [bool] true kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"traffic":{"enablePermissiveTrafficPolicyMode":true}}}' --type=merge
spec.traffic.outboundPortExclusionList 配列 [] kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"traffic":{"outboundPortExclusionList":[6379,8080]}}}' --type=merge
spec.traffic.outboundIPRangeExclusionList 配列 [] kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"traffic":{"outboundIPRangeExclusionList":["10.0.0.0/32","1.1.1.1/24"]}}}' --type=merge
spec.traffic.inboundPortExclusionList array [] kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"traffic":{"inboundPortExclusionList":[6379,8080]}}}' --type=merge
spec.certificate.serviceCertValidityDuration string "24h" kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"certificate":{"serviceCertValidityDuration":"24h"}}}' --type=merge
spec.observability.enableDebugServer [bool] false kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"observability":{"enableDebugServer":false}}}' --type=merge
spec.observability.osmLogLevel string "info" kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"observability":{"tracing":{"osmLogLevel": "info"}}}}' --type=merge
spec.observability.tracing.enable [bool] false kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"observability":{"tracing":{"enable":true}}}}' --type=merge
spec.sidecar.enablePrivilegedInitContainer [bool] false kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"sidecar":{"enablePrivilegedInitContainer":true}}}' --type=merge
spec.sidecar.logLevel string "error" kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"sidecar":{"logLevel":"error"}}}' --type=merge
spec.featureFlags.enableWASMStats [bool] "true" kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"featureFlags":{"enableWASMStats":"true"}}}' --type=merge
spec.featureFlags.enableEgressPolicy [bool] "true" kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"featureFlags":{"enableEgressPolicy":"true"}}}' --type=merge
spec.featureFlags.enableMulticlusterMode [bool] "false" kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"featureFlags":{"enableMulticlusterMode":"false"}}}' --type=merge
spec.featureFlags.enableSnapshotCacheMode [bool] "false" kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"featureFlags":{"enableSnapshotCacheMode":"false"}}}' --type=merge
spec.featureFlags.enableAsyncProxyServiceMapping [bool] "false" kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"featureFlags":{"enableAsyncProxyServiceMapping":"false"}}}' --type=merge
spec.featureFlags.enableIngressBackendPolicy [bool] "true" kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"featureFlags":{"enableIngressBackendPolicy":"true"}}}' --type=merge
spec.featureFlags.enableEnvoyActiveHealthChecks [bool] "false" kubectl patch meshconfig osm-mesh-config -n arc-osm-system -p '{"spec":{"featureFlags":{"enableEnvoyActiveHealthChecks":"false"}}}' --type=merge

名前空間を確認する

Note

arc-osm-system 名前空間がサービス メッシュに参加することはなく、こちらに示すキーと値のペアでラベル付けされたり、注釈が設定されたりすることはありません。

osm namespace add コマンドを使用して、特定のサービス メッシュに名前空間を参加させることができます。 Kubernetes 名前空間がメッシュの一部である場合は、次の手順を実行して要件が満たされていることを確認します。

名前空間 bookbuyer の注釈を表示します。

kubectl get namespace bookbuyer -o json | jq '.metadata.annotations'

次の注釈が存在する必要があります。

{
  "openservicemesh.io/sidecar-injection": "enabled"
}

名前空間 bookbuyer のラベルを表示します。

kubectl get namespace bookbuyer -o json | jq '.metadata.labels'

次のラベルが存在する必要があります。

{
  "openservicemesh.io/monitored-by": "osm"
}

osm CLI を使用していない場合は、これらの注釈を名前空間に手動で追加できます。 名前空間に "openservicemesh.io/sidecar-injection": "enabled" の注釈が付けられていない場合、または "openservicemesh.io/monitored-by": "osm" でラベル付けされていない場合、OSM インジェクターでは Envoy サイドカーは追加されません。

Note

osm namespace add を呼び出すと、新しいポッドのみに Envoy サイドカーが挿入されます。 kubectl rollout restart deployment コマンドを使用して既存のポッドを再起動する必要があります。

SMI CRD を確認する

OSM Service Mesh Interface (SMI) の場合は、クラスターに必要なカスタム リソース定義 (CRD) があるかどうかを確認します。

kubectl get crds

CRD がリリース ブランチで使用可能なバージョンに対応していることを確認します。 使用中の CRD バージョンを確認するには、SMI でサポートされているバージョンにアクセスし、[リリース] メニューでバージョンを選択します。

次のコマンドを使用して、インストールされている CRD のバージョンを取得します。

for x in $(kubectl get crds --no-headers | awk '{print $1}' | grep 'smi-spec.io'); do
    kubectl get crd $x -o json | jq -r '(.metadata.name, "----" , .spec.versions[].name, "\n")'
done

CRD がない場合は、次のコマンドを使用してクラスターにこれらをインストールします。 必要に応じて、これらのコマンドのバージョンを置き換えます (たとえば、v1.1.0 の代わりに、release-v1.1 を使用する場合)。

kubectl apply -f https://raw.githubusercontent.com/openservicemesh/osm/release-v1.0/cmd/osm-bootstrap/crds/smi_http_route_group.yaml

kubectl apply -f https://raw.githubusercontent.com/openservicemesh/osm/release-v1.0/cmd/osm-bootstrap/crds/smi_tcp_route.yaml

kubectl apply -f https://raw.githubusercontent.com/openservicemesh/osm/release-v1.0/cmd/osm-bootstrap/crds/smi_traffic_access.yaml

kubectl apply -f https://raw.githubusercontent.com/openservicemesh/osm/release-v1.0/cmd/osm-bootstrap/crds/smi_traffic_split.yaml

CRD バージョンがリリース間でどのように変更されるかについては、「OSM リリース ノート」を参照してください。

証明書の管理のトラブルシューティングを行う

アプリケーション ポッドで実行されている Envoy プロキシに対する OSM による証明書の発行と管理方法については、OSM のドキュメントを参照してください。

Envoy をアップグレードする

アドオンによって監視されている名前空間に新しいポッドが作成されると、OSM により、そのポッドに Envoy プロキシ サイドカーが挿入されます。 Envoy バージョンを更新する必要がある場合は、OSM のドキュメントの「アップグレード ガイド」にある手順に従ってください。