Partager via


Application cliente hébergée par Kubernetes avec Azure Managed Redis (préversion)

Connexions clientes à partir de plusieurs pods

Lorsque vous avez plusieurs pods se connectant à un serveur Redis, assurez-vous que les nouvelles connexions en provenance des pods sont créées de manière échelonnée. Si plusieurs pods démarrent en peu de temps sans échelonnement, cela provoque un pic soudain du nombre de connexions client créées. Le nombre élevé de connexions entraîne une charge élevée sur le serveur Redis et peut entraîner des délais d’attente.

Évitez le même scénario lors de l’arrêt de plusieurs pods en même temps. Un échec d’échelonnement de l’arrêt peut entraîner une chute abrupte du nombre de connexions conduisant à une sollicitation du processeur.

Ressources de pod suffisantes

Assurez-vous que le pod exécutant votre application cliente dispose de suffisamment de ressources processeur et mémoire. Si l’application cliente est exécutée à un niveau proche de ses limites de ressources, cela peut entraîner des délais d’attente.

Ressources de nœud suffisantes

Un pod exécutant l’application cliente peut être affecté par d’autres pods en cours d’exécution sur le même nœud, et limiter les connexions Redis ou les opérations d’E/S. Par conséquent, assurez-vous toujours que le nœud sur lequel vos pods d’application cliente sont exécutés disposent de mémoire, de processeur et de bande passante réseau en quantité suffisante. Si l’une de ces ressources présente un niveau insuffisant, cela peut entraîner des problèmes de connectivité.

Applications clientes hébergées sur Linux et paramètres TCP

Si votre application cliente Azure Managed Redis (préversion) s’exécute sur un conteneur Linux, nous vous recommandons de mettre à jour certains paramètres TCP. Ces paramètres sont détaillés dans Paramètres TCP pour les applications clientes hébergées sur Linux.