Présentation
Les conteneurs constituent une approche de développement courante pour les architectures et les applications de microservice. Une implémentation basée sur des conteneurs utilise efficacement du matériel, car les fonctionnalités de sécurité permettent à plusieurs instances de s’exécuter simultanément sur le même hôte sans affecter les autres. Les conteneurs facilitent également l’exécution du scale-out d’un service en déployant d’autres instances.
Sur un seul hôte ou environnement de développement, le runtime de gestion des conteneurs standard prend en charge la gestion de conteneurs individuels. Lorsque vous devez mettre à l’échelle un système complexe doté de plusieurs conteneurs qui fonctionnent ensemble, la gestion des conteneurs est plus difficile. Votre solution doit incorporer la configuration et la maintenance pour l’équilibrage de charge, l’orchestration du processus de déploiement et la prise en charge de la connectivité réseau.
Pour faciliter le processus de gestion d’un système complexe, les développeurs utilisent souvent une plateforme de gestion de conteneurs telle que Kubernetes. La plateforme offre des paramètres de configuration de la mise en réseau pour permettre aux conteneurs d’atteindre des ressources spécifiées au sein d’un réseau ou d’être accessibles à des réseaux externes, y compris Internet.
Dans ce module, vous découvrez les types de problèmes métier que vous pouvez résoudre en implémentant des options de mise en réseau pour vos conteneurs Windows sur Azure Kubernetes Service (AKS). Vous passez en revue les concepts de mise en réseau de base pour des conteneurs Windows et Kubernetes, notamment la gestion de l’isolation avec des commutateurs virtuels et la configuration des adresses IP avec des plug-ins CNI (Container Network Interface). Vous examinez les solutions de déploiement réseau pour des applications conteneurisées Windows sur AKS et AKS Hybrid.