Présentation des topologies de réseau de cluster HPC
Microsoft HPC Pack prend en charge cinq topologies de cluster conçues pour répondre à un large éventail de besoins et de performances des utilisateurs, à la mise à l’échelle et aux exigences d’accès. Ces topologies se distinguent par la façon dont les nœuds du cluster sont connectés les uns aux autres et au réseau d’entreprise.
Dans cette rubrique :
Réseaux de cluster HPC
Le tableau suivant répertorie et décrit les réseaux auxquels les nœuds d’un cluster HPC peuvent être connectés.
Nom du réseau | Description |
---|---|
Réseau d’entreprise | Un réseau organisationnel connecté au nœud principal et, dans certains cas, à d’autres nœuds du cluster. Le réseau d’entreprise est souvent le réseau public ou d’organisation sur lequel la plupart des utilisateurs se connectent pour effectuer leur travail. Tout le trafic de gestion et de déploiement intra-cluster est effectué sur le réseau d’entreprise, sauf si un réseau privé et un réseau d’application facultatif connectent également les nœuds de cluster. |
Réseau privé | Un réseau dédié qui transporte la communication intra-cluster entre les nœuds. Ce réseau, s’il existe, transporte le trafic de gestion, de déploiement et d’application s’il n’existe aucun réseau d’application. |
Réseau d’applications | Un réseau dédié, de préférence avec un débit élevé et une faible latence. Ce réseau est normalement utilisé pour la communication d’application MPI (Message Passing Interface) parallèle entre les nœuds du cluster. |
Topologies de cluster
Le tableau suivant répertorie les cinq topologies de réseau de cluster prises en charge par HPC Pack.
Topologie | Description |
---|---|
1. Nœuds de calcul isolés sur un réseau privé | - Le trafic réseau entre les nœuds de calcul et les ressources sur le réseau d’entreprise (tels que les bases de données et les serveurs de fichiers) passe par le nœud principal. Selon la quantité de trafic, cela peut avoir un impact sur les performances du cluster. - Le réseau privé transporte toutes les communications entre le nœud principal et les nœuds de calcul, notamment le déploiement, la gestion et le trafic d’application (par exemple, communication MPI). - Un inconvénient possible est que les nœuds de calcul ne sont pas directement accessibles par les utilisateurs sur le réseau d’entreprise. Cela a des implications lors du développement et du débogage d’applications parallèles à utiliser sur le cluster. |
2. Tous les nœuds sur les réseaux d’entreprise et privés | - La communication entre les nœuds, y compris le déploiement, la gestion et le trafic d’application, est effectuée sur le réseau privé. - Le trafic du réseau d’entreprise peut être acheminé directement vers un nœud de calcul. - Cette topologie convient parfaitement au développement et au débogage d’applications, car tous les nœuds de calcul sont connectés au réseau d’entreprise. - Cette topologie fournit également aux utilisateurs sur le réseau d’entreprise un accès direct aux nœuds de calcul. - Cette topologie fournit aux nœuds de calcul un accès plus rapide aux ressources réseau d’entreprise. |
3. Nœuds de calcul isolés sur des réseaux privés et d’applications | - Le réseau privé transporte la communication de déploiement et de gestion entre le nœud principal et les nœuds de calcul. Cela offre des performances de cluster plus cohérentes, car la communication intra-cluster est acheminée sur un réseau privé, tandis que la communication d’application est acheminée sur un réseau isolé distinct. - Les travaux MPI exécutés sur le cluster utilisent le réseau d’applications hautes performances pour la communication entre nœuds. - Un inconvénient possible est que les nœuds de calcul ne sont pas directement accessibles par les utilisateurs sur le réseau d’entreprise. Cela a des implications lors du développement et du débogage d’applications parallèles à utiliser sur le cluster. |
4. Tous les nœuds sur les réseaux d’entreprise, privés et d’applications | - Le réseau privé transporte la communication de déploiement et de gestion entre le nœud principal et les nœuds de calcul. - Les travaux MPI exécutés sur le cluster utilisent le réseau d’applications hautes performances pour la communication entre nœuds. - Le trafic du réseau d’entreprise peut être acheminé directement vers un nœud de calcul. - Cette topologie convient parfaitement au développement et au débogage d’applications, car tous les nœuds de calcul sont connectés au réseau d’entreprise. - Cette topologie fournit aux utilisateurs sur le réseau d’entreprise un accès direct aux nœuds de calcul. - Cette topologie fournit aux nœuds de calcul un accès direct aux ressources réseau d’entreprise. |
5. Tous les nœuds uniquement sur un réseau d’entreprise | - Tout le trafic, y compris l’entreprise, le trafic intra-cluster et l’application, est transféré sur le réseau d’entreprise. - Cette topologie fournit aux utilisateurs sur le réseau d’entreprise un accès direct aux nœuds de calcul. - Cette topologie fournit aux nœuds de calcul un accès direct aux ressources réseau d’entreprise. - Cette topologie convient parfaitement au développement et au débogage d’applications, car tous les nœuds de cluster sont connectés au réseau d’entreprise. - Étant donné que tous les nœuds sont connectés uniquement au réseau d’entreprise, vous ne pouvez pas utiliser les outils de déploiement dans HPC Pack pour déployer des nœuds à partir de nu ou via iSCSI. |
Connexion de nœuds broker, de nœuds de station de travail ou de nœuds serveur non managés
Si vous souhaitez ajouter des nœuds broker, des nœuds de station de travail ou des nœuds serveur non managés à votre cluster, vous devez choisir une topologie de réseau qui fonctionnera avec le type de travaux et de services que ces deux types de nœuds seront en cours d’exécution. En outre, vous devez connecter les nœuds aux réseaux HPC de la topologie que vous choisissez, de manière à ce qu’ils puissent communiquer avec tous les nœuds avec lesquels ils ont besoin d’interagir.
Note
Les nœuds de serveur non managés sont pris en charge à partir de HPC Pack 2008 R2 avec Service Pack 3 (SP3).
Par exemple, les nœuds broker doivent être connectés au réseau où les clients qui démarrent des sessions d’architecture orientée service (SOA) sont connectés (généralement le réseau d’entreprise) et au réseau où les nœuds de calcul qui exécutent les services SOA sont connectés (si différents du réseau où les clients sont connectés). Dans la plupart des cas, le fait d’avoir un réseau privé et, si possible, un réseau d’applications à débit élevé et à faible latence, rend le travail des nœuds broker plus efficace, car toutes les communications entre les nœuds broker et les clients qui démarrent des sessions SOA n’auront pas à se produire sur le réseau d’entreprise, qui est un réseau occupé dans la plupart des organisations.
Dans le cas des nœuds de station de travail et des nœuds serveur non managés, la topologie 5 (tous les nœuds d’un réseau d’entreprise) est la topologie recommandée, car dans cette topologie, les nœuds (généralement déjà connectés au réseau d’entreprise) peuvent communiquer avec tous les autres types de nœuds du cluster. Bien que d’autres topologies soient prises en charge pour les nœuds de station de travail et les nœuds serveur non gérés, selon le type et l’étendue des travaux que vous souhaitez exécuter, il peut y avoir des limitations importantes que vous devez prendre en compte. Par exemple, si vous choisissez la topologie 1 (nœuds de calcul isolés sur un réseau privé) ou la topologie 3 (nœuds de calcul isolés sur des réseaux privés et d’applications), et que les nœuds de station de travail sont déjà connectés au réseau d’entreprise, la communication entre les nœuds de calcul et les nœuds de station de travail ne sera pas possible.
Pour plus d’informations sur les topologies réseau, ainsi que sur les configurations réseau avancées, consultez mise en réseau de cluster HPC.
Références supplémentaires
configurer le réseau de cluster HPC