Partager via


modification du travail

Définit les propriétés du travail spécifié.

Pour obtenir des exemples d’utilisation de cette commande, consultez Exemples.

Syntaxe

job modify <jobID> {[/addexcludednodes:<node_list>] |   
[/clearexcludednodes] | [/removeexcludednodes:<node_list>]}   
[/askednodes:<node_list>] [/corespernode:<min>[-<max>]]   
[/customproperties:<property_list>]  
[/emailaddress:<address>] [/estimatedprocessmemory:<memory>]   
[/exclusive[:{true|false}]]   
[/faildependenttasks[:{true|false}]] [/failontaskfailure[:{true|false}]]   
[/holduntil:[{<DateTime>|<minutes>}]] [/jobenv:<variable_and_value_list> ]   
[/jobfile:<path>\<file_name>] [/jobname:<job_name>]   
[/jobtemplate:<job_template_name>] [/license:<license_list>]   
[/memorypernode:<min>[-<max>]] [/nodegroup:<node_group_list>]   
[/nodegroupop:{Intersect|Uniform|Union}]   
[/notifyoncompletion[:{true|false}]] [/notifyonstart[:{true|false}]]   
{[/numcores:<min>[-<max>]] | [/numnodes:<min>[-<max>]] |   
[/numprocessors:<min>[-<max>]] | [/numsockets:<min>[-<max>]] }   
[/orderby:<primary>[,<secondary>]] [/parentjobids:<jobID_list>]  
[/password:<password>] [/priority:<priority>]   
[/progress:<percent_progress>][/progressmsg:<message>]   
[/projectname:<name>] [/removeexcludednodes:nodename{,nodename}*]   
[/requestednodes:<node_list>] [/runtime:{<time>|Infinite}   
[/rununtilcanceled[:{true|false}]] [/scheduler:<name>]   
[/singlenode [:{true|false}]] [/taskexecutionfailureretrylimit:<retry_limit>]   
[/user:[<domain>\]<user_name>] [/validexitcodes {:int|intStart..intEnd}[,{int|intStart..intEnd}]*]   
  
job modify [{/? | /help}]  
  

Paramètres

Paramètre Description
jobID Spécifie l’identificateur du travail pour lequel vous souhaitez modifier les propriétés.
/addexcludednodes :<node_list> Spécifie les noms des nœuds que vous souhaitez ajouter à la liste des nœuds sur lesquels le travail ne doit pas s’exécuter dans un format de <node1_name>[,<node2_name>...].

Si vous ajoutez un nœud à la liste des nœuds qui ne doivent pas être utilisés pour le travail pendant l’exécution du travail sur ce nœud, les tâches du travail qui s’exécutent sur le nœud sont annulées, puis requeuées si la propriété IsRerunnable pour la tâche a la valeur True.

Si un nœud est spécifié dans la propriété RequiredNodes pour l’une des tâches du travail, une erreur se produit lorsque vous envoyez le travail si vous spécifiez également ce nœud dans les /addexcludednodes paramètre.

Si vous spécifiez un ensemble de nœuds dans les /addexcludednodes paramètre qui entraînerait la baisse du nombre minimal de ressources disponibles requises par le travail, une exception se produit lorsque vous envoyez le travail. Par exemple, si vous avez un cluster HPC qui se compose de trois nœuds et que vous incluez deux d’entre eux dans les /addexcludednodes paramètre, cette action ne rend qu’un seul nœud disponible et une exception se produit lorsque vous soumettez le travail si le travail nécessite un minimum de deux nœuds.

Si vous spécifiez le nom d’un nœud qui n’appartient pas actuellement au cluster HPC, une erreur se produit.

Si vous ajoutez le même nœud deux fois à la liste des nœuds qui ne doivent pas être utilisés pour le travail, la deuxième fois que vous ajoutez le nœud n’a aucun effet.

Vous ne pouvez pas spécifier le paramètre /addexcludednodes si vous spécifiez également les /clearexcludednodes ou /removeexcludednodes paramètre. Remarque : Ce paramètre a été introduit dans HPC Pack 2008 R2 et n’est pas pris en charge dans les versions précédentes.
/clearexcludednodes Supprime tous les nœuds de la liste des nœuds qui ne doivent pas être utilisés pour le travail de cette liste.

Pour supprimer un nœud spécifique de la liste des nœuds qui ne doivent pas être utilisés pour le travail, utilisez les /removeexcludednodes paramètre.

Vous ne pouvez pas spécifier le paramètre /clearexcludednodes si vous spécifiez également le paramètre /addexcludednodes ou /removeexcludednodes. Remarque : Ce paramètre a été introduit dans HPC Pack 2008 R2 et n’est pas pris en charge dans les versions précédentes.
/removeexcludednodes :<node_list> Spécifie les noms des nœuds à supprimer de la liste des nœuds sur lesquels le travail ne doit pas s’exécuter dans un format de <node1_name>[,<node2_name>...].

Pour supprimer tous les nœuds de la liste des nœuds qui ne doivent pas être utilisés pour le travail de cette liste, utilisez le paramètre /clearexcludednodes.

Si vous spécifiez un nœud qui n’appartient pas actuellement au cluster HPC ou à un nœud qui fait partie du cluster HPC, mais qui ne fait pas partie de la liste actuelle des nœuds qui ne doivent pas être utilisés pour le travail, les /removeexcludednodes paramètre n’a aucun effet et aucune erreur ne se produit.

Vous ne pouvez pas spécifier le paramètre /removeexcludednodes si vous spécifiez également le paramètre /addexcludednodes ou /clearexcludednodes. Remarque : Ce paramètre a été introduit dans HPC Pack 2008 R2 et n’est pas pris en charge dans les versions précédentes.
/askednodes :<node_list> Déconseillé. Utilisez le paramètre /requestednodes à la place.
/corespernode :<min>[-<max>] Spécifie le nombre minimal et, éventuellement, le nombre maximal de cœurs qu’un nœud peut avoir pour le service planificateur de travaux HPC pour considérer le nœud comme un nœud candidat sur lequel exécuter le travail. Le travail ne s’exécute pas sur un nœud qui a moins de cœurs que la valeur minimale ou plus de cœurs que la valeur maximale spécifiée par ce paramètre. Si tous les nœuds du cluster ont un certain nombre de cœurs qui se trouvent en dehors de la plage que vous spécifiez pour ce paramètre, une erreur se produit lorsque vous envoyez le travail.
/customproperties :<property_list> Spécifie les noms et les valeurs des propriétés personnalisées du travail dans un format de <name1>=<value1>[ ;<name2>=<value2>...]. Les noms de propriétés personnalisées ne respectent pas la casse et reflètent le cas utilisé lors de leur première définition. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/emailaddress :<adresse> Envoie des notifications pour ce travail à cette adresse e-mail. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/estimatedprocessmemory :<mémoire> La quantité maximale de mémoire en mégaoctets (Mo) que chaque processus de ce travail est estimé à consommer.
/exclusive[ :{true|false}] Spécifie si le service du planificateur de travaux HPC doit s’assurer qu’aucun autre travail ne s’exécute sur le même nœud que ce travail pendant l’exécution de ce travail.

La valeur True indique que le service hpC Job Scheduler doit s’assurer qu’aucun autre travail ne s’exécute sur le même nœud que ce travail pendant l’exécution de ce travail.

La valeur False indique que ce travail peut partager des nœuds de calcul avec d’autres travaux.

Lorsque vous spécifiez le paramètre /exclusive sans valeur, le travail modifie commande se comporte comme si vous avez spécifié la valeur True. Si vous ne spécifiez pas le paramètre /exclusive, la commande de modification du travail se comporte comme si vous avez spécifié la valeur False.
/faildependenttasks[ :{true|false}] Échoue toutes les tâches dépendantes en cas d’échec ou d’annulation d’une tâche.

Si /faildependenttasks est déclaré sans valeur, true est supposé. Si /faildependenttasks n’est pas déclaré, false est supposé. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/failontaskfailure[ :{true|false}] Spécifie si le service du planificateur de travaux HPC doit arrêter le travail et échouer immédiatement lors de l’échec d’une tâche dans le travail.

La valeur True indique que le service hpC Job Scheduler doit arrêter le travail et échouer immédiatement lorsqu’une tâche dans le travail échoue.

La valeur False indique que le service hpC Job Scheduler doit continuer à exécuter le reste des tâches du travail après l’échec d’une tâche dans le travail.

Lorsque vous spécifiez le paramètre /failontaskfailure sans valeur, le travail modifier commande se comporte comme si vous avez spécifié la valeur True. Si vous ne spécifiez pas le paramètre /failontaskfailure, le travail modifie commande se comporte comme si vous avez spécifié la valeur False.
/holduntil :[{<DateTime>|<minutes>}] Spécifie la date et l’heure dans l’heure locale ou le nombre de minutes jusqu’à ce que le service du planificateur de travaux HPC attende avant d’essayer de démarrer le travail. Si ce paramètre n’est pas défini, le travail peut démarrer lorsque les ressources sont disponibles.

Le service hpC Job Scheduler exécute uniquement le travail à la date et à l’heure que ce paramètre spécifie si les ressources nécessaires pour le travail sont disponibles. Si les ressources nécessaires pour le travail ne sont pas disponibles à cette date et à cette heure, le travail reste mis en file d’attente jusqu’à ce que les ressources nécessaires soient disponibles.

Vous pouvez spécifier la date et l’heure dans n’importe quel format que le .NET Framework peut analyser pour la culture actuelle du système d’exploitation. Pour plus d’informations sur la façon dont .NET Framework analyse les chaînes de date et d’heure, consultez analyse des chaînes de date et d’heure.

Vous pouvez spécifier le paramètre /holduntil pour un travail tant que le travail n’est pas en cours d’exécution ou terminé. Remarque : l’heure spécifiée à l’aide de /holduntil est convertie en interne en UTC et ne reflète pas l’heure d’été locale. Si une valeur de minutes est utilisée, il doit s’agir d’un entier. Les minutes de conservation sont converties en UTC au moment où travail modifie est appliquée. Si la valeur de /holduntil est vide, toute valeur /holduntil actuelle est effacée et le travail n’est plus en attente en raison de ce paramètre. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/jobenv :<variable_and_value_list> Spécifie les variables d’environnement que vous souhaitez définir dans l’environnement d’exécution du travail et les valeurs auxquelles vous souhaitez définir ces variables d’environnement. La liste doit avoir un format de <variable_name1>=<valeur1> [ ;<variable_name2>=<valeur2>...].

Vous pouvez également définir plusieurs variables d’environnement en incluant plusieurs paramètres /jobenv, chacun d’eux avec un format de <variable_name>=<valeur>.

Pour annuler la définition d’une variable d’environnement, ne spécifiez pas de valeur. Par exemple, «<variable_to_unset_name>= ».

Si vous définissez ou annulez la définition d’une variable d’environnement pour un travail, cette variable d’environnement est également définie ou non pour chaque tâche du travail, sauf si vous remplacez ce paramètre de variable d’environnement pour la tâche en spécifiant un nouveau paramètre avec le paramètre /env. Remarque : Ce paramètre a été introduit dans HPC Pack 2008 R2 et n’est pas pris en charge dans les versions précédentes.
/jobfile : chemin d’accès<>\<file_name> Déconseillé. Utilisez les autres paramètres de cette commande pour modifier les paramètres du travail à la place.
/jobname :<job_name> Spécifie un nom à utiliser pour ce travail dans la sortie de commande et dans l’interface utilisateur.

La longueur maximale du nom d’un travail est de 80 caractères.
/jobtemplate :<job_template_name> Spécifie le nom du modèle de travail à utiliser pour le travail.

La longueur maximale pour le nom d’un modèle de travail est de 80 caractères.
/license :<license_list> Spécifie une liste des fonctionnalités pour lesquelles le travail nécessite des licences et le nombre de licences requises pour chacun d’eux. Utilisez un format de <license_name1>:<nombre1> [,<license_name2>:<nombre2>...] pour cette liste. Par exemple, License1:10,License2:20,License3:12.

La liste a une longueur maximale de 160 caractères.
/memorypernode :<min>[-<max>] Spécifie le minimum et, éventuellement, la quantité maximale de mémoire en mégaoctets (Mo) qu’un nœud peut avoir pour le service planificateur de travaux HPC pour considérer le nœud comme un nœud candidat sur lequel exécuter le travail. Le travail ne s’exécute pas sur un nœud qui a moins de mémoire que la valeur minimale ou plus de mémoire que la valeur maximale spécifiée par ce paramètre. Si tous les nœuds du cluster ont une quantité de mémoire qui se trouve en dehors de la plage que vous spécifiez pour ce paramètre, une erreur se produit lorsque vous envoyez le travail.
/nodegroup :<node_group_list> Spécifie la liste des groupes de nœuds sur lesquels ce travail peut s’exécuter au format <node_group1_name>[,<node_group2_name>...]. Le service HPC Job Scheduler alloue des ressources au travail à partir de nœuds appartenant à tous les groupes de nœuds de la liste par défaut, ou aux nœuds résultant de l’opération du paramètre /nodegroupop, le cas échéant, dans la liste des groupes.

Si vous spécifiez des valeurs pour les paramètres /nodegroups et /requestednodes, le travail s’exécute uniquement sur les nœuds de la liste des nœuds pour le paramètre /requestednodes qui appartiennent également à la liste des nœuds définis avec le /nodegroup et /nodegroupop paramètres.

Le paramètre /nodegroup garantit qu’il existe des nœuds dans la liste de nœuds valide. Toutefois, si les besoins en ressources d’un travail à partir du paramètre ci-dessus ne peuvent pas être remplis à partir de la liste des nœuds, le travail échoue lors de l’envoi du travail.

Si vous spécifiez le paramètre /requestednodes pour une tâche et /nodegroups pour le travail, le travail échoue lors de l’envoi si les nœuds demandés ne figurent pas dans les nœuds répertoriés conjointement avec le
/nodegroup et les paramètres /nodegroupop.
/nodegroupop :{Intersect|Uniforme|Union} Spécifie l’opérateur de la liste spécifiée par le paramètre /nodegroup . Les valeurs valides sont :

Intersect : crée la liste des nœuds qui se trouvent dans tous les groupes de nœuds répertoriés.

Uniforme : provoque le service hpC Job Scheduler pour essayer les groupes de nœuds dans l’ordre. S’il existe suffisamment de ressources dans le premier groupe de nœuds, elles sont utilisées. Si ce n’est pas le cas, le Planificateur tente chaque groupe de nœuds suivant jusqu’à ce qu’il en trouve un avec suffisamment de ressources. Si suffisamment de ressources sont introuvables, le travail reste en file d’attente.

Union : crée la liste des nœuds qui se trouvent dans l’un des groupes de nœuds.

La valeur par défaut de ce paramètre est Intersect. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/notifyoncompletion[ :{true|false}] Spécifie si le service hpC Job Scheduler doit envoyer une notification par e-mail lorsque le travail se termine.

La valeur True indique que le service hpC Job Scheduler doit envoyer une notification par e-mail lorsque le travail se termine.

La valeur False indique que le service hpC Job Scheduler ne doit pas envoyer de notification par e-mail lorsque le travail se termine.

Une tâche se termine et une notification est envoyée lorsque l’état du travail passe à Finished, Failed ou Canceled.

Un administrateur de cluster doit configurer la notification pour le cluster HPC avant de pouvoir recevoir une notification sur un travail.

Lorsque vous spécifiez le paramètre /notifyoncompletion sans valeur, le travail nouvelle commande se comporte comme si vous avez spécifié la valeur True. Si vous ne spécifiez pas le paramètre /notifyoncompletion, la commande nouveau travail se comporte comme si vous avez spécifié la valeur False. Remarque : Ce paramètre a été introduit dans HPC Pack 2008 R2 et n’est pas pris en charge dans les versions précédentes.
/notifyonstart[ :{true|false}] Spécifie si le service hpC Job Scheduler doit envoyer une notification par e-mail au démarrage du travail.

La valeur True indique que le service hpC Job Scheduler doit envoyer une notification par e-mail au démarrage du travail.

La valeur False indique que le service du planificateur de travaux HPC ne doit pas envoyer de notification par e-mail au démarrage du travail.

Un administrateur de cluster doit configurer la notification pour le cluster HPC avant de pouvoir recevoir une notification sur un travail.

Lorsque vous spécifiez le paramètre /notifyon start sans valeur, la commande nouveau travail se comporte comme si vous avez spécifié la valeur True. Si vous ne spécifiez pas le paramètre /notifyonstart, la commande nouveau travail se comporte comme si vous avez spécifié la valeur False. Remarque : Ce paramètre a été introduit dans HPC Pack 2008 R2 et n’est pas pris en charge dans les versions précédentes.
/numcores :<min>[-<max>] Spécifie le nombre global de cœurs dans le cluster HPC requis par le travail au format <minimum>[-<>maximale ]. Le travail s’exécute sur au moins le nombre minimal de cœurs et sur pas plus que le nombre maximal.

Si vous spécifiez une seule valeur, cette commande définit le nombre maximal et minimal de cœurs sur cette valeur.

Si vous spécifiez une valeur minimale qui dépasse le nombre total de cœurs disponibles sur le cluster, une erreur se produit lorsque vous envoyez le travail.

Les valeurs minimales et maximales ne peuvent être que des entiers positifs ou un astérisque (*). Si vous spécifiez la valeur minimale ou maximale en tant qu’astérisque, le service hpC Job Scheduler calcule automatiquement le nombre minimal ou maximal de cœurs au moment de l’exécution en fonction du nombre minimal et maximal de cœurs pour les tâches du travail.

Vous ne pouvez pas spécifier le paramètre /numcores si vous spécifiez également le paramètre/numnodes , /numprocessorsou /numsockets paramètre.
/numnodes :<min>[-<max>] Spécifie le nombre global de nœuds sur le cluster HPC requis par le travail au format <>minimale [-<>maximale]. Le travail s’exécute sur au moins le nombre minimal de nœuds et pas plus que le nombre maximal.

Si vous spécifiez une seule valeur, cette commande définit le nombre maximal et minimal de nœuds sur cette valeur.

Si vous spécifiez une valeur minimale qui dépasse le nombre total de nœuds disponibles sur le cluster, une erreur se produit lorsque vous envoyez le travail.

Les valeurs minimales et maximales ne peuvent être que des entiers positifs ou un astérisque (*). Si vous spécifiez la valeur minimale ou maximale en tant qu’astérisque, le service hpC Job Scheduler calcule automatiquement le nombre minimal ou maximal de nœuds au moment de l’exécution, en fonction du nombre minimal et maximal de nœuds pour les tâches du travail.

Vous ne pouvez pas spécifier le paramètre /numnodes si vous spécifiez également le/numcores , /numprocessorsou /numsockets paramètre.
/numprocessors :<min>[-<max>] Déconseillé. Utilisez plutôt le paramètre /numcores.
/numsockets :<min>[-<max>] Spécifie le nombre global de sockets sur le cluster HPC requis par le travail au format <>minimale [-<>maximale ]. Le travail s’exécute sur au moins le nombre minimal de sockets et pas plus que le nombre maximal.

Si vous spécifiez une seule valeur, cette commande définit le nombre maximal et minimal de sockets sur cette valeur.

Si vous spécifiez une valeur minimale qui dépasse le nombre total de sockets disponibles sur le cluster, une erreur se produit lorsque vous envoyez le travail.

Les valeurs minimales et maximales ne peuvent être que des entiers positifs ou un astérisque (*). Si vous spécifiez la valeur minimale ou maximale en tant qu’astérisque, le service hpC Job Scheduler calcule automatiquement le nombre minimal ou maximal de sockets au moment de l’exécution en fonction du nombre minimal et maximal de sockets pour les tâches du travail.

Vous ne pouvez pas spécifier le paramètre /numsockets si vous spécifiez également le paramètre /numcores, /numprocessorsou /numnodes paramètre.
/orderby :<>principal [,<>secondaire ] Spécifie l’ordre que le service du planificateur de travaux HPC doit utiliser pour allouer des nœuds au travail au format <primary_order>[,<secondary_order>]. Les parties primary_order et secondary_order de la valeur peuvent chacune être l’une des valeurs suivantes :

-mémoire
Le service hpC Job Scheduler trie les nœuds en fonction de la quantité de mémoire qu’ils ont disponible et alloue le travail aux nœuds avec plus de mémoire en premier.
- -memory
Le service hpC Job Scheduler trie les nœuds en fonction de la quantité de mémoire qu’ils ont disponible et alloue le travail aux nœuds avec moins de mémoire.
-Noyaux
Le service hpC Job Scheduler trie les nœuds en fonction du nombre de cœurs qu’ils ont disponibles et alloue le travail aux nœuds avec d’autres cœurs en premier.
-–Noyaux
Le service hpC Job Scheduler trie les nœuds en fonction du nombre de cœurs qu’ils ont disponibles et alloue le travail aux nœuds avec moins de cœurs en premier.

Lorsque vous spécifiez un ordre secondaire, le service hpC Job Scheduler trie les nœuds en fonction de l’ordre principal en premier. Pour les sous-ensembles de nœuds qui ont la même quantité de ressource que l’ordre principal spécifié, le service HPC Job Scheduler trie ensuite les nœuds au sein du sous-ensemble à l’aide de l’ordre de tri secondaire. Par exemple, si vous spécifiez de la mémoire, des cœurs, le service hpC Job Scheduler trie les nœuds de la quantité de mémoire la plus élevée à la plus faible. Ensuite, pour les sous-ensembles de nœuds qui ont la même quantité de mémoire, le service HPC Job Scheduler utilise le nombre de cœurs pour rompre le lien et trie les nœuds qui ont la même quantité de mémoire du nombre le plus petit de cœurs au plus grand nombre.

L’ordre principal et l’ordre secondaire doivent faire référence à différents types de ressources. Par exemple, la mémoire, les cœurs sont une combinaison valide de commandes de tri primaire et secondaire. Les combinaisons telles que la mémoire, la mémoire et les cœurs ne sont pas valides.

L’ordre par défaut que le service hpC Job Scheduler utilise pour allouer des nœuds à un travail est des cœurs, de la mémoire.
/password :<mot de passe> Spécifie le mot de passe du compte sous lequel le travail doit s’exécuter. Si vous spécifiez le paramètre /user, mais pas le paramètre /password, le travail modifier commande vous invite à entrer le mot de passe et à stocker le mot de passe.
/parentjobids :<jobID_list> Spécifie la liste des ID de travail dont le travail dépend dans un format de <jobID1>[,<jobID2>...].

Les ID de travail doivent déjà exister.

Le service planificateur de travaux HPC planifie le travail uniquement lorsque ses travaux parents sont terminés et sont tous dans un état terminé. Si un travail parent n’a pas terminé ou s’est terminé, mais qu’il est dans un état Annulé ou Ayant échoué, le travail reste mis en file d’attente. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/priority :<> de priorité Spécifie la priorité pour la planification du travail. Pour HPC Pack 2008, la valeur de priorité ne peut être que l’une des valeurs nommées suivantes : Plus haut, AboveNormal, Normal, BelowNormal ou Lowest.

À compter de HPC Pack 2008 R2, vous pouvez utiliser l’une des cinq valeurs de priorité nommées que vous pouvez utiliser dans HPC Pack 2008. Vous pouvez également utiliser n’importe quel nombre compris entre 0 et 4 000, avec 0 comme priorité la plus basse et 4000 comme valeur la plus élevée. Vous pouvez également spécifier la valeur de priorité comme named_value+décalage ou named_value-offset. Pour les besoins de ces formats finaux, les priorités nommées ont les valeurs suivantes, et la combinaison de la valeur nommée et des décalages ne peut pas être inférieure à 0 ou supérieure à 4 000.

Maximum-
4000

AboveNormal
- 3000

Normal
- 2000

BelowNormal -
1000

Le plus bas
- 0

Le modèle de travail que le travail utilise spécifie les autorisations qui affectent qui peuvent spécifier des priorités élevées.

Le service HpC Job Scheduler place les travaux avec la même priorité dans la file d’attente de travaux dans l’ordre dans lequel les utilisateurs envoient les travaux, sauf si un utilisateur requeue un travail. Si un utilisateur requeue un travail, le service du planificateur de travaux HPC place ce travail d’abord parmi les travaux ayant la même priorité.

La priorité par défaut d’un travail est Normale ou 2000.
/progress :<percent_progress> Spécifie le pourcentage du travail terminé. Cette valeur doit être comprise entre 0 et 100.

Si vous ne définissez pas la valeur de cette propriété, le service HPC Job Scheduler calcule la progression en fonction du pourcentage de tâches terminées pour le travail. Lorsque vous définissez cette propriété pour un travail, le service hpC Job Scheduler ne continue pas à mettre à jour cette propriété. Vous devez donc continuer à mettre à jour la propriété. Remarque : Ce paramètre a été introduit dans HPC Pack 2008 R2 et n’est pas pris en charge dans les versions précédentes.
/progressmsg :<message> Spécifie un message d’état personnalisé que vous souhaitez afficher pour le travail. La longueur maximale de cette chaîne est de 80 caractères.

Pour spécifier un message d’état qui inclut des espaces, placez le message d’état entre guillemets ("). Remarque : Ce paramètre a été introduit dans HPC Pack 2008 R2 et n’est pas pris en charge dans les versions précédentes.
/projectname :<nom> Spécifie un nom de projet pour le travail que vous pouvez utiliser pour le suivi des travaux.

La longueur maximale du nom du projet est de 80 caractères.
/requestednodes :<node_list> Spécifie une liste de noms pour les nœuds sur lesquels le travail peut s’exécuter au format <node1_name>[,<node2_name>...]. Ces nœuds sont des candidats au travail, mais tous les nœuds n’exécutent pas nécessairement le travail si les ressources disponibles sur ces nœuds dépassent les ressources requises par le travail. Le service hpC Job Scheduler alloue les nœuds principaux en fonction de la valeur du paramètre /orderby jusqu’à ce que les nœuds alloués répondent à la valeur spécifiée avec les /numcores, /numsockets, /numprocessorsou paramètre /numnodes.

Si vous ne spécifiez pas le paramètre /requestednodes, le service HPC Job Scheduler considère tous les nœuds comme candidats que le service hpC Job Scheduler peut allouer au travail.

Si vous spécifiez des valeurs pour les /requestednodes et les paramètres /nodegroups, le travail s’exécute uniquement sur les nœuds dans la liste des nœuds pour le paramètre /requestednodes qui appartiennent également à la liste des nœuds définis avec le /nodegroup et /nodegroupop paramètres.
/runtime :{<heure> | Infini} Spécifie la durée maximale pendant laquelle le travail doit s’exécuter. Une fois le travail exécuté pendant ce délai, le service du planificateur de travaux HPC annule le travail. Vous spécifiez la durée dans un format [[<jours>:]<heures>:]<minutes>. Vous pouvez également spécifier Infinite pour indiquer que le travail peut s’exécuter pendant une durée illimitée.

Si vous spécifiez une seule partie du format [[<jours>:]<heures>:]<format> minutes, la commande interprète la valeur spécifiée comme le nombre de minutes. Par exemple, 12 indique 12 minutes.

Si vous spécifiez deux parties du format, la commande interprète la partie gauche en tant qu’heures et la partie droite sous forme de minutes. Par exemple, 10:30 indique 10 heures et 30 minutes.

Vous pouvez utiliser un ou plusieurs chiffres pour chaque partie du format. La valeur maximale de chaque partie est de 2 147 483 647. Si vous ne spécifiez pas le paramètre /runtime, la valeur par défaut est Infinite.
/rununtilcanceled[ :{true|false}] Spécifie si le travail continue d’exécuter et de contenir des ressources jusqu’à ce que la limite d’exécution expire ou qu’une personne annule le travail.

La valeur True indique que le travail continue d’exécuter et de contenir des ressources jusqu’à l’expiration de la limite d’exécution ou qu’une personne annule le travail. Si vous spécifiez la valeur True, vous devez spécifier des valeurs minimales et maximales pour les/numcores , /numnodes, ou /numsockets paramètre, ou une erreur se produit lorsque vous soumettez le travail.

La valeur False indique que le travail doit arrêter et libérer ses ressources lorsque toutes les tâches du travail sont terminées.

Lorsque vous spécifiez le paramètre
/rununtilcanceled sans valeur, le travail modifie commande se comporte comme si vous avez spécifié la valeur True. Si vous ne spécifiez pas le paramètre /rununtilcanceled , le travail modifie commande se comporte comme si vous avez spécifié la valeur False.
/scheduler :<nom> Spécifie le nom d’hôte ou l’adresse IP du nœud principal du cluster qui contient le travail que vous souhaitez modifier. La valeur doit être un nom d’ordinateur ou une adresse IP valide. Si vous ne spécifiez pas le paramètre /scheduler, cette commande utilise le planificateur sur le nœud principal spécifié par la variable d’environnement CCP_SCHEDULER.
/singlenode[ :{true|false}] Spécifie que toutes les ressources seront allouées sur un nœud.

Si /singlenode est déclaré sans valeur, true est supposé. Si /singlenode n’est pas déclaré, false est supposé. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/taskexecutionfailureretrylimit :<retry_number> Spécifie le nombre maximal de fois qu’une tâche dans ce travail autre qu’une tâche de préparation de nœud ou de mise en production de nœud est automatiquement mise en file d’attente après un échec d’exécution de l’application. La valeur par défaut est 0. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 R2 Update 1. Il n’est pas disponible dans les versions précédentes.
/user :[<domaine>\]<user_name>] Spécifie le nom d’utilisateur et, éventuellement, le domaine du compte sous lequel le travail doit s’exécuter. Si vous ne spécifiez pas ce paramètre, le travail s’exécute sous le compte utilisé pour envoyer le travail.
/validexitcodes :{int|intStart.. intEnd} [,{int|intStart.. intEnd}]* Spécifie les codes de sortie à utiliser pour vérifier si les tâches d’un travail se terminent correctement. /validexitcodes doivent être spécifiés par des entiers discrets et des plages entières séparées par des virgules.

min ou max peut être utilisé comme début ou fin d’une plage entière. Par exemple, 0..max représente tous les entiers non nénégatifs.

Ce paramètre peut être substitué en déclarant les /validexitcodes paramètre spécifique à une tâche. Toutes les tâches qui n’ont pas ce paramètre explicitement déclaré hériteront du paramètre du travail.

Si /validexitcodes n’est pas défini, 0 est le code de sortie valide par défaut. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/? Affiche l’aide à l’invite de commandes.
/Aide Affiche l’aide à l’invite de commandes.

Remarques

  • Vous ne pouvez pas modifier les propriétés d’un travail dans l’état terminé.

  • Pour les travaux dans l’état en cours d’exécution, vous ne pouvez modifier que les propriétés suivantes :

    • Nom

    • Project

    • Duree

    • RunUntilCanceled

    • Priority

    • AddExcludedNodes

    • ClearExcludedNodes

    • RemoveExcludedNodes

    • NotifyOnCompletion

    • Progress

    • ProgressMessage

    • JobEnv

  • À compter de HPC Pack 2008, vous pouvez mettre fin à un travail défini pour s’exécuter jusqu’à ce qu’il soit annulé à l’aide de la commande modifier pour définir la propriété RunUntilCanceled false. Pour plus d’informations sur la fin d’un travail qu’il a défini pour s’exécuter jusqu’à ce qu’il soit annulé, consultez « Terminer une exécution jusqu’à ce que le travail annulé soit terminé » dans la section Opérations (https://go.microsoft.com/fwlink/?LinkId=120726) de la bibliothèque technique Windows HPC Server 2008.

    À compter de HPC Pack 2008 R2, vous pouvez mettre fin à un travail qui est défini pour s’exécuter jusqu’à ce qu’il soit annulé et définir l’état de ce travail sur Terminé à l’aide de la commande tâche terminée.

Exemples

Pour définir le projet pour le travail avec un identificateur de travail de 47 au test de cluster, le modèle de travail pour le travail sur MyJobTemplate, la limite d’exécution du travail à 30 minutes et la priorité du travail sur AboveNormal, utilisez la commande suivante :

job modify 47 /jobtemplate:MyJobTemplate /projectname:"Cluster Testing" /runtime:0:0:30 /priority:AboveNormal  

Pour spécifier que le travail avec un identificateur de 98 ne doit pas commencer à s’exécuter avant l’heure locale de la journée actuelle, pour définir la progression du travail sur 0, pour définir le message d’état du travail sur « en attente » et spécifier que vous souhaitez recevoir une notification par e-mail une fois le travail terminé, utilisez la commande suivante :

job modify 98 /holduntil:"10:00 pm" /progress:0 /progressmsg:"on hold" /notifyoncompletion:true  

Références supplémentaires