Partager via


nouveau travail

Crée un travail avec les paramètres spécifiés sur un cluster HPC.

Pour obtenir des exemples d’utilisation de cette commande, consultez Exemples.

Syntaxe

job new [/askednodes:<node_list>] [/corespernode:<min>[-<max>]]   
[/customproperties:<property_list>]   
[/emailaddress:<address>] [/estimatedprocessmemory:<memory>)] [/exclusive[:{true|false}]]   
[/faildependenttasks[:{true|false}]] [/failontaskfailure[:{true|false}]]   
[/holduntil:[{<DateTime>|<minutes>}]] [/jobenv:<variable_and_value_list>]   
[/jobfile:<path>\<file_name>] [/jobname:<job_name>]   
[/jobtemplate:<job_template_name>] [/license:<license_list>]   
[/memorypernode:<min>[-<max>]] [/nodegroup:<node_group_list>]   
[/nodegroupop:{Intersect|Uniform|Union}] [/notifyoncompletion[:{true|false}]]   
[/notifyonstart[:{true|false}]]{[/numcores:<min>[-<max>]]   
| [/numnodes:<min>[-<max>]] | [/numprocessors:<min>[-<max>]]   
| [/numsockets:<min>[-<max>]]} [/orderby:<primary>[,<secondary>]]   
[/progress:<percent_progress>] [/parentjobids:<jobID_list>]   
[/priority:<priority_specification>][/progress:progress]   
[/progressmsg:<message>] [/priority:<priority>]   
[/projectname:<name>] [/requestednodes:<node1_name>[,<node2_name>…]]   
[/Runtime:{<time>|Infinite} [/rununtilcanceled[:{true|false}]]   
[/scheduler:<name>] [/singlenode:{true|false}]   
[/taskexecutionfailureretrylimit:<retry_limit>]   
[/validexitcodes:int|intStart..intEnd[,int|intStart..intEnd]*]   
  
job new {/? | /help}  

Paramètres

Paramètre Description
/askednodes :<node_list> Déconseillé. Utilisez le paramètre /requestednodes à la place.
/corespernode :<min>[-<max>] Spécifie le nombre minimal et, éventuellement, le nombre maximal de cœurs qu’un nœud peut avoir pour le service planificateur de travaux HPC pour considérer le nœud comme un nœud candidat sur lequel exécuter le travail. Le travail ne s’exécute pas sur un nœud qui a moins de cœurs que la valeur minimale ou plus de cœurs que la valeur maximale spécifiée par ce paramètre. Si tous les nœuds du cluster ont un certain nombre de cœurs qui se trouvent en dehors de la plage que vous spécifiez pour ce paramètre, une erreur se produit lorsque vous envoyez le travail. Les valeurs par défaut de ce paramètre sont les suivantes :

1. min : 1
2. max : 2147483647 (valeur entière maximale)
/customproperties :<property_list> Spécifie les noms et les valeurs des propriétés personnalisées du travail dans un format de <name1>=<value1>[ ;<name2>=<value2>...]. Les noms de propriétés personnalisées ne respectent pas la casse et reflètent le cas utilisé lors de leur première définition. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/emailaddress :<adresse> Envoie des notifications pour ce travail à cette adresse e-mail. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/estimatedprocessmemory :<mémoire >) La quantité maximale de mémoire en mégaoctets (Mo) que chaque processus de ce travail est estimé à consommer.
/exclusive[ :{true|false}] Spécifie si le service du planificateur de travaux HPC doit s’assurer qu’aucun autre travail ne s’exécute sur le même nœud que ce travail pendant l’exécution de ce travail.

La valeur True indique que le service hpC Job Scheduler doit s’assurer qu’aucun autre travail ne s’exécute sur le même nœud que ce travail pendant l’exécution de ce travail.

La valeur False indique que ce travail peut partager des nœuds de calcul avec d’autres travaux.

Lorsque vous spécifiez le paramètre /exclusive sans valeur, la tâche nouvelle commande se comporte comme si vous avez spécifié une valeur True. Si vous ne spécifiez pas le paramètre /exclusive, le travail nouvelle commande se comporte comme si vous avez spécifié la valeur False.
/faildependenttasks[ :{true|false}] Échoue toutes les tâches dépendantes en cas d’échec ou d’annulation d’une tâche. Si ce paramètre n’est pas défini, le comportement par défaut est false.

Si /faildependenttasks est défini, mais qu’aucune valeur n’est déclarée, la valeur true est supposée. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/failontaskfailure[ :{true|false}] Spécifie si le service du planificateur de travaux HPC doit arrêter le travail et échouer immédiatement lors de l’échec d’une tâche dans le travail.

La valeur True indique que le service hpC Job Scheduler doit arrêter le travail et échouer immédiatement lorsqu’une tâche dans le travail échoue.

La valeur False indique que le service hpC Job Scheduler doit continuer à exécuter le reste des tâches du travail après l’échec d’une tâche dans le travail.

Lorsque vous spécifiez le paramètre /failontaskfailure sans valeur, le travail nouveau travail se comporte comme si vous avez spécifié la valeur True. Si vous ne spécifiez pas le paramètre /failontaskfailure , la commande nouveau travail se comporte comme si vous avez spécifié la valeur False.
/holduntil :[{<DateTime>|<minutes>}] Spécifie la date et l’heure dans l’heure locale ou le nombre de minutes jusqu’à ce que le service du planificateur de travaux HPC attende avant d’essayer de démarrer le travail. Si ce paramètre n’est pas défini, le travail peut démarrer lorsque les ressources sont disponibles.

Le service hpC Job Scheduler exécute uniquement le travail à la date et à l’heure que ce paramètre spécifie si les ressources nécessaires pour le travail sont disponibles. Si les ressources nécessaires pour le travail ne sont pas disponibles à cette date et à cette heure, le travail reste mis en file d’attente jusqu’à ce que les ressources nécessaires soient disponibles.

Vous pouvez spécifier la date et l’heure dans n’importe quel format que le .NET Framework peut analyser pour la culture actuelle du système d’exploitation. Pour plus d’informations sur la façon dont .NET Framework analyse les chaînes de date et d’heure, consultez analyse des chaînes de date et d’heure.

Vous pouvez spécifier le paramètre /holduntil pour un travail tant que le travail n’est pas en cours d’exécution ou terminé. Remarque : l’heure spécifiée à l’aide de /holduntil est convertie en interne en UTC et ne reflète pas l’heure d’été locale. Si la valeur minutes est utilisée, elle doit être un entier. Les minutes de conservation sont converties en UTC au moment où nouveau travail est appliqué. Si la valeur de /holduntil est vide, le travail n’est pas en attente en raison de ce paramètre. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/jobenv :<variable_and_value_list> Spécifie les variables d’environnement que vous souhaitez définir dans l’environnement d’exécution du travail et les valeurs auxquelles vous souhaitez définir ces variables d’environnement. La liste doit avoir un format de <variable_name1>=<valeur1> [ ;<variable_name2>=<valeur2>...].

Vous pouvez également définir plusieurs variables d’environnement en incluant plusieurs paramètres /jobenv, chacun avec un argument différent avec un format de <variable_name>=<valeur>.

Pour annuler la définition d’une variable d’environnement, ne spécifiez pas de valeur. Par exemple, «<variable_to_unset_name>= ».

Si vous définissez ou désactivez une variable d’environnement pour un travail, cette variable d’environnement est également définie ou non définie pour chaque tâche du travail, sauf si vous remplacez ce paramètre de variable d’environnement pour la tâche en spécifiant un nouveau paramètre avec le paramètre /env du travail ajouter commande. Remarque : Ce paramètre a été introduit dans HPC Pack 2008 R2 et n’est pas pris en charge dans les versions précédentes.
/jobfile : chemin d’accès<>\<file_name> Spécifie le nom de fichier et le chemin d’accès d’un fichier XML de travail qui contient les paramètres à utiliser pour le travail que vous souhaitez créer. Si vous spécifiez d’autres paramètres en plus du paramètre /jobfile, les valeurs de ces paramètres remplacent les paramètres dans le fichier XML du travail.

Ce paramètre est utilisé uniquement lors de l’importation d’un travail à partir d’un fichier XML. Dans ce cas, il est nécessaire.
/jobname :<job_name> Spécifie un nom à utiliser pour ce travail dans la sortie de commande et dans l’interface utilisateur.

La longueur maximale du nom d’un travail est de 80 caractères.
/jobtemplate :<job_template_name> Spécifie le nom du modèle de travail à utiliser pour le travail.

La longueur maximale pour le nom d’un modèle de travail est de 80 caractères.

Par défaut, la commande nouveau travail utilise le modèle de travail par défaut pour le nouveau travail.
/license :<license_list> Spécifie une liste des fonctionnalités pour lesquelles le travail nécessite des licences et le nombre de licences requises pour chacun d’eux. Utilisez un format de <license_name1>:<nombre1> [,<license_name2>:<nombre2>...] pour cette liste. Par exemple, License1:10,License2:20,License3:12.

La liste a une longueur maximale de 160 caractères.
/memorypernode :<min>[-<max>] Spécifie le minimum et, éventuellement, la quantité maximale de mémoire en mégaoctets (Mo) qu’un nœud peut avoir pour le service planificateur de travaux HPC pour considérer le nœud comme un nœud candidat sur lequel exécuter le travail. Le travail ne s’exécute pas sur un nœud qui a moins de mémoire que la valeur minimale ou plus de mémoire que la valeur maximale spécifiée par ce paramètre. Si tous les nœuds du cluster ont une quantité de mémoire qui se trouve en dehors de la plage que vous spécifiez pour ce paramètre, une erreur se produit lorsque vous envoyez le travail.

Les valeurs par défaut de ce paramètre sont les suivantes :

1. <min> 1
2. <> 2147483647 maximale (valeur entière maximale)
/nodegroup :<node_group_list> Spécifie la liste des groupes de nœuds sur lesquels ce travail peut s’exécuter au format <node_group1_name>[,<node_group2_name>...]. Le service HPC Job Scheduler alloue des ressources au travail à partir de nœuds appartenant à tous les groupes de nœuds de la liste par défaut, ou aux nœuds résultant de l’opération du paramètre /nodegroupop, le cas échéant, dans la liste des groupes.

Si vous spécifiez des valeurs pour les /nodegroups et les paramètres /requestednodes, le travail s’exécute uniquement sur les nœuds de la liste des nœuds /requestednodes qui appartiennent également à la liste des nœuds définis avec le /nodegroup et /nodegroupop paramètres.

Le paramètre /nodegroup garantit qu’il existe des nœuds dans la liste de nœuds valide. Toutefois, si les besoins en ressources d’un travail à partir du paramètre ci-dessus ne peuvent pas être remplis à partir de la liste des nœuds, le travail échoue lors de l’envoi du travail.

Si vous spécifiez le paramètre /requestednodes pour une tâche et /nodegroups pour le travail, le travail échoue lors de l’envoi si les nœuds demandés ne figurent pas dans les nœuds répertoriés conjointement avec le /nodegroup et les paramètres /nodegroupop.
/nodegroupop :{Intersect|Uniforme|Union} Spécifie l’opérateur de la liste spécifiée par le paramètre /nodegroup . Les valeurs valides sont :

Intersect : crée la liste des nœuds qui se trouvent dans tous les groupes de nœuds répertoriés.

Uniforme : provoque le service hpC Job Scheduler pour essayer les groupes de nœuds dans l’ordre. S’il existe suffisamment de ressources dans le premier groupe de nœuds, elles sont utilisées. Si ce n’est pas le cas, le Planificateur tente chaque groupe de nœuds suivant jusqu’à ce qu’il en trouve un avec suffisamment de ressources. Si suffisamment de ressources sont introuvables, le travail reste en file d’attente.

Union : crée la liste des nœuds qui se trouvent dans l’un des groupes de nœuds.

La valeur par défaut de ce paramètre est Intersect. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/notifyoncompletion[ :{true|false}] Spécifie si le service hpC Job Scheduler doit envoyer une notification par e-mail lorsque le travail se termine.

La valeur True indique que le service hpC Job Scheduler doit envoyer une notification par e-mail lorsque le travail se termine.

La valeur False indique que le service hpC Job Scheduler ne doit pas envoyer de notification par e-mail lorsque le travail se termine.

Une tâche se termine et une notification est envoyée lorsque l’état du travail passe à Finished, Failed ou Canceled.

Un administrateur de cluster doit configurer la notification pour le cluster HPC avant de pouvoir recevoir une notification sur un travail.

Lorsque vous spécifiez le paramètre /notifyoncompletion sans valeur, le travail nouvelle commande se comporte comme si vous avez spécifié la valeur True. Si vous ne spécifiez pas le paramètre /notifyoncompletion, la commande nouveau travail se comporte comme si vous avez spécifié la valeur False.

Ce paramètre a été introduit dans HPC Pack 2008 R2 et n’est pas pris en charge dans les versions antérieures.
/notifyonstart[ :{true|false}] Spécifie si le service hpC Job Scheduler doit envoyer une notification par e-mail au démarrage du travail.

La valeur True indique que le service hpC Job Scheduler doit envoyer une notification par e-mail au démarrage du travail.

La valeur False indique que le service du planificateur de travaux HPC ne doit pas envoyer de notification par e-mail au démarrage du travail.

Un administrateur de cluster doit configurer la notification pour le cluster HPC avant de pouvoir recevoir une notification sur un travail.

Lorsque vous spécifiez le paramètre /notifyon start sans valeur, la commande nouveau travail se comporte comme si vous avez spécifié la valeur True. Si vous ne spécifiez pas le paramètre /notifyonstart, la commande nouveau travail se comporte comme si vous avez spécifié la valeur False. Remarque : Ce paramètre a été introduit dans HPC Pack 2008 R2 et n’est pas pris en charge dans les versions antérieures.
/numcores :<min>[-<max>] Spécifie le nombre global de cœurs dans le cluster HPC requis par le travail au format <minimum>[-<>maximale ]. Le travail s’exécute sur au moins le nombre minimal de cœurs et sur pas plus que le nombre maximal.

Si vous spécifiez une seule valeur, cette commande définit le nombre maximal et minimal de cœurs sur cette valeur.

Si vous spécifiez une valeur minimale qui dépasse le nombre total de cœurs disponibles sur le cluster, une erreur se produit lorsque vous envoyez le travail.

Les valeurs minimales et maximales ne peuvent être que des entiers positifs ou un astérisque (*). Si vous spécifiez la valeur minimale ou maximale en tant qu’astérisque, le service hpC Job Scheduler calcule automatiquement le nombre minimal ou maximal de cœurs au moment de l’exécution en fonction du nombre minimal et maximal de cœurs pour les tâches du travail.

Vous ne pouvez pas spécifier le paramètre /numcores /numcores si vous spécifiez également le/numnodes, /numprocessorsou /numsockets paramètre. Si vous ne spécifiez aucun de ces quatre paramètres, le type de ressource du travail est défini par défaut sur les cœurs et les ressources minimales et maximales sont calculés automatiquement au moment de l’exécution, en fonction des ressources minimales et maximales pour les tâches du travail.
/numnodes :<min>[-<max>] Spécifie le nombre global de nœuds sur le cluster HPC requis par le travail au format <>minimale [-<>maximale]. Le travail s’exécute sur au moins le nombre minimal de nœuds et pas plus que le nombre maximal.

Si vous spécifiez une seule valeur, cette commande définit à la fois le nombre maximal et minimal de nœuds sur cette valeur.

Si vous spécifiez une valeur minimale qui dépasse le nombre total de nœuds disponibles sur le cluster, une erreur se produit lorsque vous envoyez le travail.

Les valeurs minimales et maximales ne peuvent être que des entiers positifs ou un astérisque (*). Si vous spécifiez la valeur minimale ou maximale en tant qu’astérisque, le service hpC Job Scheduler calcule automatiquement le nombre minimal ou maximal de nœuds au moment de l’exécution en fonction du nombre minimal et maximal de nœuds pour les tâches du travail.

Vous ne pouvez pas spécifier le paramètre /numnodes si vous spécifiez également le/numcores , /numprocessorsou /numsockets paramètre. Si vous ne spécifiez aucun de ces quatre paramètres, le type de ressource du travail est défini par défaut sur les cœurs et les ressources minimales et maximales sont calculés automatiquement au moment de l’exécution, en fonction des ressources minimales et maximales pour les tâches du travail.
/numprocessors :<min>[-<max>] Déconseillé. Utilisez plutôt le paramètre /numcores.
/numsockets :<min>[-<max>] Spécifie le nombre global de sockets sur le cluster HPC requis par le travail au format <>minimale [-<>maximale ]. Le travail s’exécute sur au moins le nombre minimal de sockets et pas plus que le nombre maximal.

Si vous spécifiez une seule valeur, cette commande définit à la fois le nombre maximal et minimal de sockets sur cette valeur.

Si vous spécifiez une valeur minimale qui dépasse le nombre total de sockets disponibles sur le cluster, une erreur se produit lorsque vous envoyez le travail.

Les valeurs minimales et maximales ne peuvent être que des entiers positifs ou un astérisque (*). Si vous spécifiez la valeur minimale ou maximale en tant qu’astérisque, le service hpC Job Scheduler calcule automatiquement le nombre minimal ou maximal de sockets au moment de l’exécution en fonction du nombre minimal et maximal de sockets pour les tâches du travail.

Vous ne pouvez pas spécifier le paramètre /numsockets si vous spécifiez également le paramètre /numcores, /numprocessorsou /numnodes paramètre. Si vous ne spécifiez aucun de ces quatre paramètres, le type de ressource pour le travail est défini par défaut sur les cœurs et les ressources minimales et maximales sont calculés automatiquement au moment de l’exécution en fonction des ressources minimales et maximales pour les tâches du travail.
/orderby :<>principal [,<>secondaire ] Spécifie l’ordre que le service hpC Job Scheduler doit utiliser pour allouer des nœuds au travail, au format <primary_order>[,<secondary_order>]. Les parties primary_order et secondary_order de la valeur peuvent chacune être l’une des valeurs suivantes :

- mémoire
Le service hpC Job Scheduler trie les nœuds en fonction de la quantité de mémoire qu’ils ont disponible et alloue le travail aux nœuds avec plus de mémoire en premier.
- -mémoire
Le service hpC Job Scheduler trie les nœuds en fonction de la quantité de mémoire qu’ils ont disponible et alloue le travail aux nœuds avec moins de mémoire.
- cœurs
Le service hpC Job Scheduler trie les nœuds en fonction du nombre de cœurs qu’ils ont disponibles et alloue le travail aux nœuds avec d’autres cœurs en premier.
- :cœurs
Le service hpC Job Scheduler trie les nœuds en fonction du nombre de cœurs qu’ils ont disponibles et alloue le travail aux nœuds avec moins de cœurs en premier.

Lorsque vous spécifiez un ordre secondaire, le service hpC Job Scheduler trie les nœuds en fonction de l’ordre principal en premier. Pour les sous-ensembles de nœuds qui ont la même quantité de ressource que l’ordre principal spécifié, le service hpC Job Scheduler trie ensuite les nœuds au sein du sous-ensemble à l’aide de l’ordre de tri secondaire. Par exemple, si vous spécifiez mémoire,-cores, le service du planificateur de travaux HPC trie les nœuds de la quantité de mémoire la plus élevée au plus bas. Ensuite, pour les sous-ensembles de nœuds qui ont la même quantité de mémoire, le service HPC Job Scheduler utilise le nombre de cœurs pour rompre le lien et trie les nœuds qui ont la même quantité de mémoire du nombre le plus petit de cœurs au plus grand nombre.

L’ordre principal et l’ordre secondaire doivent faire référence à différents types de ressources. Par exemple, de mémoire , -cores est une combinaison valide de commandes de tri primaire et secondaire. Les combinaisons telles que de mémoire, -memory et -cores,-cores ne sont pas valides.

L’ordre par défaut que le service hpC Job Scheduler utilise pour allouer des nœuds à un travail est cœurs,mémoire.
/parentjobids :<jobID_list> Spécifie la liste des ID de travail dont le travail dépend dans un format de <jobID1>[,<jobID2>...].

Les ID de travail doivent déjà exister.

Le service planificateur de travaux HPC planifie le travail uniquement lorsque ses travaux parents sont terminés et sont tous dans un état terminé. Si un travail parent n’a pas terminé ou s’est terminé, mais qu’il est dans un état Annulé ou Ayant échoué, le travail reste mis en file d’attente. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/priority :<> de priorité Spécifie la priorité pour la planification du travail. À compter de HPC Pack 2008, la valeur de priorité ne peut être que l’une des valeurs nommées suivantes : Plus haut, AboveNormal, Normal, BelowNormal ou Lowest.

À compter de HPC Pack 2008 R2, vous pouvez utiliser l’une des cinq valeurs de priorité nommées que vous pouvez utiliser dans HPC Pack 2008. Vous pouvez également utiliser n’importe quel nombre compris entre 0 et 4 000, avec 0 comme priorité la plus basse et 4000 comme valeur la plus élevée. Vous pouvez également spécifier la valeur de priorité comme named_value+décalage ou named_value-offset. Dans le cadre de ces formats finaux, les priorités nommées ont les valeurs du tableau suivant, et la combinaison de la valeur nommée et des décalages ne peut pas être inférieure à 0 ou supérieure à 4000.

Maximum-
4000

AboveNormal
- 3000

Normal
- 2000

BelowNormal -
1000

Le plus bas
- 0

Le modèle de travail que le travail utilise spécifie les autorisations qui affectent qui peuvent spécifier des priorités élevées.

Le service HpC Job Scheduler place les travaux avec la même priorité dans la file d’attente de travaux dans l’ordre dans lequel les utilisateurs envoient les travaux, sauf si un utilisateur requeue un travail. Si un utilisateur requeue un travail, le service du planificateur de travaux HPC place ce travail d’abord parmi les travaux ayant la même priorité.

La priorité par défaut d’un travail est Normale ou 2000.
/progress :<percent_progress> Spécifie le pourcentage du travail terminé. Cette valeur doit être comprise entre 0 et 100.

Si vous ne définissez pas la valeur de cette propriété, le service HPC Job Scheduler calcule la progression en fonction du pourcentage de tâches terminées pour le travail. Lorsque vous définissez cette propriété pour un travail, le service HpC Job Scheduler ne continue pas à mettre à jour cette propriété. Vous devez donc continuer à mettre à jour la propriété à l’aide de la commande tâche de modification. Remarque : Ce paramètre a été introduit dans HPC Pack 2008 R2 et n’est pas pris en charge dans les versions précédentes.
/progressmsg :<message> Spécifie un message d’état personnalisé que vous souhaitez afficher pour le travail. La longueur maximale de cette chaîne est de 80 caractères.

Pour spécifier un message d’état qui inclut des espaces, placez le message d’état entre guillemets ("). Remarque : Ce paramètre a été introduit dans HPC Pack 2008 R2 et n’est pas pris en charge dans les versions précédentes.
/projectname :<nom> Spécifie un nom de projet pour le travail que vous pouvez utiliser pour le suivi des travaux.

La longueur maximale du nom du projet est de 80 caractères.
/requestednodes :<node_list> Spécifie une liste de noms pour les nœuds sur lesquels le travail peut s’exécuter au format <node1_name>[,<node2_name>...]. Ces nœuds sont des candidats au travail, mais tous les nœuds n’exécutent pas nécessairement le travail si les ressources disponibles sur ces nœuds dépassent les ressources requises par le travail. Le service hpC Job Scheduler alloue les nœuds principaux en fonction de la valeur du paramètre /orderby jusqu’à ce que les nœuds alloués répondent à la valeur spécifiée avec les /numcores, /numsockets, /numprocessorsou paramètre /numnodes.

Si vous ne spécifiez pas le paramètre /requestednodes, le service HPC Job Scheduler considère tous les nœuds comme candidats que le service hpC Job Scheduler peut allouer au travail.

Si vous spécifiez des valeurs pour les /requestednodes et les paramètres /nodegroups, le travail s’exécute uniquement sur les nœuds dans la liste des nœuds pour le paramètre /requestednodes qui appartiennent également à la liste des nœuds définis avec le /nodegroup et /nodegroupop paramètres.
/runtime :{<heure> | Infini} Spécifie la durée maximale pendant laquelle le travail doit s’exécuter. Une fois le travail exécuté pendant ce délai, le service du planificateur de travaux HPC annule le travail. Vous spécifiez la durée au format [[<jours>:]<heures>:]<minutes>. Vous pouvez également spécifier Infinite pour indiquer que le travail peut s’exécuter pendant une durée illimitée.

Si vous spécifiez une seule partie du format [[<jours>:]<heures>:]<format> minutes, la commande interprète la valeur spécifiée comme le nombre de minutes. Par exemple, 12 indique 12 minutes.

Si vous spécifiez deux parties du format, la commande interprète la partie gauche en tant qu’heures et la partie droite sous forme de minutes. Par exemple, 10:30 indique 10 heures et 30 minutes.

Vous pouvez utiliser un ou plusieurs chiffres pour chaque partie du format. La valeur maximale de chaque partie est de 2 147 483 647. Si vous ne spécifiez pas le paramètre /runtime, la valeur par défaut est Infinite.
/rununtilcanceled[ :{true|false}] Spécifie si le travail continue d’exécuter et de contenir des ressources jusqu’à ce que la limite d’exécution expire ou qu’une personne annule le travail.

La valeur True indique que le travail continue d’exécuter et de contenir des ressources jusqu’à l’expiration de la limite d’exécution ou qu’une personne annule le travail. Si vous spécifiez la valeur True, vous devez spécifier des valeurs minimales et maximales pour les/numcores , /numnodes, ou /numsockets paramètre, ou une erreur se produit lorsque vous soumettez le travail.

La valeur False indique que le travail doit arrêter et libérer ses ressources lorsque toutes les tâches du travail sont terminées.

Lorsque vous spécifiez le paramètre /rununtilcancel ed sans valeur, la tâche nouvelle commande se comporte comme si vous avez spécifié la valeur True. Si vous ne spécifiez pas le paramètre /rununtilcanceled, la commande nouveau travail se comporte comme si vous avez spécifié la valeur False.
/scheduler :<nom> Spécifie le nom d’hôte ou l’adresse IP du nœud principal du cluster sur lequel vous souhaitez créer le nouveau travail. La valeur doit être un nom d’ordinateur ou une adresse IP valide. Si vous ne spécifiez pas le paramètre /scheduler, cette commande utilise le planificateur sur le nœud principal spécifié par la variable d’environnement CCP_SCHEDULER.
/singlenode[ :{true|false}] Toutes les ressources seront allouées sur un nœud. Si /singlenode est déclaré, mais qu’aucune valeur n’est définie, la valeur True est supposée. Si /singlenode n’est pas déclaré, false est supposé. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/taskexecutionfailureretrylimit :<retry_limit> Spécifie le nombre maximal de fois qu’une tâche dans ce travail autre qu’une tâche de préparation de nœud ou de mise en production de nœud est automatiquement mise en file d’attente après un échec d’exécution de l’application. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 R2 Update 1. Il n’est pas disponible dans les versions précédentes.
/validexitcodes :{int|intStart.. intEnd{ [,{int|intStart.. intEnd}]* Spécifie les codes de sortie à utiliser pour vérifier si les tâches d’un travail se terminent correctement. /validexitcodes doivent être spécifiés par des entiers discrets et des plages entières séparées par des virgules. La valeur par défaut de ce paramètre est 0.

min et max peuvent être utilisés sur une plage, représentant le début ou la fin. Par exemple, 0..max représente des entiers non nénégatifs.

Ce paramètre peut être substitué en déclarant les /validexitcodes paramètre spécifique à une tâche. Toutes les tâches qui n’ont pas ce paramètre explicitement déclaré hériteront du paramètre du travail.

Si /validexitcodes n’est pas défini, 0 est le code de sortie valide par défaut. Remarque : Ce paramètre a été introduit dans HPC Pack 2012 et n’est pas pris en charge dans les versions précédentes.
/? Affiche l’aide à l’invite de commandes.
/Aide Affiche l’aide à l’invite de commandes.

Remarques

Avant que le service planificateur de travaux HPC puisse exécuter le nouveau travail, vous devez ajouter des tâches au travail à l’aide de la commande tâche ajouter et envoyer le travail à l’aide de la commande envoyer commande.

Exemples

Pour créer un travail, utilisez la commande suivante :

job new  

Pour créer un travail à l’aide des paramètres du fichier de travail à C:\JobFiles\SampleJob1.xml, utilisez la commande suivante :

job new /jobfile:"C:\JobFiles\SampleJob1.xml"  

Pour créer un travail nommé Exemple de travail dans le projet Test de cluster qui utilise le modèle de travail nommé MyJobTemplate, avec une limite d’exécution de 30 minutes et une priorité de AboveNormal, utilisez la commande suivante :

job new /jobname:"Sample Job" /jobtemplate:MyJobTemplate   
/projectname:"Cluster Testing" /runtime:0:0:30 /priority:AboveNormal  
  

Pour créer un travail avec une priorité de 2350 qui définit la variable d’environnement VAR1 sur True et la variable d’environnement VAR2 sur 12 dans l’environnement d’exécution du travail, utilisez la commande suivante :

job new /priority:2350 /jobenv:VAR1=true;VAR2=12  

Pour créer un travail avec une priorité de 50 (3950) prioritaire qui annule l’ensemble de la variable d’environnement VAR3 et définit la variable d’environnement VAR4 sur Oui dans l’environnement d’exécution du travail, utilisez la commande suivante :

job new /priority:Highest-50 /jobenv:VAR3=;VAR4=yes  

Pour créer un travail avec le pourcentage de progression du travail défini sur 15 et avec un message d’état « Ce travail a un état », et qui définit également les variables d’environnement VAR5 et VAR6 sur Non dans l’environnement d’exécution du travail, utilisez la commande suivante :

job new /jobenv:VAR5=no /jobenv:VAR6=no /progress:15 /progressmsg:"This job has a status"  

Pour créer un travail, ajoutez une tâche au travail, puis envoyez le travail, exécutez un fichier de commandes qui inclut la commande suivante, qui utilise l'pour commande pour obtenir l’identificateur du nouveau travail :

for /f "usebackq tokens=4 delims=. " %%i in (`job new`) do (  
job add %%i echo Hello World  
job submit /id:%%i  
)  

Références supplémentaires