Partager via


Référence du schéma YAML pour les invites du noyau sémantique

La référence de schéma YAML pour les invites de noyau sémantique est une référence détaillée pour les invites YAML qui répertorie toutes les syntaxes YAML prises en charge et leurs options disponibles.

Définitions

nom

Nom de la fonction à utiliser par défaut lors de la création de fonctions d’invite à l’aide de cette configuration. Si le nom est null ou vide, un nom aléatoire est généré dynamiquement lors de la création d’une fonction.

description

Description de la fonction à utiliser par défaut lors de la création de fonctions d’invite à l’aide de cette configuration.

format_de_modèle

Identificateur du format de modèle de noyau sémantique. Le noyau sémantique prend en charge les formats de modèle suivants :

  1. noyau sémantique - Format intégré de noyau sémantique.
  2. handlebars - Format de modèle Handlebars.
  3. liquide - Format de modèle Liquid

modèle

Chaîne de modèle d’invite qui définit l’invite.

variables d'entrée

Ensemble de variables d’entrée utilisées par le modèle de prompt. Chaque variable d’entrée a les propriétés suivantes :

  1. name : nom de la variable.
  2. description : description de la variable.
  3. default : valeur par défaut facultative pour la variable.
  4. is_required - Indique si la variable est considérée comme obligatoire (plutôt que facultative). La valeur par défaut est true.
  5. json_schema - Schéma JSON facultatif décrivant cette variable.
  6. allow_dangerously_set_content : valeur booléenne indiquant s’il faut gérer la valeur de la variable comme contenu dangereux potentiel. La valeur par défaut est false. Consultez Protection contre les attaques par injection d’invite pour plus d’informations.

Pourboire

La valeur par défaut de allow_dangerously_set_content est false. Lorsqu’elle est définie sur true, la valeur de la variable d’entrée est traitée comme du contenu sécurisé. Pour les messages d'invite qui sont utilisés avec un service d’achèvement de conversation, cette valeur doit être définie sur fausse pour vous protéger contre les attaques par injection d’invite. Lorsque vous utilisez d’autres services IA, par exemple, texte-To-Image, cela peut être activé pour permettre des invites plus complexes.

variable_de_sortie

Variable sortie utilisée par le modèle de prompt. La variable de sortie a les propriétés suivantes :

  1. description : description de la variable.
  2. json_schema - Schéma JSON décrivant cette variable.

paramètres_d'exécution

Collection de paramètres d’exécution utilisés par le modèle d’invite. Les paramètres d’exécution sont un dictionnaire qui est indexé par l’ID de service, ou default pour les paramètres d’exécution par défaut. L’ID de service de chaque PromptExecutionSettings doit correspondre à la clé du dictionnaire.

Chaque entrée a les propriétés suivantes :

  1. service_id : identifie le service pour lequel ces paramètres sont configurés, par exemple, azure_openai_eastus, openai, ollama, huggingface, etc.
  2. model_id : identifie le modèle IA pour lequel ces paramètres sont configurés, par exemple, gpt-4, gpt-3.5-turbo.
  3. function_choice_behavior : comportement définissant la façon dont les fonctions sont choisies par LLM et comment elles sont appelées par des connecteurs IA. Pour plus d’informations, voir Comportements de choix de fonctions

Pourboire

S'il est fourni, l'identificateur de service sera la clé dans une collection de paramètres d'exécution sous forme de dictionnaire. Si l’identificateur de service n’est pas fourni, l’identificateur sera défini à default.

Comportement de choix de fonction

Pour désactiver l’appel de fonction et que le modèle génère uniquement un message accessible par l’utilisateur, définissez la propriété sur Null (valeur par défaut).

  • auto : pour autoriser le modèle à décider s’il faut appeler les fonctions et, le cas échéant, celles à appeler.
  • required : pour forcer le modèle à appeler toujours une ou plusieurs fonctions.
  • none : pour indiquer au modèle de ne pas appeler de fonctions et de générer uniquement un message accessible par l’utilisateur.

autoriser_contenu_à_être_défini_dangereusement

Valeur booléenne indiquant s’il faut autoriser l’insertion de contenu potentiellement dangereux dans l’invite à partir de fonctions. La valeur par défaut est false. Lorsque la valeur est true, les valeurs de retour des fonctions sont traitées uniquement comme du contenu sécurisé. Pour les invites qui sont utilisées avec un service d’achèvement de conversation, cette valeur doit être définie sur faux pour se protéger contre les attaques par injection d’invite. Lorsque vous utilisez d’autres services IA, par exemple (texte-To-Image), cela peut être défini sur vrai pour autoriser des invites plus complexes. Consultez Protection contre les attaques par injection d’invite pour plus d’informations.

Exemple d’invite YAML

Vous trouverez ci-dessous un exemple d’invite YAML qui utilise le format de modèle Handlebars et qui est configuré avec différentes températures lorsqu'il est utilisé avec les modèles gpt-3 et gpt-4.

name: GenerateStory
template: |
  Tell a story about {{topic}} that is {{length}} sentences long.
template_format: handlebars
description: A function that generates a story about a topic.
input_variables:
  - name: topic
    description: The topic of the story.
    is_required: true
  - name: length
    description: The number of sentences in the story.
    is_required: true
output_variable:
  description: The generated story.
execution_settings:
  service1:  
    model_id: gpt-4
    temperature: 0.6
  service2:
    model_id: gpt-3
    temperature: 0.4
  default:
    temperature: 0.5

Étapes suivantes