Concepts fondamentaux des LLM
Il existe quelques concepts fondamentaux et importants à comprendre pour utiliser efficacement des LLM, à savoir des jetons et des invites.
- Invite : Une invite est une phrase de texte utilisée pour donner une instruction au LLM. En fonction de votre formulation de la phrase, le résultat varie.
- Jeton : Un jeton peut être un caractère unique, la fraction d’un mot ou un mot entier. Un unique jeton peut servir à représenter des mots courants, tandis que plusieurs jetons sont nécessaires pour représenter des mots moins courants.
Invites
Une invite de texte est une phrase. Un LLM comprend plusieurs langues. Vous pouvez écrire des invites dans votre propre langue, sans avoir à apprendre une langue spécifique pour utiliser le LLM. Consultez les exemples d’invites suivants :
Générez l’image d’un perroquet rose portant un chapeau pirate.
Créez en Python une application web qui régit les clients.
Plus vous êtes précis sur votre requête, mieux le résultat est.
Jetons
Un jeton est un texte ou un code de base qu’un LLM peut comprendre et traiter.
Les modèles de langage naturel OpenAI n’utilisent pas les mots ou caractères en tant qu’unités de texte, mais quelque chose entre les deux : jetons.
OpenAI fournit un site web utile de générateur de jetons qui peut vous aider à comprendre comment il génère des jetons pour vos requêtes. Pour plus d’informations, consultez Générateur de jetons OpenAI.
Remarque
Une fois que vous avez commencé la saisie dans la zone d’invite du générateur de jetons OpenAI, un compteur apparaît avec le nombre total de jetons dans la zone.
En cas de saisie active, le compteur peut prendre quelques secondes.
Combien de jetons comptent les mots suivants ?
Essayons de déterminer le nombre de jetons pour les mots suivants : apple
, blueberries
et Skarsgård
.
Le mot apple
étant un mot commun, un jeton doit être représenté. En revanche, le mot blueberries
nécessite deux jetons (blue
et berries
) à représenter. À moins que le mot soit courant, les noms appropriés tels que Skarsgård
nécessitent la représentation de plusieurs jetons.
Cette représentation du jeton est-ce qui permet aux modèles d’IA de générer des mots absents de tout dictionnaire, sans avoir à générer du texte lettre par lettre.
Remarque
Une génération de texte lettre par lettre pourrait facilement entraîner un charabia.
Comment fonctionne la saisie semi-automatique ?
Les modèles en langage naturel génèrent un jeton à la fois et de manière non déterministe.
À chaque étape, le modèle émet une liste de jetons et leurs poids associés. L’API échantillonne ensuite un jeton de la liste en fonction de son poids. Les jetons très pondérés sont plus susceptibles d’être sélectionnés.
L’API ajoute le jeton sélectionné à l’invite et répète le processus jusqu’à l’atteinte de la longueur maximale des jetons pour les achèvements ou la génération par le modèle d’un jeton spécial appelé jeton d’arrêt, ce qui empêche la génération de nouveaux jetons.
Ce processus non déterministe permet au modèle de générer de nouveaux mots chaque fois que nous envoyons une requête pour la saisie semi-automatique.
Remarque
Chaque LLM est limité quant au nombre de jetons qu’il peut générer. Dans les saisies semi-automatiques, cette limite s’applique au nombre total de jetons dans l’invite d’origine et aux nouveaux jetons générés au fil de leurs ajouts. Pour plus d’informations sur les limites du jeton, consultez les modèles Azure OpenAI Service.
Les limites de jetons plus volumineux autorisent de plus longues saisies semi-automatiques et des invites beaucoup plus volumineuses.