OpenAIMockResponsePlugin
Simule les réponses d’Azure OpenAI et d’OpenAI à l’aide d’un modèle de langage local.
Définition de l’instance de plug-in
{
"name": "OpenAIMockResponsePlugin",
"enabled": true,
"pluginPath": "~appFolder/plugins/dev-proxy-plugins.dll"
}
Exemple de configuration
Aucune
Propriétés de configuration
Aucune
Options de ligne de commande
Aucune
Notes
Le OpenAIMockResponsePlugin
plug-in simule les réponses d’Azure OpenAI et d’OpenAI à l’aide d’un modèle de langage local. L’utilisation de ce plug-in vous permet d’émuler l’utilisation d’un modèle de langage dans votre application sans vous connecter au service OpenAI ou Azure OpenAI et entraîner des coûts.
Le plug-in utilise la configuration du modèle de langage proxy dev pour communiquer avec un modèle de langue locale. Pour utiliser ce plug-in, configurez le proxy de développement pour utiliser un modèle de langage local.
Important
La précision des réponses générées par le plug-in dépend du modèle de langage local que vous utilisez. Avant de déployer votre application en production, veillez à la tester avec le modèle de langage que vous envisagez d’utiliser en production.
Le OpenAIMockResponsePlugin
plug-in simule les achèvements et les achèvements de conversation. Le plug-in ne prend pas en charge d’autres points de terminaison d’API OpenAI.