Azure OpenAI-API simuleren
Wanneer u apps bouwt die zijn verbonden met Azure OpenAI, communiceert vaak slechts een deel van de app met de Azure OpenAI-API. Wanneer u werkt aan de gedeelten van de app waarvoor geen echte antwoorden van de Azure OpenAI-API nodig zijn, kunt u de antwoorden simuleren met behulp van Dev Proxy. Door gesimuleerde antwoorden te gebruiken, kunt u onnodige kosten voorkomen. Het OpenAIMockResponsePlugin
maakt gebruik van een lokaal taalmodel dat wordt uitgevoerd op Ollama om reacties van de Azure OpenAI-API te simuleren.
Voordat u begint
Als u azure OpenAI API-antwoorden wilt simuleren met behulp van Dev Proxy, moet Ollama op uw computer zijn geïnstalleerd. Volg de instructies in de Ollama-documentatie om Ollama te installeren.
Dev Proxy maakt standaard gebruik van het phi-3-taalmodel. Als u een ander model wilt gebruiken, werkt u de model
eigenschap bij in het configuratiebestand dev proxy.
Dev Proxy configureren voor het simuleren van Azure OpenAI API-antwoorden
Tip
Stappen die in deze zelfstudie worden beschreven, zijn beschikbaar in een kant-en-klare dev-proxyvoorinstelling. Als u de voorinstelling wilt gebruiken, voert devproxy preset get simulate-azure-openai
u deze uit in de opdrachtregel en volgt u de instructies.
Als u reacties van de Azure OpenAI-API wilt simuleren met behulp van Dev Proxy, moet u het OpenAIMockResponsePlugin
in het devproxyrc.json
bestand inschakelen.
{
"$schema": "https://raw.githubusercontent.com/microsoft/dev-proxy/main/schemas/v0.19.0/rc.schema.json",
"plugins": [
{
"name": "OpenAIMockResponsePlugin",
"enabled": true,
"pluginPath": "~appFolder/plugins/dev-proxy-plugins.dll"
}
]
}
Configureer vervolgens Dev Proxy om aanvragen te onderscheppen naar de Azure OpenAI-API. Gebruik voor het gemak jokertekens om aanvragen voor alle implementaties te onderscheppen.
{
// [...] trimmed for brevity
"urlsToWatch": [
"https://*.openai.azure.com/openai/deployments/*/completions*"
]
}
Ten slotte configureert u Dev Proxy voor het gebruik van een lokaal taalmodel.
{
// [...] trimmed for brevity
"languageModel": {
"enabled": true
}
}
Het volledige configuratiebestand ziet er als volgt uit.
{
"$schema": "https://raw.githubusercontent.com/microsoft/dev-proxy/main/schemas/v0.19.0/rc.schema.json",
"plugins": [
{
"name": "OpenAIMockResponsePlugin",
"enabled": true,
"pluginPath": "~appFolder/plugins/dev-proxy-plugins.dll"
}
],
"urlsToWatch": [
"https://*.openai.azure.com/openai/deployments/*/completions*"
],
"languageModel": {
"enabled": true
}
}
Azure OpenAI API-antwoorden simuleren
Start Ollama met het phi-3-taalmodel. Voer de opdracht uit ollama run phi3
op de opdrachtregel.
Start vervolgens Dev Proxy. Als u de voorinstelling gebruikt, voert u de opdracht uit devproxy -c "~appFolder/presets/simulate-azure-openai/simulate-azure-openai.json
. Als u een aangepast configuratiebestand met de naam devproxyrc.json
gebruikt, opgeslagen in de huidige werkmap, voert u de opdracht uit devproxy
. Dev Proxy controleert of het toegang heeft tot het Ollama-taalmodel en bevestigt dat het klaar is om Azure OpenAI API-antwoorden te simuleren.
info OpenAIMockResponsePlugin: Checking language model availability...
info Listening on 127.0.0.1:8000...
Hotkeys: issue (w)eb request, (r)ecord, (s)top recording, (c)lear screen
Press CTRL+C to stop Dev Proxy
Voer uw toepassing uit en dien aanvragen in bij de Azure OpenAI-API. Dev Proxy onderschept de aanvragen en simuleert antwoorden met behulp van het lokale taalmodel.
Volgende stap
Meer informatie over de OpenAIMockResponsePlugin.
Voorbeelden
Zie ook de gerelateerde Dev Proxy-voorbeelden: