Simular a API OpenAI do Azure
Quando você cria aplicativos conectados ao Azure OpenAI, muitas vezes, apenas uma parte do aplicativo interage com a API do Azure OpenAI. Quando você trabalha nas partes do aplicativo que não exigem respostas reais da API OpenAI do Azure, você pode simular as respostas usando o Proxy de Desenvolvimento. A utilização de respostas simuladas permite-lhe evitar incorrer em custos desnecessários. O OpenAIMockResponsePlugin
usa um modelo de idioma local em execução no Ollama para simular respostas da API OpenAI do Azure.
Antes de começar
Para simular respostas da API do Azure OpenAI usando o Dev Proxy, você precisa do Ollama instalado em sua máquina. Para instalar o Ollama, siga as instruções na documentação do Ollama.
Por padrão, o Dev Proxy usa o modelo de linguagem phi-3. Para usar um modelo diferente, atualize a model
propriedade no arquivo de configuração do Dev Proxy.
Configurar o Proxy de Desenvolvimento para simular respostas da API do Azure OpenAI
Gorjeta
As etapas descritas neste tutorial estão disponíveis em uma predefinição de Proxy de Desenvolvimento pronta para uso. Para usar a predefinição, na linha de comando, execute devproxy preset get simulate-azure-openai
e siga as instruções.
Para simular respostas da API OpenAI do Azure usando o Proxy de Desenvolvimento, você precisa habilitar o OpenAIMockResponsePlugin
devproxyrc.json
no arquivo.
{
"$schema": "https://raw.githubusercontent.com/microsoft/dev-proxy/main/schemas/v0.19.0/rc.schema.json",
"plugins": [
{
"name": "OpenAIMockResponsePlugin",
"enabled": true,
"pluginPath": "~appFolder/plugins/dev-proxy-plugins.dll"
}
]
}
Em seguida, configure o Proxy de Desenvolvimento para intercetar solicitações para a API do Azure OpenAI. Para simplificar, use curingas para intercetar solicitações para todas as implantações.
{
// [...] trimmed for brevity
"urlsToWatch": [
"https://*.openai.azure.com/openai/deployments/*/completions*"
]
}
Por fim, configure o Dev Proxy para usar um modelo de idioma local.
{
// [...] trimmed for brevity
"languageModel": {
"enabled": true
}
}
O arquivo de configuração completo tem esta aparência.
{
"$schema": "https://raw.githubusercontent.com/microsoft/dev-proxy/main/schemas/v0.19.0/rc.schema.json",
"plugins": [
{
"name": "OpenAIMockResponsePlugin",
"enabled": true,
"pluginPath": "~appFolder/plugins/dev-proxy-plugins.dll"
}
],
"urlsToWatch": [
"https://*.openai.azure.com/openai/deployments/*/completions*"
],
"languageModel": {
"enabled": true
}
}
Simular respostas da API OpenAI do Azure
Inicie o Ollama com o modelo de linguagem phi-3. Na linha de comando, execute ollama run phi3
.
Em seguida, inicie o Dev Proxy. Se você usar a predefinição, execute devproxy -c "~appFolder/presets/simulate-azure-openai/simulate-azure-openai.json
. Se você usar um arquivo de configuração personalizado chamado devproxyrc.json
, armazenado no diretório de trabalho atual, execute devproxy
. O Dev Proxy verifica se pode acessar o modelo de linguagem Ollama e confirma que está pronto para simular respostas da API OpenAI do Azure.
info OpenAIMockResponsePlugin: Checking language model availability...
info Listening on 127.0.0.1:8000...
Hotkeys: issue (w)eb request, (r)ecord, (s)top recording, (c)lear screen
Press CTRL+C to stop Dev Proxy
Execute seu aplicativo e faça solicitações para a API do Azure OpenAI. O Dev Proxy interceta as solicitações e simula as respostas usando o modelo de idioma local.
Próximo passo
Saiba mais sobre o OpenAIMockResponsePlugin.
Exemplos
Consulte também os exemplos relacionados de Dev Proxy: