Simule a API OpenAI
Quando você cria aplicativos conectados ao OpenAI, muitas vezes, apenas uma parte do aplicativo interage com a API do OpenAI. Quando você trabalha nas partes do aplicativo que não exigem respostas reais da API OpenAI, você pode simular as respostas usando o Dev Proxy. A utilização de respostas simuladas permite-lhe evitar incorrer em custos desnecessários. O OpenAIMockResponsePlugin
usa um modelo de idioma local em execução no Ollama para simular respostas da API OpenAI.
Antes de começar
Para simular respostas da API OpenAI usando o Dev Proxy, você precisa do Ollama instalado em sua máquina. Para instalar o Ollama, siga as instruções na documentação do Ollama.
Por padrão, o Dev Proxy usa o modelo de linguagem phi-3. Para usar um modelo diferente, atualize a model
propriedade no arquivo de configuração do Dev Proxy.
Configurar o Dev Proxy para simular respostas da API OpenAI
Gorjeta
As etapas descritas neste tutorial estão disponíveis em uma predefinição de Proxy de Desenvolvimento pronta para uso. Para usar a predefinição, na linha de comando, execute devproxy preset get simulate-openai
e siga as instruções.
Para simular respostas da API OpenAI usando o Dev Proxy, você precisa habilitar o OpenAIMockResponsePlugin
devproxyrc.json
no arquivo.
{
"$schema": "https://raw.githubusercontent.com/microsoft/dev-proxy/main/schemas/v0.19.0/rc.schema.json",
"plugins": [
{
"name": "OpenAIMockResponsePlugin",
"enabled": true,
"pluginPath": "~appFolder/plugins/dev-proxy-plugins.dll"
}
]
}
Em seguida, configure o Dev Proxy para intercetar solicitações para a API do OpenAI. A OpenAI recomenda o uso do https://api.openai.com/v1/chat/completions
endpoint, que permite que você se beneficie dos modelos e recursos mais recentes.
{
// [...] trimmed for brevity
"urlsToWatch": [
"https://api.openai.com/v1/chat/completions"
]
}
Por fim, configure o Dev Proxy para usar um modelo de idioma local.
{
// [...] trimmed for brevity
"languageModel": {
"enabled": true
}
}
O arquivo de configuração completo tem esta aparência.
{
"$schema": "https://raw.githubusercontent.com/microsoft/dev-proxy/main/schemas/v0.19.0/rc.schema.json",
"plugins": [
{
"name": "OpenAIMockResponsePlugin",
"enabled": true,
"pluginPath": "~appFolder/plugins/dev-proxy-plugins.dll"
}
],
"urlsToWatch": [
"https://api.openai.com/v1/chat/completions"
],
"languageModel": {
"enabled": true
}
}
Simule respostas da API OpenAI
Inicie o Ollama com o modelo de linguagem phi-3. Na linha de comando, execute ollama run phi3
.
Em seguida, inicie o Dev Proxy. Se você usar a predefinição, execute devproxy -c "~appFolder/presets/simulate-openai/simulate-openai.json
. Se você usar um arquivo de configuração personalizado chamado devproxyrc.json
, armazenado no diretório de trabalho atual, execute devproxy
. O Dev Proxy verifica se pode acessar o modelo de linguagem Ollama e confirma que está pronto para simular respostas da API OpenAI.
info OpenAIMockResponsePlugin: Checking language model availability...
info Listening on 127.0.0.1:8000...
Hotkeys: issue (w)eb request, (r)ecord, (s)top recording, (c)lear screen
Press CTRL+C to stop Dev Proxy
Execute seu aplicativo e faça solicitações para a API OpenAI. O Dev Proxy interceta as solicitações e simula as respostas usando o modelo de idioma local.
Próximo passo
Saiba mais sobre o OpenAIMockResponsePlugin.
Exemplos
Consulte também os exemplos relacionados de Dev Proxy: