Compartilhar via


Usar o modelo de idioma local com o Dev Proxy

Ao conectar o Dev Proxy a um modelo de idioma local, você pode melhorar a funcionalidade do Dev Proxy. Os plug-ins Select Dev Proxy usam o modelo de linguagem para melhorar sua saída, onde a linguagem natural está envolvida. Ao usar um modelo de idioma local, você pode se beneficiar da funcionalidade aprimorada sem incorrer em custos extras.

Pré-requisitos

O Dev Proxy dá suporte ao Ollama como o host para modelos de idioma local. Para configurá-lo em sua máquina, siga as instruções na documentação do Ollama.

Configurar o Proxy de Desenvolvimento para usar um modelo de idioma local

Para configurar o Dev Proxy para usar um modelo de idioma local, use a languageModel devproxyrc.json configuração no arquivo.

{
  "languageModel": {
    "enabled": true
  }
}

Você pode usar as seguintes opções como parte da languageModel configuração:

Opção Descrição Valor padrão
cacheResponses Especifica se as respostas do modelo de linguagem devem ser armazenadas em cache. true
enabled Especifica se um modelo de idioma local deve ser usado. false
model O nome do modelo de linguagem a ser usado. phi3
url A URL da instância Ollama. http://localhost:11434

Por padrão, o Dev Proxy usa a configuração padrão do Ollama com o modelo Phi-3 . Ele também armazena em cache as respostas do modelo de linguagem, o que significa que, para o mesmo prompt, você obtém uma resposta imediata sem esperar que o modelo de linguagem a processe.

Importante

Ao usar um modelo de idioma local, certifique-se de iniciar o Ollama antes de iniciar o Dev Proxy.

Plug-ins do Dev Proxy que podem usar um modelo de idioma local

Os seguintes plug-ins do Dev Proxy usam um modelo de idioma local, se disponível: