将本地语言模型与开发代理配合使用

通过将开发代理连接到本地语言模型,可以改进开发代理的功能。 选择开发代理插件使用语言模型来改进其输出,其中涉及自然语言。 通过使用本地语言模型,可以从改进的功能中受益,而不会产生额外的成本。

先决条件

开发代理支持 Ollama 作为本地语言模型的主机。 若要在计算机上设置它,请按照 Ollama 文档中的说明进行操作。

将开发代理配置为使用本地语言模型

若要将开发代理配置为使用本地语言模型,请使用 languageModel 文件中的设置 devproxyrc.json

{
  "languageModel": {
    "enabled": true
  }
}

可以将以下选项用作设置的 languageModel 一部分:

选项 说明 默认值
cacheResponses 指定是否缓存来自语言模型的响应。 true
enabled 指定是否使用本地语言模型。 false
model 要使用的语言模型的名称。 phi3
url Ollama 实例的 URL。 http://localhost:11434

默认情况下,Dev Proxy 使用具有 Phi-3 模型的默认 Ollama 配置。 它还缓存来自语言模型的响应,这意味着,对于同一提示,你会收到即时响应,而无需等待语言模型处理它。

重要

使用本地语言模型时,请务必在启动开发代理之前启动 Ollama。

可以使用本地语言模型的开发代理插件

以下开发代理插件使用本地语言模型(如果可用):