開発プロキシでローカル言語モデルを使用する
開発プロキシをローカル言語モデルに接続することで、開発プロキシの機能を向上させることができます。 開発プロキシ プラグインを選択すると、言語モデルを使用して、自然言語が関係する出力が向上します。 ローカル言語モデルを使用すると、追加のコストを発生させることなく、機能の改善を利用できます。
前提条件
開発プロキシは、ローカル言語モデルのホストとして Ollama をサポートしています。 コンピューターでセットアップするには、 Ollama ドキュメントの指示に従います。
ローカル言語モデルを使用するように開発プロキシを構成する
ローカル言語モデルを使用するように開発プロキシを構成するには、devproxyrc.json
ファイルのlanguageModel
設定を使用します。
{
"languageModel": {
"enabled": true
}
}
languageModel
設定の一部として、次のオプションを使用できます。
オプション | 説明 | 規定値 |
---|---|---|
cacheResponses |
言語モデルからの応答をキャッシュするかどうかを指定します。 | true |
enabled |
ローカル言語モデルを使用するかどうかを指定します。 | false |
model |
使用する言語モデルの名前。 | phi3 |
url |
Ollama インスタンスの URL。 | http://localhost:11434 |
既定では、開発プロキシでは、 Phi-3 モデルで既定の Ollama 構成が使用されます。 また、言語モデルからの応答もキャッシュされます。つまり、同じプロンプトの場合、言語モデルが処理するのを待たずにすぐに応答が返されます。
重要
ローカル言語モデルを使用する場合は、開発プロキシを開始する前に必ず Ollama を起動してください。
ローカル言語モデルを使用できる開発プロキシ プラグイン
次の開発プロキシ プラグインでは、ローカル言語モデルが使用されます (使用可能な場合)。
GitHub で Microsoft と共同作業する
このコンテンツのソースは GitHub にあります。そこで、issue や pull request を作成および確認することもできます。 詳細については、共同作成者ガイドを参照してください。
Dev Proxy