개발자 프록시와 함께 로컬 언어 모델 사용
개발 프록시를 로컬 언어 모델에 연결하면 개발자 프록시의 기능을 향상시킬 수 있습니다. 개발자 프록시 플러그 인을 선택하여 언어 모델을 사용하여 자연어를 포함하는 출력을 개선합니다. 로컬 언어 모델을 사용하면 추가 비용 없이 향상된 기능을 활용할 수 있습니다.
필수 조건
개발자 프록시는 Ollama를 로컬 언어 모델의 호스트로 지원합니다. 컴퓨터에서 설정하려면 Ollama 설명서의 지침을 따릅니다.
로컬 언어 모델을 사용하도록 개발 프록시 구성
로컬 언어 모델을 사용하도록 개발 프록시를 구성하려면 파일의 languageModel
설정을 devproxyrc.json
사용합니다.
{
"languageModel": {
"enabled": true
}
}
설정의 일부로 languageModel
다음 옵션을 사용할 수 있습니다.
옵션 | 설명 | 기본값 |
---|---|---|
cacheResponses |
언어 모델에서 응답을 캐시할지 여부를 지정합니다. | true |
enabled |
로컬 언어 모델을 사용할지 여부를 지정합니다. | false |
model |
사용할 언어 모델의 이름입니다. | phi3 |
url |
Ollama 인스턴스의 URL입니다. | http://localhost:11434 |
기본적으로 개발자 프록시는 Phi-3 모델에서 기본 Ollama 구성을 사용합니다. 또한 언어 모델의 응답을 캐시합니다. 즉, 동일한 프롬프트의 경우 언어 모델이 이를 처리할 때까지 기다리지 않고 즉각적인 응답을 받습니다.
Important
로컬 언어 모델을 사용하는 경우 개발자 프록시를 시작하기 전에 Ollama를 시작해야 합니다.
로컬 언어 모델을 사용할 수 있는 개발자 프록시 플러그 인
다음 개발자 프록시 플러그 인은 사용 가능한 경우 로컬 언어 모델을 사용합니다.
GitHub에서 Microsoft와 공동 작업
이 콘텐츠의 원본은 GitHub에서 찾을 수 있으며, 여기서 문제와 끌어오기 요청을 만들고 검토할 수도 있습니다. 자세한 내용은 참여자 가이드를 참조하세요.
Dev Proxy