Używanie lokalnego modelu językowego z serwerem proxy deweloperów
Łącząc serwer proxy dev z lokalnym modelem językowym, można ulepszyć funkcjonalność serwera proxy deweloperów. Wybierz pozycję Wtyczki serwera proxy deweloperów używają modelu językowego, aby ulepszyć dane wyjściowe, w których zaangażowany jest język naturalny. Korzystając z lokalnego modelu językowego, możesz korzystać z ulepszonej funkcjonalności bez ponoszenia dodatkowych kosztów.
Wymagania wstępne
Serwer proxy deweloperów obsługuje platformę Ollama jako hosta dla lokalnych modeli językowych. Aby skonfigurować ją na maszynie, postępuj zgodnie z instrukcjami w dokumentacji aplikacji Ollama.
Konfigurowanie serwera proxy deweloperskiego do używania lokalnego modelu językowego
Aby skonfigurować serwer proxy deweloperów do używania lokalnego modelu językowego, użyj languageModel
ustawienia w devproxyrc.json
pliku .
{
"languageModel": {
"enabled": true
}
}
W ramach languageModel
ustawienia można użyć następujących opcji:
Opcja | opis | Domyślna wartość |
---|---|---|
cacheResponses |
Określa, czy buforować odpowiedzi z modelu językowego. | true |
enabled |
Określa, czy używać lokalnego modelu językowego. | false |
model |
Nazwa modelu językowego do użycia. | phi3 |
url |
Adres URL wystąpienia Ollama. | http://localhost:11434 |
Domyślnie serwer proxy deweloperów używa domyślnej konfiguracji Ollama z modelem Phi-3 . Buforuje również odpowiedzi z modelu językowego, co oznacza, że w przypadku tego samego monitu otrzymasz natychmiastową odpowiedź bez oczekiwania na przetworzenie modelu językowego.
Ważne
W przypadku korzystania z lokalnego modelu językowego pamiętaj, aby uruchomić usługę Ollama przed uruchomieniem serwera proxy deweloperskiego.
Wtyczki serwera proxy deweloperów, które mogą używać lokalnego modelu językowego
Następujące wtyczki serwera proxy deweloperów używają lokalnego modelu językowego, jeśli jest dostępny: