Delen via


Lokaal taalmodel gebruiken met Dev Proxy

Door Dev Proxy te verbinden met een lokaal taalmodel, kunt u de functionaliteit van dev proxy verbeteren. Selecteer Dev Proxy-invoegtoepassingen gebruiken het taalmodel om hun uitvoer te verbeteren, waarbij natuurlijke taal betrokken is. Met behulp van een lokaal taalmodel kunt u profiteren van de verbeterde functionaliteit zonder extra kosten.

Vereisten

Dev Proxy ondersteunt Ollama als host voor lokale taalmodellen. Volg de instructies in de documentatie van Ollama om het in te stellen op uw computer.

Dev Proxy configureren voor het gebruik van een lokaal taalmodel

Als u Dev Proxy wilt configureren voor het gebruik van een lokaal taalmodel, gebruikt u de languageModel instelling in het devproxyrc.json bestand.

{
  "languageModel": {
    "enabled": true
  }
}

U kunt de volgende opties gebruiken als onderdeel van de languageModel instelling:

Optie Omschrijving Default value
cacheResponses Hiermee geeft u op of antwoorden van het taalmodel moeten worden opgeslagen in de cache. true
enabled Hiermee geeft u op of een lokaal taalmodel moet worden gebruikt. false
model De naam van het te gebruiken taalmodel. phi3
url De URL van het Ollama-exemplaar. http://localhost:11434

Dev Proxy maakt standaard gebruik van de standaardconfiguratie Ollama met het Phi-3-model . Het slaat ook reacties van het taalmodel in de cache op, wat betekent dat u voor dezelfde prompt een onmiddellijke reactie krijgt zonder te wachten tot het taalmodel het verwerkt.

Belangrijk

Wanneer u een lokaal taalmodel gebruikt, moet u Ollama starten voordat u Dev Proxy start.

Dev Proxy-invoegtoepassingen die een lokaal taalmodel kunnen gebruiken

De volgende Dev Proxy-invoegtoepassingen maken gebruik van een lokaal taalmodel, indien beschikbaar: