Compartir a través de


Uso del modelo de lenguaje local con el proxy de desarrollo

Al conectar Dev Proxy a un modelo de lenguaje local, puede mejorar la funcionalidad del proxy de desarrollo. Seleccione Complementos de Proxy de desarrollo que usan el modelo de lenguaje para mejorar su salida, donde el lenguaje natural está implicado. Mediante el uso de un modelo de lenguaje local, puede beneficiarse de la funcionalidad mejorada sin incurrir en costos adicionales.

Requisitos previos

Dev Proxy admite Ollama como host para modelos de lenguaje local. Para configurarlo en la máquina, siga las instrucciones de la documentación de Ollama.

Configuración del proxy de desarrollo para usar un modelo de lenguaje local

Para configurar el proxy de desarrollo para usar un modelo de lenguaje local, use la languageModel configuración en el devproxyrc.json archivo.

{
  "languageModel": {
    "enabled": true
  }
}

Puede usar las siguientes opciones como parte de la languageModel configuración:

Opción Descripción Default value
cacheResponses Especifica si se almacenan en caché las respuestas del modelo de lenguaje. true
enabled Especifica si se va a usar un modelo de lenguaje local. false
model Nombre del modelo de lenguaje que se va a usar. phi3
url Dirección URL de la instancia de Ollama. http://localhost:11434

De forma predeterminada, Dev Proxy usa la configuración predeterminada de Ollama con el modelo Phi-3 . También almacena en caché las respuestas del modelo de lenguaje, lo que significa que, para el mismo mensaje, se obtiene una respuesta inmediata sin esperar a que el modelo de lenguaje lo procese.

Importante

Al usar un modelo de lenguaje local, asegúrese de iniciar Ollama antes de iniciar el proxy de desarrollo.

Complementos de proxy de desarrollo que pueden usar un modelo de lenguaje local

Los siguientes complementos de Proxy de desarrollo usan un modelo de lenguaje local si está disponible: