Adición y configuración de modelos en el servicio de inferencia de modelos de Azure AI
Puede decidir y configurar qué modelos están disponibles para la inferencia en el punto de conexión de inferencia del modelo del recurso. Cuando se configura un modelo determinado, puede generar predicciones a partir de él si indica su nombre de modelo o nombre de implementación en las solicitudes. No se requieren más cambios en el código para usarlo.
En este artículo, aprenderá a agregar un nuevo modelo al servicio de inferencia del modelo de Azure AI en los servicios de Azure AI.
Requisitos previos
Para completar este artículo, necesitará lo siguiente:
- Suscripción a Azure. Si usa Modelos de GitHub, puede actualizar la experiencia y crear una suscripción de Azure en el proceso. Más información en Actualización de Modelos de GitHub a modelos de Azure AI en servicios de IA.
- Recurso de Servicios de Azure AI. Para más información, vea Creación de un recurso de Servicios de Azure AI.
Agregar un modelo
Al contrario de lo que sucede en Modelos de GitHub en los que ya están configurados todos los modelos, el recurso de Servicios de Azure AI permite controlar qué modelos están disponibles en el punto de conexión y en qué configuración.
Puede agregar todos los modelos que necesita en el punto de conexión mediante Estudio de IA de Azure para GitHub. En el ejemplo siguiente, se agrega un modelo de Mistral-Large
en el servicio:
Vaya a la sección Catálogo de modelos de Estudio de IA de Azure para GitHub.
Desplácese hasta el modelo que le interese y selecciónelo.
Puede revisar los detalles del modelo en la tarjeta del modelo.
Seleccione Implementar.
En el caso de los proveedores de modelos que requieren términos adicionales de contrato, se le pedirá que acepte esos términos. Por ejemplo, los modelos Mistral le piden que acepte otros términos. Para aceptar los términos de esos casos, seleccione Suscribir e implementar.
Puede configurar las opciones de implementación en este momento. De manera predeterminada, la implementación recibe el nombre del modelo que va a implementar. El nombre de la implementación se usa en el parámetro
model
para solicitar que se enrute a esta implementación de modelo determinada. Este valor también permite configurar nombres específicos para los modelos al adjuntar configuraciones específicas. Por ejemplo,o1-preview-safe
para un modelo con un filtro de contenido de seguridad de contenido estricto.
Sugerencia
Cada modelo puede admitir diferentes tipos de implementaciones, lo que proporciona garantías de residencia o rendimiento de datos diferentes. Vea Tipos de implementación para más información.
- Use la opción Personalizar si necesita cambiar valores como filtro de contenido o limitación de velocidad (si está disponible).
Seleccione Implementar.
Una vez que se completa la implementación, el nuevo modelo se mostrará en la página y estará listo para usarse.
Uso del modelo
Los modelos implementados en Servicios de Azure AI se pueden consumir mediante el punto de conexión de inferencia del modelo de Azure AI para el recurso.
Para usarla:
Obtenga la dirección URL y las claves del punto de conexión de inferencia del modelo de Azure AI desde la página de implementación o la página Información general. Si va a usar la autenticación de Microsoft Entra ID, no necesita una clave.
Use la dirección URL del punto de conexión de inferencia del modelo y las claves anteriores al construir el cliente. En el ejemplo siguiente se usa el paquete de inferencia de Azure AI:
Instale el paquete
azure-ai-inference
mediante el administrador de paquetes, como pip:pip install azure-ai-inference>=1.0.0b5
Advertencia
El recurso de Servicios de Azure AI necesita la versión
azure-ai-inference>=1.0.0b5
para Python.A continuación, puede usar el paquete para consumir el modelo. En el ejemplo siguiente se muestra cómo crear un cliente para consumir finalizaciones de chat:
import os from azure.ai.inference import ChatCompletionsClient from azure.core.credentials import AzureKeyCredential client = ChatCompletionsClient( endpoint=os.environ["AZUREAI_ENDPOINT_URL"], credential=AzureKeyCredential(os.environ["AZUREAI_ENDPOINT_KEY"]), )
Explore nuestros ejemplos y lea la documentación de referencia de API para empezar a trabajar.
Al construir la solicitud, indique el parámetro
model
e inserte el nombre de implementación del modelo que ha creado.from azure.ai.inference.models import SystemMessage, UserMessage response = client.complete( messages=[ SystemMessage(content="You are a helpful assistant."), UserMessage(content="Explain Riemann's conjecture in 1 paragraph"), ], model="mistral-large" ) print(response.choices[0].message.content)
Sugerencia
Al usar el punto de conexión, puede cambiar el parámetro model
a cualquier implementación de modelo disponible en el recurso.
Además, los modelos de Azure OpenAI se pueden consumir mediante el punto de conexión de servicio de Azure OpenAI en el recurso. Este punto de conexión es exclusivo para cada implementación del modelo y tiene su propia dirección URL.
Personalización de la implementación de modelos
Al crear implementaciones de modelos, puede configurar otras opciones, como el filtrado de contenido y los límites de velocidad. Para configurar más valores, seleccione la opción Personalizar en el Asistente para la implementación.
Nota:
Las configuraciones pueden variar en función del modelo que vaya a implementar.