Implementación de modelos de Azure OpenAI con Azure AI Studio
Importante
Los elementos marcados (versión preliminar) en este artículo se encuentran actualmente en versión preliminar pública. Esta versión preliminar se ofrece sin acuerdo de nivel de servicio y no se recomienda para las cargas de trabajo de producción. Es posible que algunas características no sean compatibles o que tengan sus funcionalidades limitadas. Para más información, consulte Términos de uso complementarios de las Versiones Preliminares de Microsoft Azure.
En este artículo, aprenderá a crear implementaciones de modelos de Azure OpenAI en Inteligencia artificial de Azure Studio.
Azure OpenAI Service ofrece una amplia gama de modelos con diferentes funcionalidades y puntos de precio. Al implementar los modelos de Azure OpenAI en Inteligencia artificial de Azure Studio, puede consumir las implementaciones, solicitando el flujo de avisos u otra herramienta. La disponibilidad de los modelos varía según la región. Para obtener más información sobre los detalles de cada modelo, consulte Modelos de Azure OpenAI Service.
Para modificar e interactuar con un modelo de Azure OpenAI en el área de juegos de Azure AI Studio, primero debe implementar un modelo base de Azure OpenAI en el proyecto. Una vez implementado el modelo y de que esté disponible en el proyecto, puede consumir su punto de conexión de la API de REST tal como está o personalizarlo con sus propios datos y otros componentes (inserciones, índices, etc.).
Implementación de un modelo de Azure OpenAI desde el catálogo de modelos
Siga los pasos que se indican a continuación para implementar un modelo de Azure OpenAI como gpt-4
en un punto de conexión en tiempo real desde el catálogo de modelos de Inteligencia artificial de Azure Studio:
Inicie sesión en Inteligencia artificial de Azure Studio y vaya a la página Inicio.
Seleccione Catálogo de modelos en la barra lateral izquierda.
En el filtro Colecciones, seleccione Azure OpenAI.
Seleccione un modelo como
gpt-4
de la colección de Azure OpenAI.Seleccione Implementar para abrir la ventana de implementación.
Seleccione el centro en el que desea implementar el modelo. Si no tiene un centro de conectividad, puede crear uno.
Especifique el nombre de la implementación y modifique otras opciones predeterminadas en función de sus requisitos.
Seleccione Implementar.
Llegará a la página de detalles de la implementación. Seleccione Abrir en el área de juegos.
Seleccione Ver código para obtener ejemplos de código que se pueden usar para consumir el modelo implementado en la aplicación.
Implementación de un modelo de Azure OpenAI desde el proyecto
Como alternativa, puede iniciar la implementación empezando por el proyecto en AI Studio.
- Vaya a su proyecto en Inteligencia artificial de Azure Studio.
- Seleccione Componentes>Implementaciones.
- Seleccione + Implementar un modelo.
- En el filtro Colecciones, seleccione Azure OpenAI.
- Seleccione un modelo como
gpt-4
de la colección de Azure OpenAI. - Seleccione Confirmar para abrir la ventana de implementación.
- Especifique el nombre de la implementación y modifique otras opciones predeterminadas en función de sus requisitos.
- Seleccione Implementar.
- Llegará a la página de detalles de la implementación. Seleccione Abrir en el área de juegos.
- Seleccione Ver código para obtener ejemplos de código que se pueden usar para consumir el modelo implementado en la aplicación.
Inferencia del modelo de Azure OpenAI
Para realizar la inferencia en el modelo implementado, puede usar el área de juegos o los ejemplos de código. El área de juegos es una interfaz basada en web que permite interactuar con el modelo en tiempo real. Puede usar el área de juegos para probar el modelo con diferentes avisos y ver las respuestas del modelo.
Para obtener más ejemplos de cómo consumir el modelo implementado en la aplicación, consulte los siguientes inicios rápidos de Azure OpenAI:
Límites de cuota y disponibilidad regional de un modelo
En el caso de los modelos de Azure OpenAI, la cuota predeterminada para los modelos varía según el modelo y la región. Es posible que algunos modelos solo estén disponibles en algunas regiones. Para más información sobre disponibilidad y límites de cuota, consulte Cuotas y límites de Azure OpenAI Service.
Cuota para la implementación e inferencia de un modelo
En el caso de los modelos de Azure OpenAI, la implementación e inferencia consume la cuota asignada a la suscripción por región y por modelo en unidades de tokens por minuto (TPM). Al registrarse en Inteligencia artificial de Azure Studio, recibirá la cuota predeterminada para la mayoría de los modelos disponibles. A continuación, asigne TPM a cada implementación a medida que se cree, lo que reduce la cuota disponible para ese modelo por la cantidad que asignó. Puede seguir creando implementaciones y asignarlas a TPM hasta que alcance el límite de cuota.
Una vez que alcance el límite de cuota, la única manera de crear nuevas implementaciones de ese modelo es:
- Solicitar más cuota mediante el envío de un formulario de aumento de cuota.
- Ajustar la cuota asignada en otras implementaciones de modelos para liberar tokens para las nuevas implementaciones en el portal de Azure OpenAI.
Para más información sobre cuotas, consulte Cuota de Inteligencia artificial de Azure Studio y Administración de cuota de Azure OpenAI Service.
Contenido relacionado
- Más información sobre lo que puede hacer en Inteligencia artificial de Azure Studio
- Obtenga respuestas a las preguntas más frecuentes en el artículo preguntas más frecuentes sobre Azure AI.