Compartir a través de


Implementación de modelos de Azure OpenAI con Azure AI Studio

Importante

Los elementos marcados (versión preliminar) en este artículo se encuentran actualmente en versión preliminar pública. Esta versión preliminar se ofrece sin acuerdo de nivel de servicio y no se recomienda para las cargas de trabajo de producción. Es posible que algunas características no sean compatibles o que tengan sus funcionalidades limitadas. Para más información, consulte Términos de uso complementarios de las Versiones Preliminares de Microsoft Azure.

En este artículo, aprenderá a crear implementaciones de modelos de Azure OpenAI en Inteligencia artificial de Azure Studio.

Azure OpenAI Service ofrece una amplia gama de modelos con diferentes funcionalidades y puntos de precio. Al implementar los modelos de Azure OpenAI en Inteligencia artificial de Azure Studio, puede consumir las implementaciones, solicitando el flujo de avisos u otra herramienta. La disponibilidad de los modelos varía según la región. Para obtener más información sobre los detalles de cada modelo, consulte Modelos de Azure OpenAI Service.

Para modificar e interactuar con un modelo de Azure OpenAI en el área de juegos de Azure AI Studio, primero debe implementar un modelo base de Azure OpenAI en el proyecto. Una vez implementado el modelo y de que esté disponible en el proyecto, puede consumir su punto de conexión de la API de REST tal como está o personalizarlo con sus propios datos y otros componentes (inserciones, índices, etc.).

Requisitos previos

Implementación de un modelo de Azure OpenAI desde el catálogo de modelos

Siga los pasos que se indican a continuación para implementar un modelo de Azure OpenAI como gpt-4o-mini en un punto de conexión en tiempo real desde el catálogo de modelos de Inteligencia artificial de Azure Studio:

  1. Inicie sesión en Azure AI Studio.
  2. Si aún no está en el proyecto, selecciónelo.
  3. Seleccione Catálogo de modelos en el panel de navegación izquierdo.
  1. En el filtro Colecciones, seleccione Azure OpenAI.

    Captura de pantalla que muestra cómo filtrar por modelos de Azure OpenAI en el catálogo.

  2. Seleccione un modelo como gpt-4o-mini de la colección de Azure OpenAI.

  3. Seleccione Implementar para abrir la ventana de implementación.

  4. Seleccione el recurso en el que desea implementar el modelo. Si no tiene un recurso, puede crear uno.

  5. Especifique el nombre de la implementación y modifique otras opciones predeterminadas en función de sus requisitos.

  6. Seleccione Implementar.

  7. Llegará a la página de detalles de la implementación. Seleccione Abrir en el área de juegos.

  8. Seleccione Ver código para obtener ejemplos de código que se pueden usar para consumir el modelo implementado en la aplicación.

Implementación de un modelo de Azure OpenAI desde el proyecto

Como alternativa, puede iniciar la implementación empezando por el proyecto en AI Studio.

  1. Vaya a su proyecto en Inteligencia artificial de Azure Studio.
  2. En la barra lateral izquierda del proyecto, vaya a Mis recursos>Modelos y puntos de conexión.
  3. Seleccione + Implementar modelo>Implementar modelo base.
  4. En el filtro Colecciones, seleccione Azure OpenAI.
  5. Seleccione un modelo como gpt-4o-mini de la colección de Azure OpenAI.
  6. Seleccione Confirmar para abrir la ventana de implementación.
  7. Especifique el nombre de la implementación y modifique otras opciones predeterminadas en función de sus requisitos.
  8. Seleccione Implementar.
  9. Llegará a la página de detalles de la implementación. Seleccione Abrir en el área de juegos.
  10. Seleccione Ver código para obtener ejemplos de código que se pueden usar para consumir el modelo implementado en la aplicación.

Inferencia del modelo de Azure OpenAI

Para realizar la inferencia en el modelo implementado, puede usar el área de juegos o los ejemplos de código. El área de juegos es una interfaz basada en web que permite interactuar con el modelo en tiempo real. Puede usar el área de juegos para probar el modelo con diferentes avisos y ver las respuestas del modelo.

Para obtener más ejemplos de cómo consumir el modelo implementado en la aplicación, consulte los siguientes inicios rápidos de Azure OpenAI:

Límites de cuota y disponibilidad regional de un modelo

En el caso de los modelos de Azure OpenAI, la cuota predeterminada para los modelos varía según el modelo y la región. Es posible que algunos modelos solo estén disponibles en algunas regiones. Para más información sobre disponibilidad y límites de cuota, consulte Cuotas y límites de Azure OpenAI Service.

Cuota para la implementación e inferencia de un modelo

En el caso de los modelos de Azure OpenAI, la implementación e inferencia consumen la cuota asignada a la suscripción por región y por modelo en unidades de tokens por minuto (TPM). Al registrarse en Inteligencia artificial de Azure Studio, recibirá la cuota predeterminada para la mayoría de los modelos disponibles. A continuación, asigne TPM a cada implementación a medida que se cree, lo que reduce la cuota disponible para ese modelo por la cantidad que asignó. Puede seguir creando implementaciones y asignarlas a TPM hasta que alcance el límite de cuota.

Una vez que alcance el límite de cuota, la única manera de crear nuevas implementaciones de ese modelo es:

Para más información sobre cuotas, consulte Cuota de Inteligencia artificial de Azure Studio y Administración de cuota de Azure OpenAI Service.