Compartir vía


¿Qué es Azure OpenAI Service?

Azure OpenAI Service proporciona acceso a la API de REST de los potentes modelos de lenguaje de OpenAI, incluidos o1, o1-mini, GPT-4o, GPT-4o mini, GPT-4 Turbo con Vision, GPT-4, GPT-3.5-Turbo y series de modelos Embeddings. Estos modelos se pueden adaptar fácilmente a su tarea específica, entre las que se incluyen, entre otras, la generación de contenido, el resumen, el reconocimiento de imágenes, la búsqueda semántica y la traducción de lenguaje natural a código. Los usuarios pueden acceder al servicio a través de las API de REST, el SDK de Python o Azure AI Foundry.

Introducción a las características

Característica Azure OpenAI
Modelos disponibles o1 y o1-mini - (Acceso limitado - Solicitud de acceso)
GPT-4o y GPT-4o mini
Serie GPT-4 (incluyendo GPT-4 Turbo con Vision)
Serie GPT-3.5-Turbo
Serie Embeddings
Obtenga más información en la página Modelos.
Ajuste preciso GPT-4o-mini (versión preliminar)
GPT-4 (versión preliminar)
GPT-3.5-Turbo (0613)
babbage-002
davinci-002.
Price Disponible aquí
Para obtener más información sobre los modelos de chat habilitados para visión, consulte la información de precios especial.
Compatibilidad con redes virtuales y vínculo privado Sí.
Identidad administrada Sí, a través de Microsoft Entra ID
Experiencia de IU Azure Portal para la administración de recursos y cuentas,
Azure AI Foundry para la exploración de modelos y el ajuste preciso
Disponibilidad regional del modelo Disponibilidad del modelo
Filtrado de contenido Las solicitudes y finalizaciones se evalúan con respecto a nuestra política de contenido mediante sistemas automatizados. Se filtra el contenido de gravedad alta.

IA responsable

En Microsoft, estamos comprometidos con el avance de la inteligencia artificial controlado por ciertos principios que antepongan a las personas. Los modelos generativos, como los disponibles en Azure OpenAI, tienen importantes beneficios potenciales, pero, sin un diseño cuidadoso y mitigación prudente, tales modelos tienen el potencial de generar contenido incorrecto o incluso dañino. Microsoft ha realizado inversiones significativas para ayudar a protegerse contra el abuso y los daños no intencionados, lo que incluye la incorporación de los principios de Microsoft para el uso de la IA responsable, la adopción de un Código de conducta para el uso del servicio, la creación de filtros de contenido para ayudar a los clientes y el suministro de información y orientación sobre la IA responsable que los clientes deben tener en cuenta al utilizar Azure OpenAI.

Introducción a Azure OpenAI Service

Para empezar a trabajar con el servicio Azure OpenAI, debe crear un recurso del Azure OpenAI Service en la suscripción de Azure.

Comience con la guía de Recursos Creación e implementación de un Azure OpenAI Service.

  1. Puede crear un recurso a través de Azure Portal, la CLI de Azure o Azure PowerShell.

  2. Cuando tiene un recurso de Azure OpenAI Service, puede implementar un modelo como GPT-4o.

  3. Cuando tenga un modelo implementado, puede hacer lo siguiente:

    • Pruebe los juegos del portal de Azure AI Foundry para explorar las funcionalidades de los modelos.
    • También puede empezar a realizar llamadas API al servicio mediante la API de REST o los SDK.

    Por ejemplo, puede probar audio y asistentes en tiempo real en los juegos o a través del código.

Nota:

Se requiere un formulario de registro de acceso limitado para acceder a algunos modelos o características de Azure OpenAI Service. Obtenga más información en la página Acceso limitado de Azure OpenAI.

Comparación de Azure OpenAI y OpenAI

Azure OpenAI Service proporciona a los clientes una inteligencia artificial de lenguaje de programación avanzado con los modelos OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper y modelos de texto a voz con la promesa empresarial y de seguridad de Azure. Azure OpenAI desarrolla conjuntamente las API con OpenAI, lo que garantiza la compatibilidad y una transición fluida de una a otra.

Con Azure OpenAI, los clientes obtienen las funcionalidades de seguridad de Microsoft Azure mientras ejecutan los mismos modelos que OpenAI. Azure OpenAI ofrece redes privadas, disponibilidad regional y filtrado de contenido de IA responsable.

Conceptos clave

Solicitudes y finalizaciones

El punto final de finalizaciones es el componente principal del servicio de API. Esta API proporciona acceso a la interfaz de entrada y salida de texto del modelo. Los usuarios solo tienen que proporcionar una solicitud de entrada que contenga el comando de texto en inglés y el modelo generará una finalización de texto.

A continuación, se muestra un ejemplo de solicitud simple y finalización:

Solicitud: """ count to 5 in a for loop """

Finalización: for i in range(1, 6): print(i)

Tokens

Tokens de texto

Para procesar el texto, Azure OpenAI lo divide en tokens. Los tokens pueden ser palabras o meros fragmentos de caracteres. Por ejemplo, la palabra "hamburger" se divide en los tokens "ham", "bur" y "ger", mientras que una palabra corta y común como "pear" es un token único. Muchos tokens comienzan con un espacio en blanco, como " hello" y " bye".

El número total de tokens procesados en una solicitud determinada depende de la longitud de los parámetros de entrada, salida y solicitud. La cantidad de tokens que se procesan también afectará la latencia de la respuesta y el rendimiento de los modelos.

Tokens de imagen

Las capacidades de procesamiento de imágenes de Azure OpenAI con los modelos GPT-4o, GPT-4o mini y GPT-4 Turbo con Vision utilizan la tokenización de imágenes para determinar el número total de tokens consumidos por las entradas de imágenes. El número de tokens consumidos se calcula en función de dos factores principales: el nivel de detalle de la imagen (bajo o alto) y las dimensiones de la imagen. Este es el modo en que se calculan los costos de token:

  • Modo de baja resolución
    • Los detalles bajos permiten a la API devolver respuestas más rápidas para escenarios que no requieren un análisis de alta resolución de imágenes. Los tokens consumidos para imágenes de detalles bajos son:
      • GPT-4o y GPT-4 Turbo con Vision: velocidad plana de 85 tokens por imagen, independientemente del tamaño.
      • GPT-4o mini: tasa plana de 2833 tokens por imagen, independientemente del tamaño.
    • Ejemplo: imagen de 4096 x 8192 (detalle bajo): el costo es un token fijo de 85 con GPT-4o, porque es una imagen de detalle baja y el tamaño no afecta al costo en este modo.
  • Modo de alta resolución
    • Los detalles elevados permiten a la API analizar imágenes con más detalle. Los tokens de imagen se calculan en función de las dimensiones de la imagen. El cálculo implica los siguientes pasos:
      1. Cambio de tamaño de imagen: la imagen se cambia de tamaño para ajustarse a un cuadrado de 2048 x 2048 píxeles. Si el lado más corto es mayor que 768 píxeles, la imagen se cambia de tamaño para que el lado más corto sea de 768 píxeles. La relación de aspecto se conserva durante el cambio de tamaño.
      2. Cálculo de mosaico: una vez cambiado el tamaño, la imagen se divide en mosaicos de 512 x 512 píxeles. Los iconos parciales se redondean a un icono completo. El número de iconos determina el costo total del token.
      3. Cálculo del token:
        • GPT-4o y GPT-4 Turbo con Vision: Cada icono de 512 x 512 píxeles cuesta 170 tokens. Se agregan 85 tokens base adicionales al total.
        • GPT-4o mini: cada icono de 512 x 512 píxeles cuesta 5667 tokens. Se agregan 2833 tokens base adicionales al total.
    • Ejemplo: imagen de 2048 x 4096 (muy detallado):
      1. La imagen se cambia inicialmente a 1024 x 2048 píxeles para ajustarse al cuadrado de 2048 x 2048 píxeles.
      2. La imagen se cambia de tamaño a 768 x 1536 píxeles para asegurarse de que el lado más corto es un máximo de 768 píxeles de longitud.
      3. La imagen se divide en iconos de 2 x 3, cada uno de 512 x 512 píxeles.
      4. Cálculo final:
        • Para GPT-4o y GPT-4 Turbo con Vision, el costo total del token es de 6 iconos x 170 tokens por icono + 85 tokens base = 1105 tokens.
        • Para GPT-4o mini, el costo total del token es de 6 iconos x 5667 tokens por icono + 2833 tokens base = 36835 tokens.

Recursos

Azure OpenAI es una oferta de producto nueva en Azure. Puede empezar a utilizar Azure OpenAI de la misma manera que cualquier otro producto de Azure en el que crea un recurso, o bien una instancia del servicio, en la suscripción de Azure. Puede obtener más información sobre el diseño de la administración de recursos de Azure.

Implementaciones

Una vez creado un recurso de Azure OpenAI, debe implementar un modelo para poder empezar a hacer llamadas API y generar texto. Esta acción se puede realizar con las API de implementación. Estas API permiten especificar el modelo que desea usar.

Ingeniería rápida

Los modelos GPT-3, GPT-3.5 y GPT-4 de OpenAI se basan en mensajes. Con los modelos basados en solicitudes, el usuario interactúa con el modelo ingresando una solicitud de texto, a la que el modelo responde con un texto completo. Esta finalización es la continuación del modelo del texto de entrada.

Aunque estos modelos son eficaces, su comportamiento también es sensible al aviso. Esto hace del prompt engineering una habilidad importante que vale la pena desarrollar.

La construcción de la solicitud puede ser difícil. En la práctica, la solicitud actúa para configurar los pesos del modelo para completar la tarea deseada, pero es más un arte que una ciencia y, a menudo, requiere experiencia e intuición para crear una solicitud que tenga éxito.

Modelos

El servicio permite que los usuarios accedan a varios modelos distintos. Cada modelo proporciona una funcionalidad y un punto de precio diferentes.

Los modelos DALL-E (algunos en vista previa; consultar modelos) generan imágenes a partir de las indicaciones de texto que proporciona el usuario.

Los modelos de Whisper se pueden usar para transcribir y traducir la voz al texto.

Los modelos de texto a voz, actualmente en versión preliminar, se pueden usar para sintetizar texto a voz.

Obtenga más información sobre cada modelo en la página de concepto de modelos.

Pasos siguientes

Más información sobre los modelos subyacentes que impulsan Azure OpenAI.