Compartir a través de


Modelos de Azure OpenAI Service

Azure OpenAI Service cuenta con una amplia gama de modelos con diferentes funcionalidades y puntos de precio. La disponibilidad de los modelos varía según la región y la nube. Para consultar la disponibilidad del modelo de Azure Government, vea Azure Government OpenAI Service.

Modelos Descripción
o1-preview y o1-mini Los modelos de acceso limitado están diseñados específicamente para abordar tareas de razonamiento y resolución de problemas con un mayor foco y capacidad.
GPT-4o & GPT-4o mini y GPT-4 Turbo Los modelos de Azure OpenAI más recientes con versiones bidireccionales, que pueden aceptar texto e imágenes como entrada.
GPT-4o-Realtime-Preview Un modelo GPT-4o que admite interacciones conversacionales de baja latencia, de "entrada y salida de voz".
GPT-4 Conjunto de modelos que mejoran GPT-3.5 y que pueden reconocer y generar lenguaje natural y código.
GPT-3.5 Conjunto de modelos que mejoran GPT-3 y que pueden reconocer y generar lenguaje natural y código.
Incrustraciones Un conjunto de modelos que pueden convertir texto en forma vectorial numérica para facilitar la similitud del texto.
DALL-E Una serie de modelos que pueden generar imágenes originales a partir de lenguaje natural.
Whisper Serie de modelos en versión preliminar que pueden transcribir y traducir voz en texto.
Texto a voz (versión preliminar) Una serie de modelos en versión preliminar que pueden sintetizar la conversión de texto a voz.

Acceso limitado a los modelos o1-preview y o1-mini

Los modelos de Azure OpenAI o1-preview y o1-mini están diseñados específicamente para abordar tareas de razonamiento y resolución de problemas con un mayor foco y capacidad. Estos modelos invierten más tiempo en procesar y comprender la solicitud del usuario, lo que hace que sean excepcionalmente fuertes en áreas como ciencia, codificación y matemáticas en comparación con las iteraciones anteriores.

Id. de modelo Descripción Solicitud máxima (tokens) Datos de entrenamiento (hasta)
o1-preview (2024-09-12) El modelo más poderoso de la serie o1, que ofrece capacidades de razonamiento mejoradas. Entrada: 128 000
Salida: 32,768
Octubre de 2023
o1-mini (2024-09-12) Una opción más rápida y rentable en la serie o1, ideal para las tareas de codificación que requieren velocidad y menor consumo de recursos. Entrada: 128 000
Salida: 65,536
Octubre de 2023

Disponibilidad

Los modelos o1-preview y o1-mini ya están disponibles para el acceso a la API y la implementación del modelo. El registro es obligatorio y se concederá acceso en función de los criterios de idoneidad de Microsoft.

Solicitud de acceso: aplicación de modelo de acceso limitado

Una vez concedido el acceso, deberá crear una implementación para cada modelo.

Compatibilidad con API

Se ha agregado compatibilidad con los modelos de la serie o1 en la versión 2024-09-01-preview de la API.

El parámetro max_tokens ha quedado en desuso y se ha reemplazado por el nuevo parámetro max_completion_tokens. Los modelos de la serie o1 solo funcionarán con el parámetro max_completion_tokens.

Uso

Actualmente, estos modelos no admiten el mismo conjunto de parámetros que otros modelos que usan la API de finalizaciones de chat. Actualmente solo se admite un subconjunto muy limitado, por lo que los parámetros comunes como temperature, top_p, no están disponibles y su inclusión hará que su solicitud falle. Los modelos o1-preview y o1-mini tampoco aceptarán el rol de mensaje del sistema como parte de la matriz de mensajes.

Es posible que tenga que actualizar la versión de la biblioteca de Python de OpenAI para aprovechar las ventajas del nuevo parámetro max_completion_tokens.

pip install openai --upgrade

Si no está familiarizado con el uso de Microsoft Entra ID para la autenticación, consulte Configuración de Azure OpenAI Service con autenticación de Microsoft Entra ID.

from openai import AzureOpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)

client = AzureOpenAI(
  azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"), 
  azure_ad_token_provider=token_provider,
  api_version="2024-09-01-preview"
)

response = client.chat.completions.create(
    model="o1-preview-new", # replace with the model deployment name of your o1-preview, or o1-mini model
    messages=[
        {"role": "user", "content": "What steps should I think about when writing my first Python API?"},
    ],
    max_completion_tokens = 5000

)

print(response.model_dump_json(indent=2))

Disponibilidad regional

Disponible para la implementación estándar y global en el Este de EE. UU., Este de EE. UU.2, Centro-norte de EE. UU., Centro-sur de EE. UU., Centro de Suecia, Oeste de EE. UU. y Oeste de EE. UU. 3 para clientes aprobados.

GPT-4o-Realtime-Preview

El modelo gpt-4o-realtime-preview forma parte de la familia de modelos GPT-4o y admite interacciones de conversación de "entrada y salida de voz" de baja latencia. GPT-4o audio está diseñado para controlar las interacciones conversacionales en tiempo real y de baja latencia, lo que lo convierte en una excelente opción para agentes de soporte técnico, asistentes, traductores y otros casos de uso que necesitan una alta capacidad de respuesta con un usuario.

GPT-4o audio está disponible en las regiones Este de EE. UU. 2 (eastus2) y Centro de Suecia (swedencentral). Para usar GPT-4o audio, debe crear o usar un recurso existente en una de las regiones admitidas.

Una vez creado el recurso, puede implementar el modelo GPT-4o audio. Si va a realizar una implementación mediante programación, el nombre del modelo es gpt-4o-realtime-preview. Para más información sobre cómo usar GPT-4o audio, consulte la documentación de audio GPT-4o.

En la tabla siguiente, encontrará detalles sobre el número máximos de tokens de solicitud y los datos de entrenamiento.

Id. de modelo Descripción Solicitud máxima (tokens) Datos de entrenamiento (hasta)
gpt-4o-realtime-preview (2024-10-01-preview)
GPT-4o audio
Modelo de audio para el procesamiento de audio en tiempo real Entrada: 128 000
Salida: 4096
Octubre de 2023

GPT-4o y GPT-4 Turbo

GPT-4o integra texto e imágenes en un único modelo, lo que le permite controlar varios tipos de datos simultáneamente. Este enfoque multimodal mejora la precisión y la capacidad de respuesta en las interacciones persona-ordenador. GPT-4o iguala a GPT-4 Turbo en tareas de texto y codificación en inglés, al tiempo que ofrece un rendimiento superior en idiomas distintos del inglés y en tareas de visión, estableciendo nuevos puntos de referencia para las capacidades de IA.

¿Cómo puedo acceder a los modelos GPT-4o y GPT-4o mini?

GPT-4o y GPT-4o mini están disponibles para estándar y implementación del modelo estándar global.

Debe crear un recurso o usar uno ya existente en una región estándar admitida o estándar global en la que esté disponible el modelo.

Cuando se crea el recurso, puede implementar los modelos GPT-4o. Si va a realizar una implementación mediante programación, el modelo nombres son:

  • gpt-4o Versión 2024-08-06
  • gpt-4o, Versión 2024-05-13
  • gpt-4o-mini Versión 2024-07-18

GPT-4 Turbo

GPT-4 Turbo es un modelo multimodal grande (acepta entradas de texto o imagen y genera texto) que puede resolver problemas difíciles con mayor precisión que cualquiera de los modelos anteriores de OpenAI. Al igual que GPT-3.5 Turbo y los modelos GPT-4 antiguos, GPT-4 Turbo están optimizados para chat y funcionan bien para las tareas de finalización tradicionales.

La versión más reciente de disponibilidad general de GPT-4 Turbo es:

  • gpt-4 Versión: turbo-2024-04-09

Este es el reemplazo de los siguientes modelos en versión preliminar:

  • gpt-4 Versión: 1106-Preview
  • gpt-4 Versión: 0125-Preview
  • gpt-4 Versión: vision-preview

Diferencias entre los modelos de disponibilidad general OpenAI y Azure OpenAI GPT-4 Turbo

  • La versión de OpenAI del último modelo turbo 0409 admite el modo JSON y la llamada a funciones para todas las solicitudes de inferencia.
  • La versión de Azure OpenAI de la turbo-2024-04-09 más reciente actualmente no admite el uso del modo JSON y la llamada a funciones al realizar solicitudes de inferencia con entrada de imagen (visión). Las solicitudes de entrada basadas en texto (solicitudes sin image_url e imágenes insertadas) admiten el modo JSON y las llamadas a funciones.

Diferencias de gpt-4 vision-preview

  • Las mejoras específicas de Visión de Azure AI con GPT-4 Turbo con Visión no se admiten para la gpt-4 Versión: turbo-2024-04-09. Esto incluye el reconocimiento óptico de caracteres (OCR), la conexión a tierra de objetos, las indicaciones de vídeo y un mejor tratamiento de sus datos con imágenes.

Importante

Las funciones de vista previa de las mejoras de visión, como el reconocimiento óptico de caracteres (OCR), la conexión a tierra de objetos y las indicaciones de vídeo, se retirarán y dejarán de estar disponibles una vez gpt-4 versión: vision-preview se actualice a turbo-2024-04-09. Si actualmente confía en alguna de estas características en versión preliminar, esta actualización automática del modelo será un cambio importante.

Disponibilidad administrada aprovisionada por GPT-4 Turbo

  • gpt-4 Versión: turbo-2024-04-09 está disponible para implementaciones estándar y aprovisionadas. Actualmente, la versión aprovisionada de este modelo no admite solicitudes de inferencia de imagen/visión. Las implementaciones aprovisionadas de este modelo solo aceptan entradas de texto. Las implementaciones de modelos estándar aceptan solicitudes de inferencia de texto e imagen/visión.

Implementación de GPT-4 Turbo con disponibilidad general de Vision

Para implementar el modelo de disponibilidad general en la interfaz de usuario de Studio, seleccione GPT-4 y elija la versión de turbo-2024-04-09 en el menú desplegable. La cuota predeterminada para el modelo gpt-4-turbo-2024-04-09 será la misma que la cuota actual para GPT-4-Turbo. Consulte los límites de cuota regionales.

GPT-4

GPT-4 es el predecesor de GPT-4 Turbo. Los modelos GPT-4 y GPT-4 Turbo tienen un nombre de modelo base de gpt-4. Puede distinguir entre los modelos GPT-4 y Turbo examinando la versión del modelo.

  • gpt-4 Versión 0314
  • gpt-4 Versión 0613
  • gpt-4-32k Versión 0613

Puede ver la longitud del contexto de los tokens compatible con cada modelo en la tabla de resumen de modelos.

Modelos GPT-4 y GPT-4 Turbo

  • Estos modelos solo se pueden usar con la API de finalización de chat.

Consulte Versiones del modelo para obtener información sobre cómo azure OpenAI Service controla las actualizaciones de versiones del modelo y trabajar con modelos para información sobre cómo ver y configurar la versión del modelo de las implementaciones de GPT-4.

Id. de modelo Descripción Solicitud máxima (tokens) Datos de entrenamiento (hasta)
gpt-4o (2024-08-06)
GPT-4o (Omni)
Modelo de disponibilidad general grande más reciente
- Salidas estructuradas
- Texto, procesamiento de imágenes
- Modo JSON
- Llamada a funciones paralelas
- Precisión mejorada y capacidad de respuesta
- Paridad con texto en inglés y tareas de codificación en comparación con GPT-4 Turbo con Vision
- Rendimiento superior en idiomas que no son inglés y en tareas de visión
Entrada: 128 000
Salida: 16 384
Octubre de 2023
gpt-4o-mini (2024-07-18)
GPT-4o mini
Modelo de disponibilidad general pequeño más reciente
- Modelo rápido, económico y capaz ideal para reemplazar los modelos de la serie GPT-3.5 Turbo.
- Texto, procesamiento de imágenes
- Modo JSON
- Llamada a funciones paralelas
Entrada: 128 000
Salida: 16 384
Octubre de 2023
gpt-4o (13/05/2024)
GPT-4o (Omni)
Texto, procesamiento de imágenes
- Modo JSON
- Llamada a funciones paralelas
- Precisión mejorada y capacidad de respuesta
- Paridad con texto en inglés y tareas de codificación en comparación con GPT-4 Turbo con Vision
- Rendimiento superior en idiomas que no son inglés y en tareas de visión
Entrada: 128 000
Salida: 4096
Octubre de 2023
gpt-4 (turbo-2024-04-09)
GPT-4 Turbo con Vision
Nuevo modelo de disponibilidad general
- Reemplazo de todos los modelos en versión preliminar de GPT-4 (vision-preview, 1106-Preview, 0125-Preview).
- La disponibilidad de características es actualmente diferente en función del método de entrada y del tipo de implementación.
Entrada: 128 000
Salida: 4096
Dic. de 2023
gpt-4 (0125-Preview)*
GPT-4 Turbo versión preliminar
Modelo de vista previa
-Reemplaza 1106-Preview
- Mejor rendimiento de generación de código
- Reduce los casos en los que el modelo no completa una tarea
- Modo JSON
- Llamada a funciones paralelas
- Salida reproducible (versión preliminar)
Entrada: 128 000
Salida: 4096
Dic. de 2023
gpt-4 (vision-preview)
GPT-4 Turbo con Vision (versión preliminar)
Modelo de versión preliminar
- Acepta la entrada de texto e imagen.
- Admite mejoras
- Modo JSON
- Llamada a funciones paralelas
- Salida reproducible (versión preliminar)
Entrada: 128 000
Salida: 4096
Abril de 2023
gpt-4 (1106-Preview)
GPT-4 Turbo versión preliminar
Modelo de vista previa
- Modo JSON
- Llamada a funciones paralelas
- Salida reproducible (versión preliminar)
Entrada: 128 000
Salida: 4096
Abril de 2023
gpt-4-32k (0613) Modelo de disponibilidad general anterior
- Llamada a funciones básicas con herramientas
32 768 Septiembre de 2021
gpt-4 (0613) Modelo de disponibilidad general anterior
- Llamada a funciones básicas con herramientas
8192 Septiembre de 2021
gpt-4-32k(0314) Modelo de disponibilidad general anterior
- Información sobre la retirada
32 768 Septiembre de 2021
gpt-4 (0314) Modelo de disponibilidad general anterior
- Información sobre la retirada
8192 Septiembre de 2021

Precaución

No se recomienda usar modelos de versión preliminar en producción. Actualizaremos todas las implementaciones de modelos preliminares a futuras versiones preliminares o a la última versión estable/GA. Los modelos designados en versión preliminar no siguen el ciclo de vida estándar del modelo de Azure OpenAI.

  • GPT-4 versión 0125-preview es una versión actualizada de la versión preliminar GPT-4 Turbo publicada anteriormente como versión 1106-preview.
  • GPT-4 versión 0125-preview completa tareas como la generación de código más completamente en comparación con gpt-4-1106-preview. Debido a esto, dependiendo de la tarea, los clientes pueden encontrar que GPT-4-0125-preview genera más salida en comparación con gpt-4-1106-preview. Se recomienda que los clientes comparen las salidas del nuevo modelo. GPT-4-0125-preview también soluciona errores en gpt-4-1106-preview con control UTF-8 para idiomas distintos del inglés.
  • La versión de GPT-4 turbo-2024-04-09 es la versión más reciente de disponibilidad general y reemplaza 0125-Preview, 1106-preview y vision-preview.

Importante

Las versiones de GPT-4 (gpt-4) 1106-Preview, 0125-Preview y vision-preview se actualizarán con una versión estable de gpt-4 en el futuro.

  • Las implementaciones de gpt-4 1106-Preview, 0125-Preview y vision-preview establecidas en "Actualización automática a predeterminada" y "Actualizar cuando haya expirado" comenzarán a actualizarse después de que se publique la versión estable. Para cada implementación, se realiza una actualización de la versión del modelo sin interrupciones en el servicio para las llamadas API. Las actualizaciones se llevan a cabo por región y se espera que el proceso de actualización completo tarde 2 semanas.
  • Las implementaciones de las versiones de gpt-4 1106-Preview, 0125-Preview y vision-preview establecidas en "No actualizar automáticamente" no se actualizarán y dejarán de funcionar cuando se actualice la versión preliminar en la región. Consulte Retiradas y desusos del modelo de Azure OpenAI para más información sobre el momento de la actualización.

GPT-3.5

Los modelos GPT-3.5 pueden comprender y generar lenguaje natural o código. El modelo más capaz y rentable de la familia GPT-3.5 es GPT-3.5 Turbo, que se ha optimizado para chat y funciona bien para las tareas de finalizaciones tradicionales. GPT-3.5 Turbo está disponible para su uso con la API de finalización de chat. GPT-3.5 Turbo Instruct tiene funcionalidades similares a text-davinci-003 que usa la API de finalizaciones en lugar de la API de finalizaciones de chat. Se recomienda usar GPT-3.5 Turbo y GPT-3.5 Turbo Instruct en vez de los modelos GPT-3.5 y GPT-3.5 heredados.

Id. de modelo Descripción Solicitud máxima (tokens) Datos de entrenamiento (hasta)
gpt-35-turbo (0125) NUEVO Modelo de disponibilidad general más reciente
- Modo JSON
- Llamada a funciones paralelas
- Salida reproducible (versión preliminar)
- Mayor precisión al responder en formatos solicitados.
- Se ha corregido un error que provocaba un problema de codificación de texto para las llamadas a funciones de idioma que no son inglés.
Entrada: 16 385
Salida: 4096
Septiembre de 2021
gpt-35-turbo (1106) Modelo de disponibilidad general anterior
- Modo JSON
- Llamada a funciones paralelas
- Salida reproducible (versión preliminar)
Entrada: 16 385
Salida: 4096
Septiembre de 2021
gpt-35-turbo-instruct (0914) Solo puntos de conexión de finalizaciones
- Reemplazo de modelos de finalizaciones heredadas
4097 Septiembre de 2021
gpt-35-turbo-16k (0613) Modelo de disponibilidad general anterior
- Llamada a funciones básicas con herramientas
16 384 Septiembre de 2021
gpt-35-turbo (0613) Modelo de disponibilidad general anterior
- Llamada a funciones básicas con herramientas
4 096 Septiembre de 2021
gpt-35-turbo1 (0301) Modelo de disponibilidad general anterior
- Información sobre la retirada
4 096 Septiembre de 2021

Para obtener más información sobre cómo interactuar con GPT-3.5 Turbo y la API de finalizaciones de chat, consulte nuestro procedimiento detallado.

1 Este modelo aceptará solicitudes > de 4096 tokens. No se recomienda superar el límite de 4096 tokens de entrada, ya que la versión más reciente del modelo está limitada a 4096 tokens. Si se producen problemas al superar 4096 tokens de entrada con este modelo, esta configuración no se admite oficialmente.

Inserciones

text-embedding-3-large es el modelo de inserción más reciente y capaz. No es posible actualizar entre modelos de inserción. Para pasar de usar text-embedding-ada-002 a text-embedding-3-large, tendría que generar nuevas inserciones.

  • text-embedding-3-large
  • text-embedding-3-small
  • text-embedding-ada-002

En las pruebas, OpenAI informa de los modelos de inserción de tercera generación tanto grandes como pequeños que ofrecen un mejor rendimiento medio de recuperación de varios lenguajes con el punto de referencia MIRACL, a la vez que mantiene el rendimiento de las tareas en inglés con el punto de referencia MTEB.

Punto de referencia de la evaluación text-embedding-ada-002 text-embedding-3-small text-embedding-3-large
Promedio de MIRACL 31,4 44,0 54.9
Promedio de MTEB 61,0 62,3 64,6

Los modelos de inserción de tercera generación admiten reducir el tamaño de la inserción mediante un nuevo parámetro dimensions. Normalmente, las inserciones más grandes son más costosas desde una perspectiva de proceso, memoria y almacenamiento. La capacidad de ajustar el número de dimensiones permite un mayor control sobre el costo general y el rendimiento. El parámetro dimensions no se admite en todas las versiones de la biblioteca de Python de OpenAI 1.x; para aprovechar este parámetro, se recomienda actualizar a la versión más reciente: pip install openai --upgrade.

Las pruebas del punto de referencia MTEB de OpenAI han detectado que, incluso cuando las dimensiones del modelo de tercera generación se reducen a menos de text-embeddings-ada-002 1536 dimensiones, el rendimiento sigue siendo ligeramente mejor.

DALL-E

Los modelos DALL-E generan imágenes a partir de mensajes de texto que proporciona el usuario. DALL-E 3 está disponible con carácter general para su uso con las API REST. DALL-E 2 y DALL-E 3 con SDK de cliente están en versión preliminar.

Whisper

Los modelos de Susurro se pueden usar para la conversión de voz en texto.

También puede usar el modelo de Whisper mediante la API de transcripción por lotes de Voz de Azure AI. Consulte ¿Qué es el modelo Whisper? para obtener más información sobre cuándo usar Voz de Azure AI frente a Azure OpenAI Service.

Texto a voz (versión preliminar)

Los modelos de texto a voz de OpenAI, actualmente en versión preliminar, se pueden usar para sintetizar texto a voz.

También puede usar las voces de texto a voz de OpenAI a través de Voz de Azure AI. Para obtener más información, consulte la guía Voces de texto a voz de OpenAI mediante Azure OpenAI Service o Voz de Azure AI.

Tabla de resumen de los modelos y disponibilidad por región

Modelos por tipo de implementación

Azure OpenAI proporciona a los clientes opciones en la estructura de hospedaje que se ajustan a sus patrones de uso y negocio. El servicio ofrece dos tipos principales de implementación:

  • Estándar se ofrece con una opción de implementación global, enrutando el tráfico globalmente para proporcionar un mayor rendimiento.
  • Aprovisionado también se ofrece con una opción de implementación global, lo que permite a los clientes comprar e implementar unidades de rendimiento aprovisionadas en toda la infraestructura global de Azure.

Todas las implementaciones pueden realizar exactamente las mismas operaciones de inferencia, pero la facturación, la escala y el rendimiento son considerablemente diferentes. Para más información sobre los tipos de implementación de Azure OpenAI, consulte nuestra guía de tipos de implementación .

Disponibilidad del modelo estándar global

Región o1-preview, 2024-09-12 o1-mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4o-realtime-preview, 2024-10-01 gpt-4, turbo-2024-04-09
australiaeast - - - -
brazilsouth - - - -
canadaeast - - - -
estado -
eastus2
francecentral - - - -
germanywestcentral - - - -
japaneast - - - -
koreacentral - - - -
northcentralus -
norwayeast - - - -
polandcentral - - - -
southafricanorth - - - -
southcentralus -
southindia - - - -
spaincentral - - -
suecia central
norte de suiza - - - -
uaenorth - - - -
uksouth - - - -
westeurope - - - -
westus -
westus3 -

Esta tabla no incluye información de disponibilidad regional de ajuste preciso. Consulte la sección de ajuste para obtener esta información.

Modelos estándar por punto de conexión

Finalizaciones de chat

Región o1-preview, 2024-09-12 o1-mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4, 0613 gpt-4, 1106-Preview gpt-4, 0125-Preview gpt-4, vision-preview gpt-4, turbo-2024-04-09 gpt-4-32k, 0613 gpt-35-turbo, 0301 gpt-35-turbo, 0613 gpt-35-turbo, 1106 gpt-35-turbo, 0125 gpt-35-turbo-16k, 0613
australiaeast - - - - - - - - -
canadaeast - - - - - - - - -
estado - - - - -
eastus2 - - - - - -
francecentral - - - - - - - - -
japaneast - - - - - - - - - - - -
northcentralus - - - - - -
norwayeast - - - - - - - - - - - - - - -
southcentralus - - - - - - -
southindia - - - - - - - - - - - - - -
suecia central - - -
norte de suiza - - - - - - - - - - -
uksouth - - - - - - - - -
westeurope - - - - - - - - - - - - - - -
westus - - - - - -
westus3 - - - - - - - -

Disponibilidad del modelo GPT-4 y GPT-4 Turbo

Selección del acceso al cliente

Además de las regiones anteriores que están disponibles para todos los clientes de Azure OpenAI, a algunos clientes ya existentes se les ha concedido acceso a las versiones de GPT-4 en regiones adicionales:

Modelo Region
gpt-4 (0314)
gpt-4-32k (0314)
Este de EE. UU.
Centro de Francia
Centro-sur de EE. UU.
Sur de Reino Unido
gpt-4 (0613)
gpt-4-32k (0613)
Este de EE. UU.
Este de EE. UU. 2
Japón Oriental
Sur de Reino Unido

Modelos GPT-3.5

Consulte Versiones del modelo para saber cómo Azure OpenAI Service controla las actualizaciones de versiones del modelo, y Uso de modelos para información sobre cómo ver y configurar la versión del modelo de las implementaciones de GPT-3.5.

Ajuste de modelos

Nota:

gpt-35-turbo: el ajuste preciso de este modelo se limita a un subconjunto de regiones y no está disponible en todas las regiones en las que el modelo base está disponible.

Las regiones admitidas para el ajuste preciso pueden variar si usa los modelos de Azure OpenAI en un proyecto de Estudio de IA o fuera de un proyecto.

Id. de modelo Regiones de ajuste preciso Solicitud máxima (tokens) Datos de entrenamiento (hasta)
babbage-002 Centro-Norte de EE. UU
Centro de Suecia
Oeste de Suiza
16 384 Septiembre de 2021
davinci-002 Centro-Norte de EE. UU
Centro de Suecia
Oeste de Suiza
16 384 Septiembre de 2021
gpt-35-turbo (0613) Este de EE. UU. 2
Centro-Norte de EE. UU
Centro de Suecia
Oeste de Suiza
4 096 Septiembre de 2021
gpt-35-turbo (1106) Este de EE. UU. 2
Centro-Norte de EE. UU
Centro de Suecia
Oeste de Suiza
Entrada: 16 385
Salida: 4096
Septiembre de 2021
gpt-35-turbo (0125) Este de EE. UU. 2
Centro-Norte de EE. UU
Centro de Suecia
Oeste de Suiza
16 385 Septiembre de 2021
gpt-4 (0613) 1 Centro-Norte de EE. UU
Centro de Suecia
8192 Septiembre de 2021
gpt-4o-mini (18-07-2024) Centro-Norte de EE. UU
Centro de Suecia
Entrada: 128 000
Salida: 16 384
Longitud del contexto de ejemplo de entrenamiento: 64,536
Octubre de 2023
gpt-4o (2024-08-06) Este de EE. UU. 2
Centro-Norte de EE. UU
Centro de Suecia
Entrada: 128 000
Salida: 16 384
Longitud del contexto de ejemplo de entrenamiento: 64,536
Octubre de 2023

1 GPT-4 se encuentra actualmente en versión preliminar pública.

Asistentes (versión preliminar)

Para Asistentes se necesita una combinación de un modelo compatible y una región compatible. Algunas herramientas y funcionalidades requieren los modelos más recientes. Los siguientes modelos están disponibles en la API de asistentes, el SDK y Estudio de IA de Azure. La tabla siguiente es para pago por uso. Para obtener información sobre la disponibilidad de la unidad de rendimiento aprovisionada (PTU), consulte rendimiento aprovisionado. Los modelos y regiones enumerados se pueden usar con asistentes v1 y v2. Puede usar modelos estándar globales si se admiten en las regiones que se enumeran a continuación.

Region gpt-35-turbo (0613) gpt-35-turbo (1106) fine tuned gpt-3.5-turbo-0125 gpt-4 (0613) gpt-4 (1106) gpt-4 (0125) gpt-4o (2024-05-13) gpt-4o-mini (2024-07-18)
Este de Australia
Este de EE. UU.
Este de EE. UU. 2
Centro de Francia
Japón Oriental
Este de Noruega
Centro de Suecia
Sur de Reino Unido
Oeste de EE. UU.
Oeste de EE. UU. 3

Retirada del modelo

Para obtener la información más reciente sobre las retiradas de modelos, consulte la guía de retirada de modelos.

Pasos siguientes