Modelos de Azure OpenAI Service
Azure OpenAI Service cuenta con una amplia gama de modelos con diferentes funcionalidades y puntos de precio. La disponibilidad de los modelos varía según la región y la nube. Para consultar la disponibilidad del modelo de Azure Government, vea Azure Government OpenAI Service.
Modelos | Descripción |
---|---|
o1-preview y o1-mini | Los modelos de acceso limitado están diseñados específicamente para abordar tareas de razonamiento y resolución de problemas con un mayor foco y capacidad. |
GPT-4o & GPT-4o mini y GPT-4 Turbo | Los modelos de Azure OpenAI más recientes con versiones bidireccionales, que pueden aceptar texto e imágenes como entrada. |
GPT-4o-Realtime-Preview | Un modelo GPT-4o que admite interacciones conversacionales de baja latencia, de "entrada y salida de voz". |
GPT-4 | Conjunto de modelos que mejoran GPT-3.5 y que pueden reconocer y generar lenguaje natural y código. |
GPT-3.5 | Conjunto de modelos que mejoran GPT-3 y que pueden reconocer y generar lenguaje natural y código. |
Incrustraciones | Un conjunto de modelos que pueden convertir texto en forma vectorial numérica para facilitar la similitud del texto. |
DALL-E | Una serie de modelos que pueden generar imágenes originales a partir de lenguaje natural. |
Whisper | Serie de modelos en versión preliminar que pueden transcribir y traducir voz en texto. |
Texto a voz (versión preliminar) | Una serie de modelos en versión preliminar que pueden sintetizar la conversión de texto a voz. |
Acceso limitado a los modelos o1-preview y o1-mini
Los modelos de Azure OpenAI o1-preview
y o1-mini
están diseñados específicamente para abordar tareas de razonamiento y resolución de problemas con un mayor foco y capacidad. Estos modelos invierten más tiempo en procesar y comprender la solicitud del usuario, lo que hace que sean excepcionalmente fuertes en áreas como ciencia, codificación y matemáticas en comparación con las iteraciones anteriores.
Id. de modelo | Descripción | Solicitud máxima (tokens) | Datos de entrenamiento (hasta) |
---|---|---|---|
o1-preview (2024-09-12) |
El modelo más poderoso de la serie o1, que ofrece capacidades de razonamiento mejoradas. | Entrada: 128 000 Salida: 32,768 |
Octubre de 2023 |
o1-mini (2024-09-12) |
Una opción más rápida y rentable en la serie o1, ideal para las tareas de codificación que requieren velocidad y menor consumo de recursos. | Entrada: 128 000 Salida: 65,536 |
Octubre de 2023 |
Disponibilidad
Los modelos o1-preview
y o1-mini
ya están disponibles para el acceso a la API y la implementación del modelo. El registro es obligatorio y se concederá acceso en función de los criterios de idoneidad de Microsoft.
Solicitud de acceso: aplicación de modelo de acceso limitado
Una vez concedido el acceso, deberá crear una implementación para cada modelo.
Compatibilidad con API
Se ha agregado compatibilidad con los modelos de la serie o1 en la versión 2024-09-01-preview
de la API.
El parámetro max_tokens
ha quedado en desuso y se ha reemplazado por el nuevo parámetro max_completion_tokens
. Los modelos de la serie o1 solo funcionarán con el parámetro max_completion_tokens
.
Uso
Actualmente, estos modelos no admiten el mismo conjunto de parámetros que otros modelos que usan la API de finalizaciones de chat. Actualmente solo se admite un subconjunto muy limitado, por lo que los parámetros comunes como temperature
, top_p
, no están disponibles y su inclusión hará que su solicitud falle. Los modelos o1-preview
y o1-mini
tampoco aceptarán el rol de mensaje del sistema como parte de la matriz de mensajes.
Es posible que tenga que actualizar la versión de la biblioteca de Python de OpenAI para aprovechar las ventajas del nuevo parámetro max_completion_tokens
.
pip install openai --upgrade
Si no está familiarizado con el uso de Microsoft Entra ID para la autenticación, consulte Configuración de Azure OpenAI Service con autenticación de Microsoft Entra ID.
from openai import AzureOpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)
client = AzureOpenAI(
azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"),
azure_ad_token_provider=token_provider,
api_version="2024-09-01-preview"
)
response = client.chat.completions.create(
model="o1-preview-new", # replace with the model deployment name of your o1-preview, or o1-mini model
messages=[
{"role": "user", "content": "What steps should I think about when writing my first Python API?"},
],
max_completion_tokens = 5000
)
print(response.model_dump_json(indent=2))
Disponibilidad regional
Disponible para la implementación estándar y global en el Este de EE. UU., Este de EE. UU.2, Centro-norte de EE. UU., Centro-sur de EE. UU., Centro de Suecia, Oeste de EE. UU. y Oeste de EE. UU. 3 para clientes aprobados.
GPT-4o-Realtime-Preview
El modelo gpt-4o-realtime-preview
forma parte de la familia de modelos GPT-4o y admite interacciones de conversación de "entrada y salida de voz" de baja latencia. GPT-4o audio está diseñado para controlar las interacciones conversacionales en tiempo real y de baja latencia, lo que lo convierte en una excelente opción para agentes de soporte técnico, asistentes, traductores y otros casos de uso que necesitan una alta capacidad de respuesta con un usuario.
GPT-4o audio está disponible en las regiones Este de EE. UU. 2 (eastus2
) y Centro de Suecia (swedencentral
). Para usar GPT-4o audio, debe crear o usar un recurso existente en una de las regiones admitidas.
Una vez creado el recurso, puede implementar el modelo GPT-4o audio. Si va a realizar una implementación mediante programación, el nombre del modelo es gpt-4o-realtime-preview
. Para más información sobre cómo usar GPT-4o audio, consulte la documentación de audio GPT-4o.
En la tabla siguiente, encontrará detalles sobre el número máximos de tokens de solicitud y los datos de entrenamiento.
Id. de modelo | Descripción | Solicitud máxima (tokens) | Datos de entrenamiento (hasta) |
---|---|---|---|
gpt-4o-realtime-preview (2024-10-01-preview) GPT-4o audio |
Modelo de audio para el procesamiento de audio en tiempo real | Entrada: 128 000 Salida: 4096 |
Octubre de 2023 |
GPT-4o y GPT-4 Turbo
GPT-4o integra texto e imágenes en un único modelo, lo que le permite controlar varios tipos de datos simultáneamente. Este enfoque multimodal mejora la precisión y la capacidad de respuesta en las interacciones persona-ordenador. GPT-4o iguala a GPT-4 Turbo en tareas de texto y codificación en inglés, al tiempo que ofrece un rendimiento superior en idiomas distintos del inglés y en tareas de visión, estableciendo nuevos puntos de referencia para las capacidades de IA.
¿Cómo puedo acceder a los modelos GPT-4o y GPT-4o mini?
GPT-4o y GPT-4o mini están disponibles para estándar y implementación del modelo estándar global.
Debe crear un recurso o usar uno ya existente en una región estándar admitida o estándar global en la que esté disponible el modelo.
Cuando se crea el recurso, puede implementar los modelos GPT-4o. Si va a realizar una implementación mediante programación, el modelo nombres son:
gpt-4o
Versión2024-08-06
gpt-4o
, Versión2024-05-13
gpt-4o-mini
Versión2024-07-18
GPT-4 Turbo
GPT-4 Turbo es un modelo multimodal grande (acepta entradas de texto o imagen y genera texto) que puede resolver problemas difíciles con mayor precisión que cualquiera de los modelos anteriores de OpenAI. Al igual que GPT-3.5 Turbo y los modelos GPT-4 antiguos, GPT-4 Turbo están optimizados para chat y funcionan bien para las tareas de finalización tradicionales.
La versión más reciente de disponibilidad general de GPT-4 Turbo es:
gpt-4
Versión:turbo-2024-04-09
Este es el reemplazo de los siguientes modelos en versión preliminar:
gpt-4
Versión:1106-Preview
gpt-4
Versión:0125-Preview
gpt-4
Versión:vision-preview
Diferencias entre los modelos de disponibilidad general OpenAI y Azure OpenAI GPT-4 Turbo
- La versión de OpenAI del último modelo turbo
0409
admite el modo JSON y la llamada a funciones para todas las solicitudes de inferencia. - La versión de Azure OpenAI de la
turbo-2024-04-09
más reciente actualmente no admite el uso del modo JSON y la llamada a funciones al realizar solicitudes de inferencia con entrada de imagen (visión). Las solicitudes de entrada basadas en texto (solicitudes sinimage_url
e imágenes insertadas) admiten el modo JSON y las llamadas a funciones.
Diferencias de gpt-4 vision-preview
- Las mejoras específicas de Visión de Azure AI con GPT-4 Turbo con Visión no se admiten para la
gpt-4
Versión:turbo-2024-04-09
. Esto incluye el reconocimiento óptico de caracteres (OCR), la conexión a tierra de objetos, las indicaciones de vídeo y un mejor tratamiento de sus datos con imágenes.
Importante
Las funciones de vista previa de las mejoras de visión, como el reconocimiento óptico de caracteres (OCR), la conexión a tierra de objetos y las indicaciones de vídeo, se retirarán y dejarán de estar disponibles una vez gpt-4
versión: vision-preview
se actualice a turbo-2024-04-09
. Si actualmente confía en alguna de estas características en versión preliminar, esta actualización automática del modelo será un cambio importante.
Disponibilidad administrada aprovisionada por GPT-4 Turbo
gpt-4
Versión:turbo-2024-04-09
está disponible para implementaciones estándar y aprovisionadas. Actualmente, la versión aprovisionada de este modelo no admite solicitudes de inferencia de imagen/visión. Las implementaciones aprovisionadas de este modelo solo aceptan entradas de texto. Las implementaciones de modelos estándar aceptan solicitudes de inferencia de texto e imagen/visión.
Implementación de GPT-4 Turbo con disponibilidad general de Vision
Para implementar el modelo de disponibilidad general en la interfaz de usuario de Studio, seleccione GPT-4
y elija la versión de turbo-2024-04-09
en el menú desplegable. La cuota predeterminada para el modelo gpt-4-turbo-2024-04-09
será la misma que la cuota actual para GPT-4-Turbo. Consulte los límites de cuota regionales.
GPT-4
GPT-4 es el predecesor de GPT-4 Turbo. Los modelos GPT-4 y GPT-4 Turbo tienen un nombre de modelo base de gpt-4
. Puede distinguir entre los modelos GPT-4 y Turbo examinando la versión del modelo.
gpt-4
Versión0314
gpt-4
Versión0613
gpt-4-32k
Versión0613
Puede ver la longitud del contexto de los tokens compatible con cada modelo en la tabla de resumen de modelos.
Modelos GPT-4 y GPT-4 Turbo
- Estos modelos solo se pueden usar con la API de finalización de chat.
Consulte Versiones del modelo para obtener información sobre cómo azure OpenAI Service controla las actualizaciones de versiones del modelo y trabajar con modelos para información sobre cómo ver y configurar la versión del modelo de las implementaciones de GPT-4.
Id. de modelo | Descripción | Solicitud máxima (tokens) | Datos de entrenamiento (hasta) |
---|---|---|---|
gpt-4o (2024-08-06) GPT-4o (Omni) |
Modelo de disponibilidad general grande más reciente - Salidas estructuradas - Texto, procesamiento de imágenes - Modo JSON - Llamada a funciones paralelas - Precisión mejorada y capacidad de respuesta - Paridad con texto en inglés y tareas de codificación en comparación con GPT-4 Turbo con Vision - Rendimiento superior en idiomas que no son inglés y en tareas de visión |
Entrada: 128 000 Salida: 16 384 |
Octubre de 2023 |
gpt-4o-mini (2024-07-18) GPT-4o mini |
Modelo de disponibilidad general pequeño más reciente - Modelo rápido, económico y capaz ideal para reemplazar los modelos de la serie GPT-3.5 Turbo. - Texto, procesamiento de imágenes - Modo JSON - Llamada a funciones paralelas |
Entrada: 128 000 Salida: 16 384 |
Octubre de 2023 |
gpt-4o (13/05/2024) GPT-4o (Omni) |
Texto, procesamiento de imágenes - Modo JSON - Llamada a funciones paralelas - Precisión mejorada y capacidad de respuesta - Paridad con texto en inglés y tareas de codificación en comparación con GPT-4 Turbo con Vision - Rendimiento superior en idiomas que no son inglés y en tareas de visión |
Entrada: 128 000 Salida: 4096 |
Octubre de 2023 |
gpt-4 (turbo-2024-04-09) GPT-4 Turbo con Vision |
Nuevo modelo de disponibilidad general - Reemplazo de todos los modelos en versión preliminar de GPT-4 ( vision-preview , 1106-Preview , 0125-Preview ). - La disponibilidad de características es actualmente diferente en función del método de entrada y del tipo de implementación. |
Entrada: 128 000 Salida: 4096 |
Dic. de 2023 |
gpt-4 (0125-Preview)*GPT-4 Turbo versión preliminar |
Modelo de vista previa -Reemplaza 1106-Preview - Mejor rendimiento de generación de código - Reduce los casos en los que el modelo no completa una tarea - Modo JSON - Llamada a funciones paralelas - Salida reproducible (versión preliminar) |
Entrada: 128 000 Salida: 4096 |
Dic. de 2023 |
gpt-4 (vision-preview)GPT-4 Turbo con Vision (versión preliminar) |
Modelo de versión preliminar - Acepta la entrada de texto e imagen. - Admite mejoras - Modo JSON - Llamada a funciones paralelas - Salida reproducible (versión preliminar) |
Entrada: 128 000 Salida: 4096 |
Abril de 2023 |
gpt-4 (1106-Preview)GPT-4 Turbo versión preliminar |
Modelo de vista previa - Modo JSON - Llamada a funciones paralelas - Salida reproducible (versión preliminar) |
Entrada: 128 000 Salida: 4096 |
Abril de 2023 |
gpt-4-32k (0613) |
Modelo de disponibilidad general anterior - Llamada a funciones básicas con herramientas |
32 768 | Septiembre de 2021 |
gpt-4 (0613) |
Modelo de disponibilidad general anterior - Llamada a funciones básicas con herramientas |
8192 | Septiembre de 2021 |
gpt-4-32k (0314) |
Modelo de disponibilidad general anterior - Información sobre la retirada |
32 768 | Septiembre de 2021 |
gpt-4 (0314) |
Modelo de disponibilidad general anterior - Información sobre la retirada |
8192 | Septiembre de 2021 |
Precaución
No se recomienda usar modelos de versión preliminar en producción. Actualizaremos todas las implementaciones de modelos preliminares a futuras versiones preliminares o a la última versión estable/GA. Los modelos designados en versión preliminar no siguen el ciclo de vida estándar del modelo de Azure OpenAI.
- GPT-4 versión 0125-preview es una versión actualizada de la versión preliminar GPT-4 Turbo publicada anteriormente como versión 1106-preview.
- GPT-4 versión 0125-preview completa tareas como la generación de código más completamente en comparación con gpt-4-1106-preview. Debido a esto, dependiendo de la tarea, los clientes pueden encontrar que GPT-4-0125-preview genera más salida en comparación con gpt-4-1106-preview. Se recomienda que los clientes comparen las salidas del nuevo modelo. GPT-4-0125-preview también soluciona errores en gpt-4-1106-preview con control UTF-8 para idiomas distintos del inglés.
- La versión de GPT-4
turbo-2024-04-09
es la versión más reciente de disponibilidad general y reemplaza0125-Preview
,1106-preview
yvision-preview
.
Importante
Las versiones de GPT-4 (gpt-4
) 1106-Preview
, 0125-Preview
y vision-preview
se actualizarán con una versión estable de gpt-4
en el futuro.
- Las implementaciones de
gpt-4
1106-Preview
,0125-Preview
yvision-preview
establecidas en "Actualización automática a predeterminada" y "Actualizar cuando haya expirado" comenzarán a actualizarse después de que se publique la versión estable. Para cada implementación, se realiza una actualización de la versión del modelo sin interrupciones en el servicio para las llamadas API. Las actualizaciones se llevan a cabo por región y se espera que el proceso de actualización completo tarde 2 semanas. - Las implementaciones de las versiones de
gpt-4
1106-Preview
,0125-Preview
yvision-preview
establecidas en "No actualizar automáticamente" no se actualizarán y dejarán de funcionar cuando se actualice la versión preliminar en la región. Consulte Retiradas y desusos del modelo de Azure OpenAI para más información sobre el momento de la actualización.
GPT-3.5
Los modelos GPT-3.5 pueden comprender y generar lenguaje natural o código. El modelo más capaz y rentable de la familia GPT-3.5 es GPT-3.5 Turbo, que se ha optimizado para chat y funciona bien para las tareas de finalizaciones tradicionales. GPT-3.5 Turbo está disponible para su uso con la API de finalización de chat. GPT-3.5 Turbo Instruct tiene funcionalidades similares a text-davinci-003
que usa la API de finalizaciones en lugar de la API de finalizaciones de chat. Se recomienda usar GPT-3.5 Turbo y GPT-3.5 Turbo Instruct en vez de los modelos GPT-3.5 y GPT-3.5 heredados.
Id. de modelo | Descripción | Solicitud máxima (tokens) | Datos de entrenamiento (hasta) |
---|---|---|---|
gpt-35-turbo (0125) NUEVO |
Modelo de disponibilidad general más reciente - Modo JSON - Llamada a funciones paralelas - Salida reproducible (versión preliminar) - Mayor precisión al responder en formatos solicitados. - Se ha corregido un error que provocaba un problema de codificación de texto para las llamadas a funciones de idioma que no son inglés. |
Entrada: 16 385 Salida: 4096 |
Septiembre de 2021 |
gpt-35-turbo (1106) |
Modelo de disponibilidad general anterior - Modo JSON - Llamada a funciones paralelas - Salida reproducible (versión preliminar) |
Entrada: 16 385 Salida: 4096 |
Septiembre de 2021 |
gpt-35-turbo-instruct (0914) |
Solo puntos de conexión de finalizaciones - Reemplazo de modelos de finalizaciones heredadas |
4097 | Septiembre de 2021 |
gpt-35-turbo-16k (0613) |
Modelo de disponibilidad general anterior - Llamada a funciones básicas con herramientas |
16 384 | Septiembre de 2021 |
gpt-35-turbo (0613) |
Modelo de disponibilidad general anterior - Llamada a funciones básicas con herramientas |
4 096 | Septiembre de 2021 |
gpt-35-turbo 1 (0301) |
Modelo de disponibilidad general anterior - Información sobre la retirada |
4 096 | Septiembre de 2021 |
Para obtener más información sobre cómo interactuar con GPT-3.5 Turbo y la API de finalizaciones de chat, consulte nuestro procedimiento detallado.
1 Este modelo aceptará solicitudes > de 4096 tokens. No se recomienda superar el límite de 4096 tokens de entrada, ya que la versión más reciente del modelo está limitada a 4096 tokens. Si se producen problemas al superar 4096 tokens de entrada con este modelo, esta configuración no se admite oficialmente.
Inserciones
text-embedding-3-large
es el modelo de inserción más reciente y capaz. No es posible actualizar entre modelos de inserción. Para pasar de usar text-embedding-ada-002
a text-embedding-3-large
, tendría que generar nuevas inserciones.
text-embedding-3-large
text-embedding-3-small
text-embedding-ada-002
En las pruebas, OpenAI informa de los modelos de inserción de tercera generación tanto grandes como pequeños que ofrecen un mejor rendimiento medio de recuperación de varios lenguajes con el punto de referencia MIRACL, a la vez que mantiene el rendimiento de las tareas en inglés con el punto de referencia MTEB.
Punto de referencia de la evaluación | text-embedding-ada-002 |
text-embedding-3-small |
text-embedding-3-large |
---|---|---|---|
Promedio de MIRACL | 31,4 | 44,0 | 54.9 |
Promedio de MTEB | 61,0 | 62,3 | 64,6 |
Los modelos de inserción de tercera generación admiten reducir el tamaño de la inserción mediante un nuevo parámetro dimensions
. Normalmente, las inserciones más grandes son más costosas desde una perspectiva de proceso, memoria y almacenamiento. La capacidad de ajustar el número de dimensiones permite un mayor control sobre el costo general y el rendimiento. El parámetro dimensions
no se admite en todas las versiones de la biblioteca de Python de OpenAI 1.x; para aprovechar este parámetro, se recomienda actualizar a la versión más reciente: pip install openai --upgrade
.
Las pruebas del punto de referencia MTEB de OpenAI han detectado que, incluso cuando las dimensiones del modelo de tercera generación se reducen a menos de text-embeddings-ada-002
1536 dimensiones, el rendimiento sigue siendo ligeramente mejor.
DALL-E
Los modelos DALL-E generan imágenes a partir de mensajes de texto que proporciona el usuario. DALL-E 3 está disponible con carácter general para su uso con las API REST. DALL-E 2 y DALL-E 3 con SDK de cliente están en versión preliminar.
Whisper
Los modelos de Susurro se pueden usar para la conversión de voz en texto.
También puede usar el modelo de Whisper mediante la API de transcripción por lotes de Voz de Azure AI. Consulte ¿Qué es el modelo Whisper? para obtener más información sobre cuándo usar Voz de Azure AI frente a Azure OpenAI Service.
Texto a voz (versión preliminar)
Los modelos de texto a voz de OpenAI, actualmente en versión preliminar, se pueden usar para sintetizar texto a voz.
También puede usar las voces de texto a voz de OpenAI a través de Voz de Azure AI. Para obtener más información, consulte la guía Voces de texto a voz de OpenAI mediante Azure OpenAI Service o Voz de Azure AI.
Tabla de resumen de los modelos y disponibilidad por región
Modelos por tipo de implementación
Azure OpenAI proporciona a los clientes opciones en la estructura de hospedaje que se ajustan a sus patrones de uso y negocio. El servicio ofrece dos tipos principales de implementación:
- Estándar se ofrece con una opción de implementación global, enrutando el tráfico globalmente para proporcionar un mayor rendimiento.
- Aprovisionado también se ofrece con una opción de implementación global, lo que permite a los clientes comprar e implementar unidades de rendimiento aprovisionadas en toda la infraestructura global de Azure.
Todas las implementaciones pueden realizar exactamente las mismas operaciones de inferencia, pero la facturación, la escala y el rendimiento son considerablemente diferentes. Para más información sobre los tipos de implementación de Azure OpenAI, consulte nuestra guía de tipos de implementación .
- Estándar global
- Administrado aprovisionado global
- Global de Batch
- Zona de datos estándar
- Estándar
- Administrado aprovisionado
Disponibilidad del modelo estándar global
Región | o1-preview, 2024-09-12 | o1-mini, 2024-09-12 | gpt-4o, 2024-05-13 | gpt-4o, 2024-08-06 | gpt-4o-mini, 2024-07-18 | gpt-4o-realtime-preview, 2024-10-01 | gpt-4, turbo-2024-04-09 |
---|---|---|---|---|---|---|---|
australiaeast | - | - | ✅ | - | ✅ | - | ✅ |
brazilsouth | - | - | ✅ | - | ✅ | - | ✅ |
canadaeast | - | - | ✅ | - | ✅ | - | ✅ |
estado | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
francecentral | - | - | ✅ | - | ✅ | - | ✅ |
germanywestcentral | - | - | ✅ | - | ✅ | - | ✅ |
japaneast | - | - | ✅ | - | ✅ | - | ✅ |
koreacentral | - | - | ✅ | - | ✅ | - | ✅ |
northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
norwayeast | - | - | ✅ | - | ✅ | - | ✅ |
polandcentral | - | - | ✅ | - | ✅ | - | ✅ |
southafricanorth | - | - | ✅ | - | ✅ | - | ✅ |
southcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
southindia | - | - | ✅ | - | ✅ | - | ✅ |
spaincentral | - | - | ✅ | ✅ | ✅ | - | ✅ |
suecia central | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
norte de suiza | - | - | ✅ | - | ✅ | - | ✅ |
uaenorth | - | - | ✅ | - | ✅ | - | ✅ |
uksouth | - | - | ✅ | - | ✅ | - | ✅ |
westeurope | - | - | ✅ | - | ✅ | - | ✅ |
westus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
westus3 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
Esta tabla no incluye información de disponibilidad regional de ajuste preciso. Consulte la sección de ajuste para obtener esta información.
Modelos estándar por punto de conexión
Finalizaciones de chat
Región | o1-preview, 2024-09-12 | o1-mini, 2024-09-12 | gpt-4o, 2024-05-13 | gpt-4o, 2024-08-06 | gpt-4o-mini, 2024-07-18 | gpt-4, 0613 | gpt-4, 1106-Preview | gpt-4, 0125-Preview | gpt-4, vision-preview | gpt-4, turbo-2024-04-09 | gpt-4-32k, 0613 | gpt-35-turbo, 0301 | gpt-35-turbo, 0613 | gpt-35-turbo, 1106 | gpt-35-turbo, 0125 | gpt-35-turbo-16k, 0613 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
australiaeast | - | - | - | - | - | ✅ | ✅ | - | ✅ | - | ✅ | - | ✅ | ✅ | - | ✅ |
canadaeast | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | - | ✅ | ✅ | ✅ | ✅ |
estado | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | ✅ | ✅ | - | ✅ | ✅ |
eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | - | ✅ | - | - | ✅ | - | ✅ | ✅ |
francecentral | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | ✅ | ✅ | ✅ | - | ✅ |
japaneast | - | - | - | - | - | - | - | - | ✅ | - | - | - | ✅ | - | ✅ | ✅ |
northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | - | ✅ | - | ✅ | ✅ |
norwayeast | - | - | - | - | - | - | ✅ | - | - | - | - | - | - | - | - | - |
southcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | ✅ | - | - | ✅ | - |
southindia | - | - | - | - | - | - | ✅ | - | - | - | - | - | - | ✅ | - | - |
suecia central | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ | ✅ | - | ✅ | ✅ | - | ✅ |
norte de suiza | - | - | - | - | - | ✅ | - | - | ✅ | - | ✅ | - | ✅ | - | - | ✅ |
uksouth | - | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | ✅ | ✅ | ✅ | ✅ |
westeurope | - | - | - | - | - | - | - | - | - | - | - | ✅ | - | - | - | - |
westus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | ✅ | ✅ | - | - | - | ✅ | ✅ | - |
westus3 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | - | ✅ | - | - | - | - | ✅ | - |
Disponibilidad del modelo GPT-4 y GPT-4 Turbo
Selección del acceso al cliente
Además de las regiones anteriores que están disponibles para todos los clientes de Azure OpenAI, a algunos clientes ya existentes se les ha concedido acceso a las versiones de GPT-4 en regiones adicionales:
Modelo | Region |
---|---|
gpt-4 (0314) gpt-4-32k (0314) |
Este de EE. UU. Centro de Francia Centro-sur de EE. UU. Sur de Reino Unido |
gpt-4 (0613) gpt-4-32k (0613) |
Este de EE. UU. Este de EE. UU. 2 Japón Oriental Sur de Reino Unido |
Modelos GPT-3.5
Consulte Versiones del modelo para saber cómo Azure OpenAI Service controla las actualizaciones de versiones del modelo, y Uso de modelos para información sobre cómo ver y configurar la versión del modelo de las implementaciones de GPT-3.5.
Ajuste de modelos
Nota:
gpt-35-turbo
: el ajuste preciso de este modelo se limita a un subconjunto de regiones y no está disponible en todas las regiones en las que el modelo base está disponible.
Las regiones admitidas para el ajuste preciso pueden variar si usa los modelos de Azure OpenAI en un proyecto de Estudio de IA o fuera de un proyecto.
Id. de modelo | Regiones de ajuste preciso | Solicitud máxima (tokens) | Datos de entrenamiento (hasta) |
---|---|---|---|
babbage-002 |
Centro-Norte de EE. UU Centro de Suecia Oeste de Suiza |
16 384 | Septiembre de 2021 |
davinci-002 |
Centro-Norte de EE. UU Centro de Suecia Oeste de Suiza |
16 384 | Septiembre de 2021 |
gpt-35-turbo (0613) |
Este de EE. UU. 2 Centro-Norte de EE. UU Centro de Suecia Oeste de Suiza |
4 096 | Septiembre de 2021 |
gpt-35-turbo (1106) |
Este de EE. UU. 2 Centro-Norte de EE. UU Centro de Suecia Oeste de Suiza |
Entrada: 16 385 Salida: 4096 |
Septiembre de 2021 |
gpt-35-turbo (0125) |
Este de EE. UU. 2 Centro-Norte de EE. UU Centro de Suecia Oeste de Suiza |
16 385 | Septiembre de 2021 |
gpt-4 (0613) 1 |
Centro-Norte de EE. UU Centro de Suecia |
8192 | Septiembre de 2021 |
gpt-4o-mini (18-07-2024) |
Centro-Norte de EE. UU Centro de Suecia |
Entrada: 128 000 Salida: 16 384 Longitud del contexto de ejemplo de entrenamiento: 64,536 |
Octubre de 2023 |
gpt-4o (2024-08-06) |
Este de EE. UU. 2 Centro-Norte de EE. UU Centro de Suecia |
Entrada: 128 000 Salida: 16 384 Longitud del contexto de ejemplo de entrenamiento: 64,536 |
Octubre de 2023 |
1 GPT-4 se encuentra actualmente en versión preliminar pública.
Asistentes (versión preliminar)
Para Asistentes se necesita una combinación de un modelo compatible y una región compatible. Algunas herramientas y funcionalidades requieren los modelos más recientes. Los siguientes modelos están disponibles en la API de asistentes, el SDK y Estudio de IA de Azure. La tabla siguiente es para pago por uso. Para obtener información sobre la disponibilidad de la unidad de rendimiento aprovisionada (PTU), consulte rendimiento aprovisionado. Los modelos y regiones enumerados se pueden usar con asistentes v1 y v2. Puede usar modelos estándar globales si se admiten en las regiones que se enumeran a continuación.
Region | gpt-35-turbo (0613) |
gpt-35-turbo (1106) |
fine tuned gpt-3.5-turbo-0125 |
gpt-4 (0613) |
gpt-4 (1106) |
gpt-4 (0125) |
gpt-4o (2024-05-13) |
gpt-4o-mini (2024-07-18) |
---|---|---|---|---|---|---|---|---|
Este de Australia | ✅ | ✅ | ✅ | ✅ | ||||
Este de EE. UU. | ✅ | ✅ | ✅ | ✅ | ||||
Este de EE. UU. 2 | ✅ | ✅ | ✅ | ✅ | ✅ | |||
Centro de Francia | ✅ | ✅ | ✅ | ✅ | ||||
Japón Oriental | ✅ | |||||||
Este de Noruega | ✅ | |||||||
Centro de Suecia | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
Sur de Reino Unido | ✅ | ✅ | ✅ | ✅ | ||||
Oeste de EE. UU. | ✅ | ✅ | ✅ | |||||
Oeste de EE. UU. 3 | ✅ | ✅ |
Retirada del modelo
Para obtener la información más reciente sobre las retiradas de modelos, consulte la guía de retirada de modelos.