Novedades de Azure OpenAI Service
En este artículo se proporciona un resumen de las versiones más recientes y las actualizaciones de documentación principales de Azure OpenAI.
Diciembre de 2024
Modelo de razonamiento de o1 publicado para acceso limitado
El modelo o1
ya está disponible para el acceso a la API y la implementación del modelo. El registro es obligatorio y se concederá acceso en función de los criterios de idoneidad de Microsoft. Los clientes que aplicaron y recibieron acceso previamente a o1-preview
no tienen que volver a aplicarlos, ya que se encuentran automáticamente en la lista de espera para el modelo más reciente.
Solicitud de acceso: aplicación de modelo de acceso limitado
Para obtener más información sobre los modelos avanzados de la serie o1
, consulte introducción a los modelos de razonamiento de la serie o1.
Disponibilidad regional
Modelo | Region |
---|---|
o1 (Versión: 2024-12-17) |
Este de EE. UU. 2 (Estándar global) Centro de Suecia (Estándar global) |
Ajuste de preferencias (versión preliminar)
Optimización directa de preferencias (DPO) es una nueva técnica de alineación para modelos de lenguaje grandes, diseñados para ajustar los pesos del modelo en función de las preferencias humanas. A diferencia del aprendizaje de refuerzo de los comentarios humanos (RLHF), DPO no requiere ajustar un modelo de recompensa y usa datos más sencillos (preferencias binarias) para el entrenamiento. Este método es computacionalmente más ligero y más rápido, lo que hace que sea igualmente eficaz en la alineación, siendo más eficiente. La DPO es especialmente útil en escenarios en los que los elementos subjetivos, como el tono, el estilo o las preferencias de contenido específicas son importantes. Nos complace anunciar la versión preliminar pública de la DPO en Azure OpenAI Service, empezando por el modelo de gpt-4o-2024-08-06
.
Para obtener información sobre la disponibilidad regional del ajuste de modelos, consulte la página de modelos.
Finalizaciones almacenadas y destilación
Finalizaciones almacenadas permiten capturar el historial de conversaciones de las sesiones de finalizaciones de chat que se usarán como conjuntos de datos para evaluaciones y ajuste preciso.
GPT-4o 2024-11-20
gpt-4o-2024-11-20
ya está disponible para implementación estándar global en:
- Este de EE. UU.
- Este de EE. UU. 2
- Centro-Norte de EE. UU
- Centro-sur de EE. UU.
- Oeste de EE. UU.
- Oeste de EE. UU. 3
- Centro de Suecia
NUEVO tipo de implementación aprovisionada de zona de datos
Las implementaciones aprovisionadas de zona de datos están disponibles en el mismo recurso de Azure OpenAI que todos los demás tipos de implementación de Azure OpenAI, pero permiten aprovechar la infraestructura global de Azure para dirigir dinámicamente el tráfico al centro de datos dentro de la zona de datos definida por Microsoft con la mejor disponibilidad para cada solicitud. Las implementaciones aprovisionadas de zona de datos proporcionan capacidad reservada de procesamiento de modelos para un rendimiento alto y predecible mediante la infraestructura de Azure dentro de las zonas de datos especificadas por Microsoft. Las implementaciones aprovisionadas de zona de datos se admiten en modelos gpt-4o-2024-08-06
, gpt-4o-2024-05-13
y gpt-4o-mini-2024-07-18
.
Para obtener más información, consulte la guía de tipos de implementación.
Noviembre de 2024
Disponibilidad general de ajuste de Visión
El ajuste de Visión con GPT-4o (06-08-2024) ya está disponible con carácter general (GA).
El ajuste de Visión permite agregar imágenes a los datos de entrenamiento de JSONL. De la misma manera que es posible enviar una o varias imágenes a las finalizaciones de chat, es posible incluir esos mismos tipos de mensajes en los datos de entrenamiento. Las imágenes se pueden proporcionar como direcciones URL o como imágenes codificadas en base64.
Para obtener información sobre la disponibilidad regional del ajuste de modelos, consulte la página de modelos.
Nueva supervisión de abuso de IA
Estamos introduciendo nuevas formas de supervisión de abuso que emplean modelos LLM para mejorar la eficacia de la detección del uso potencialmente abusivo de Azure OpenAI Service y para permitir la supervisión de abuso sin necesidad de revisión humana de indicaciones y finalizaciones. Para más información, consulte Supervisión de abuso.
Las solicitudes y finalizaciones que se marcan mediante la clasificación de contenido o que se identifican como parte de un patrón de uso potencialmente abusivo están sujetas a un proceso de revisión adicional para ayudar a confirmar el análisis del sistema e informar de las decisiones de acción. Nuestros sistemas de supervisión de abuso se han ampliado para permitir la revisión por modelos LLM de forma predeterminada y por seres humanos cuando sea necesario y apropiado.
Octubre de 2024
Nuevo tipo de implementación estándar de la zona de datos
Las implementaciones estándar de zona de datos están disponibles en el mismo recurso de Azure OpenAI que todos los demás tipos de implementación de Azure OpenAI, pero permiten aprovechar la infraestructura global de Azure para dirigir dinámicamente el tráfico al centro de datos dentro de la zona de datos definida por Microsoft con la mejor disponibilidad para cada solicitud. La zona de datos estándar proporciona cuotas por defecto más altas que nuestros tipos de implementación basados en la geografía de Azure. Las implementaciones estándar de la zona de datos se admiten en los modelos gpt-4o-2024-08-06
, gpt-4o-2024-05-13
y gpt-4o-mini-2024-07-18
.
Para obtener más información, consulte la guía de tipos de implementación.
Disponibilidad general de Global Batch
El lote global de Azure OpenAI ya está disponible con carácter general.
La API de Batch de Azure OpenAI está diseñada para controlar las tareas de procesamiento a gran escala y de alto volumen de forma eficaz. Procese grupos asincrónicos de solicitudes con cuota independiente, con una solución alternativa de destino de 24 horas, con un costo del 50 % menos que el estándar global. Con el procesamiento por lotes, en lugar de enviar una solicitud cada vez, se envía un gran número de solicitudes en un único archivo. Las solicitudes por lotes globales tienen una cuota de tokens en cola independiente, lo que evita cualquier interrupción de las cargas de trabajo en línea.
Los siguientes son algunos de los principales casos de uso:
Procesamiento de datos a gran escala: analice rápidamente conjuntos de datos extensos en paralelo.
Generación de contenido: cree grandes volúmenes de texto, como descripciones de productos o artículos.
Revisión y resumen de documentos: automatice la revisión y el resumen de documentos largos.
Automatización del soporte al cliente: controle numerosas consultas simultáneamente para respuestas más rápidas.
Extracción y análisis de datos: extraiga y analice información de grandes cantidades de datos no estructurados.
Tareas de procesamiento de lenguaje natural (NLP): realice tareas como análisis de sentimiento o traducción en grandes conjuntos de datos.
Marketing y personalización: genere contenido personalizado y recomendaciones a escala.
Para obtener más información sobre cómo empezar a trabajar con implementaciones de lotes globales.
Acceso limitado a los modelos o1-preview y o1-mini
Los modelos o1-preview
y o1-mini
ya están disponibles para el acceso a la API y la implementación del modelo. El registro es obligatorio y se concederá acceso en función de los criterios de idoneidad de Microsoft.
Solicitud de acceso: aplicación de modelo de acceso limitado
Los clientes que ya se han aprobado y tienen acceso al modelo desde el área de juegos de acceso anticipado no necesitan volver a solicitarlo, se le concederá automáticamente acceso a la API. Una vez que se ha concedido el acceso, deberá crear una implementación para cada modelo.
Compatibilidad de la API:
Se ha agregado compatibilidad con los modelos de la serie o1 en la versión 2024-09-01-preview
de la API.
El parámetro max_tokens
ha quedado en desuso y se ha reemplazado por el nuevo parámetro max_completion_tokens
. Los modelos de la serie o1 solo funcionarán con el parámetro max_completion_tokens
.
Disponibilidad regional:
Hay modelos disponibles para la implementación estándar y global en las regiones Este de EE. UU. 2 y Centro de Suecia para clientes aprobados.
Nueva versión preliminar pública de la API GPT-4o Realtime para voz y audio
El audio GPT-4o de Azure OpenAI forma parte de la familia de modelos GPT-4o que admite interacciones de conversación de "entrada y salida de voz" de baja latencia. La API de audio GPT-4o realtime
está diseñada para controlar interacciones de conversación en tiempo real y de baja latencia, lo que la convierte en una excelente opción para los casos de uso que implican interacciones en vivo entre un usuario y un modelo, como agentes de asistencia al cliente, asistentes de voz y traductores en tiempo real.
El modelo gpt-4o-realtime-preview
está disponible para implementaciones globales en las regiones Este de EE. UU. 2 y Centro de Suecia.
Para más información,vea la documentación de audio en tiempo real de GPT-4o.
Actualizaciones de soporte técnico de lotes globales
Los lotes globales ahora admiten GPT-4o (2024-08-06). Para más información, vea la guía de introducción de lotes globales.
Septiembre de 2024
Actualizaciones de la experiencia de usuario de Azure OpenAI Studio
El 19 de septiembre, al acceder al Azure OpenAI Studio ya no verá el portal heredado de Azure AI Foundry de forma predeterminada. En caso necesario, podrá volver a la experiencia anterior usando el botón de alternancia Cambiar al aspecto anterior de la barra superior de la interfaz de usuario durante las próximas semanas. Si vuelve al portal heredado de Azure AI Foundry, le ayuda si rellena el formulario de comentarios para informarnos de por qué. Estamos supervisando activamente estos comentarios para mejorar la nueva experiencia.
Implementaciones aprovisionadas de GPT-4o 2024-08-06
GPT-4o 2024-08-06 ya está disponible para implementaciones aprovisionadas en el Este de EE. UU., Este de EE. UU. 2, Centro-norte de EE. UU. y Centro de Suecia. También está disponible para implementaciones aprovisionadas globales.
Para obtener la información más reciente sobre la disponibilidad del modelo, consulte la página de modelos.
NUEVO tipo de implementación aprovisionado global
Las implementaciones globales están disponibles en los mismos recursos de Azure OpenAI que los tipos de implementación no globales, pero permiten aprovechar la infraestructura global de Azure para enrutar dinámicamente el tráfico al centro de datos con la mejor disponibilidad para cada solicitud. Las implementaciones aprovisionadas globales proporcionan una capacidad de procesamiento de modelos reservada para un rendimiento alto y predecible mediante la infraestructura global de Azure. Las implementaciones aprovisionadas globales se admiten en modelos gpt-4o-2024-08-06
y gpt-4o-mini-2024-07-18
.
Para obtener más información, consulte la guía de tipos de implementación.
NUEVOS modelos o1-versión preliminar y o1-mini disponibles para acceso limitado
Los modelos o1-preview
y o1-mini
de Azure OpenAI están diseñados para abordar tareas de razonamiento y resolución de problemas con un mayor foco y capacidad. Estos modelos invierten más tiempo en procesar y comprender la solicitud del usuario, lo que hace que sean excepcionalmente fuertes en áreas como ciencia, codificación y matemáticas en comparación con las iteraciones anteriores.
Funcionalidades clave de la serie de datos o1
- Generación de código compleja: capaz de generar algoritmos y controlar tareas avanzadas de codificación para admitir a los desarrolladores.
- Solución avanzada de problemas: ideal para sesiones completas de lluvia de ideas y abordar desafíos multifacéticos.
- Comparación compleja de documentos: perfecto para analizar contratos, archivos de casos o documentos legales para identificar diferencias sutiles.
- Instrucción Siguiente y Administración de flujos de trabajo: especialmente eficaz para administrar flujos de trabajo que requieren contextos más cortos.
Variantes del modelo
o1-preview
:o1-preview
es más capaz de loso1
modelos de serie de datos.o1-mini
:o1-mini
es el más rápido y barato de loso1
modelos de serie de datos.
Versión del modelo: 2024-09-12
Solicitud de acceso: aplicación de modelo de acceso limitado
Limitaciones
Los modelos de la serie o1
están actualmente en versión preliminar y no incluyen algunas características disponibles en otros modelos, como la comprensión de imágenes y las salidas estructuradas que están disponibles en el modelo GPT-4o más reciente. Para muchas tareas, los modelos GPT-4o disponibles con carácter general todavía pueden ser aún más adecuados.
Seguridad
OpenAI ha incorporado medidas de seguridad adicionales en los modelos de o1
, incluidas nuevas técnicas para ayudar a los modelos a rechazar solicitudes no seguras. Estos avances hacen que la serie de datos o1
algunos de los modelos más sólidos estén disponibles.
Disponibilidad
Los o1-preview
y o1-mini
están disponibles en la región Este de EE. UU. 2 para acceso limitado a través del área de juegos de acceso anticipado portal de Azure AI Foundry. El procesamiento de datos para los modelos o1
puede producirse en una región diferente de la que están disponibles para su uso.
Para probar los modelos de o1-preview
y o1-mini
en el área de juegos de acceso anticipado se requiere el registro y se concederá acceso en función de los criterios de idoneidad de Microsoft.
Solicitud de acceso: aplicación de modelo de acceso limitado
Una vez concedido el acceso, deberá hacer lo siguiente:
- Desplácese a https://ai.azure.com/resources y seleccione un recurso en la región
eastus2
. Si no tiene un recurso de Azure OpenAI en esta región, deberá crear uno. - Una vez seleccionado el recurso
eastus2
Azure OpenAI, en el panel superior izquierdo de Áreas de juegos seleccione Área de juegos de acceso anticipado (versión preliminar).
Agosto de 2024
Salidas estructuradas de GPT-4o 2024-08-06
- Disponible para implementaciones estándar y globales en todas las regiones de EE. UU. y Centro de Suecia.
- Este modelo agrega soporte con salidas estructuradas.
Implementaciones aprovisionadas de GPT-4o mini
GPT-4o mini ya está disponible para las implementaciones aprovisionadas en Este de Canadá, Este de EE. UU., Este de EE. UU. 2, Centro-norte de EE. UU. y Centro de Suecia.
Para obtener la información más reciente sobre la disponibilidad del modelo, consulte la página de modelos.
Ajuste preciso de GPT-4o (versión preliminar pública)
El ajuste preciso de GPT-4o ahora está disponible para Azure OpenAI en versión preliminar pública en Centro-norte de EE. UU. y Centro de Suecia.
Para obtener más información, consulte nuestra entrada de blog.
Nueva versión preliminar de la API
La versión de la API 2024-07-01-preview
es la versión más reciente de la API de creación e inferencia del plan de datos. Reemplaza la versión 2024-05-01-preview
de la API y agrega compatibilidad con:
- compatibilidad con Batch API agregada
- Parámetros de estrategia de fragmentación del almacén de vectores
max_num_results
que la herramienta de búsqueda de archivos debe generar.
Para obtener más información, consulte nuestra documentación de referencia
Disponibilidad regional de GPT-4o mini
- GPT-4o mini está disponible para la implementación estándar y global en las regiones Este de EE. UU. y Centro de Suecia.
- GPT-4o mini está disponible para la implementación global por lotes en las regiones Este de EE. UU., Centro de Suecia y Oeste de EE. UU.
Guía de evaluaciones
- Nueva entrada de blog sobre introducción a las evaluaciones de modelos. Se recomienda usar esta guía como parte del proceso de actualización y retirada del modelo.
Modelo GPT-4o más reciente disponible en el área de juegos de acceso anticipado (versión preliminar)
El 6 de agosto de 2024, OpenAI anunció la última versión de su modelo GPT-4o insignia 2024-08-06
. GPT-4o 2024-08-06
tiene todas las funcionalidades de la versión anterior, así como:
- Una capacidad mejorada para admitir salidas estructuradas complejas.
- Los tokens de salida máximos se han aumentado de 4096 a 16 384.
Los clientes de Azure pueden probar GPT-4o 2024-08-06
hoy en el nuevo área de juegos de acceso anticipado de Azure AI Foundry (versión preliminar).
A diferencia del área de juegos de acceso anticipado anterior, el área de juegos de acceso anticipado del portal de Azure AI Foundry (versión preliminar) no requiere que tenga un recurso en una región específica.
Nota:
Los mensajes y finalizaciones realizados desde el área de juegos de acceso anticipado (versión preliminar) se pueden procesar en cualquier región de Azure OpenAI y actualmente están sujetas a un límite de 10 por minuto por cada suscripción de Azure. Este límite podría cambiar en el futuro.
La supervisión del abuso de Azure OpenAI Service está habilitada para todos los usuarios del área de juegos de acceso anticipado, incluso si se aprueban para su modificación. Los filtros de contenido predeterminados están habilitados y no se pueden modificar.
Para probar GPT-4o 2024-08-06
, inicie sesión en el área de juegos de acceso anticipado de Azure AI (versión preliminar) mediante este vínculo.
Las implementaciones de lotes globales ya están disponibles
La API de Batch de Azure OpenAI está diseñada para controlar las tareas de procesamiento a gran escala y de alto volumen de forma eficaz. Procese grupos asincrónicos de solicitudes con cuota independiente, con una solución alternativa de destino de 24 horas, con un costo del 50 % menos que el estándar global. Con el procesamiento por lotes, en lugar de enviar una solicitud cada vez, se envía un gran número de solicitudes en un único archivo. Las solicitudes por lotes globales tienen una cuota de tokens en cola independiente, lo que evita cualquier interrupción de las cargas de trabajo en línea.
Los siguientes son algunos de los principales casos de uso:
Procesamiento de datos a gran escala: analice rápidamente conjuntos de datos extensos en paralelo.
Generación de contenido: cree grandes volúmenes de texto, como descripciones de productos o artículos.
Revisión y resumen de documentos: automatice la revisión y el resumen de documentos largos.
Automatización del soporte al cliente: controle numerosas consultas simultáneamente para respuestas más rápidas.
Extracción y análisis de datos: extraiga y analice información de grandes cantidades de datos no estructurados.
Tareas de procesamiento de lenguaje natural (NLP): realice tareas como análisis de sentimiento o traducción en grandes conjuntos de datos.
Marketing y personalización: genere contenido personalizado y recomendaciones a escala.
Para obtener más información sobre cómo empezar a trabajar con implementaciones de lotes globales.
Julio de 2024
GPT-4o mini ya está disponible para un ajuste preciso
El ajuste preciso de GPT-4o mini ahora está disponible en versión preliminar pública en centro de Suecia y en centro-norte de EE. UU.
Ahora se factura la herramienta de búsqueda de archivos de asistentes
La herramienta de búsqueda de archivos para asistentes ahora tiene cargos adicionales por uso. Consulte la página de precios para más información.
Modelo mini GPT-4o disponible para la implementación
GPT-4o mini es el último modelo de Azure OpenAI por primera vez anunciado el 18 de julio de 2024:
"GPT-4o mini permite a los clientes ofrecer aplicaciones impresionantes a un menor costo con una velocidad vertiginosa. GPT-4o mini es significativamente más inteligente que GPT-3.5 Turbo (obtiene una puntuación del 82 % en la medición de la comprensión lingüística en multitarea masiva [MMLU] frente al 70 %) y es más de un 60 % más barato. El modelo ofrece una ventana contextual ampliada de 128 000 e integra las funciones multilingües mejoradas de GPT-4o, lo que aporta mayor calidad a idiomas de todo el mundo."
El modelo está disponible actualmente para la implementación estándar y global en la región Este de EE. UU.
Para obtener información sobre la cuota del modelo, consulte la página de cuota y límites y para obtener la información más reciente sobre la disponibilidad del modelo, consulte la página de modelos.
Nueva directiva de filtrado de contenido predeterminada de IA responsable
La nueva directiva de filtrado de contenido predeterminada DefaultV2
ofrece las mitigaciones de seguridad y seguridad más recientes para la serie de modelos GPT (texto), entre las que se incluyen:
- Aviso de escudos para ataques de jailbreak en mensajes de usuario (filtro),
- Detección de materiales protegidos para texto (filtro) en finalizaciones del modelo
- Detección de materiales protegidos para código (anotación) en finalizaciones de modelos
Aunque no hay ningún cambio en los filtros de contenido de los recursos e implementaciones existentes (las configuraciones de filtrado de contenido predeterminadas o personalizadas permanecen sin cambios), los nuevos recursos y las implementaciones de GPT heredarán automáticamente la nueva directiva de filtrado de contenido DefaultV2
. Los clientes tienen la opción de cambiar entre los valores predeterminados de seguridad y crear configuraciones de filtrado de contenido personalizadas.
Consulte nuestra Documentación de directiva de seguridad predeterminada para obtener más información.
Nueva versión de la API de disponibilidad general
La versión de api es la versión 2024-06-01
más reciente de la API de inferencia del plano de datos de disponibilidad general. Reemplaza la versión 2024-02-01
de la API y agrega compatibilidad con:
- parámetros de las inserciones
encoding_format
ydimensions
. - parámetros de las finalizaciones de chat
logprobs
ytop_logprobs
.
Consulte la documentación de referencia de inferencia del plano de datos para obtener más información.
Expansión de regiones disponibles para implementaciones estándar globales de gpt-4o
GPT-4o ya está disponible para las implementaciones estándar globales en:
- australiaeast
- brazilsouth
- canadaeast
- estado
- eastus2
- Git de francecentral
- germanywestcentral
- japaneast
- koreacentral
- northcentralus
- norwayeast
- polandcentral
- southafricanorth
- southcentralus
- southindia
- suecia central
- norte de suiza
- uksouth
- westeurope
- westus
- westus3
Para obtener información sobre la cuota estándar global, consulte la página cuota y límites.
Junio de 2024
Actualizaciones de fecha de retirada
- Fecha de retirada actualizada de
gpt-35-turbo
0301 a no antes del 1 de octubre de 2024. - Fecha de retirada actualizada de
gpt-35-turbo
ygpt-35-turbo-16k
0613 al 1 de octubre de 2024. - Fecha de desuso actualizada de
gpt-4
ygpt-4-32k
0314 al 1 de octubre de 2024 y la fecha de retirada al 6 de junio de 2025.
Consulte nuestra guía de retirada de modelos para obtener la información más reciente sobre el desuso y la retirada del modelo.
Facturación basada en tokens para el ajuste preciso
- La facturación de ajuste preciso de Azure OpenAI se basa ahora en el número de tokens del archivo de entrenamiento en lugar del tiempo total de entrenamiento transcurrido. Esto puede dar lugar a una reducción significativa del costo de algunas ejecuciones de entrenamiento y facilita mucho la estimación de los costos de ajuste preciso. Para obtener más información, puede consultar el anuncio oficial.
GPT-4o publicado en nuevas regiones
- GPT-4o ahora también está disponible en:
- Centro de Suecia para la implementación regional estándar.
- Este de Australia, Este de Canadá, Este de Japón, Centro de Corea del Sur, Centro de Suecia, Norte de Suiza y Oeste de EE. UU. 3 para la implementación aprovisionada.
Para obtener la información más reciente sobre la disponibilidad del modelo, consulte la página de modelos.
Compatibilidad con claves administradas por el cliente (CMK) para asistentes
Los subprocesos y los archivos de los asistentes ahora admiten CMK en la siguiente región:
- Oeste de EE. UU. 3
Mayo de 2024
Implementaciones aprovisionadas de GPT-4o
gpt-4o
Versión: 2024-05-13
está disponible para implementaciones estándar y aprovisionadas. Las implementaciones de modelos estándar y aprovisionadas aceptan solicitudes de inferencia de texto e imagen/visión.
Para obtener información sobre la disponibilidad regional del modelo, consulte la matriz de modelos para implementaciones aprovisionadas.
Asistentes v2 (versión preliminar)
Ahora hay disponible públicamente una actualización de la API de asistentes. Contiene las siguientes actualizaciones:
- Herramienta de búsqueda de archivos y almacenamiento de vectores
- finalización máxima y compatibilidad con el token de solicitud máxima para administrar el uso de tokens.
tool_choice
parámetro para forzar al asistente a usar una herramienta especificada. Ahora puede crear mensajes con el rol de asistente para crear historiales de conversaciones personalizados en subprocesos.- Compatibilidad con
temperature
,top_p
,response_format
parámetros. - Compatibilidad con streaming y sondeo. Puede usar las funciones auxiliares en nuestro SDK de Python para crear ejecuciones y transmitir respuestas. También hemos agregado asistentes del SDK de sondeo para compartir actualizaciones de estado de objetos sin necesidad de sondear.
- Experimente con Logic Apps y las llamadas a funciones mediante Azure OpenAI Studio. Importe las API de REST implementadas en Logic Apps como funciones y Studio invocará la función (como flujo de trabajo de Logic Apps) automáticamente en función del mensaje del usuario.
- AutoGen by Microsoft Research proporciona un marco de conversación multiagente para permitir la creación cómoda de flujos de trabajo del modelo de lenguaje grande (LLM) en una amplia gama de aplicaciones. Los asistentes de Azure OpenAI ahora se integran en AutoGen a través de
GPTAssistantAgent
, un nuevo agente experimental que le permite agregar asistentes sin problemas a flujos de trabajo multiagente basados en AutoGen. Esto permite que varios asistentes de Azure OpenAI que podrían ser tareas o dominios especializados, colaboren y aborden tareas complejas. - Compatibilidad con
gpt-3.5-turbo-0125
modelos ajustados en las siguientes regiones:- Este de EE. UU. 2
- Centro de Suecia
- Compatibilidad regional expandida para:
- Japón Oriental
- Sur de Reino Unido
- Oeste de EE. UU.
- Oeste de EE. UU. 3
- Este de Noruega
Para más información, consulte la entrada de blog sobre los asistentes.
Disponibilidad general del modelo GPT-4o (GA)
GPT-4o ("o is for "omni") es el modelo más reciente de OpenAI lanzado el 13 de mayo de 2024.
- GPT-4o integra texto e imágenes en un único modelo, lo que le permite controlar varios tipos de datos simultáneamente. Este enfoque multimodal mejora la precisión y la capacidad de respuesta en las interacciones persona-ordenador.
- GPT-4o iguala a GPT-4 Turbo en tareas de texto y codificación en inglés, al tiempo que ofrece un rendimiento superior en idiomas distintos del inglés y en tareas de visión, estableciendo nuevos puntos de referencia para las capacidades de IA.
Para obtener información sobre la disponibilidad regional del modelo, consulte la página modelos.
Tipo de implementación estándar global (versión preliminar)
Las implementaciones globales están disponibles en los mismos recursos de Azure OpenAI que las ofertas no globales, pero permiten aprovechar la infraestructura global de Azure para enrutar dinámicamente el tráfico al centro de datos con la mejor disponibilidad para cada solicitud. Estándar global proporciona la cuota predeterminada más alta para los nuevos modelos y elimina la necesidad de equilibrar la carga entre varios recursos.
Para obtener más información, consulte la guía de tipos de implementación.
Actualización de ajuste preciso
- El ajuste preciso de GPT-4 ya está disponible en versión preliminar pública.
- Se ha agregado compatibilidad con inicialización, eventos, estadísticas de validación completas y puntos de control como parte de la versión de la API de
2024-05-01-preview
.
Filtros de contenido configurables DALL-E y GPT-4 Turbo Vision GA
Cree filtros de contenido personalizados para las implementaciones DALL-E 2 y 3, GPT-4 Turbo con Vision GA (turbo-2024-04-09
) y GPT-4o. Filtrado de contenido
Filtro asincrónico disponible para todos los clientes de Azure OpenAI
La ejecución de filtros de forma asincrónica para mejorar la latencia en escenarios de streaming ahora está disponible para todos los clientes de Azure OpenAI. Filtrado de contenido
Escudos de avisos
Los escudos de solicitudes protegen las solicitudes con tecnología de modelos de Azure OpenAI de dos tipos de ataques: ataques directos (jailbreak) e indirectos. Los ataques indirectos (también conocidos como ataques de mensajes indirectos o ataques de inyección de mensajes entre dominios) son un tipo de ataque en sistemas con tecnología de modelos de IA generativa que se pueden producir cuando una aplicación procesa información que el desarrollador de la aplicación o el usuario no ha creado directamente. Filtrado de contenido
Versión de la API 2024-05-01-preview
- Para obtener más información, consulte el ciclo de vida de la versión de la API.
Disponibilidad general del modelo GPT-4 Turbo (GA)
La versión más reciente de disponibilidad general de GPT-4 Turbo es:
gpt-4
Versión:turbo-2024-04-09
Este es el reemplazo de los siguientes modelos en versión preliminar:
gpt-4
Versión:1106-Preview
gpt-4
Versión:0125-Preview
gpt-4
Versión:vision-preview
Diferencias entre los modelos de disponibilidad general OpenAI y Azure OpenAI GPT-4 Turbo
- La versión de OpenAI del último modelo turbo
0409
admite el modo JSON y la llamada a funciones para todas las solicitudes de inferencia. - La versión de Azure OpenAI de la
turbo-2024-04-09
más reciente actualmente no admite el uso del modo JSON y la llamada a funciones al realizar solicitudes de inferencia con entrada de imagen (visión). Las solicitudes de entrada basadas en texto (solicitudes sinimage_url
e imágenes insertadas) admiten el modo JSON y las llamadas a funciones.
Diferencias de gpt-4 vision-preview
- Las mejoras específicas de Visión de Azure AI con GPT-4 Turbo con Visión no se admiten para la
gpt-4
Versión:turbo-2024-04-09
. Esto incluye el reconocimiento óptico de caracteres (OCR), la conexión a tierra de objetos, las indicaciones de vídeo y un mejor tratamiento de sus datos con imágenes.
Importante
Las funciones de vista previa de las mejoras de visión, como el reconocimiento óptico de caracteres (OCR), la conexión a tierra de objetos y las indicaciones de vídeo, se retirarán y dejarán de estar disponibles una vez gpt-4
versión: vision-preview
se actualice a turbo-2024-04-09
. Si actualmente confía en alguna de estas características en versión preliminar, esta actualización automática del modelo será un cambio importante.
Disponibilidad administrada aprovisionada por GPT-4 Turbo
gpt-4
Versión:turbo-2024-04-09
está disponible para implementaciones estándar y aprovisionadas. Actualmente, la versión aprovisionada de este modelo no admite solicitudes de inferencia de imagen/visión. Las implementaciones aprovisionadas de este modelo solo aceptan entradas de texto. Las implementaciones de modelos estándar aceptan solicitudes de inferencia de texto e imagen/visión.
Implementación de GPT-4 Turbo con disponibilidad general de Vision
Para implementar el modelo de disponibilidad general desde el portal de Azure AI Foundry, seleccione GPT-4
y elija la versión de turbo-2024-04-09
en el menú desplegable. La cuota predeterminada para el modelo gpt-4-turbo-2024-04-09
será la misma que la cuota actual para GPT-4-Turbo. Consulte los límites de cuota regionales.
Abril de 2024
El ajuste preciso ahora se admite en dos nuevas regiones Este de EE. UU. 2 y Oeste de Suiza
El ajuste preciso ya está disponible con compatibilidad con:
Este de EE. UU. 2
gpt-35-turbo
(0613)gpt-35-turbo
(1106)gpt-35-turbo
(0125)
Oeste de Suiza
babbage-002
davinci-002
gpt-35-turbo
(0613)gpt-35-turbo
(1106)gpt-35-turbo
(0125)
Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo y la compatibilidad con el ajuste preciso en cada región.
Ejemplos de aprendizaje de chat multiturno
La optimización ahora admite ejemplos de entrenamiento de chat multiturno.
GPT-4 (0125) está disponible para Azure OpenAI en los datos
Ahora puede usar el modelo GPT-4 (0125) en regiones disponibles con Azure OpenAI en los datos.
Marzo de 2024
Supervisión de riesgos y seguridad en Azure OpenAI Studio
Azure OpenAI Studio ahora proporciona un panel de riesgos y seguridad para cada una de las implementaciones que usan una configuración de filtro de contenido. Úselo para comprobar los resultados de la actividad de filtrado. A continuación, puede ajustar la configuración del filtro para satisfacer mejor sus necesidades empresariales y cumplir los principios de IA responsable.
Uso de riesgos y supervisión de seguridad
Actualizaciones de Azure OpenAI en los datos
- Ahora puede conectarse a una base de datos de vectores de Elasticsearch que se usará con Azure OpenAI en los datos.
- Puede usar el parámetro de tamaño de fragmento durante la ingesta de datos para establecer el número máximo de tokens de cualquier fragmento de datos determinado del índice.
Lanzamiento de versión de disponibilidad general (GA) 2024-02-01 de la API
Esta es la versión más reciente de disponibilidad general de la API y es el reemplazo de la versión anterior 2023-05-15
de disponibilidad general. En esta versión se agrega compatibilidad con las características más recientes de disponibilidad general de Azure OpenAI, como Whisper, DALLE-3, ajuste preciso, en los datos, etc.
Las características que están en versión preliminar, como los asistentes, texto a voz (TTS), y algunos de los orígenes de datos "en los datos", necesitan una versión preliminar de la API. Para más información, consulte nuestra guía de ciclo de vida de la versión de la API.
Disponibilidad general de Whisper (GA)
El modelo de conversión de voz en texto de Whisper ahora tiene disponibilidad general para REST y Python. Actualmente, los SDK de biblioteca cliente todavía están en versión preliminar pública.
Siga este inicio rápido para probar Whisper.
Disponibilidad general (GA) de DALL-E 3
El modelo de generación de imágenes DALL-E 3 ahora tiene disponibilidad general para REST y Python. Actualmente, los SDK de biblioteca cliente todavía están en versión preliminar pública.
Para probar DALL-E 3 puede seguir un inicio rápido.
Nueva compatibilidad regional con DALL-E 3
Ahora puede acceder a DALL-E 3 con un recurso de Azure OpenAI en la región de Azure East US
o AustraliaEast
, además de SwedenCentral
.
Desuso y retiradas de modelos
Hemos agregado una página para realizar un seguimiento de los desusos y retiradas de modelos en el servicio Azure OpenAI. Esta página proporciona información sobre los modelos que están disponibles actualmente, en desuso y retirados.
2024-03-01-versión preliminar API publicada
2024-03-01-preview
tiene la misma funcionalidad que 2024-02-15-preview
y agrega dos nuevos parámetros para las inserciones:
encoding_format
permite especificar el formato para generar inserciones enfloat
,obase64
. El valor predeterminado esfloat
.dimensions
permite establecer el número de inserciones de salida. Este parámetro solo se admite con los nuevos modelos de inserción de tercera generación:text-embedding-3-large
,text-embedding-3-small
. Normalmente, las inserciones más grandes son más costosas desde una perspectiva de proceso, memoria y almacenamiento. La capacidad de ajustar el número de dimensiones permite un mayor control sobre el costo general y el rendimiento. El parámetrodimensions
no se admite en todas las versiones de la biblioteca Python de OpenAI 1.x; para aprovechar este parámetro, se recomienda actualizar a la versión más reciente:pip install openai --upgrade
.
Si actualmente usa una versión preliminar de la API para aprovechar las características más recientes, se recomienda consultar el artículo Ciclo de vida de la versión de la API para realizar el seguimiento de cuánto tiempo se admitirá la versión actual de la API.
Actualización de la versión GPT-4-1106-Preview de los planes de actualización
La actualización de implementación de gpt-4
1106-Preview a gpt-4
0125-Preview programada para el 8 de marzo de 2024 ya no tiene lugar. Las implementaciones de gpt-4
versiones 1106-Preview y 0125-Preview establecidas en "Actualización automática a predeterminada" y "Actualizar cuando haya expirado" comenzarán a actualizarse después de que se publique una versión estable del modelo.
Para obtener más información sobre el proceso de actualización, consulte la página modelos.
Febrero de 2024
Modelo GPT-3.5-turbo-0125 disponible
Este modelo tiene varias mejoras, incluida una mayor precisión a la hora de responder en formatos solicitados y una corrección para un error que provocó un problema de codificación de texto para llamadas a funciones de idioma no inglés.
Para obtener información sobre la disponibilidad regional del modelo y las actualizaciones, consulte la página de modelos.
Modelos de inserción de tercera generación disponibles
text-embedding-3-large
text-embedding-3-small
En las pruebas, OpenAI informa tanto de los modelos de inserción de tercera generación grandes y pequeños que ofrecen un mejor rendimiento medio de recuperación de varios lenguajes con el banco de pruebaMIRACL, a la vez que mantiene un mejor rendimiento para las tareas en inglés con el banco de pruebas de MTEB que el modelo de inserción de texto de segunda generación ada-002.
Para obtener información sobre la disponibilidad regional del modelo y las actualizaciones, consulte la página de modelos.
Consolidación de cuotas GPT-3.5 Turbo
Para simplificar la migración entre diferentes versiones de los modelos GPT-3.5-Turbo (incluido 16k), se consolidarán todas las cuotas de GPT-3.5-Turbo en un solo valor de cuota.
Los clientes que hayan aumentado la cuota aprobada tendrán cuota total combinada que refleje los aumentos anteriores.
Cualquier cliente cuya utilización total actual en las versiones del modelo sea menor que el valor predeterminado obtendrá una nueva cuota total combinada de manera predeterminada.
Modelo GPT-4-0125-preview disponible
La versión 0125-preview
del modelo gpt-4
ahora está disponible en Azure OpenAI Service en las regiones Este de EE. UU., Centro-norte de EE. UU. y Centro-sur de EE. UU. Los clientes con implementaciones de gpt-4
versión 1106-preview
se actualizarán automáticamente a 0125-preview
en las próximas semanas.
Para obtener información sobre la disponibilidad regional del modelo y las actualizaciones, consulte la página de modelos.
Versión preliminar pública de los asistentes de API
Azure OpenAI ahora admite la API que impulsa los GPT de OpenAI. Los asistentes de Azure OpenAI (versión preliminar) permiten crear asistentes de IA adaptados a sus necesidades mediante instrucciones personalizadas y herramientas avanzadas como el intérprete de código y las funciones personalizadas. Para obtener más información, consulte:
- Guía de inicio rápido
- Conceptos
- Procedimientos detallados de Python
- Intérprete de código
- Llamada a funciones
- Disponibilidad de modelos y regiones de asistentes
- Referencia a los asistentes de Python y REST
- Ejemplos de asistentes
Versión preliminar pública de las voces de texto a voz de OpenAI
Azure OpenAI Service ahora admite las API de texto a voz con las voces de OpenAI. Obtenga la voz generada por IA a partir del texto que proporcione. Para más información, consulte la guía de información general y pruebe el inicio rápido.
Nota:
Voz de Azure AI también admite voces de texto a voz de OpenAI. Para obtener más información, consulte la guía Voces de texto a voz de OpenAI mediante Azure OpenAI Service o Voz de Azure AI.
Nuevas funcionalidades de ajuste y compatibilidad con modelos
Nueva compatibilidad regional con Azure OpenAI en sus datos
Ya puede usar Azure OpenAI en sus datos en la siguiente región de Azure:
- Norte de Sudáfrica
Disponibilidad general de Azure OpenAI en sus datos
- Azure OpenAI en sus datos ya tiene disponibilidad general.
Diciembre de 2023
Azure OpenAI en sus datos
- Compatibilidad completa con VPN y punto de conexión privado para Azure OpenAI en sus datos, incluida la compatibilidad de seguridad con cuentas de almacenamiento, recursos de Azure OpenAI y recursos del servicio Búsqueda de Azure AI.
- Nuevo artículo para usar Azure OpenAI en la configuración de datos mediante la protección de datos con redes virtuales y puntos de conexión privados.
GPT-4 Turbo con Vision, ya disponible
GPT-4 Turbo con Vision en el servicio Azure OpenAI está ahora en versión preliminar pública. GPT-4 Turbo con Vision es un modelo multimodal grande (LMM) desarrollado por OpenAI que puede analizar imágenes y proporcionar respuestas textuales a preguntas sobre ellas. Incorpora tanto el procesamiento del lenguaje natural como la comprensión visual. Con el modo mejorado, puede usar las características de Azure AI Vision para generar información adicional a partir de las imágenes.
- Explore las funcionalidades de GPT-4 Turbo con Vision en una experiencia sin código mediante Azure OpenAI Playground. Obtenga más información en la guía de inicio rápido.
- La mejora de la visión mediante GPT-4 Turbo con Vision ya está disponible en Azure OpenAI Playground e incluye compatibilidad con el reconocimiento óptico de caracteres, la puesta a tierra de objetos, la compatibilidad de imágenes para " agregar sus datos " y la compatibilidad con la indicación de vídeo.
- Realice llamadas a la API de chat directamente mediante la API REST.
- Actualmente, la disponibilidad relativa a las regiones está limitada a
SwitzerlandNorth
,SwedenCentral
,WestUS
yAustraliaEast
. - Obtenga más información sobre las limitaciones conocidas de GPT-4 Turbo con Vision y otras preguntas frecuentes.
noviembre de 2023
Nueva compatibilidad con orígenes de datos en Azure OpenAI en sus datos
- Ahora puede usar Núcleo virtual de Azure Cosmos DB for MongoDB, así como URL o direcciones web como orígenes de datos para ingerir los datos y el chat con un modelo de Azure OpenAI compatible.
GPT-4 Turbo Preview & GPT-3.5-Turbo-1106 publicado
Ambos modelos son la versión más reciente de OpenAI con las instrucciones mejoradas siguientes: modo JSON, la salida reproducible y llamadas a funciones paralelas.
GPT-4 Turbo Preview tiene una ventana de contexto máxima de 128 000 tokens y puede generar 4096 tokens de salida. Tiene los datos de aprendizaje más recientes con conocimientos hasta abril de 2023. Este modelo está en versión preliminar y no se recomienda para su uso en producción. Todas las implementaciones de este modelo de versión preliminar se actualizarán automáticamente una vez que la versión estable esté disponible.
GPT-3.5-Turbo-1106 tiene una ventana de contexto máxima de 16 385 tokens y puede generar 4096 tokens de salida.
Para obtener información sobre la disponibilidad regional del modelo, consulte la página de modelos.
Los modelos tienen sus propias asignaciones de cuota únicas por región.
Versión preliminar pública de DALL-E 3
DALL-E 3 es el modelo de generación de imágenes más reciente de OpenAI. Cuenta con una calidad de imagen mejorada, escenas más complejas y un rendimiento mejorado al representar texto en imágenes. También incluye más opciones de relación de aspecto. DALL-E 3 está disponible en OpenAI Studio y mediante la API REST. El recurso de OpenAI debe estar en la región SwedenCentral
de Azure.
DALL-E 3 incluye reescritura de mensajes integrada para mejorar las imágenes, reducir el sesgo y aumentar la variación natural.
Para probar DALL-E 3 puede seguir un inicio rápido.
IA responsable
Capacidad de configuración de clientes ampliada: todos los clientes de Azure OpenAI ahora pueden configurar todos los niveles de gravedad (bajo, medio, alto) para las categorías odio, violencia, sexual y autolesión, incluido el filtrado de contenido de gravedad alta. Configurar filtros de contenido
Credenciales de contenido en todos los modelos DALL-E: las imágenes generadas por IA de todos los modelos DALL-E ahora incluyen una credencial digital que revela el contenido como generado por IA. Las aplicaciones que muestran recursos de imagen pueden aprovechar el SDK de Content Authenticity Initiative de código abierto para mostrar las credenciales en sus imágenes generadas por IA. Credenciales de contenido en Azure OpenAI
Nuevos modelos RAI
- Detección de riesgos de ataques de jailbreak: los ataques de jailbreak son consultas de usuario diseñadas para provocar que el modelo de IA generativa muestre comportamientos que fue entrenado para evitar o infringir las reglas establecidas en el mensaje del sistema. El modelo de detección de riesgos de jailbreak es opcional (valor predeterminado desactivado) y está disponible en anotar y filtrar el modelo. Se ejecuta en las solicitudes del usuario.
- Texto del material protegido: el texto de material protegido describe contenidos textuales conocidos (por ejemplo, letras de canciones, artículos, recetas y contenidos web seleccionados) que pueden ser emitidos por grandes modelos de lenguaje. El modelo de texto del material protegido es opcional (valor predeterminado desactivado) y está disponible en anotar y filtrar el modelo. Se ejecuta en finalizaciones de LLM.
- Código de material protegido: el código de material protegido describe el código fuente que coincide con un conjunto de códigos fuente de repositorios públicos, que pueden ser emitidos por grandes modelos lingüísticos sin citar adecuadamente los repositorios de origen. El modelo de código del material protegido es opcional (valor predeterminado desactivado) y está disponible en anotar y filtrar el modelo. Se ejecuta en finalizaciones de LLM.
Listas de bloqueados: los clientes ahora pueden personalizar rápidamente el comportamiento del filtro de contenido para las solicitudes y finalizaciones aún más mediante la creación de una lista de bloqueados personalizada en sus filtros. La lista de bloqueados personalizada permite al filtro tomar medidas de una lista personalizada de patrones, como términos específicos o patrones de regex. Además de las listas de bloqueados personalizadas, proporcionamos una lista de bloqueados de palabras soeces de Microsoft (en inglés). Usar listas de bloqueados
Octubre de 2023
Nuevos modelos de ajuste preciso (versión preliminar)
gpt-35-turbo-0613
ahora está disponible para el ajuste preciso.babbage-002
ydavinci-002
ya están disponibles para el ajuste preciso. Estos modelos reemplazan los modelos base de ada, babbage, curie y davinci heredados que anteriormente estaban disponibles para el ajuste preciso.La disponibilidad del ajuste preciso está limitada a determinadas regiones. Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo en cada región.
Los modelos con ajuste preciso tienen límites de cuota diferentes a los de los modelos normales.
Azure OpenAI en sus datos
- Nuevos parámetros personalizados para determinar el número de documentos recuperados y la rigurosidad.
- La configuración de rigurosidad establece el umbral para categorizar los documentos como relevantes para sus consultas.
- La configuración de documentos recuperados especifica el número de documentos con mayor puntuación de su índice de datos utilizados para generar respuestas.
- Puede ver el estado de ingesta y carga de datos en Azure OpenAI Studio.
- Compatibilidad con puntos de conexión privados y VPN para contenedores de blobs.
Septiembre de 2023
GPT-4
GPT-4 y GPT-4-32k ahora están disponibles para todos los clientes de Azure OpenAI Service. Los clientes ya no necesitan solicitar la lista de espera para usar GPT-4 y GPT-4-32k (los requisitos de registro de acceso limitado siguen aplicándose para todos los modelos de Azure OpenAI). La disponibilidad podría variar según la región. Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo en cada región.
GPT-3.5 Turbo Instruct
Azure OpenAI Service ahora admite el modelo GPT-3.5 Turbo Instruct. Este modelo tiene un rendimiento comparable a text-davinci-003
y está disponible para su uso con la API de finalizaciones. Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo en cada región.
Versión preliminar pública de Whisper
Azure OpenAI Service ahora admite las API de conversión de voz en texto con tecnología del modelo Whisper de OpenAI. Obtenga texto generado por IA en función del audio de voz que proporcione. Para obtener más información, consulte el inicio rápido.
Nota:
Voz de Azure AI también admite el modelo Whisper de OpenAI mediante la API de transcripción por lotes. Para más información, consulte la guía Creación de una transcripción por lotes. Consulte ¿Qué es el modelo Whisper? para obtener más información sobre cuándo usar Voz de Azure AI frente a Azure OpenAI Service.
Nuevas regiones
- Azure OpenAI ahora también está disponible en las regiones Centro de Suecia y Norte de Suiza. Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo en cada región.
Aumentos de los límites de cuota regionales
- Aumenta a los límites máximos de cuota predeterminados para ciertos modelos y regiones. La migración de cargas de trabajo a estos modelos y regiones le permitirá aprovechar un mayor número de tokens por minuto (TPM).
Agosto de 2023
Actualizaciones de Azure OpenAI en datos propios (versión preliminar)
- Ahora puede implementar Azure OpenAI en sus datos en Power Virtual Agents.
- Azure OpenAI en sus datos ya admite puntos de conexión privados.
- Capacidad de filtrar el acceso a documentos confidenciales.
- Actualice automáticamente el índice según una programación.
- Opciones de búsqueda de vectores y búsqueda semántica.
- Visualización del historial de chat en la aplicación web implementada
Jul. de 2023
Compatibilidad con llamadas a funciones
- Azure OpenAI ahora admite llamadas a funciones para permitirle trabajar con funciones en la API de finalizaciones de chat.
Aumento de la matriz de entrada de inserción
- Azure OpenAI ahora admite matrices con hasta 16 entradas por solicitud de API con text-embedding-ada-002 versión 2.
Nuevas regiones
- Azure OpenAI ahora también está disponible en las regiones Este de Canadá, Este de EE. UU. 2, Este de Japón y Centro-norte de EE. UU. Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo en cada región.
Junio de 2023
Uso de Azure OpenAI en sus propios datos (versión preliminar)
- Azure OpenAI en sus datos ya está disponible en versión preliminar, lo que le permite chatear con modelos de OpenAI como GPT-35-Turbo y GPT-4 y recibir respuestas basadas en sus datos.
Nuevas versiones de los modelos gpt-35-turbo y gpt-4
- gpt-35-turbo (versión 0613)
- gpt-35-turbo-16k (versión 0613)
- gpt-4 (versión 0613)
- gpt-4-32k (versión 0613)
Sur de Reino Unido
- Azure OpenAI ya está disponible en la región Sur de Reino Unido. Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo en cada región.
Filtrado de contenido y anotaciones (versión preliminar)
- ¿Cómo configurar los filtros de contenido con Azure OpenAI Service?
- Habilite las anotaciones para ver la información de gravedad y categoría de filtrado de contenido como parte de las llamadas a Chat Completion y GPT-Based Completion (finalización basada en GPT).
Quota
- La cuota proporciona flexibilidad para administrar activamente la asignación de límites de velocidad en las implementaciones de la suscripción.
Mayo de 2023
Compatibilidad con el SDK de Java y JavaScript
- Los NUEVOS SDK en versión preliminar de Azure OpenAI ofrecen compatibilidad con JavaScript y Java.
Disponibilidad general (GA) de Chat Completion de Azure OpenAI
- Compatibilidad de disponibilidad general para:
- Versión
2023-05-15
de la API Chat Completion. - Modelos GPT-35-Turbo.
- Serie de modelos GPT-4.
- Versión
Si actualmente usa la API 2023-03-15-preview
, se recomienda migrar a la API 2023-05-15
de disponibilidad general. Si actualmente usa la versión 2022-12-01
de la API, sigue siendo de disponibilidad general, pero no incluye las funcionalidades más recientes de finalización de chat.
Importante
El uso de las versiones actuales de los modelos GPT-35-Turbo con el punto de conexión de Completion permanece en versión preliminar.
Centro de Francia
- Azure OpenAI ya está disponible en la región Centro de Francia. Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo en cada región.
abril de 2023
Versión preliminar pública de DALL-E 2. Azure OpenAI Service ahora admite API de generación de imágenes con tecnología del modelo DALL-E 2 de OpenAI. Obtenga imágenes generadas por IA en función del texto descriptivo que proporcione. Para obtener más información, consulte el inicio rápido.
Las implementaciones inactivas de modelos personalizados ahora se eliminarán después de 15 días; los modelos seguirán estando disponibles para la reimplementación. Si se implementa un modelo personalizado (ajustado) durante más de quince (15) días durante los cuales no se realizan finalizaciones ni llamadas de finalización de chat, la implementación se eliminará automáticamente (y no se incurrirá en ningún cargo de hospedaje adicional por esa implementación). El modelo personalizado subyacente permanecerá disponible y se puede volver a implementar en cualquier momento. Para obtener más información, consulte el artículo de procedimientos.
Marzo de 2023
Los modelos de la serie GPT-4 ya están disponibles en versión preliminar en Azure OpenAI. Los clientes de Azure OpenAI existentes pueden solicitar acceso rellenando este formulario. Estos modelos están disponibles actualmente en las regiones Este de EE. UU. y Centro-sur de EE. UU.
Nueva API de finalización de chat para los modelos de GPT-35-Turbo y GPT-4 publicados en versión preliminar el 21/2. Para más información, consulte los inicios rápidos actualizados y el artículo de procedimientos.
GPT-35-Turbo (versión preliminar). Para más información, consulte el artículo de procedimientos.
Aumento de los límites de entrenamiento para la optimización: el tamaño máximo del trabajo de entrenamiento (tokens en el archivo de entrenamiento) x (número de épocas) es de 2 mil millones de tokens para todos los modelos. También hemos aumentado el trabajo de entrenamiento máximo de 120 a 720 horas.
Agregar casos de uso adicionales a su acceso existente. Anteriormente, el proceso para agregar nuevos casos de uso requería que los clientes vuelvan a aplicar al servicio. Ahora, vamos a publicar un nuevo proceso que le permite agregar rápidamente nuevos casos de uso a su uso del servicio. Esto sigue el proceso establecido de acceso limitado dentro de los servicios de Azure AI. Los clientes actuales pueden dar fe de todos y cada uno de los nuevos casos de uso aquí. Tenga en cuenta que esto es necesario siempre que desee utilizar el servicio para un nuevo caso de uso que no solicitó originalmente.
2023 de febrero
Características nuevas
- .NET SDK(inferencia) versión preliminar | Muestras
- Actualización del SDK de Terraform para admitir operaciones de administración de Azure OpenAI.
- La inserción de texto al final de una finalización ahora se admite con el parámetro
suffix
.
Actualizaciones
- El filtrado de contenidos está activado por defecto.
Nuevos artículos sobre:
Nuevo curso de formación:
Enero de 2023
Características nuevas
Disponibilidad general del servicio. Azure OpenAI Service ya está disponible con carácter general.
Nuevos modelos: adición del último modelo de texto, text-davinci-003 (Este de EE. UU., Oeste de Europa), text-ada-embeddings-002 (Este de EE. UU., Centro-sur de EE. UU., Oeste de Europa)
Diciembre de 2022
Nuevas características
Los modelos más recientes de OpenAI. Azure OpenAI proporciona acceso a todos los modelos más recientes, incluida la serie GPT-3.5.
Nueva versión de la API (01-12-2022). Esta actualización incluye varias mejoras solicitadas, incluida la información de uso de tokens en la respuesta de la API, los mensajes de error mejorados para los archivos, la alineación con OpenAI en la estructura de datos de creación de ajustes precisos y la compatibilidad con el parámetro de sufijo para permitir la nomenclatura personalizada de los trabajos con ajustes precisos.
Límites más altos de solicitudes por segundo. 50 para modelos que no son Davinci. 20 para modelos Davinci.
Implementaciones de ajustes precisos más rápidas. Implemente los modelos Ada y Curie con ajustes precisos en menos de 10 minutos.
Límites de entrenamiento más altos: 40 millones de tokens de entrenamiento para Ada, Babbage y Curie. 10 millones para Davinci.
Proceso para solicitar modificaciones en el registro de datos de abuso y uso indebido y revisión humana. Hoy en día, el servicio registra los datos de solicitud y respuesta para detectar abusos y usos indebidos a fin de asegurarse de que estos modelos eficaces no se usen de forma incorrecta. Sin embargo, muchos clientes tienen requisitos estrictos de privacidad y seguridad de los datos que requieren un mayor control sobre estos. Para admitir estos casos de uso, vamos a lanzar un nuevo proceso para que los clientes modifiquen las directivas de filtrado de contenido o desactiven el registro de abusos en los casos de uso de riesgo bajo. Esto sigue el proceso de acceso limitado establecido en servicios de Azure AI y los clientes existentes de OpenAI pueden solicitarlo aquí.
Cifrado mediante claves administradas por el cliente (CMK). Una CMK proporciona a los clientes un mayor control sobre la administración de sus datos en Azure OpenAI al proporcionarles claves de cifrado propias que se usan para almacenar datos de entrenamiento y modelos personalizados. Las claves administradas por el cliente (CMK), también conocidas como Bring Your Own Key (BYOK), ofrecen más flexibilidad para crear, girar, deshabilitar y revocar controles de acceso. También permite auditar las claves de cifrado que se usan para proteger los datos. Obtenga más información en nuestra documentación sobre cifrado en reposo.
Compatibilidad con la caja de seguridad
Cumplimiento de SOC-2
Registro y diagnóstico a través de Azure Resource Health, Análisis de costos y configuración de métricas y diagnóstico.
Mejoras de Studio. Numerosas mejoras de facilidad de uso para el flujo de trabajo de Studio, incluida la compatibilidad con roles de Azure AD para controlar quién tiene acceso en el equipo para crear modelos con ajustes precisos e implementarlos.
Cambios (importantes)
La creación de solicitud de API de ajuste preciso se ha actualizado para que coincida con el esquema de OpenAI.
Versiones preliminares de la API:
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"hyperparams": {
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
}
Versión de API 2022-12-01:
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
El filtrado de contenido está desactivado temporalmente de forma predeterminada. La moderación de contenido de Azure funciona de forma diferente a Azure OpenAI. Azure OpenAI ejecuta filtros de contenido durante la llamada de generación para detectar contenido perjudicial u ofensivo y filtra desde la respuesta. Más información
Estos modelos se rehabilitarán en el primer trimestre de 2023 y estarán activados de forma predeterminada.
Acciones del cliente
- Póngase en contacto con el Soporte técnico de Azure si quiere que se activen para su suscripción.
- Solicite modificaciones de filtrado si quiere que permanezcan desactivadas. (Esta opción solo será para casos de uso de riesgo bajo).
Pasos siguientes
Más información sobre los modelos subyacentes que impulsan Azure OpenAI.