Editar

Compartir a través de


Preguntas más frecuentes sobre el servicio de inferencia del modelo de Azure AI

Si no puede encontrar respuestas a sus preguntas en este documento y aún necesita ayuda, consulte la Guía de opciones de soporte de los servicios de Azure AI.

General

¿Cuál es la diferencia entre el servicio Azure OpenAI y el servicio de inferencia del modelo de Azure AI?

El servicio Azure OpenAI proporciona a los clientes acceso a modelos de lenguaje avanzados desde OpenAI. El servicio de inferencia de modelos de Azure AI proporciona a los clientes acceso a todos los modelos insignia de Azure AI, incluidos Azure OpenAI, Cohere, Mistral AI, Meta Llama, AI21 labs, etc. Este acceso está bajo el mismo servicio, punto de conexión y credenciales. Los clientes pueden cambiar fácilmente entre modelos sin cambiar su código.

Tanto el servicio Azure OpenAI como el servicio de inferencia de modelos de Azure AI forman parte de la familia de servicios de Azure AI y se basan en la misma promesa empresarial y de seguridad de Azure.

Aunque el servicio de inferencia de modelos de Azure AI se centra en la inferencia, el servicio Azure OpenAI se puede usar con API más avanzadas, como lotes, ajuste preciso, asistentes y archivos.

¿Cuál es la diferencia entre OpenAI y Azure OpenAI?

Azure AI Models y Azure OpenAI Service proporcionan a los clientes acceso a modelos de lenguaje avanzados desde OpenAI con la promesa empresarial y de seguridad de Azure. Azure OpenAI desarrolla conjuntamente las API con OpenAI, lo que garantiza compatibilidad y una transición fluida de una a otra.

Los clientes obtienen las funcionalidades de seguridad de Microsoft Azure mientras ejecutan los mismos modelos que OpenAI. Ofrece redes privadas, disponibilidad regional y filtrado de contenido de IA responsable.

Obtener más información sobre Azure OpenAI Service.

¿Cuál es la diferencia entre la inferencia de modelos de Azure AI y Azure AI Foundry?

Los servicios de Azure AI son un conjunto de servicios de inteligencia artificial que proporcionan API precompiladas para escenarios comunes de inteligencia artificial. Uno de ellos es el servicio de inferencia de modelos de Azure AI que se centra en el servicio de inferencia de diferentes modelos de última generación. El portal de Azure AI Foundry es una herramienta basada en web que permite crear, entrenar e implementar modelos de aprendizaje automático. Los servicios de Azure AI se pueden usar en el portal de Azure AI Foundry para mejorar los modelos con funcionalidades de inteligencia artificial precompiladas.

¿Cuál es la diferencia entre el servicio de inferencia de modelos de Azure AI y las implementaciones de modelos de API sin servidor en el portal de Azure AI Foundry?

Ambas tecnologías permiten implementar modelos sin necesidad de recursos de proceso, ya que se basan en la idea Models as Service. Las implementaciones de modelos de API sin servidor permiten implementar un único modelo en un punto de conexión y credenciales únicos. Debe crear un punto de conexión diferente para cada modelo que quiera implementar. Además, siempre se crean en el contexto del proyecto y, aunque se pueden compartir mediante la creación de conexiones desde otros proyectos, se encuentran en el contexto de un proyecto determinado.

El servicio de inferencia de modelos de Azure AI permite implementar varios modelos en el mismo punto de conexión y credenciales. Puede cambiar entre modelos sin cambiar el código. También están en el contexto de un recurso compartido, el recurso de Azure AI Services, lo que implica que puede conectar el recurso a cualquier proyecto o centro que requiera consumir los modelos que ha puesto a disposición. El servicio de inferencia de modelos de Azure AI incluye una funcionalidad de enrutamiento de modelos integrada que enruta la solicitud al modelo correcto en función del nombre del modelo que pase en la solicitud.

Estas dos opciones de implementación de modelos también tienen algunas diferencias en cuanto a sus funcionalidades. Puede leer sobre ellos en [.. /concepts/deployment-overview.md]

Models

¿Por qué no se admiten todos los modelos del catálogo de modelos de Azure AI en la inferencia de modelos de Servicios de Azure AI?

El servicio de inferencia de modelos de Azure AI en los servicios de IA admite todos los modelos del catálogo de Azure AI con facturación de pago por uso (por token). Para obtener más información, vea la sección Modelos.

El catálogo de modelos de Azure AI contiene una lista más amplia de modelos; sin embargo, esos modelos requieren cuota de proceso de la suscripción. También deben tener un proyecto o un centro de inteligencia artificial donde hospedar la implementación. Para más información, consulte Opciones de implementación en el portal de Azure AI Foundry.

¿Por qué no puedo agregar OpenAI o1-preview u OpenA o1-mini-preview a mi recurso?

Los modelos de Azure OpenAI Service o1 requieren el registro y solo son aptos para los clientes de la oferta del Contrato Enterprise. Las suscripciones que no están bajo la oferta del Contrato Enterprise están sujetas a denegación. Incorporamos clientes aptos a medida que tenemos espacio. Debido a la alta demanda, los clientes elegibles pueden permanecer en la lista de espera hasta que haya espacio disponible.

Otros modelos (consulte la lista) no requieren registro. Obtenga más información sobre el acceso limitado a Azure OpenAI Service.

SDK y lenguajes de programación

¿Cuáles son los SDK y lenguajes de programación admitidos para el servicio de inferencia de modelos de Azure AI?

Puede usar el SDK de Inferencia de Azure con cualquier modelo compatible con:

  • SDK de inferencia de Azure AI
  • La clase AzureOpenAI del SDK de OpenAI
  • El SDK de Azure OpenAI

El SDK de Cohere, el SDK de Mistral y los SDK específicos del proveedor de modelos no se admiten cuando están conectados al servicio de inferencia de modelos de Azure AI.

Para obtener más información, consulte SDK y lenguajes de programación compatibles.

¿Funciona el servicio de inferencia de modelos de Azure AI con la biblioteca de Python más reciente publicada por OpenAI (versión>=1.0)?

La versión más reciente de la biblioteca de Python de OpenAI (versión>=1.0) admite servicios de Azure AI.

Estoy solicitando un modelo que admita el servicio de inferencia de modelos de Azure AI, pero obtengo un error 404. ¿Cuál debo hacer?

Asegúrese de que ha creado una implementación para el modelo especificado y que el nombre de implementación coincide exactamente con el valor que está pasando en el parámetro model. Aunque el enrutamiento no distingue mayúsculas de minúsculas, asegúrese de que no haya signos de puntuación especiales ni espacios tipográficos.

Uso el paquete azure-ai-inference para Python y obtengo un error 401 cuando intento autenticar mediante claves. ¿Cuál debo hacer?

El recurso de Servicios de Azure AI necesita la versión azure-ai-inference>=1.0.0b5 para Python. Asegúrese de que usa esa versión.

Uso el SDK de OpenAI e indico el punto de conexión de inferencia de Azure OpenAI como dirección URL base (https://<resource-name>.openai.azure.com). Sin embargo, obtengo un error 404. ¿Cuál debo hacer?

Asegúrese de que usa el punto de conexión correcto para el servicio Azure OpenAI y el conjunto correcto de credenciales. Además, asegúrese de que usa la clase AzureOpenAI del SDK de OpenAI, ya que el mecanismo de autenticación y las direcciones URL que se usan son diferentes.

¿Admite el servicio de inferencia de modelos de Azure AI encabezados de API personalizados? Anexamos encabezados personalizados adicionales a nuestras solicitudes de API y vemos errores HTTP 431.

Nuestras API actuales permiten hasta 10 encabezados personalizados, que se pasan a través de la canalización y se devuelven. Hemos observado que algunos clientes superan este número de encabezados, lo que provoca errores HTTP 431. No hay solución para este error, salvo reducir el volumen de la cabecera. Recomendamos a los clientes que no dependan de encabezados personalizados en futuras arquitecturas de sistemas.

Precios y facturación

¿Cómo se factura el servicio de inferencia de modelos de Azure AI?

Se le facturan entradas y salidas a las API, normalmente en tokens. No hay ningún costo asociado al propio recurso ni a las implementaciones.

El precio del token varía según cada modelo y se le factura por 1000 tokens. Puede ver los detalles de precios antes de implementar un modelo determinado.

¿Dónde puedo ver los detalles de la factura?

La facturación y los costos se muestran en Microsoft Cost Management + Billing. Puede ver los detalles de uso en Azure Portal.

La facturación no se muestra en el portal de Azure AI Foundry.

¿Cómo puedo colocar un límite de gasto en mi factura?

Puede configurar un límite de gasto en Azure Portal en Cost Management. Este límite le impide gastar más del importe establecido. Una vez alcanzado el límite de gasto, la suscripción queda deshabilitada y no puede usar el punto de conexión hasta el siguiente ciclo de facturación. Para más información, consulte Tutorial: Creación y administración de presupuestos.

Datos y privacidad

¿Se usan mis datos empresariales para entrenar cualquiera de los modelos?

La inferencia de modelos de Azure AI no usa datos de cliente para volver a entrenar modelos. Los datos nunca se comparten con proveedores de modelos.