Editar

Compartir a través de


Preguntas más frecuentes sobre la inferencia del modelo de Azure AI

Si no puede encontrar respuestas a sus preguntas en este documento y aún necesita ayuda, consulte la Guía de opciones de soporte de los servicios de Azure AI.

General

¿Cuál es la diferencia entre el servicio Azure OpenAI y la inferencia del modelo de Azure AI?

Azure OpenAI Service proporciona a los clientes acceso a modelos de lenguaje avanzados desde OpenAI. La inferencia del modelo de Azure AI amplía esta funcionalidad, lo que proporciona a los clientes acceso a todos los modelos insignia de Azure AI en el mismo servicio, punto de conexión y credenciales. Incluye Azure OpenAI, Cohere, Mistral AI, Meta Llama, AI21 Labs, etc. Los clientes pueden cambiar fácilmente entre modelos sin cambiar su código.

Tanto Azure OpenAI Service como la inferencia del modelo de Azure AI forman parte de la familia de servicios de Azure AI y se basan en la misma promesa empresarial y de seguridad de Azure.

Aunque la inferencia del modelo de Azure AI se centra en la inferencia, Azure OpenAI Service se puede usar con API más avanzadas, como lotes, ajuste preciso, asistentes y archivos.

¿Cuál es la diferencia entre OpenAI y Azure OpenAI?

Azure AI Models y Azure OpenAI Service proporcionan a los clientes acceso a modelos de lenguaje avanzados desde OpenAI con la promesa empresarial y de seguridad de Azure. Azure OpenAI desarrolla conjuntamente las API con OpenAI, lo que garantiza compatibilidad y una transición fluida de una a otra.

Los clientes obtienen las funcionalidades de seguridad de Microsoft Azure mientras ejecutan los mismos modelos que OpenAI. Ofrece redes privadas, disponibilidad regional y filtrado de contenido de IA responsable.

Obtener más información sobre Azure OpenAI Service.

¿Cuál es la diferencia entre los servicios de Azure AI y Fundición de IA de Azure?

Los servicios de Azure AI son un conjunto de servicios de inteligencia artificial que proporcionan API precompiladas para escenarios comunes de inteligencia artificial. Servicios de Azure AI forma parte de la plataforma Fundición de IA de Azure. Los servicios de Azure AI se pueden usar en el portal de Azure AI Foundry para mejorar los modelos con funcionalidades de inteligencia artificial precompiladas.

Modelos

¿Por qué no se admiten todos los modelos del catálogo de modelo de Azure AI en los servicios de Azure AI?

La inferencia del modelo de Azure AI en los servicios de IA admite todos los modelos del catálogo de Azure AI con facturación de pago por uso. Para obtener más información, consulte el artículo Modelos.

El catálogo de modelos de Azure AI contiene una lista más amplia de modelos; sin embargo, esos modelos requieren cuota de proceso de la suscripción. También deben tener un proyecto o un centro de inteligencia artificial donde hospedar la implementación. Para más información, consulte Opciones de implementación en Fundición de IA de Azure.

SDK y lenguajes de programación

¿Cuáles son los SDK y lenguajes de programación admitidos para la inferencia del modelo de Azure AI?

Puede usar el SDK de inferencia de Azure con cualquier modelo compatible con la inferencia de modelo de Azure AI en los servicios de Azure AI, la clase AzureOpenAI en el SDK de OpenAI o el SDK de Azure OpenAI.

El SDK de Cohere, el SDK de Mistral y los SDK específicos del proveedor de modelos no se admiten cuando están conectados a los servicios de Azure AI.

Para obtener más información, consulte SDK y lenguajes de programación compatibles.

¿Funciona la inferencia del modelo de Azure AI con la biblioteca de Python más reciente publicada por OpenAI (versión>=1.0)?

Los servicios de Azure AI admiten la versión más reciente de la biblioteca de Python de OpenAI (versión>=1.0).

Estoy solicitando un modelo que admita la inferencia del modelo de Azure AI, pero obtengo un error 404. ¿Cuál debo hacer?

Asegúrese de que ha creado una implementación para el modelo especificado y que el nombre de implementación coincide exactamente con el valor que está pasando en el parámetro model. Aunque el enrutamiento no distingue mayúsculas de minúsculas, asegúrese de que no haya signos de puntuación especiales ni espacios, ya que son errores comunes.

Uso el paquete `azure-ai-inference` para Python y obtengo un error 401 cuando intento autenticar mediante claves. ¿Cuál debo hacer?

El recurso de Servicios de Azure AI necesita la versión azure-ai-inference>=1.0.0b5 para Python. Asegúrese de que usa esa versión.

Uso el SDK de OpenAI e indico el punto de conexión de inferencia de Azure OpenAI como dirección URL base (https://<resource-name>.openai.azure.com). Sin embargo, obtengo un error 404. ¿Cuál debo hacer?

Asegúrese de que usa el punto de conexión correcto para el servicio Azure OpenAI y el conjunto correcto de credenciales. Además, asegúrese de que usa la clase AzureOpenAI del SDK de OpenAI, ya que el mecanismo de autenticación y las direcciones URL que se usan son diferentes.

¿Admite la inferencia del modelo de Azure AI encabezados de API personalizados? Anexamos encabezados personalizados a nuestras solicitudes de API y vemos errores HTTP 431.

Nuestras API actuales permiten hasta 10 encabezados personalizados, que se pasan a través de la canalización y se devuelven. Hemos observado que algunos clientes superan este número de encabezados, lo que provoca errores HTTP 431. No hay solución para este error, salvo reducir el volumen de la cabecera. En futuras versiones de API ya no pasamos por encabezados personalizados. Se recomienda no depender de encabezados personalizados en futuras arquitecturas del sistema.

Precios y facturación

¿Cómo se factura la inferencia del modelo de Azure AI?

Se le facturan entradas y salidas a las API, normalmente en tokens. No hay ningún costo asociado al propio recurso ni a las implementaciones.

El precio del token varía según cada modelo y se le factura por 1000 tokens. Puede ver los detalles de precios antes de implementar un modelo determinado. Para obtener más información sobre la facturación, consulte Administrar coste.

¿Dónde puedo ver los detalles de la factura?

La facturación y los costos se muestran en Azure Cost Management + Billing. Puede ver los detalles de uso en Azure Portal.

La facturación no se muestra en el portal de Azure AI Foundry.

¿Cómo puedo colocar un límite de gasto en mi factura?

Puede configurar un límite de gasto en Azure Portal en Azure Cost Management + Billing. Este límite le impide gastar más del límite establecido. Una vez alcanzado el límite de gasto, la suscripción se deshabilitará y no podrá usar el punto de conexión hasta el siguiente ciclo de facturación.

Datos y privacidad

¿Se usan mis datos empresariales para entrenar cualquiera de los modelos?

La inferencia del modelo de Azure AI no usa datos de clientes para volver a entrenar modelos y los datos de los clientes nunca se comparten con proveedores de modelos.

Compromiso de derechos de autor del cliente

El Compromiso de derechos de autor del cliente es una disposición que se incluirá en los términos del producto de Microsoft del 1 de diciembre de 2023, que describe la obligación de Microsoft de defender a los clientes frente a ciertas reclamaciones de propiedad intelectual que no sean de Microsoft relacionadas con el contenido de salida. Si el asunto de la notificación es Contenido de salida generado desde Azure OpenAI Service (o cualquier otro producto bajo cobertura que permita a los clientes configurar los sistemas de seguridad), para recibir cobertura, los clientes deben haber implementado todas las mitigaciones requeridas por la documentación de Azure OpenAI Service en la oferta que entregó el contenido de salida. Las mitigaciones necesarias se documentan aquí y se actualizan continuamente. En el caso de los nuevos servicios, características, modelos o casos de uso, se publicarán nuevos requisitos de CCC y surtirán efecto al lanzamiento de dicho servicio, característica, modelo o caso de uso. De lo contrario, los clientes tendrán seis meses a partir del momento de la publicación para implementar nuevas mitigaciones para mantener la cobertura bajo el CCC. Si un cliente licita una reclamación, será necesario que demuestre el cumplimiento de los requisitos pertinentes. Estas mitigaciones son necesarias para los productos bajo cobertura que permiten a los clientes configurar los sistemas de seguridad, incluido Azure OpenAI Service; no afectan a la cobertura para los clientes que utilizan otros servicios bajo cobertura.