¿Qué es la inferencia del modelo de Azure AI?
La inferencia del modelo de Azure AI proporciona acceso a los modelos más eficaces disponibles en el catálogo de modelo de Azure AI. Los modelos proceden de proveedores de modelos clave del sector, incluidos OpenAI, Microsoft, Meta, Mistral, Cohere, G42 y AI21 Labs. Estos modelos se pueden integrar con soluciones de software para ofrecer una amplia gama de tareas, como la generación de contenido, el resumen, la comprensión de imágenes, la búsqueda semántica y la generación de código.
La inferencia del modelo de Azure AI proporciona una manera de consumir modelos como API sin hospedarlos en la infraestructura. Los modelos se hospedan en una infraestructura administrada por Microsoft, lo que permite el acceso basado en API al modelo del proveedor de modelos. El acceso basado en API puede reducir drásticamente el coste de acceder a un modelo y simplificar la experiencia de aprovisionamiento.
La inferencia del modelo de Azure AI forma parte de Servicios de Azure AI y los usuarios pueden acceder al servicio a través de API de REST, SDK en varios lenguajes, como Python, C#, JavaScript y Java. También puede usar la inferencia del modelo de Azure AI de Fundición de IA de Azure mediante la configuración de una conexión.
Models
Puede obtener acceso a los proveedores de modelos clave del sector, incluidos OpenAI, Microsoft, Meta, Mistral, Cohere, G42 y AI21 Labs. Los proveedores de modelos definen los términos de licencia y establecen el precio para el uso de sus modelos. En la lista siguiente se muestran todos los modelos disponibles:
Sugerencia
Consulte el artículo Modelos para obtener una vista detallada de los modelos, funcionalidades y detalles.
Proveedor | Models |
---|---|
AI21 Labs | - AI21-Jamba-1.5-Mini - AI21-Jamba-1.5-Large |
Azure OpenAI | - o1 - gpt-4o - o1-preview - o1-mini - gpt-4o-mini - text-embedding-3-large - text-embedding-3-small |
Cohere | - Cohere-embed-v3-english - Cohere-embed-v3-multilingual - Cohere-command-r-plus-08-2024 - Cohere-command-r-08-2024 - Cohere-command-r-plus - Cohere-command-r |
Core42 | - jais-30b-chat |
Meta | - Llama-3.3-70B-Instruct - Llama-3.2-11B-Vision-Instruct - Llama-3.2-90B-Vision-Instruct - Meta-Llama-3.1-405B-Instruct - Meta-Llama-3-8B-Instruct - Meta-Llama-3.1-70B-Instruct - Meta-Llama-3.1-8B-Instruct - Meta-Llama-3-70B-Instruct |
Microsoft | - Phi-3-mini-128k-instruct - Phi-3-mini-4k-instruct - Phi-3-small-8k-instruct - Phi-3-medium-128k-instruct - Phi-3-medium-4k-instruct - Phi-3.5-vision-instruct - Phi-3.5-MoE-instruct - Phi-3-small-128k-instruct - Phi-3.5-mini-instruct - Phi-4 |
Mistral AI | - Ministral-3B - Mistral-large - Mistral-small - Mistral-Nemo - Mistral-large-2407 - Mistral-Large-2411 - Codestral-2501 |
NTT Data | - Tsuzumi-7b |
Precios
En el caso de los modelos de proveedores que no son de Microsoft (por ejemplo, modelos Mistral y Meta AI), la facturación se realiza a través de Azure Marketplace. Para estos modelos, es necesario suscribirse a la oferta de modelo determinada de acuerdo con los Términos de uso del Marketplace comercial de Microsoft. Los usuarios aceptan los términos de licencia para el uso de los modelos. La información de precios para el consumo se proporciona durante la implementación.
En el caso de los modelos de Microsoft (por ejemplo, los modelos Phi-3 y los modelos de Azure OpenAI) la facturación se realiza a través de medidores de Azure como Servicios de consumo de primera parte. Como se describe en Términos del producto, compra servicios de consumo de primera entidad mediante medidores de Azure, pero no están sujetos a los términos del servicio de Azure.
Sugerencia
Aprenda a supervisar y administrar el coste en la inferencia del modelo de Azure AI.
IA responsable
En Microsoft, estamos comprometidos con el avance de la inteligencia artificial controlado por ciertos principios que antepongan a las personas. Los modelos generativos, como los disponibles en los modelos de Azure AI, tienen importantes beneficios potenciales, pero, sin un diseño cuidadoso y mitigación reflexiva, tales modelos tienen el potencial de generar contenido incorrecto o incluso dañino.
Microsoft ayuda a evitar abusos y daños involuntarios mediante las siguientes acciones:
- Incorporar los principios para el uso de la IA responsable de Microsoft
- Adoptar un código de conducta para el uso del servicio
- Crear filtros de contenido para admitir a los clientes
- Proporcionar información y orientación sobre la IA responsable que los clientes deben tener en cuenta al usar Azure OpenAI.
Introducción
La inferencia del modelo de Azure AI es una nueva oferta de características en los recursos de Servicios de Azure AI. Puede empezar a utilizarlo de la misma manera que cualquier otro producto de Azure en el que crea y configura el recurso para la inferencia del modelo de Azure AI, o bien una instancia del servicio, en la suscripción de Azure. Puede crear tantos recursos como sea necesario y configurarlos de forma independiente en caso de que tenga varios equipos con requisitos diferentes.
Una vez creado un recurso de Servicios de Azure AI, debe implementar un modelo para poder empezar a realizar llamadas API. De forma predeterminada, no hay modelos disponibles en él, por lo que puede controlar los que se van a iniciar. Consulte el tutorial Creación de la primera implementación de modelos en la inferencia del modelo de Azure AI.