Servicios de IA en Fabric (versión preliminar)
Importante
Esta característica se encuentra en versión preliminar.
Servicios de Azure AI ayudan a desarrolladores y organizaciones a crear rápidamente aplicaciones inteligentes, avanzadas, listas para el mercado y responsables con API y modelos precompilados y personalizables. Anteriormente denominado Azure Cognitive Services, los servicios de Azure AI permiten a los desarrolladores trabajar incluso cuando no tienen habilidades o conocimientos directos en inteligencia artificial o ciencia de datos. El objetivo de servicios de Azure AI es ayudar a los desarrolladores a crear aplicaciones que puedan ver, oír, hablar, comprender e incluso empezar a razonar.
Fabric proporciona dos opciones para usar los servicios de Azure AI:
Modelos de IA precompilados en Fabric (versión preliminar)
Fabric se integra sin problemas con los servicios de Azure AI, lo que le permite enriquecer los datos con modelos de IA pregenerados sin ningún requisito previo. Se recomienda esta opción porque puede usar la autenticación de Fabric para acceder a los servicios de inteligencia artificial y todos los usos se facturan a su capacidad de Fabric. Esta opción se encuentra actualmente en versión preliminar pública, con servicios de IA limitados disponibles.
Fabric ofrece Azure OpenAI Service, Text Analytics y Traductor de Azure AI de manera predeterminada, con compatibilidad con SynapseML y la API RESTful. También puede usar la biblioteca de Python de OpenAI para acceder al servicio Azure OpenAI en Fabric. Para más información sobre los modelos disponibles, visite Modelos de IA precompilados en Fabric.
Bring Your Own Key (BYOK)
Puede aprovisionar los servicios de IA en Azure y traer su propia clave para usarlos desde Fabric. Si los modelos de IA precompilados aún no admiten los servicios de IA deseados, puede seguir usando BYOK (Bring Your Own Key).
Para más información sobre cómo usar los servicios de Azure AI con BYOK, visite Servicios de Azure AI en SynapseML con BYOK.
Modelos de IA pregenerados en Fabric (versión preliminar)
Nota:
Los modelos de IA precompilados están disponibles actualmente en versión preliminar y se ofrecen de forma gratuita, con un límite en el número de solicitudes simultáneas por usuario. En el caso de los modelos de Open AI, el límite es de 20 solicitudes por minuto por usuario.
Azure OpenAI Service
API REST, SDK de Python. SynapseML
- GPT-35-turbo: los modelos GPT-3.5 pueden comprender y generar lenguaje natural o código. El modelo más capaz y rentable de la familia GPT-3.5 es GPT-3. La opción
5 Turbo
, que está optimizada para chat, también funciona bien para las tareas de finalización tradicionales. El modelogpt-35-turbo-0125
admite hasta 16 385 tokens de entrada y 4096 tokens de salida. - Familia gpt-4:
gpt-4-32k
se admite. - text-embeding-ada-002 (versión 2), modelo de inserción que se puede usar con solicitudes de API de inserción. El token de solicitud aceptado máximo es 8191 y el vector devuelto tiene dimensiones de 1536.
Text Analytics
- Detección de idioma: detecta el idioma del texto de entrada
- Análisis de sentimiento: devuelve una puntuación entre 0 y 1, para indicar la opinión en el texto de entrada
- Extracción de frases clave: identifica los puntos de conversación clave en el texto de entrada
- Reconocimiento de entidades de información de identificación personal (PII): identifica, clasifica y censura información confidencial en el texto de entrada
- Reconocimiento de entidades con nombre: identifica entidades conocidas y entidades con nombre generales en el texto de entrada
- Vinculación de entidades: identifica y elimina la ambigüedad de la identidad de las entidades detectadas en el texto
Traductor de Azure AI
- Traducir: traduce texto
- Transliteración: convierte texto de un idioma, en un sistema de escritura, a otro sistema de escritura.
Regiones disponibles
Regiones disponibles para Azure OpenAI Service
Para obtener la lista de regiones de Azure en las que los servicios de inteligencia artificial precompilados de Fabric ya están disponibles, consulte la sección Regiones disponibles del artículo Información general de Copilot en Fabric y Power BI (versión preliminar).
Regiones disponibles para Text Analytics y Traductor de Azure AI
La solución precompilada Text Analytics y el Azure AI Translator en Fabric ya están disponibles para la vista previa pública en las regiones de Azure enumeradas en este artículo. Si no encuentra la región principal de Microsoft Fabric en este artículo, todavía puede crear una capacidad de Microsoft Fabric en una región admitida. Para más información, visite Compra de una suscripción de Microsoft Fabric. Para determinar la región principal de Fabric, visite Búsqueda de la región principal de Fabric.
Asia Pacífico | Europa | América | Oriente Medio y África |
---|---|---|---|
Este de Australia | Norte de Europa | Sur de Brasil | Norte de Sudáfrica |
Sudeste de Australia | Oeste de Europa | Centro de Canadá | Norte de Emiratos Árabes Unidos |
Centro de la India | Centro de Francia | Este de Canadá | |
Este de Asia | Este de Noruega | Este de EE. UU. | |
Japón Oriental | Norte de Suiza | Este de EE. UU. 2 | |
Centro de Corea del Sur | Oeste de Suiza | Centro-Norte de EE. UU | |
Sudeste de Asia | Sur de Reino Unido | Centro-sur de EE. UU. | |
Sur de la India | Oeste de Reino Unido | Oeste de EE. UU. | |
Oeste de EE. UU. 2 | |||
Oeste de EE. UU. 3 |
Tasa de consumo
Nota:
La facturación de los servicios de inteligencia artificial precompilados en Fabric entró en vigor el 1 de noviembre de 2024, como parte de la capacidad de Power BI Premium o Fabric existente.
Una solicitud para los servicios de IA precompilados consume unidades de capacidad de Fabric. En esta tabla se define el número de unidades de capacidad (CU) que se consumen cuando se usa un servicio de IA.
Tasa de consumo para modelos de lenguaje OpenAI
Modelos | Contexto | Entrada (por 1000 tokens) | Salida (por cada 1000 tokens) |
---|---|---|---|
Implementación global de GPT-4o-2024-08-06 | 128 K | 84,03 segundos de CU | 336,13 segundos CU |
GPT-4 | 32 K | 2.016,81 segundos de CU | 4.033,61 segundos de CU |
GPT-3.5-Turbo-0125 | 16 000 | 16,81 segundos de CU | 50,42 segundos de CU |
Tasa de consumo para los modelos de incorporación de OpenAI
Modelos | Unidad de Medida de Operación | tasa de consumo |
---|---|---|
text-embedding-ada-002 | 1000 tokens | 3,36 segundos de CU |
Tasa de consumo para Text Analytics
Operación | Unidad de Medida de Operación | tasa de consumo |
---|---|---|
Detección de idioma | 1000 registros de texto | 33.613,45 segundos de CU |
Análisis de sentimiento | 1000 registros de texto | 33.613,45 segundos de CU |
Extracción de frases clave | 1000 registros de texto | 33.613,45 segundos de CU |
Reconocimiento de entidades de información de identificación personal | 1000 registros de texto | 33.613,45 segundos de CU |
Reconocimiento de entidades nombradas | 1000 registros de texto | 33.613,45 segundos de CU |
Vinculación de entidad | 1000 registros de texto | 33.613,45 segundos de CU |
Resumen | 1000 registros de texto | 67,226.89 segundos CU |
Tasa de consumo para Traductor de texto
Operación | Unidad de Medida de Operación | tasa de consumo |
---|---|---|
Traducir | 1M caracteres | 336 134,45 segundos de CU |
Transliterar | 1M caracteres | 336 134,45 segundos de CU |
Cambios en la tasa de consumo de los servicios de IA de Fabric
Las tasas de consumo están sujetas a cambios en cualquier momento. Microsoft hará todo lo posible para avisar por correo electrónico o mediante una notificación en el producto. Los cambios serán efectivos en la fecha indicada en las notas de la versión de Microsoft o en el blog de Microsoft Fabric. Si algún cambio en la tasa de consumo de Fabric de un servicio de IA aumenta significativamente las unidades de capacidad necesarias para su uso, los clientes pueden usar las opciones de cancelación disponibles para el método de pago elegido.
Supervisión del uso
El medidor de carga de trabajo asociado a la tarea determina los cargos por los servicios de IA precompilados en Fabric. Por ejemplo, si el uso del servicio de IA se deriva de una carga de trabajo de Spark, el uso de IA se agrupa y se factura en el medidor de facturación de Spark en Aplicación de métricas de capacidad de Fabric.
Ejemplo
Un propietario de una tienda en línea usa SynapseML y Spark para clasificar millones de productos en las categorías pertinentes. Actualmente, el propietario de la tienda aplica lógica codificada de forma rígida para limpiar y asignar el "tipo de producto" sin procesar a las categorías. Sin embargo, el propietario planea cambiar al uso de los nuevos puntos de conexión nativos de Fabric OpenAI LLM (modelo de lenguaje de gran tamaño). Esto procesa de forma iterativa los datos en un LLM para cada fila y, después, clasifica los productos en función de su "nombre de producto", "descripción", "detalles técnicos", etc.
El costo esperado para el uso de Spark es de 1000 CU. El costo esperado para el uso de OpenAI es de aproximadamente 300 CU.
Para probar la nueva lógica, primero debe iterarse en una ejecución interactiva del notebook de Spark. Para el nombre de la operación de la ejecución, use "Notebook Interactive Run". El propietario espera ver un uso completo de 1300 CUs bajo "Notebook Interactive Run", con el medidor de facturación de Spark contabilizando todo el uso.
Una vez que el propietario de la tienda valida la lógica, configura la ejecución normal y espera ver un uso total de 1300 CUs bajo el nombre de operación "Ejecución programada de trabajos de Spark", con el medidor de facturación de Spark contabilizando todo el uso.