Serviços de IA no Fabric (versão prévia)
Importante
Esse recurso está em pré-visualização.
Os serviços de IA do Azure ajudam os desenvolvedores e as organizações a criar rapidamente aplicativos inteligentes, avançados, prontos para o mercado e responsáveis, com APIs e modelos pré-construídos e personalizáveis. Anteriormente nomeados dos Serviços Cognitivos do Azure, os serviços de IA do Azure capacitam os desenvolvedores mesmo quando eles não têm habilidades diretas de IA ou ciência de dados ou conhecimento. O objetivo dos serviços de IA do Azure é ajudar os desenvolvedores a criar aplicativos que possam ver, ouvir, falar, entender e até mesmo começar a raciocinar.
O Fabric fornece duas opções para usar os serviços de IA do Azure:
Modelos de IA Pré-construídos no Fabric (Versão Prévia)
O Fabric se integra perfeitamente aos serviços de IA do Azure, permitindo que você enriqueça seus dados com modelos de IA predefinidos sem nenhum pré-requisito. Recomendamos essa opção porque você pode usar a autenticação do Fabric para acessar os serviços de IA, e todos os usos são descontados da sua capacidade do Fabric. Essa opção está atualmente em versão prévia pública, com serviços de IA limitados disponíveis.
O Fabric oferece por padrão o Serviço OpenAI do Azure , Análise de Texto e Tradutor de IA do Azure , com suporte para SynapseML e a API RESTful. Você também pode usar a Biblioteca do OpenAI Python para acessar o serviço Azure OpenAI no Fabric. Para obter mais informações sobre modelos disponíveis, acesse Modelos de IA predefinidos no Fabric.
traga sua própria chave (BYOK)
Você pode provisionar seus serviços de IA no Azure e trazer sua própria chave para usá-los do Fabric. Se os modelos de IA predefinidos ainda não dão suporte aos serviços de IA desejados, você ainda poderá usar BYOK (Traga sua própria chave).
Para saber mais sobre como usar os serviços de IA do Azure com BYOK, acesse Serviços de IA do Azure no SynapseML com Bring Your Own Key.
Modelos de IA predefinidos no Fabric (versão prévia)
Observação
Atualmente, os modelos de IA predefinidos estão disponíveis em versão prévia e oferecidos gratuitamente, com um limite no número de solicitações simultâneas por usuário. Para modelos Open AI, o limite é de 20 solicitações por minuto por usuário.
Serviço OpenAI do Azure
API REST, SDK do Python. SynapseML
- GPT-35-turbo: os modelos GPT-3.5 conseguem entender e gerar linguagem natural ou código. O modelo mais capaz e econômico da família GPT-3.5 é o GPT-3. A opção
5 Turbo
, que é otimizada para chat, também funciona bem para tarefas de conclusão tradicionais. O modelogpt-35-turbo-0125
aceita até 16.385 tokens de entrada e 4.096 tokens de saída. - Família gpt-4:
gpt-4-32k
é suportada. - text-embedding-ada-002 (versão 2), modelo de inserção que pode ser usado com a inserção de solicitações de API. O token de solicitação máximo aceito é 8.191 e o vetor retornado tem dimensões de 1.536.
Análise de Texto
- Detecção de idioma: detecta o idioma do texto de entrada
- Análise de sentimento: retorna uma pontuação entre 0 e 1, para indicar o sentimento no texto de entrada
- Extração de frase-chave: identifica os principais pontos de discussão no texto de entrada
- Reconhecimento de entidade PII (informações de identificação pessoal): identificar, categorizar e ocultar informações confidenciais no texto de entrada
- Reconhecimento de entidade nomeada: identifica entidades conhecidas e entidades nomeadas gerais no texto de entrada
- Vinculação de entidade: identifica e desambigua a identidade das entidades encontradas no texto
Tradutor de IA do Azure
- Traduzir: converte texto
- Transliteração: converte texto de um idioma, de um sistema de escrita para outro.
Regiões disponíveis
Regiões disponíveis para o Serviço OpenAI do Azure
Para obter a lista de regiões do Azure em que os serviços de IA predefinidos no Fabric agora estão disponíveis, acesse a seção Regiões Disponíveis do artigo Visão Geral de Copilot no Fabric e no Power BI (versão prévia).
Regiões disponíveis para análise de texto e Tradutor de IA do Azure
Os modelos predefinidos de Análise de Texto e o Tradutor de IA do Azure no Fabric agora estão disponíveis para versão prévia pública nas regiões do Azure listadas neste artigo. Se você não encontrar sua região inicial do Microsoft Fabric neste artigo, ainda poderá criar uma capacidade do Microsoft Fabric em uma região com suporte. Para obter mais informações, visite Comprar uma assinatura do Microsoft Fabric. Para determinar sua região inicial do Fabric, visite Localizar sua região inicial do Fabric.
Pacífico Asiático | Europa | Américas | Oriente Médio e África |
---|---|---|---|
Leste da Austrália | Norte da Europa | Brazil South | Norte da África do Sul |
Sudeste da Austrália | Europa Ocidental | Canadá Central | Norte dos EAU |
Índia Central | França Central | Leste do Canadá | |
Leste da Ásia | Leste da Noruega | Leste dos EUA | |
Leste do Japão | Norte da Suíça | Leste dos EUA 2 | |
Coreia Central | Oeste da Suíça | Centro-Norte dos EUA | |
Sudeste Asiático | Sul do Reino Unido | Centro-Sul dos Estados Unidos | |
Sul da Índia | Oeste do Reino Unido | Oeste dos EUA | |
Oeste dos EUA 2 | |||
Oeste dos EUA 3 |
Taxa de consumo
Observação
A cobrança por serviços de IA predefinidos no Fabric entrou em vigor em 1º de novembro de 2024 como parte da capacidade existente do Power BI Premium ou Fabric.
Uma solicitação para serviços de IA predefinidos consome Unidades de Capacidade do Fabric. Esta tabela define quantas unidades de capacidade () são consumidas quando um serviço de IA é usado.
Taxa de consumo para modelos de linguagem OpenAI
Modelos | Contexto | Entrada (por 1.000 tokens) | Saída (por 1.000 tokens) |
---|---|---|---|
Implantação Global do GPT-4o-2024-08-06 | 128 K | 84,03 segundos de unidade de capacidade | 336,13 segundos CU |
GPT-4 | 32 K | 2.016,81 segundos CU | 4.033,61 segundos CU |
GPT-3.5-Turbo-0125 | 16K | 16,81 segundos de unidade de capacidade | 50,42 segundos de unidade de capacidade |
Taxa de consumo para modelos de integração de OpenAI
Modelos | Unidade de Medida da Operação | Taxa de consumo |
---|---|---|
text-embedding-ada-002 | 1.000 tokens | 3,36 segundos CU |
Taxa de consumo para Análise de Texto
Operação | Unidade de Medida da Operação | Taxa de consumo |
---|---|---|
Detecção de idioma | 1.000 registros de texto | 33.613,45 segundos CU |
Análise de Sentimento | 1.000 registros de texto | 33.613,45 segundos CU |
Extração de frase-chave | 1.000 registros de texto | 33.613,45 segundos CU |
Reconhecimento de Entidades de Informações de Identificação Pessoal | 1.000 registros de texto | 33.613,45 segundos CU |
Reconhecimento de Entidade Nomeada | 1.000 registros de texto | 33.613,45 segundos CU |
Ligação de Entidades | 1.000 registros de texto | 33.613,45 segundos CU |
Resumo | 1.000 registros de texto | 67.226,89 segundos CU |
Taxa de consumo do Tradutor de Texto
Operação | Unidade de Medida de Operação | taxa de consumo |
---|---|---|
Traduzir | 1 M caracteres | 336.134,45 segundos CU |
Transliteração | 1 milhão de caracteres | 336.134,45 segundos CU |
Alterações nas taxas de consumo dos serviços de IA no Fabric
As taxas de consumo estão sujeitas a alterações a qualquer momento. A Microsoft usa esforços razoáveis para fornecer aviso por email ou por meio de notificação no produto. As alterações devem entrar em vigor na data declarada nas Notas de Versão da Microsoft ou no Blog do Microsoft Fabric. Se qualquer alteração em um serviço de IA na Taxa de Consumo do Fabric aumentar significativamente as Unidades de Capacidade (CU) necessárias para seu uso, os clientes poderão usar as opções de cancelamento disponíveis para a forma de pagamento escolhida.
Monitorar o uso
O medidor de carga de trabalho associado à tarefa determina os encargos dos serviços de IA predefinidos no Fabric. Por exemplo, se o uso do serviço de IA for derivado de uma carga de trabalho do Spark, o uso da IA será agrupado e cobrado no medidor de cobrança do Spark no aplicativo Fabric Capacity Metrics.
Exemplo
Um proprietário de loja online usa SynapseML e Spark para categorizar milhões de produtos em categorias relevantes. Atualmente, o proprietário da loja aplica lógica codificada para limpar e mapear o "tipo de produto" bruto para categorias. No entanto, o proprietário planeja mudar para o uso dos novos pontos de extremidade nativos do LLM (grande modelo de linguagem) do Fabric OpenAI. Ao processar iterativamente os dados contra um modelo de linguagem de máquina para cada linha, os produtos são então categorizados com base em seu "nome do produto", "descrição", "detalhes técnicos" e assim por diante.
O custo esperado para o uso do Spark é de 1000 CUs. O custo esperado para o uso do OpenAI é de cerca de 300 CUs.
Para testar a nova lógica, primeiro itera-a em uma execução interativa do notebook do Spark. Para o nome da operação da execução, use *"Notebook Interactive Run"*. O proprietário espera ver um uso total de 1300 unidades de capacidade em *"Notebook Interactive Run"*, com o medidor de cobrança do Spark contabilizando todo o uso.
Depois que o proprietário da loja valida a lógica, ele configura a execução periódica e espera ver um uso total acumulado de 1300 unidades de capacidade sob o nome de operação "Execução Agendada do Trabalho do Spark", com o contador de faturamento do Spark contabilizando todo o uso.