Serviços de IA na malha (visualização)
Importante
Este recurso está em pré-visualização.
Os serviços de IA do Azure ajudam os desenvolvedores e as organizações a criar rapidamente aplicações inteligentes, inovadoras, preparadas para o mercado e responsáveis, com APIs e modelos pré-criados e personalizáveis. Anteriormente nomeados de Serviços Cognitivos do Azure, os serviços de IA do Azure capacitam os desenvolvedores mesmo quando eles não têm habilidades ou conhecimentos diretos de IA ou ciência de dados. O objetivo dos serviços de IA do Azure é ajudar os desenvolvedores a criar aplicativos que possam ver, ouvir, falar, entender e até mesmo começar a raciocinar.
O Fabric fornece duas opções para usar os serviços de IA do Azure:
Modelos de IA pré-configurados no Fabric (pré-visualização)
O Fabric integra-se perfeitamente com os serviços de IA do Azure, permitindo que você enriqueça seus dados com modelos de IA pré-criados sem qualquer pré-requisito. Recomendamos esta opção porque pode usar a sua autenticação Fabric para aceder a serviços de IA, e todos os usos são faturados com base na sua capacidade Fabric. Esta opção está atualmente em pré-visualização pública, com serviços de IA limitados disponíveis.
O Fabric oferece de Serviço OpenAI do Azure, de Análise de Texto e do Azure AI Translator por padrão, com suporte para SynapseML e a API RESTful. Você também pode usar a Biblioteca Python do OpenAI para acessar o serviço OpenAI do Azure no Fabric. Para obter mais informações sobre os modelos disponíveis, visite os modelos de IA pré-construídos no Fabric.
Traga sua própria chave (BYOK)
Você pode provisionar seus serviços de IA no Azure e trazer sua própria chave para usá-los do Fabric. Se os modelos de IA pré-construídos ainda não suportarem os serviços de IA desejados, você ainda pode usar BYOK (Bring your own key).
Para saber mais sobre como usar os serviços de IA do Azure com BYOK, visite Serviços de IA do Azure no SynapseML com traga sua própria chave.
Modelos de IA pré-construídos no Fabric (visualização)
Nota
Os modelos de IA pré-construídos estão atualmente disponíveis em pré-visualização e oferecidos gratuitamente, com um limite no número de solicitações simultâneas por usuário. Para modelos Open AI, o limite é de 20 solicitações por minuto por usuário.
Azure OpenAI Service
API REST, Python SDK. SinapseML
- GPT-35-turbo: Os modelos GPT-3.5 podem compreender e gerar linguagem natural ou código. O modelo mais capaz e rentável da família GPT-3.5 é o GPT-3. A opção
5 Turbo
, que é otimizada para chat, também funciona bem para tarefas de conclusão tradicionais. Ogpt-35-turbo-0125
modelo suporta até 16.385 tokens de entrada e 4.096 tokens de saída. - Família GPT-4:
gpt-4-32k
é suportada. - text-embedding-ada-002 (versão 2), modelo de incorporação que pode ser usado com solicitações de API de incorporação. O token de solicitação máximo aceito é 8.191 e o vetor retornado tem dimensões de 1.536.
Análise de Texto
- Deteção de idioma: deteta o idioma do texto de entrada
- Análise de sentimento: retorna uma pontuação entre 0 e 1, para indicar o sentimento no texto de entrada
- Extração de frases-chave: identifica os principais pontos de discussão no texto de entrada
- Reconhecimento de entidade de Informações de Identificação Pessoal (PII): identificar, categorizar e redigir informações confidenciais no texto de entrada
- Reconhecimento de entidade nomeada: identifica entidades conhecidas e entidades nomeadas gerais no texto de entrada
- Vinculação de entidades: identifica e desambigua a identidade de entidades encontradas no texto
Azure AI Translator
- Traduzir: Traduz texto
- Transliterar: Converte texto em determinada língua de um alfabeto para outro.
Regiões disponíveis
Regiões disponíveis para o Serviço Azure OpenAI
Para obter a lista de regiões do Azure onde os serviços de IA pré-criados no Fabric agora estão disponíveis, visite a seção
Regiões disponíveis para Análise de Texto e Azure AI Translator
O de Análise de Texto do
Ásia-Pacífico | Europa | Américas | Médio Oriente e África |
---|---|---|---|
Leste da Austrália | Europa do Norte | Sul do Brasil | Norte da África do Sul |
Austrália Sudeste | Europa Ocidental | Canadá Central | Norte dos E.A.U. |
Índia Central | França Central | Leste do Canadá | |
Ásia Leste | Leste da Noruega | E.U.A. Leste | |
Leste do Japão | Norte da Suíça | E.U.A. Leste 2 | |
Coreia do Sul Central | Oeste da Suíça | E.U.A. Centro-Norte | |
Sudeste Asiático | Sul do Reino Unido | E.U.A. Centro-Sul | |
Sul da Índia | Oeste do Reino Unido | E.U.A. Oeste | |
E.U.A. Oeste 2 | |||
EUA Oeste 3 |
Taxa de consumo
Nota
A cobrança de serviços de IA pré-construídos no Fabric entrou em vigor em 1º de novembro de 2024, como parte da sua capacidade existente do Power BI Premium ou Fabric.
Um pedido de serviços de IA pré-configurados consome Unidades de Capacidade de Fabric. Esta tabela define quantas unidades de capacidade () são consumidas quando um serviço de IA é usado.
Taxa de consumo de modelos de linguagem OpenAI
Modelos | Contexto | Entrada (por 1.000 tokens) | Saída (por 1.000 tokens) |
---|---|---|---|
GPT-4o-2024-08-06 Implantação Global | 128 K | 84,03 segundos CU | 336,13 segundos CU |
GPT-4 | 32 K | 2.016,81 segundos CU | 4.033,61 segundos CU |
GPT-3.5-Turbo-0125 | 16K | 16,81 CU segundos | 50,42 segundos CU |
Taxa de consumo para modelos de incorporação OpenAI
Modelos | Unidade Operacional de Medida | Taxa de consumo |
---|---|---|
incorporação-de-texto-ada-002 | 1.000 Tokens | 3,36 segundos CU |
Taxa de Consumo para Análise de Texto
Operação | Unidade Operacional de Medida | Taxa de consumo |
---|---|---|
Deteção de idioma | 1.000 registros de texto | 33.613,45 segundos CU |
Análise de Sentimento | 1.000 registros de texto | 33.613,45 segundos CU |
Extração de frases-chave | 1.000 registros de texto | 33.613,45 segundos CU |
Reconhecimento de Entidades de Informação Pessoal Identificável | 1.000 registros de texto | 33.613,45 segundos CU |
Reconhecimento de Entidades Nomeadas | 1.000 registros de texto | 33.613,45 segundos CU |
Vinculação de entidades | 1.000 registros de texto | 33.613,45 segundos CU |
Sumarização | 1.000 registros de texto | 67.226,89 segundos CU |
Taxa de consumo do Tradutor de Texto
Operação | Unidade Operacional de Medida | Taxa de consumo |
---|---|---|
Traduzir | 1M Personagens | 336,134.45 segundos CU |
Transliterado | 1M Personagens | 336.134,45 segundos CU |
Alterações nos serviços de IA na taxa de consumo do Fabric
As taxas de consumo estão sujeitas a alterações a qualquer momento. A Microsoft envida todos os esforços razoáveis para fornecer um aviso por correio eletrónico ou através de notificação no produto. As alterações entrarão em vigor na data indicada nas Notas de Versão da Microsoft ou no Blog do Microsoft Fabric. Se qualquer alteração a um serviço de IA na Taxa de Consumo de Fabric aumentar significativamente as Unidades de Capacidade (UC) necessárias para a utilização, os clientes podem recorrer às opções de cancelamento disponíveis para o método de pagamento escolhido.
Monitorizar o uso
O medidor de carga de trabalho associado à tarefa determina as cobranças para serviços de IA pré-criados no Fabric. Por exemplo, se o uso do serviço de IA for derivado de uma carga de trabalho do Spark, esse uso de IA será agrupado e faturado através do medidor de faturamento do Spark na aplicação Fabric Capacity Metrics.
Exemplo
O proprietário de uma loja online usa SynapseML e Spark para categorizar milhões de produtos em categorias relevantes. Atualmente, o proprietário da loja aplica lógica codificada para limpar e mapear o "tipo de produto" bruto para categorias. No entanto, o proprietário tenciona mudar para o uso dos novos endpoints nativos do Fabric OpenAI LLM (Modelo de Linguagem Ampla). Isso processa iterativamente os dados em relação a um LLM para cada linha e, em seguida, categoriza os produtos com base em seu "nome do produto", "descrição", "detalhes técnicos" e assim por diante.
O custo esperado para o uso do Spark é de 1000 CUs. O custo esperado para o uso do OpenAI é de cerca de 300 CUs.
Para testar a nova lógica, primeiro itere-a em uma execução interativa do bloco de anotações do Spark. Para o nome da operação da execução, utilize "Notebook Interactive Run." O proprietário espera ver um uso total de 1300 CUs sob "Notebook Interactive Run," com o medidor de faturamento Spark contabilizando todo o uso.
Uma vez que o proprietário da loja valida a lógica, o proprietário configura a execução regular e espera ver um uso total de 1300 CUs sob o nome de operação "Spark Job Scheduled Run", com o medidor de faturamento Spark contabilizando todo o uso.