Partilhar via


Serviços de IA na malha (visualização)

Importante

Este recurso está em pré-visualização.

Os serviços de IA do Azure ajudam os desenvolvedores e as organizações a criar rapidamente aplicações inteligentes, inovadoras, preparadas para o mercado e responsáveis, com APIs e modelos pré-criados e personalizáveis. Anteriormente nomeados de Serviços Cognitivos do Azure, os serviços de IA do Azure capacitam os desenvolvedores mesmo quando eles não têm habilidades ou conhecimentos diretos de IA ou ciência de dados. O objetivo dos serviços de IA do Azure é ajudar os desenvolvedores a criar aplicativos que possam ver, ouvir, falar, entender e até mesmo começar a raciocinar.

O Fabric fornece duas opções para usar os serviços de IA do Azure:

  • Modelos de IA pré-configurados no Fabric (pré-visualização)

    O Fabric integra-se perfeitamente com os serviços de IA do Azure, permitindo que você enriqueça seus dados com modelos de IA pré-criados sem qualquer pré-requisito. Recomendamos esta opção porque pode usar a sua autenticação Fabric para aceder a serviços de IA, e todos os usos são faturados com base na sua capacidade Fabric. Esta opção está atualmente em pré-visualização pública, com serviços de IA limitados disponíveis.

    O Fabric oferece de Serviço OpenAI do Azure, de Análise de Texto e do Azure AI Translator por padrão, com suporte para SynapseML e a API RESTful. Você também pode usar a Biblioteca Python do OpenAI para acessar o serviço OpenAI do Azure no Fabric. Para obter mais informações sobre os modelos disponíveis, visite os modelos de IA pré-construídos no Fabric.

  • Traga sua própria chave (BYOK)

    Você pode provisionar seus serviços de IA no Azure e trazer sua própria chave para usá-los do Fabric. Se os modelos de IA pré-construídos ainda não suportarem os serviços de IA desejados, você ainda pode usar BYOK (Bring your own key).

    Para saber mais sobre como usar os serviços de IA do Azure com BYOK, visite Serviços de IA do Azure no SynapseML com traga sua própria chave.

Modelos de IA pré-construídos no Fabric (visualização)

Nota

Os modelos de IA pré-construídos estão atualmente disponíveis em pré-visualização e oferecidos gratuitamente, com um limite no número de solicitações simultâneas por usuário. Para modelos Open AI, o limite é de 20 solicitações por minuto por usuário.

Azure OpenAI Service

API REST, Python SDK. SinapseML

  • GPT-35-turbo: Os modelos GPT-3.5 podem compreender e gerar linguagem natural ou código. O modelo mais capaz e rentável da família GPT-3.5 é o GPT-3. A opção 5 Turbo, que é otimizada para chat, também funciona bem para tarefas de conclusão tradicionais. O gpt-35-turbo-0125 modelo suporta até 16.385 tokens de entrada e 4.096 tokens de saída.
  • Família GPT-4: gpt-4-32k é suportada.
  • text-embedding-ada-002 (versão 2), modelo de incorporação que pode ser usado com solicitações de API de incorporação. O token de solicitação máximo aceito é 8.191 e o vetor retornado tem dimensões de 1.536.

Análise de Texto

API REST, SynapseML

  • Deteção de idioma: deteta o idioma do texto de entrada
  • Análise de sentimento: retorna uma pontuação entre 0 e 1, para indicar o sentimento no texto de entrada
  • Extração de frases-chave: identifica os principais pontos de discussão no texto de entrada
  • Reconhecimento de entidade de Informações de Identificação Pessoal (PII): identificar, categorizar e redigir informações confidenciais no texto de entrada
  • Reconhecimento de entidade nomeada: identifica entidades conhecidas e entidades nomeadas gerais no texto de entrada
  • Vinculação de entidades: identifica e desambigua a identidade de entidades encontradas no texto

Azure AI Translator

API REST, SynapseML

  • Traduzir: Traduz texto
  • Transliterar: Converte texto em determinada língua de um alfabeto para outro.

Regiões disponíveis

Regiões disponíveis para o Serviço Azure OpenAI

Para obter a lista de regiões do Azure onde os serviços de IA pré-criados no Fabric agora estão disponíveis, visite a seção Regiões disponíveis do artigoVisão geral do no Fabric e no Power BI (visualização).

Regiões disponíveis para Análise de Texto e Azure AI Translator

O de Análise de Texto do pré-criado e o do Azure AI Translator no Fabric agora estão disponíveis para visualização pública nas regiões do Azure listadas neste artigo. Se você não encontrar sua região inicial do Microsoft Fabric neste artigo, ainda poderá criar uma capacidade do Microsoft Fabric em uma região com suporte. Para obter mais informações, visite Comprar uma assinatura do Microsoft Fabric. Para determinar sua região de origem do Fabric, visite Encontre sua região inicial do Fabric.

Ásia-Pacífico Europa Américas Médio Oriente e África
Leste da Austrália Europa do Norte Sul do Brasil Norte da África do Sul
Austrália Sudeste Europa Ocidental Canadá Central Norte dos E.A.U.
Índia Central França Central Leste do Canadá
Ásia Leste Leste da Noruega E.U.A. Leste
Leste do Japão Norte da Suíça E.U.A. Leste 2
Coreia do Sul Central Oeste da Suíça E.U.A. Centro-Norte
Sudeste Asiático Sul do Reino Unido E.U.A. Centro-Sul
Sul da Índia Oeste do Reino Unido E.U.A. Oeste
E.U.A. Oeste 2
EUA Oeste 3

Taxa de consumo

Nota

A cobrança de serviços de IA pré-construídos no Fabric entrou em vigor em 1º de novembro de 2024, como parte da sua capacidade existente do Power BI Premium ou Fabric.

Um pedido de serviços de IA pré-configurados consome Unidades de Capacidade de Fabric. Esta tabela define quantas unidades de capacidade () são consumidas quando um serviço de IA é usado.

Taxa de consumo de modelos de linguagem OpenAI

Modelos Contexto Entrada (por 1.000 tokens) Saída (por 1.000 tokens)
GPT-4o-2024-08-06 Implantação Global 128 K 84,03 segundos CU 336,13 segundos CU
GPT-4 32 K 2.016,81 segundos CU 4.033,61 segundos CU
GPT-3.5-Turbo-0125 16K 16,81 CU segundos 50,42 segundos CU

Taxa de consumo para modelos de incorporação OpenAI

Modelos Unidade Operacional de Medida Taxa de consumo
incorporação-de-texto-ada-002 1.000 Tokens 3,36 segundos CU

Taxa de Consumo para Análise de Texto

Operação Unidade Operacional de Medida Taxa de consumo
Deteção de idioma 1.000 registros de texto 33.613,45 segundos CU
Análise de Sentimento 1.000 registros de texto 33.613,45 segundos CU
Extração de frases-chave 1.000 registros de texto 33.613,45 segundos CU
Reconhecimento de Entidades de Informação Pessoal Identificável 1.000 registros de texto 33.613,45 segundos CU
Reconhecimento de Entidades Nomeadas 1.000 registros de texto 33.613,45 segundos CU
Vinculação de entidades 1.000 registros de texto 33.613,45 segundos CU
Sumarização 1.000 registros de texto 67.226,89 segundos CU

Taxa de consumo do Tradutor de Texto

Operação Unidade Operacional de Medida Taxa de consumo
Traduzir 1M Personagens 336,134.45 segundos CU
Transliterado 1M Personagens 336.134,45 segundos CU

Alterações nos serviços de IA na taxa de consumo do Fabric

As taxas de consumo estão sujeitas a alterações a qualquer momento. A Microsoft envida todos os esforços razoáveis para fornecer um aviso por correio eletrónico ou através de notificação no produto. As alterações entrarão em vigor na data indicada nas Notas de Versão da Microsoft ou no Blog do Microsoft Fabric. Se qualquer alteração a um serviço de IA na Taxa de Consumo de Fabric aumentar significativamente as Unidades de Capacidade (UC) necessárias para a utilização, os clientes podem recorrer às opções de cancelamento disponíveis para o método de pagamento escolhido.

Monitorizar o uso

O medidor de carga de trabalho associado à tarefa determina as cobranças para serviços de IA pré-criados no Fabric. Por exemplo, se o uso do serviço de IA for derivado de uma carga de trabalho do Spark, esse uso de IA será agrupado e faturado através do medidor de faturamento do Spark na aplicação Fabric Capacity Metrics.

Exemplo

O proprietário de uma loja online usa SynapseML e Spark para categorizar milhões de produtos em categorias relevantes. Atualmente, o proprietário da loja aplica lógica codificada para limpar e mapear o "tipo de produto" bruto para categorias. No entanto, o proprietário tenciona mudar para o uso dos novos endpoints nativos do Fabric OpenAI LLM (Modelo de Linguagem Ampla). Isso processa iterativamente os dados em relação a um LLM para cada linha e, em seguida, categoriza os produtos com base em seu "nome do produto", "descrição", "detalhes técnicos" e assim por diante.

O custo esperado para o uso do Spark é de 1000 CUs. O custo esperado para o uso do OpenAI é de cerca de 300 CUs.

Para testar a nova lógica, primeiro itere-a em uma execução interativa do bloco de anotações do Spark. Para o nome da operação da execução, utilize "Notebook Interactive Run." O proprietário espera ver um uso total de 1300 CUs sob "Notebook Interactive Run," com o medidor de faturamento Spark contabilizando todo o uso.

Uma vez que o proprietário da loja valida a lógica, o proprietário configura a execução regular e espera ver um uso total de 1300 CUs sob o nome de operação "Spark Job Scheduled Run", com o medidor de faturamento Spark contabilizando todo o uso.