Fabric 中的 AI 服务(预览版)
重要
此功能目前为预览版。
Azure AI 服务 帮助开发人员和组织使用预生成且可自定义的 API 和模型快速创建智能、前沿、市场就绪和负责任的应用程序。 Azure AI 服务以前称为 Azure 认知服务,即便开发人员缺乏直接的 AI 或数据科学技能或知识,它也能为他们提供支持和赋能。 Azure AI 服务的目标是帮助开发人员创建可以看、听、说、理解甚至开始推理的应用程序。
Fabric 提供了两个选项来使用 Azure AI 服务:
Fabric 中预生成的 AI 模型(预览版)
Fabric 与 Azure AI 服务无缝集成,使你无需任何先决条件即可使用预生成的 AI 模型扩充数据。 建议使用此选项,因为可以使用 Fabric 身份验证来访问 AI 服务,并且所有使用情况都会根据 Fabric 容量计费。 此选项目前以公共预览版提供,提供有限的 AI 服务。
Fabric 提供 Azure OpenAI 服务、文本分析,以及默认情况下 Azure AI Translator,同时支持 SynapseML 和 RESTful API。 还可以使用 OpenAI Python 库访问 Fabric 中的 Azure OpenAI 服务。 有关可用模型的详细信息,请访问 Fabric中的
预生成 AI 模型。 自带密钥(BYOK)
可以在 Azure 上预配 AI 服务,并自带密钥从 Fabric 使用它们。 如果预生成的 AI 模型尚不支持所需的 AI 服务,你仍然可以使用 BYOK(自带密钥)。
若要详细了解如何将 Azure AI 服务与 BYOK 结合使用,请访问 SynapseML 中使用自带密钥的 Azure AI 服务。
Fabric 中预生成的 AI 模型(预览版)
注意
预生成的 AI 模型目前以预览版提供,免费提供,限制每个用户的并发请求数。 对于 Open AI 模型,此限制是每个用户每分钟 20 个请求。
Azure OpenAI 服务
REST API、Python SDK。 SynapseML
- GPT-35-turbo:GPT-3.5 模型可以理解和生成自然语言或代码。 GPT-3.5 系列中最有能力且最经济的模型是 GPT-3。
5 Turbo
选项针对聊天进行了优化,也非常适用于传统完成任务。gpt-35-turbo-0125
模型最多支持 16,385 个输入令牌和 4,096 个输出令牌。 - gpt-4 系列:
gpt-4-32k
受支持。 - text-embedding-ada-002(版本 2),可与嵌入 API 请求一起使用的嵌入模型。 可接受的最大请求令牌为 8,191,返回向量的维度为 1,536。
文本分析
- 语言检测:检测输入文本的语言
- 情绪分析:返回介于 0 和 1 之间的分数,以指示输入文本中的情绪
- 关键短语提取:标识输入文本中的关键说话点
- 个人身份信息(PII)实体识别:在输入文本中识别、分类和编辑敏感信息
- 命名实体识别:标识输入文本中的已知实体和常规命名实体
- 实体链接:识别并消除文本中发现的实体的身份歧义。
Azure AI 翻译器
- 翻译:翻译文本
- 音译:将一种语言的文本从一种脚本转换为另一种脚本。
可用区域
Azure OpenAI 服务的可用区域
有关现已提供 Fabric 中预构建 AI 服务的 Azure 区域的列表,请参阅“Fabric 和 Power BI 中的 Copilot 概述(预览版)”一文的“可用区域”部分。
文本分析和 Azure AI 翻译的可用区域
在 Fabric 中预构建的 文本分析 和 Azure AI Translator 现已在本文所列的 Azure 区域中提供公开预览。 如果在本文中找不到你的 Microsoft Fabric 主区域,你仍可在受支持的区域中创建 Microsoft Fabric 容量。 有关详细信息,请访问购买 Microsoft Fabric 订阅。 若要确定 Fabric 主区域,请访问查找 Fabric 主区域。
亚太区 | 欧洲 | 美洲 | 中东和非洲 |
---|---|---|---|
澳大利亚东部 | 北欧 | Brazil South | 南非北部 |
Australia Southeast | 西欧 | 加拿大中部 | 阿拉伯联合酋长国北部 |
印度中部 | 法国中部 | 加拿大东部 | |
东亚 | 挪威东部 | 美国东部 | |
日本东部 | 瑞士北部 | 美国东部 2 | |
韩国中部 | 瑞士西部 | 美国中北部 | |
东南亚 | 英国南部 | 美国中南部 | |
印度南部 | 英国西部 | 美国西部 | |
美国西部 2 | |||
美国西部 3 |
消耗率
注意
Fabric 中预构建的 AI 服务的计费于 2024 年 11 月 1 日生效,属于现有 Power BI Premium 或 Fabric 容量的一部分。
对预构建 AI 服务的请求会使用 Fabric 容量单位。 此表定义使用 AI 服务时消耗的容量单位数(CU)。
OpenAI 语言模型的消耗率
模型 | 上下文 | 输入(每 1,000 个词元) | 输出(每 1,000 个词元) |
---|---|---|---|
GPT-4o-2024-08-06 全局部署 | 128 K | 84.03 CU 秒 | 336.13 CU 秒 |
GPT-4 | 32 K | 2,016.81 CU 秒 | 4,033.61 CU 秒 |
GPT-3.5-Turbo-0125 | 16K | 16.81 CU 秒 | 50.42 CU 秒 |
OpenAI 嵌入模型的消耗率
模型 | 操作度量单位 | 消耗率 |
---|---|---|
text-embedding-ada-002 | 1,000 个词元 | 3.36 CU 秒 |
文本分析的消耗率
操作 | 操作度量单位 | 消耗率 |
---|---|---|
语言检测 | 1,000 条文本记录 | 33,613.45 CU 秒 |
情绪分析 | 1,000 条文本记录 | 33,613.45 CU 秒 |
关键短语提取 | 1,000 条文本记录 | 33,613.45 CU 秒 |
个人身份信息实体识别 | 1,000 条文本记录 | 33,613.45 CU 秒 |
命名实体识别 | 1,000 条文本记录 | 33,613.45 CU 秒 |
实体链接 | 1,000 条文本记录 | 33,613.45 CU 秒 |
综述 | 1,000 条文本记录 | 67,226.89 CU 秒 |
文本翻译的消耗率
操作 | 运行度量单位 | 消耗率 |
---|---|---|
翻译 | 100 万个字符 | 336,134.45 CU 秒 |
音译 | 100 万个字符 | 336,134.45 CU 秒 |
Fabric 中的 AI 服务消耗率的变化
随时可能会更改消耗率。 Microsoft使用合理的努力通过电子邮件或通过产品内通知提供通知。 更改应在Microsoft发行说明或 Microsoft Fabric 博客中所述的日期生效。 如果 Fabric 中的 AI 服务消耗率的任何变化会显著增加所需使用的容量单位 (CU),客户可以使用所选付款方式提供的取消选项。
监视使用情况
与任务关联的工作负载计量决定了 Fabric 中预构建 AI 服务的费用。 例如,如果 AI 服务使用量源自 Spark 工作负载,则 AI 使用量将汇总在一起,并根据 Fabric Capacity Metrics 应用上的 Spark 计费仪表进行计费。
例
在线商店所有者使用 SynapseML 和 Spark 将数百万种产品分类为相关类别。 目前,店主应用硬编码逻辑来清理原始“产品类型”并将其映射到类别。 但是,所有者计划切换为使用新的原生 Fabric OpenAI LLM(大型语言模型)终结点。 此迭代方式针对每行的 LLM 处理数据,然后根据产品的“产品名称”、“说明”、“技术详细信息”等对产品进行分类。
Spark 使用量的预期成本为 1000 个 CU。 OpenAI 使用量的预期成本约为 300 个 CU。
要测试新逻辑,请先在 Spark 笔记本的交互式运行中迭代它。 对于运行的操作名称,请使用“Notebook Interactive Run”。所有者期望看到“Notebook Interactive Run”下的累计使用量为 1300 个 CU,Spark 计费仪表将核算全部使用量。
店主验证逻辑后,就会设置常规运行,并期望看到操作名称“Spark Job Scheduled Run”下的累计使用量为 1300 个 CU,而 Spark 计费仪表将核算全部使用量。