访问 Azure OpenAI 服务

已完成

使用 Azure OpenAI 构建生成型 AI 解决方案的第一步是在 Azure 订阅中预配 Azure OpenAI 资源。 可以通过在 Azure 门户中或使用 Azure 命令行接口(CLI)创建资源开始使用。

在 Azure 门户中创建 Azure OpenAI 服务资源

创建 Azure OpenAI 服务资源时,需要提供订阅名称、资源组名称、区域、唯一实例名称,并选择定价层。

用于创建 Azure OpenAI 服务资源的 Azure 门户页的屏幕截图。

在 Azure CLI 中创建 Azure OpenAI 服务资源

若要从 CLI 创建 Azure OpenAI 服务资源,请参阅此示例,并将以下变量替换为自己的变量:

  • MyOpenAIResource:替换为资源的唯一名称
  • OAIResourceGroup:替换为资源组名称
  • eastus:替换为要部署资源的区域
  • subscriptionID:替换为订阅 ID
az cognitiveservices account create \
-n MyOpenAIResource \
-g OAIResourceGroup \
-l eastus \
--kind OpenAI \
--sku s0 \
--subscription subscriptionID

注意

可以通过 CLI 命令 az account list-locations 查找可用于服务的区域。 若要了解如何通过 CLI 登录到 Azure 并创建 Azure 组,请参阅此处的文档。 Azure OpenAI 服务提供了对多种类型的模型的访问。 某些模型仅在选定区域中可用。 有关区域可用性,请参阅 Azure OpenAI 模型可用性指南。 可以为每个区域创建两个 Azure OpenAI 资源。

使用 Azure OpenAI Foundry

Azure AI Foundry 提供对模型管理、部署、试验、自定义和学习资源的访问权限。

可以在创建资源后通过 Azure 门户访问 Azure AI Foundry,或者通过登录 Azure 帐户在 https://ai.azure.com/ 访问。 在登录工作流中,选择适当的目录、Azure 订阅和 Azure OpenAI 资源。

首次打开 Azure AI Foundry 时,需要导航到“Azure OpenAI”页面(其中你只需关注 Azure OpenAI 服务模型),选择你的资源(如果尚未选择),然后部署你的第一个模型。 为此,请选择“部署”页面,你可以在其中部署基础模型并开始对其进行试验。

注意

如果你不是资源所有者,就需要以下基于角色的访问控制:1. 认知服务 OpenAI 用户:此角色可以查看资源和使用聊天操场。 2. 认知服务 OpenAI 参与者:具有此角色的用户可以创建新部署。

Azure AI Foundry 门户页面菜单的屏幕截图。

OpenAI 模型的类型

若要开始使用 Azure OpenAI 进行生成,需要选择一个基础模型并进行部署。 Microsoft 提供基础模型以及创建自定义基础模型的选项。 本单元介绍了当前可用的基础模型。

Azure OpenAI 包括多种类型的模型:

  • GPT-4 模型是最新一代的生成式预训练 (GPT) 模型,可以根据自然语言提示生成自然语言和代码补全。
  • GPT 3.5 模型可以根据自然语言提示生成自然语言和代码补全。 具体而言,GPT-35-turbo 模型针对基于聊天的交互进行了优化,在大多数生成式 AI 方案中都表现良好。
  • 嵌入模型将文本转换为数字向量,并且在语言分析方案(例如比较文本源的相似性)中非常有用。
  • DALL-E 模型用于基于自然语言提示生成图像。 目前,DALL-E 模型处于预览阶段。
  • 耳语模型可用于将语音转换为文本。
  • 文本转语音模型可用于将文本转换为语音。

注意

定价由令牌和模型类型决定。 在此处详细了解最新定价

在 Azure AI Foundry 门户中,“模型目录”页列出了可用的基础模型,并提供了通过微调基本模型来创建其他自定义模型的选项。 模型状态为“成功”意味着它们已成功训练,并且可被选择用于部署。

你会注意到,模型目录中还有除 OpenAI 之外的各种模型,包括来自 Microsoft、Meta、Mistral 等的模型。 使用 Azure AI Foundry 时,可以为用例部署这些模型中的任何一个。 本模块将重点介绍 Azure OpenAI 模型。

Azure AI Foundry 门户现成的生成式 AI 模型的屏幕截图。

部署 OpenAI 模型

首先需要部署模型来进行聊天或进行 API 调用来接收对提示的答复。 创建新部署时,需要指出要部署的基础模型。 只要每分钟令牌数 (TPM) 保持在部署配额内,就可以进行任意数量的部署。

使用 Azure AI Foundry 进行部署

在 Azure AI Foundry 门户的“模型目录”页中,可以通过从列表中选择模型名称来创建新部署。

使用 Azure CLI 进行部署

还可以使用控制台部署模型。 使用此示例,将以下变量替换为自己的资源值:

  • OAIResourceGroup:替换为资源组名称
  • MyOpenAIResource:替换为资源名称
  • MyModel:替换为模型的唯一名称
  • gpt-35-turbo:替换为要部署的基础模型
az cognitiveservices account deployment create \
   -g OAIResourceGroup \
   -n MyOpenAIResource \
   --deployment-name MyModel \
   --model-name gpt-35-turbo \
   --model-version "0125"  \
   --model-format OpenAI \
   --sku-name "Standard" \
   --sku-capacity 1

使用 REST API 进行部署

可以使用 REST API 部署模型。 在请求正文中,指定要部署的基础模型。 请参阅 Azure OpenAI 文档中的示例。

浏览 OpenAI 提示

部署模型后,可以测试其完成提示的方式。 提示是发送到部署模型的完成终结点的请求的文本部分。 响应被称为完成,可以采用文本、代码的形式或其他形式。

提示类型

可以根据任务将提示分组为请求类型。

任务类型 提示示例 完成示例
对内容进行分类 Tweet:我喜欢这次旅行。
情绪:
生成新内容 列出旅行方式 1.骑行
2. 乘车 ...
进行对话 友好的 AI 助手 请参见示例
转换(转换和符号转换) 英语:你好
法语:
bonjour
汇总内容 提供内容总结
{text}
机器学习的内容共享方法。
从离开的位置继续 种植西红柿的一种方法 就是播种种子。
提供事实答复 地球拥有多少颗卫星? 一种

完成质量

有几个因素会影响从生成式 AI 解决方案中获得的完成质量。

  • 提示的工程处理方式。 在本模块后面的提示工程单元部分,详细了解有关提示工程的信息。
  • 模型参数(将在下文介绍)。
  • 训练模型的数据,可以通过自定义模型微调进行调整。

与通过提示工程和参数调整相比,你可以通过训练自定义模型更好地控制返回的完成。

进行 API 调用

可以通过 REST API、Python 或 C# 开始调用部署的模型。 如果部署的模型具有 GPT-3.5 或 GPT-4 模型库,请使用聊天补全文档,该文档具有这些基础模型所需的终结点和变量。

使用 Azure Studio 操场

操场是 Azure AI Foundry 中的实用界面,可用于试验部署的模型,而无需开发你自己的客户端应用程序。 Azure AI Foundry 门户提供了具有不同参数优化选项的多个操场。

聊天操场

聊天操场基于对话传入消息传出界面。 可以使用系统消息初始化会话以设置聊天上下文。

在聊天操场中,可以使用提示示例、调整参数,并添加少样本示例。 “少样本”一词是指提供几个示例来帮助模型了解它需要执行的操作。 可以将其与零样本(指不提供任何示例)进行对比。

Azure AI Foundry 门户的聊天操场的屏幕截图。