你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

向 Azure AI 模型推理服务添加模型并对其进行配置

可以决定并配置哪些模型可用于在资源的模型推理终结点中进行推理。 配置给定模型后,可以通过在请求中指明其模型名称或部署名称来从中生成预测。 无需在代码中进行进一步更改即可使用它。

本文将介绍如何向 Azure AI 服务中的 Azure AI 模型推理服务添加新模型。

先决条件

若要完成本文,需要做好以下准备:

添加模型

与已配置所有模型的 GitHub 模型相反,Azure AI 服务资源允许你控制哪些模型在终结点中可用以及在哪种配置下可用。

可以使用 Azure AI Studio for GitHub添加终结点所需的所有模型。 在以下示例中,我们在服务中添加 Mistral-Large 模型:

  1. 转到 Azure AI Studio for GitHub 中的 模型目录部分。

  2. 滚动到感兴趣的模型,然后选择它。

  3. 可以在模型卡中查看模型的详细信息。

  4. 选择“部署”。

  5. 对于需要额外合同条款的模型提供商,系统会要求你接受这些条款。 例如,Mistral 模型会要求你接受其他条款。 选择“订阅并部署”,即表示接受这些案例的条款。

    显示如何同意 Mistral-Large 模型的条款和条件的屏幕截图。

  6. 此时可以配置部署设置。 默认情况下,部署会接收正在部署的模型的名称。 部署名称用于请求路由到此特定模型部署的 model 参数中。 此设置还允许你在附加特定配置时为模型配置特定名称。 例如,o1-preview-safe 表示具有严格内容安全内容筛选器的模型。

提示

每种模型可能支持不同的部署类型,提供不同的数据驻留或吞吐量保证。 有关更多详细信息,请参阅部署类型

  1. 如果需要更改内容筛选器或速率限制(如果可用)等设置,请使用“自定义”选项。

显示如何根据需要自定义部署的屏幕截图。

  1. 选择“部署”。

  2. 部署完成后,新模型将在页面中列出并可供使用。

使用模型

可以使用资源的 Azure AI 模型推理终结点来使用 Azure AI 服务中部署的模型。

使用方式:

  1. 部署页面概述页面获取 Azure AI 模型的推理终结点 URL 和密钥。 如果使用 Microsoft Entra ID 身份验证,则不需要密钥。

    显示如何获取与部署关联的 URL 和密钥的屏幕截图。

  2. 构建客户端时,使用模型推理终结点 URL 和之前的密钥。 以下示例使用 Azure AI 推理包:

    使用包管理器(例如 pip)安装包 azure-ai-inference

    pip install azure-ai-inference>=1.0.0b5
    

    警告

    Azure AI 服务资源需要 Python 版本 azure-ai-inference>=1.0.0b5

    然后,可以使用包来使用模型。 以下示例演示如何创建客户端来使用聊天补全:

    import os
    from azure.ai.inference import ChatCompletionsClient
    from azure.core.credentials import AzureKeyCredential
    
    client = ChatCompletionsClient(
        endpoint=os.environ["AZUREAI_ENDPOINT_URL"],
        credential=AzureKeyCredential(os.environ["AZUREAI_ENDPOINT_KEY"]),
    )
    

    浏览我们的示例,并阅读 API 参考文档以开始使用。

  3. 构造请求时,指示参数 model 并插入创建的模型部署名称。

    from azure.ai.inference.models import SystemMessage, UserMessage
    
    response = client.complete(
        messages=[
            SystemMessage(content="You are a helpful assistant."),
            UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
        ],
        model="mistral-large"
    )
    
    print(response.choices[0].message.content)
    

提示

使用终结点时,可以将 model 参数更改为资源中的任何可用模型部署。

此外,可以使用资源中的 Azure OpenAI 服务终结点 来使用 Azure OpenAI 模型。 此终结点对于每个模型部署都是专用的,并且有自己的 URL。

模型部署自定义

创建模型部署时,可以配置其他设置,包括内容筛选和速率限制。 若要配置更多设置,请在部署向导中选择“自定义”选项。

注意

配置可能因部署的模型而异。

后续步骤