快取大型語言模型 API 要求的回應
適用於:所有 APIM 層
llm-semantic-cache-store
原則會快取對已設定外部快取的聊天完成 API 和完成 API 要求的回應。 回應快取可降低加諸於後端 Azure OpenAI API 的頻寬和處理需求,並縮短 API 取用者所感受的延遲時間。
注意
- 此原則必須有對應的取得大型語言模型 API 要求的快取回應原則。
- 如需啟用語意快取的必要條件和步驟,請參閱在 Azure APIM 中啟用 Azure OpenAI API 的語意快取。
- 此原則目前為預覽狀態。
注意
請依照原則陳述式中提供的順序,來設定原則的元素和子元素。 深入了解如何設定或編輯 APIM 原則。
支援的模型
將原則與新增至 Azure APIM 的 LLM API 搭配使用,這些 API 可透過 Azure AI 模型推斷 API 取得。
原則陳述式
<llm-semantic-cache-store duration="seconds"/>
屬性
屬性 | 描述 | 是必要欄位 | 預設 |
---|---|---|---|
duration | 快取項目的存留時間,以秒為單位進行指定。 允許使用原則運算式。 | Yes | N/A |
使用方式
使用注意事項
- 此原則只能在原則區段中使用一次。
- 如果快取查閱失敗,使用快取相關作業的 API 呼叫不會引發錯誤,而且快取作業會順利完成。
範例
對應 llm-semantic-cache-lookup 原則的範例
<policies>
<inbound>
<base />
<llm-semantic-cache-lookup
score-threshold="0.05"
embeddings-backend-id ="llm-backend"
embeddings-backend-auth ="system-assigned" >
<vary-by>@(context.Subscription.Id)</vary-by>
</llm-semantic-cache-lookup>
</inbound>
<outbound>
<llm-semantic-cache-store duration="60" />
<base />
</outbound>
</policies>
相關原則
相關內容
如需使用原則的詳細資訊,請參閱:
- 教學課程:轉換及保護 API
- 原則參考,取得原則陳述式及其設定的完整清單
- 原則運算式
- 設定或編輯原則
- 重複使用原則設定
- 原則程式碼片段存放庫 (英文)
- 使用 Microsoft Azure Copilot 撰寫原則