Dela via


LLM-verktyg

Med verktyget för stor språkmodell (LLM) i promptflöde kan du dra nytta av stora språkmodeller som OpenAI eller Azure OpenAI Service eller valfri språkmodell som stöds av Azure AI-modellinferens-API:et för bearbetning av naturligt språk.

Prompt flow innehåller några olika API:er för stora språkmodeller:

  • Slutförande: OpenAI:s slutförandemodeller genererar text baserat på angivna uppmaningar.
  • Chatt: OpenAI:s chattmodeller och Azure AI-chattmodeller underlättar interaktiva konversationer med textbaserade indata och svar.

Kommentar

Vi tog bort alternativet embedding från LLM-verktygets API-inställning. Du kan använda ett inbäddnings-API med inbäddningsverktyget. Endast nyckelbaserad autentisering stöds för Azure OpenAI-anslutning. Använd inte icke-ascii-tecken i resursgruppens namn på Azure OpenAI-resursen, promptflödet har inte stöd för det här fallet.

Förutsättningar

Skapa OpenAI-resurser:

anslutningar

Konfigurera anslutningar till etablerade resurser i promptflödet.

Typ Name API key API-typ API-version
OpenAI Krav Obligatoriskt - -
Azure OpenAI – API-nyckel Obligatoriskt Obligatoriskt Obligatoriskt Obligatoriskt
Azure OpenAI – Microsoft Entra-ID Obligatoriskt - - Obligatoriskt
Serverlös modell Obligatoriskt Obligatoriskt - -

Dricks

Indata

I följande avsnitt visas olika indata.

Texten har slutförts

Namn Type Beskrivning Obligatoriskt
snabb sträng Textprompt för språkmodellen. Ja
modell, deployment_name sträng Språkmodell som ska användas. Ja
max_tokens integer Maximalt antal token som ska genereras i slutförandet. Standardvärdet är 16. Nej
temperatur flyttal Slumpmässighet för den genererade texten. Standard är 1. Nej
Stanna lista Stoppa sekvensen för den genererade texten. Standardvärdet är null. Nej
suffix sträng Text som läggs till i slutet av slutförandet. Nej
top_p flyttal Sannolikhet att använda det främsta valet från de genererade token. Standard är 1. Nej
logprobs integer Antal loggannolikheter som ska genereras. Standardvärdet är null. Nej
eko boolean Värde som anger om prompten ska upprepas i svaret. Standardvärdet är falskt. Nej
presence_penalty flyttal Värde som styr modellens beteende för upprepade fraser. Standardvärdet är 0. Nej
frequency_penalty flyttal Värde som styr modellens beteende för att generera sällsynta fraser. Standardvärdet är 0. Nej
best_of integer Antal bästa slutföranden som ska genereras. Standard är 1. Nej
logit_bias ordbok Logit bias för språkmodellen. Standard är en tom ordlista. Nej

Chatt

Namn Type Beskrivning Obligatoriskt
snabb sträng Textprompt som språkmodellen använder för ett svar. Ja
modell, deployment_name sträng Språkmodell som ska användas. Den här parametern krävs inte om modellen distribueras till en serverlös API-slutpunkt. Ja*
max_tokens integer Maximalt antal token som ska genereras i svaret. Standardvärdet är inf. Nej
temperatur flyttal Slumpmässighet för den genererade texten. Standard är 1. Nej
Stanna lista Stoppa sekvensen för den genererade texten. Standardvärdet är null. Nej
top_p flyttal Sannolikhet att använda det främsta valet från de genererade token. Standard är 1. Nej
presence_penalty flyttal Värde som styr modellens beteende för upprepade fraser. Standardvärdet är 0. Nej
frequency_penalty flyttal Värde som styr modellens beteende för att generera sällsynta fraser. Standardvärdet är 0. Nej
logit_bias ordbok Logit bias för språkmodellen. Standard är en tom ordlista. Nej

Utdata

API Returtyp beskrivning
Fullbordande sträng Text för ett förutsagt slutförande
Chatt sträng Text för ett konversationssvar

Använda LLM-verktyget

  1. Konfigurera och välj anslutningarna till OpenAI-resurser eller till en serverlös API-slutpunkt.
  2. Konfigurera API:et för den stora språkmodellen och dess parametrar.
  3. Förbered prompten med vägledning.