Introduktion
Den verkliga kraften hos stora språkmodeller (LLM: er) ligger i deras program. Oavsett om du vill använda LLM:er för att klassificera webbsidor i kategorier eller för att skapa en chattrobot på dina data. För att utnyttja kraften hos de tillgängliga LLM:erna måste du skapa ett program som kombinerar dina datakällor med LLM:er och genererar önskade utdata.
Om du vill utveckla, testa, finjustera och distribuera LLM-program kan du använda promptflöde som är tillgängligt i Azure Machine Learning-studio och Azure AI Studio.
Kommentar
Fokus i den här modulen ligger på att förstå och utforska snabbflöde via Azure AI Studio. Observera dock att innehållet gäller för promptflödesupplevelsen i både Azure Machine Learning och Azure AI Studio.
Prompt flow tar en fråga som indata, som i kontexten för LLMs refererar till frågan som tillhandahålls till LLM-programmet för att generera ett svar. Det är texten eller uppsättningen instruktioner som ges till LLM-programmet, vilket uppmanar det att generera utdata eller utföra en specifik uppgift.
När du till exempel vill använda en textgenereringsmodell kan uppmaningen vara en mening eller ett stycke som initierar genereringsprocessen. I samband med en frågesvarsmodell kan frågan vara en fråga som ber om information om ett visst ämne. Frågans effektivitet beror ofta på hur väl användarens avsikt och önskat resultat förmedlas.
Med promptflöde kan du skapa flöden, som refererar till sekvensen med åtgärder eller åtgärder som vidtas för att uppnå en specifik uppgift eller funktion. Ett flöde representerar den övergripande processen eller pipelinen som innehåller interaktionen med LLM för att hantera ett visst användningsfall. Flödet kapslar in hela resan från att ta emot indata till att generera utdata eller utföra en önskad åtgärd.