Wprowadzenie
Prawdziwa siła dużych modeli językowych (LLMs) leży w ich aplikacji. Niezależnie od tego, czy chcesz używać usługi LLMs do klasyfikowania stron internetowych w kategoriach, czy do tworzenia czatbota na danych. Aby wykorzystać możliwości dostępnych modułów LLM, należy utworzyć aplikację, która łączy źródła danych z modułami LLM i generuje żądane dane wyjściowe.
Aby opracowywać, testować, dostrajać i wdrażać aplikacje LLM, możesz użyć przepływu monitów dostępnego w usłudze Azure Machine Edukacja Studio i usłudze Azure AI Studio.
Uwaga
Ten moduł koncentruje się na zrozumieniu i eksplorowaniu przepływu monitów za pośrednictwem programu Azure AI Studio. Należy jednak pamiętać, że zawartość ma zastosowanie do środowiska przepływu monitów zarówno w usłudze Azure Machine Edukacja, jak i w usłudze Azure AI Studio.
Przepływ monitu przyjmuje monit jako dane wejściowe, które w kontekście usługi LLM odnosi się do zapytania dostarczonego do aplikacji LLM w celu wygenerowania odpowiedzi. Jest to tekst lub zestaw instrukcji podanych aplikacji LLM, monitujący o wygenerowanie danych wyjściowych lub wykonanie określonego zadania.
Jeśli na przykład chcesz użyć modelu generowania tekstu, monit może być zdaniam lub akapitem, który inicjuje proces generowania. W kontekście modelu odpowiedzi na pytania monit może być zapytaniem z prośbą o informacje dotyczące określonego tematu. Skuteczność monitu często zależy od tego, jak dobrze przekazuje intencję użytkownika i żądany wynik.
Przepływ monitu umożliwia tworzenie przepływów, które odnoszą się do sekwencji akcji lub kroków, które są podejmowane w celu osiągnięcia określonego zadania lub funkcjonalności. Przepływ reprezentuje ogólny proces lub potok, który obejmuje interakcję z usługą LLM w celu rozwiązania określonego przypadku użycia. Przepływ hermetyzuje całą podróż od odbierania danych wejściowych do generowania danych wyjściowych lub wykonywania żądanej akcji.