はじめに
大規模言語モデル (LLM) の真の能力は、そのアプリケーションにあります。 LLM を使用して、Web ページをカテゴリに分類するか、またはデータに基づいてチャットボットを構築するかに関係なく、 利用可能な LLM の能力を活用するには、データ ソースと LLM を組み合わせて目的の出力を生成するアプリケーションを作成する必要があります。
LLM アプリケーションの開発、テスト、調整、デプロイを行うには、Azure Machine Learning スタジオおよび Azure AI Studio でアクセスできるプロンプト フローを使用できます。
Note
このモジュールでは、Azure AI Studio でのプロンプト フローを理解して調べることに焦点を当てます。 ただし、このモジュールの内容は、Azure Machine Learning スタジオと Azure AI Studio の両方のプロンプト フロー エクスペリエンスに当てはまることに注意してください。
プロンプト フローは入力としてプロンプトを受け取ります。プロンプトとは、LLM のコンテキストでは、応答を生成するために LLM アプリケーションに提供されるクエリを指します。 これは、LLM アプリケーションに与えられるテキストまたは一連の命令であり、出力の生成や特定のタスクの実行を要求します。
たとえば、テキスト生成モデルを使用する場合、プロンプトは生成プロセスを開始する文または段落と考えることができます。 また、質問応答モデルのコンテキストでは、プロンプトは特定のトピックに関する情報を求めるクエリと考えることができます。 多くの場合、プロンプトの効果は、ユーザーの意図とユーザーが目的としている結果を伝える方法によって異なります。
プロンプト フローを使用すると、フローを作成できます。フローとは、特定のタスクまたは機能を達成するために実行される一連のアクションまたはステップを指します。 フローは、特定のユースケースに対処するために LLM との対話を組み込むプロセス全体またはパイプラインを表します。 フローには、入力の受信から出力の生成または目的のアクションの実行まで、過程全体がカプセル化されます。