Introdução
O verdadeiro poder dos Modelos de linguagem grandes (LLMs) está em sua aplicação. Se você deseja usar LLMs para classificar páginas da Web em categorias ou criar um chatbot em seus dados. Para aproveitar o poder das LLMs disponíveis, você precisa criar um aplicativo que combine suas fontes de dados com LLMs e gere a saída desejada.
Para desenvolver, testar, ajustar e implantar aplicativos LLM, você pode usar o prompt flow, acessível no Estúdio do Azure Machine Learning e no Estúdio de IA do Azure.
Observação
Ao longo deste módulo, o foco é entender e explorar o prompt flow. O conteúdo se aplica à experiência de prompt flow no Azure Machine Learning e no estúdio de IA do Azure.
O prompt flow usa um prompt como entrada, que no contexto de LLMs, refere-se à consulta fornecida ao aplicativo LLM para gerar uma resposta. É o texto ou o conjunto de instruções fornecidas ao aplicativo LLM, solicitando que ele gere a saída ou execute uma tarefa específica.
Por exemplo, quando você quiser usar um modelo de geração de texto, o prompt pode ser uma frase ou um parágrafo que inicia o processo de geração. No contexto de um modelo de resposta a perguntas, o prompt pode ser uma consulta que solicita informações sobre um tópico específico. A eficácia do prompt geralmente depende de quão bem ele transmite a intenção do usuário e o resultado desejado.
O prompt flow permite que você crie fluxos, que se referem à sequência de ações ou etapas executadas para alcançar uma tarefa ou funcionalidade específica. Um fluxo representa o processo geral ou o pipeline que incorpora a interação com o LLM para resolver um caso de uso específico. O fluxo encapsula todo o percurso desde o recebimento de entrada até a geração de saída ou a execução de uma ação desejada.