Introdução

Concluído

O verdadeiro poder dos Large Language Models (LLMs) reside na sua aplicação. Se você deseja usar LLMs para classificar páginas da Web em categorias ou para criar um chatbot em seus dados. Para aproveitar o poder dos LLMs disponíveis, você precisa criar um aplicativo que combine suas fontes de dados com LLMs e gere a saída desejada.

Para desenvolver, testar, ajustar e implantar aplicativos LLM, você pode usar o fluxo de prompt, acessível no estúdio do Azure Machine Learning e no Azure AI Studio.

Diagrama mostrando o fluxo de prompt como um recurso do Azure Machine Learning e da IA do Azure.

Nota

O foco deste módulo é compreender e explorar o fluxo imediato através do Azure AI Studio. No entanto, observe que o conteúdo se aplica à experiência de fluxo de prompt no Azure Machine Learning e no Azure AI Studio.

O fluxo de prompt usa um prompt como entrada, que no contexto de LLMs, refere-se à consulta fornecida ao aplicativo LLM para gerar uma resposta. É o texto ou conjunto de instruções dadas ao aplicativo LLM, solicitando que ele gere saída ou execute uma tarefa específica.

Por exemplo, quando você deseja usar um modelo de geração de texto, o prompt pode ser uma frase ou um parágrafo que inicia o processo de geração. No contexto de um modelo de resposta a perguntas, o prompt pode ser uma consulta solicitando informações sobre um tópico específico. A eficácia do prompt muitas vezes depende de quão bem ele transmite a intenção do usuário e o resultado desejado.

O fluxo de prompt permite criar fluxos, que se referem à sequência de ações ou etapas que são tomadas para alcançar uma tarefa ou funcionalidade específica. Um fluxo representa o processo ou pipeline geral que incorpora a interação com o LLM para abordar um caso de uso específico. O fluxo encapsula toda a jornada, desde o recebimento de entrada até a geração de saída ou a execução de uma ação desejada.