Partilhar via


Ferramenta LLM para fluxos no portal do Azure AI Foundry

Importante

Os itens marcados (visualização) neste artigo estão atualmente em visualização pública. Essa visualização é fornecida sem um contrato de nível de serviço e não a recomendamos para cargas de trabalho de produção. Algumas funcionalidades poderão não ser suportadas ou poderão ter capacidades limitadas. Para obter mais informações, veja Termos Suplementares de Utilização para Pré-visualizações do Microsoft Azure.

Para usar modelos de linguagem grandes (LLMs) para processamento de linguagem natural, use a ferramenta LLM de fluxo de prompt.

Nota

Para incorporar texto em representações vetoriais densas para várias tarefas de processamento de linguagem natural, consulte Ferramenta de incorporação.

Pré-requisitos

Prepare um prompt conforme descrito na documentação da ferramenta Prompt. A ferramenta LLM e a ferramenta Prompt suportam modelos Jinja . Para obter mais informações e práticas recomendadas, consulte Técnicas de engenharia imediatas.

Crie com a ferramenta LLM

  1. Crie ou abra um fluxo no Azure AI Foundry. Para obter mais informações, consulte Criar um fluxo.

  2. Selecione + LLM para adicionar a ferramenta LLM ao seu fluxo.

    Captura de tela que mostra a ferramenta LLM adicionada a um fluxo no portal do Azure AI Foundry.

  3. Selecione a conexão com um dos recursos provisionados. Por exemplo, selecione Default_AzureOpenAI.

  4. Na lista suspensa Api, selecione bate-papo ou conclusão.

  5. Insira valores para os parâmetros de entrada da ferramenta LLM descritos na tabela Entradas de conclusão de texto. Se você selecionou a API de chat , consulte a tabela Entradas de chat. Se você selecionou a API de conclusão , consulte a tabela Entradas de conclusão de texto. Para obter informações sobre como preparar a entrada de prompt, consulte Pré-requisitos.

  6. Adicione mais ferramentas ao seu fluxo, conforme necessário. Ou selecione Executar para executar o fluxo.

  7. As saídas são descritas na tabela Saídas.

Entradas

Os seguintes parâmetros de entrada estão disponíveis.

Entradas de preenchimento de texto

Nome Tipo Descrição Obrigatório
Prompt string Prompt de texto para o modelo de idioma. Sim
modelo, deployment_name string O modelo de linguagem a ser usado. Sim
max_tokens integer O número máximo de tokens a serem gerados na conclusão. O padrão é 16. Não
temperatura flutuante A aleatoriedade do texto gerado. A predefinição é 1. Não
parar list A sequência de parada para o texto gerado. O padrão é null. Não
sufixo string O texto foi anexado ao final da conclusão. Não
top_p flutuante A probabilidade de usar a escolha superior dos tokens gerados. A predefinição é 1. Não
Logprobs integer O número de probabilidades de log a serem geradas. O padrão é null. Não
echo boolean O valor que indica se o prompt deve ser repetido na resposta. A predefinição é falsa. Não
presence_penalty flutuante O valor que controla o comportamento do modelo em relação à repetição de frases. O padrão é 0. Não
frequency_penalty flutuante O valor que controla o comportamento do modelo em relação à geração de frases raras. O padrão é 0. Não
best_of integer O número de melhores finalizações a gerar. A predefinição é 1. Não
logit_bias dicionário O viés logit para o modelo de linguagem. O padrão é dicionário vazio. Não

Entradas de chat

Nome Tipo Descrição Obrigatório
Prompt string O prompt de texto ao qual o modelo de idioma deve responder. Sim
modelo, deployment_name string O modelo de linguagem a ser usado. Sim
max_tokens integer O número máximo de tokens a gerar na resposta. O padrão é inf. Não
temperatura flutuante A aleatoriedade do texto gerado. A predefinição é 1. Não
parar list A sequência de parada para o texto gerado. O padrão é null. Não
top_p flutuante A probabilidade de usar a escolha superior dos tokens gerados. A predefinição é 1. Não
presence_penalty flutuante O valor que controla o comportamento do modelo em relação à repetição de frases. O padrão é 0. Não
frequency_penalty flutuante O valor que controla o comportamento do modelo em relação à geração de frases raras. O padrão é 0. Não
logit_bias dicionário O viés logit para o modelo de linguagem. O padrão é dicionário vazio. Não

Saídas

A saída varia dependendo da API selecionada para entradas.

API Tipo de retorno Description
Conclusão string O texto de uma conclusão prevista.
Chat string O texto de uma resposta de conversa.

Próximos passos