Usar prompts para obter conclusões de modelos

Concluído

Depois que o modelo for implantado, você poderá testar como ele conclui os prompts. Um prompt é a parte de texto de uma solicitação que é enviada para o ponto de extremidade de conclusão do modelo implantado. As respostas são chamadas de conclusão, que podem vir na forma de texto, código ou outros formatos.

Tipos de prompt

Os prompts podem ser agrupados em tipos de solicitações com base na tarefa.

Tipo de tarefa Exemplo de prompt Exemplo de conclusão
Classificação do conteúdo Tweet: Eu gostei da viagem.
Sentimento:
Positiva
Geração de novos conteúdos Listar formas de viajar 1. Bicicleta
2. Carro ...
Manter uma conversa Um assistente de IA amigável Ver exemplos
Transformação (tradução e conversão de símbolos) Inglês: Hello
Francês:
Bonjour
Resumindo o conteúdo Forneça um resumo do conteúdo
{texto}
O conteúdo compartilha métodos de aprendizado de máquina.
Continuar de onde parou Uma maneira de cultivar tomates é plantar sementes.
Dar respostas factuais Quantas luas tem a Terra? Um

Qualidade de acabamento

Vários fatores afetam a qualidade das finalizações que você obterá de uma solução de IA generativa.

Você tem mais controle sobre as finalizações retornadas pelo treinamento de um modelo personalizado do que por meio de engenharia imediata e ajuste de parâmetros.

Fazer chamadas

Você pode começar a fazer chamadas para seu modelo implantado por meio da API REST, Python, C# ou do Studio. Se o modelo implantado tiver uma base de modelo GPT-3.5 ou GPT-4, use a documentação de conclusão de chat, que tem pontos de extremidade de solicitação e variáveis necessárias diferentes do que para outros modelos base.