Usar prompts para obter conclusões de modelos
Depois que o modelo for implantado, você poderá testar como ele conclui os prompts. Um prompt é a parte de texto de uma solicitação que é enviada para o ponto de extremidade de conclusão do modelo implantado. As respostas são chamadas de conclusão, que podem vir na forma de texto, código ou outros formatos.
Tipos de prompt
Os prompts podem ser agrupados em tipos de solicitações com base na tarefa.
Tipo de tarefa | Exemplo de prompt | Exemplo de conclusão |
---|---|---|
Classificação do conteúdo | Tweet: Eu gostei da viagem. Sentimento: |
Positiva |
Geração de novos conteúdos | Listar formas de viajar | 1. Bicicleta 2. Carro ... |
Manter uma conversa | Um assistente de IA amigável | Ver exemplos |
Transformação (tradução e conversão de símbolos) | Inglês: Hello Francês: |
Bonjour |
Resumindo o conteúdo | Forneça um resumo do conteúdo {texto} |
O conteúdo compartilha métodos de aprendizado de máquina. |
Continuar de onde parou | Uma maneira de cultivar tomates | é plantar sementes. |
Dar respostas factuais | Quantas luas tem a Terra? | Um |
Qualidade de acabamento
Vários fatores afetam a qualidade das finalizações que você obterá de uma solução de IA generativa.
- A maneira como um prompt é projetado. Saiba mais sobre engenharia de prompts aqui.
- Os parâmetros do modelo (abordados a seguir)
- Os dados sobre os quais o modelo é treinado, que podem ser adaptados através do ajuste fino do modelo com personalização
Você tem mais controle sobre as finalizações retornadas pelo treinamento de um modelo personalizado do que por meio de engenharia imediata e ajuste de parâmetros.
Fazer chamadas
Você pode começar a fazer chamadas para seu modelo implantado por meio da API REST, Python, C# ou do Studio. Se o modelo implantado tiver uma base de modelo GPT-3.5 ou GPT-4, use a documentação de conclusão de chat, que tem pontos de extremidade de solicitação e variáveis necessárias diferentes do que para outros modelos base.