Compartilhar via


Seleção de modelo e configurações de temperatura

Quando você cria uma ação de solicitação no construtor de solicitações, o painel à direita inclui uma seção de Configurações. Esta seção permite que você defina estes parâmetros:

  • Versão do modelo de IA generativa
  • Temperatura

Este artigo explora o impacto desses parâmetros.

Versões do modelo de IA generativa

O menu suspenso permite que você selecione entre os modelos de IA generativa, que geram a resposta à sua solicitação personalizada.

O modelo padrão a partir de novembro de 2024 é GPT-4o Mini (disponibilidade geral ou GA). Você também pode usar o modelo mais poderoso GPT-4o (GA) e o modelo o1 (versão preliminar paga). As versões secundárias exatas desses modelos podem mudar.

Quando você usa ações de solicitação no Power Apps ou no Power Automate, elas consomem créditos do AI Builder.

Escolha um modelo

Escolha entre os modelos com base no status e nas regras de licenciamento.

Modelo GPT Status Regras de licenciamento Funcionalidades Disponibilidades da região
GPT 4o Mini GA - Modelo padrão Consome créditos no Power Apps e no Power Automate. Mais informações: Guia de Licenciamento do Power Platform Treinamento em dados até dezembro de 2023. Contexto permitido até 128k tokens. Disponibilidade de recursos por regiões para solicitações
GPT 4 GA Consome créditos no Power Apps e no Power Automate. Mais informações: Guia de Licenciamento do Power Platform O GPT 4o tem conhecimento até outubro de 2023 e tem um comprimento de contexto de 128 mil tokens. Disponibilidade de recursos por regiões para solicitações
o1 Versão preliminar paga Consome créditos no Power Apps e no Power Automate. Mais informações: Guia de Licenciamento do Power Platform. O modelo o1 consome 140 créditos para tokens de entrada 1K e 560 créditos para tokens de saída 1K.
Consome a mensagem no Copilot Studio a partir de 7 de abril. Mais informações: Mensagem no Copilot Studio
o1 tem conhecimento até outubro de 2023 e tem um comprimento de contexto de 128k tokens. Disponibilidade de recursos por regiões para solicitações

Escolha entre o modelo com base em recursos e cenários.

Comparação de GPT-4o Mini, GPT-4o e o1

Fatores GPT-4o Mini GPT-4o o1
Custo Menor e mais econômico Preços mais altos e premium Preço premium mais elevado (versão preliminar paga)
Performance Bom para a maioria das tarefas Superior para tarefas complexas Treinado para tarefas de raciocínio
Velocidade Processamento mais rápido Pode ser mais lento devido à complexidade Mais devagar, pois raciocina antes de responder
Casos de uso Resumo, tarefas de informação Processamento de imagens e documentos, bem como tarefas complexas de criação de conteúdo Tarefas complexas de análise e raciocínio de dados

Narrativa da decisão

Quando precisar de uma solução econômica para tarefas moderadamente complexas, tiver recursos computacionais limitados ou exigir processamento mais rápido, escolha GPT-4o Mini. Ele é ideal para projetos com restrições orçamentárias e aplicativos como suporte ao cliente ou análise de código eficiente.

Quando você estiver lidando com tarefas multimodais altamente complexas que exigem desempenho superior e análise detalhada, escolha GPT-4o. Ele é a melhor escolha para projetos de grande escala onde a precisão e os recursos avançados são cruciais. Outro cenário em que é uma escolha melhor é quando você tem o orçamento e os recursos computacionais para suportá-lo. O GPT-4o também é preferível para projetos de longo prazo que podem crescer em complexidade ao longo do tempo.

Para projetos que exigem recursos avançados de raciocínio, o modelo o1 se destaca. É adequado para cenários que exigem resolução sofisticada de problemas e pensamento crítico. O modelo o1 se destaca em ambientes onde raciocínio matizado, tomada de decisão complexa e análise detalhada são importantes.

Uso de solicitações de IA no contexto do Microsoft Copilot Studio

Os prompts de IA não consomem créditos do AI Builder no Copilot Studio, mas consomem mensagens.

Saiba mais sobre o consumo de mensagens no Guia de licenciamento do Power Platform.

Temperatura

O controle deslizante permite selecionar a temperatura do modelo de IA generativa. Ele varia entre 0 e 1 e orienta o modelo de IA generativa sobre quanta criatividade (1) vs resposta determinística (0) ele deve fornecer.

A temperatura é um parâmetro que controla a aleatoriedade da saída gerada pelo modelo de IA. Uma temperatura mais baixa resulta em saídas mais previsíveis e conservadoras. Para comparar, uma temperatura mais alta permite mais criatividade e diversidade nas respostas. É uma maneira de ajustar o equilíbrio entre aleatoriedade e determinismo na saída do modelo.

Por padrão, a temperatura é 0, como nas solicitações criadas anteriormente.

Temperatura Funcionalidade Usar em
0 Resultados mais previsíveis e conservadores.
As respostas são mais consistentes.
Solicitações que exigem alta precisão e menor variabilidade.
0 Mais criatividade e diversidade nas respostas.
Respostas mais variadas e, por vezes, mais inovadoras.
Solicitações que criam novo conteúdo pronto para uso

O ajuste da temperatura pode influenciar na saída do modelo, mas não garante um resultado específico. As respostas da IA são inerentemente probabilísticas e podem variar mesmo com a mesma configuração de temperatura.

Observação

A configuração de temperatura não está disponível para o modelo o1, portanto, o controle deslizante é desativado quando o modelo o1 é selecionado.