Varianti in prompt flow
Con prompt flow di Azure Machine Learning è possibile usare varianti per ottimizzare il prompt. In questo articolo viene illustrato il concetto di varianti di prompt flow.
Varianti
Una variante fa riferimento a una versione specifica di un nodo dello strumento con impostazioni distinte. Attualmente, le varianti sono supportate solo nello strumento LLM. Nello strumento LLM, ad esempio, una nuova variante può rappresentare un contenuto di prompt diverso o impostazioni di connessione diverse.
Si supponga di voler generare un riepilogo di un articolo di notizie. È possibile impostare varianti diverse di prompt e impostazioni, come illustrato di seguito:
Varianti | Richiesta | Impostazioni di connessione |
---|---|---|
Variante 0 | Summary: {{input sentences}} |
Temperatura = 1 |
Variante 1 | Summary: {{input sentences}} |
Temperatura = 0,7 |
Variante 2 | What is the main point of this article? {{input sentences}} |
Temperatura = 1 |
Variante 3 | What is the main point of this article? {{input sentences}} |
Temperatura = 0,7 |
Utilizzando diverse varianti di prompt e impostazioni, è possibile esaminare come risponde il modello a vari input e output, consentendo di individuare la combinazione più indicata per specifici requisiti.
Vantaggi dell'uso di varianti
- Migliorare la qualità della generazione di LLM: creando più varianti dello stesso nodo LLM con prompt e configurazioni diverse, è possibile identificare la combinazione ottimale che produce contenuti di alta qualità in linea con specifiche esigenze.
- Risparmiare tempo e impegno: anche lievi modifiche apportate a una prompt possono produrre risultati notevolmente diversi. È fondamentale monitorare e confrontare le prestazioni di ogni versione del prompt. Con le varianti, è possibile gestire facilmente le versioni cronologiche dei nodi LLM, semplificando gli aggiornamenti in base a qualsiasi variante senza il rischio di dimenticare le iterazioni precedenti. In questo modo è possibile risparmiare tempo e impegno nella gestione della cronologia di ottimizzazione dei prompt.
- Aumentare la produttività: le varianti semplificano il processo di ottimizzazione per i nodi LLM, semplificando la creazione e la gestione di più variazioni. È possibile ottenere risultati migliorati in meno tempo, aumentando così la produttività complessiva.
- Facilitare un semplice confronto: è possibile confrontare facilmente i risultati ottenuti da varianti diverse affiancate, consentendo di prendere decisioni basate sui dati relative alla variante che genera i risultati migliori.