Freigeben über


Varianten im Prompt Flow

Mit Azure Machine Learning-Prompt-Flow können Sie Varianten verwenden, um Ihren Prompt zu optimieren. In diesem Artikel lernen Sie das Konzept der Prompt Flow Varianten kennen.

Varianten

Eine Variante bezieht sich auf eine bestimmte Version eines Toolknotens mit spezifischen Einstellungen. Derzeit werden Varianten nur im LLM-Tool unterstützt. Im LLM-Tool kann beispielsweise eine neue Variante entweder einen anderen Prompt-Inhalt oder unterschiedliche Verbindungseinstellungen darstellen.

Angenommen, Sie möchten eine Zusammenfassung eines Nachrichtenartikels generieren. Sie können verschiedene Varianten von Prompts und Einstellungen wie folgt festlegen:

Varianten Prompt Verbindungseinstellungen
Variante 0 Summary: {{input sentences}} Temperature = 1
Variant 1 Summary: {{input sentences}} Temperature = 0,7
Variante 2 What is the main point of this article? {{input sentences}} Temperature = 1
Variant 3 What is the main point of this article? {{input sentences}} Temperature = 0,7

Indem Sie verschiedene Varianten von Prompts und Einstellungen verwenden, können Sie untersuchen, wie das Modell auf verschiedene Ein- und Ausgaben reagiert, um die am besten geeignete Kombination für Ihre Anforderungen zu ermitteln.

Vorteile der Verwendung von Varianten

  • Höhere Qualität bei der LLM-Generierung: Indem Sie mehrere Varianten desselben LLM-Knotens mit verschiedenen Prompts und Konfigurationen erstellen, können Sie die optimale Kombination identifizieren, die hochwertige Inhalte erzeugt, die Ihren Anforderungen entsprechen.
  • Geringerer Zeit- und Arbeitsaufwand: Selbst geringfügige Änderungen an eine Prompt können zu erheblich abweichenden Ergebnissen führen. Es ist wichtig, die Leistung jeder Prompt-Version nachzuverfolgen und zu vergleichen. Mit Varianten können Sie problemlos frühere Versionen Ihrer LLM-Knoten verwalten. Dies vereinfacht Aktualisierungen basierend auf Varianten ohne das Risiko, dass vorherige Iterationen vergessen werden. Dadurch sparen Sie Zeit und Arbeit beim Verwalten des Verlaufs der Prompt-Optimierung.
  • Höhere Produktivität: Varianten verbessern den Optimierungsprozess für LLM-Knoten, wodurch es einfacher wird, mehrere Variationen zu erstellen und zu verwalten. Sie können in kürzerer Zeit bessere Ergebnisse erzielen und so Ihre Produktivität insgesamt steigern.
  • Einfacher Vergleich: Sie können mühelos die Ergebnisse verschiedener Varianten nebeneinander vergleichen, um datengesteuerte Entscheidungen zu Varianten zu treffen, die die besten Ergebnisse liefern.

Nächste Schritte