Usare i prompt per ottenere i completamenti dai modelli

Completato

Dopo aver distribuito il modello, è possibile testare il modo in cui completa i prompt. Un prompt è la parte di testo di una richiesta inviata all'endpoint dei completamenti del modello distribuito. Le risposte sono dette completamenti e possono essere in forma di testo, codice o altri formati.

Tipi di richieste

I prompt possono essere raggruppati in tipi di richieste in base all'attività.

Tipo di attività Esempio di prompt Esempio di completamento
Classificare il contenuto Tweet: Mi è piaciuto il viaggio.
Valutazione:
Positivi
Generare nuovo contenuto Elenca i modi di viaggiare 1. Bicicletta
2. Auto ...
Tenere una conversazione Un assistente di intelligenza artificiale amichevole Vedere gli esempi
Trasformare (traduzione e conversione di simboli) In inglese: Buongiorno
Francese:
bonjour
Riepilogare il contenuto Fornisci un riassunto del contenuto
{text}
Il contenuto descrive i metodi di Machine Learning.
Riprendere da dove si è lasciato Un modo per coltivare i pomodori è quello di piantare i semi.
Dare risposte concrete Quante lune ha la Terra? Uno

Qualità dei completamenti

Diversi fattori influiscono sulla qualità dei completamenti che si otterranno da una soluzione di intelligenza artificiale generativa.

È possibile avere un maggiore controllo sui completamenti restituiti eseguendo il training di un modello personalizzato rispetto alla progettazione dei prompt e alla regolazione dei parametri.

Effettuare chiamate

È possibile iniziare a effettuare chiamate al modello distribuito tramite l'API REST, Python, C# o da Studio. Se il modello distribuito ha una base GPT-3.5 o GPT-4, usare la documentazione sui completamenti della chat, che include endpoint di richiesta e variabili diversi rispetto ad altri modelli di base.