Informazioni sulla progettazione dei prompt
La qualità dei prompt di input inviati ai modelli di intelligenza artificiale, come quelli disponibili nel servizio OpenAI di Azure, influisce direttamente sulla qualità delle informazioni restituite. Creando attentamente i prompt inviati al modello, il modello può fornire risposte migliori e più interessanti.
Che cos'è la progettazione prompt
La progettazione dei prompt è il processo di definizione e ottimizzazione dei prompt per un utilizzo migliore dei modelli di intelligenza artificiale. La definizione di prompt efficaci è fondamentale per il successo della progettazione dei prompt e può migliorare significativamente le prestazioni del modello di intelligenza artificiale per attività specifiche. Fornire prompt pertinenti, specifici, non ambigui e ben strutturati può aiutare il modello a comprendere meglio il contesto e a generare risposte più accurate.
Ad esempio, se si vuole che un modello OpenAI generi descrizioni dei prodotti, è possibile fornire una descrizione dettagliata che illustra le caratteristiche e i vantaggi del prodotto. Grazie a queste informazioni di contesto, il modello può generare descrizioni dei prodotti più accurate e pertinenti.
La progettazione dei prompt può anche essere utile per evitare pregiudizi e migliorare l'equità nei modelli di intelligenza artificiale. Progettando prompt inclusivi e che tengono conto delle diversità, è possibile assicurarsi che il modello non abbia pregiudizi nei confronti di determinati gruppi o prospettive.
Importante
Indipendentemente da quanto si riesca a progettare in modo ottimale un prompt, le risposte dai modelli di intelligenza artificiale non devono mai essere prese come fatti o completamente libere da pregiudizi. Usare sempre l'intelligenza artificiale in modo responsabile. Per altre informazioni, vedere la nota sulla trasparenza di Microsoft per il servizio OpenAI di Azure e i principi per un uso responsabile dell'intelligenza artificiale di Microsoft.
Inoltre, la progettazione dei prompt può essere utile per comprendere quali riferimenti usa il modello per generare la risposta. I modelli di intelligenza artificiale prevedono tantissimi parametri e la logica seguita è in gran parte sconosciuta agli utenti, quindi può essere difficile capire come si arriva alle risposte fornite. Progettando prompt facili da comprendere e interpretare, è possibile aiutare gli esseri umani a comprendere meglio il modo in cui il modello genera le risposte. Ciò può essere particolarmente importante in settori come l'assistenza sanitaria, dove è fondamentale comprendere come il modello sta prendendo decisioni.
Esistono diversi metodi da usare durante la progettazione di prompt personalizzati, molti dei quali sono trattati nelle prossime unità di questo modulo. Questi includono fornire istruzioni, contenuto contestuale, suggerimenti o esempi few-shot e ordinare in modo corretto il contenuto nel prompt. I metodi qui descritti non sono da considerare esaustivi, perché questa area è un argomento fluido e pieno di sfumature.
Considerazioni sugli endpoint API
Gli esempi nel resto di questo modulo saranno incentrati su ChatCompletion
. Vale la pena sottolineare che ChatCompletion
può essere usato anche per scenari non di chat, in cui tutte le istruzioni sono incluse nel messaggio di sistema e il contenuto utente viene fornito nel messaggio del ruolo utente. La maggior parte di questi esempi può essere modificata per usare l'endpoint Completion
, se necessario.
In termini di disponibilità del modello, l'endpoint Completion
può essere usato con gpt-3
e versioni precedenti e ChatCompletion
può essere usato con gpt-35-turbo
e modelli successivi.
Modifica dei parametri del modello
Oltre alle tecniche descritte in questo modulo, la modifica dei parametri del modello può avere un impatto significativo sulla risposta. In particolare, i parametri temperature
e top_p
(top_probability) sono quelli con il probabile maggior impatto sulla risposta di un modello in quanto controllano la casualità nel modello, ma in modi diversi.
I valori più elevati producono risposte più creative e casuali, ma probabilmente saranno meno coerenti o centrate. Le risposte che si prevede siano fittizie o univoche traggono vantaggio da valori più elevati per questi parametri, mentre è consigliabile usare valori inferiori per il contenuto che si desidera sia più coerente e concreto.
Provare a modificare questi parametri con lo stesso prompt per verificarne l'impatto sulla risposta. È consigliabile cambiare temperature
o top_p
, ma non entrambi.