Förstå promptteknik

Slutförd

Kvaliteten på de indatameddelanden som vi skickar till en AI-modell, som de som är tillgängliga i Azure OpenAI, påverkar direkt kvaliteten på det vi får tillbaka. Genom att noggrant konstruera de frågor vi skickar till modellen kan modellen ge bättre och mer intressanta svar.

Vad är promptkonstruktion?

Prompt engineering är processen att utforma och optimera uppmaningar för att bättre använda AI-modeller. Att utforma effektiva frågor är avgörande för att snabbtekniken ska lyckas, och den kan avsevärt förbättra AI-modellens prestanda för specifika uppgifter. Genom att tillhandahålla relevanta, specifika, entydiga och välstrukturerade frågor kan modellen bättre förstå kontexten och generera mer exakta svar.

Om vi till exempel vill att en OpenAI-modell ska generera produktbeskrivningar kan vi ge den en detaljerad beskrivning som beskriver produktens funktioner och fördelar. Genom att tillhandahålla den här kontexten kan modellen generera mer exakta och relevanta produktbeskrivningar.

Snabb teknik kan också bidra till att minimera fördomar och förbättra rättvisan i AI-modeller. Genom att utforma frågor som är olika och inkluderande kan vi se till att modellen inte är partisk mot en viss grupp eller ett visst perspektiv.

Viktigt!

Oavsett hur bra en fråga du kan utforma bör svar från AI-modeller aldrig tas som fakta eller helt fria från bias. Använd alltid AI på ett ansvarsfullt sätt. Mer information finns i Microsofts transparensanteckning om Azure OpenAI och Microsofts AI-principer.

Dessutom kan promptteknik hjälpa oss att förstå vilka referenser modellen använder för att generera svaret. Generativa AI-modeller har massor av parametrar och logiken som den följer är till stor del okänd för användarna, så det kan vara förvirrande hur den kommer fram till det svar den ger. Genom att utforma frågor som är lätta att förstå och tolka kan vi hjälpa människor att bättre förstå hur modellen genererar sina svar. Detta kan vara särskilt viktigt inom områden som sjukvård, där det är viktigt att förstå hur modellen fattar beslut.

Det finns olika metoder att använda när du skapar egna frågor, varav många beskrivs i kommande enheter i den här modulen. Dessa inkluderar att tillhandahålla instruktioner, kontextuellt innehåll, tips eller exempel med få bilder och korrekt ordning på innehåll i prompten. Metoderna som beskrivs här är inte uttömmande eftersom det här området är ett nyanserat och flytande ämne.

Överväganden för API-slutpunkter

Exemplen i resten av den här modulen fokuserar på ChatCompletion. Det är värt att notera att ChatCompletion det också kan användas för icke-chattscenarier, där alla instruktioner ingår i systemmeddelandet och användarinnehållet anges i användarrollmeddelandet. De flesta av dessa exempel kan ändras för att använda Completion slutpunkten, om så önskas.

När det gäller modelltillgänglighet Completion kan slutpunkten användas med gpt-3 och tidigare och ChatCompletion kan användas med gpt-35-turbo och senare modeller.

Justera modellparametrar

Förutom de tekniker som beskrivs i den här modulen kan justering av modellens parametrar ha en betydande inverkan på svaret. I synnerhet temperature och top_p (top_probability) är de mest sannolika att påverka en modells svar eftersom de båda kontrollerar slumpmässighet i modellen, men på olika sätt.

Högre värden ger mer kreativa och slumpmässiga svar, men kommer sannolikt att vara mindre konsekventa eller fokuserade. Svar som förväntas vara fiktiva eller unika drar nytta av högre värden för dessa parametrar, medan innehåll som önskas vara mer konsekvent och konkret bör använda lägre värden.

Prova att justera dessa parametrar med samma uppmaning för att se hur de påverkar svaret. Vi rekommenderar att du ändrar antingen temperature eller top_p åt gången, men inte båda.