Vilken modell som ska användas
Det finns många faktorer, inklusive kostnad, tillgänglighet, prestanda och kapacitet, att tänka på när du väljer vilken LLM som ska användas. I allmänhet rekommenderar vi följande guider:
gpt-35-turbo: Den här modellen är ekonomisk, fungerar bra och kan, trots ChatGPT-namnet, användas för en mängd olika uppgifter utöver chatt och konversation.
gpt-35-turbo-16k, gpt-4 eller gpt-4-32k: Dessa modeller är ett bra val om du behöver generera fler än 4 096 token eller behöver stöd för större frågor. Dessa modeller är dock dyrare, kan vara långsammare och kan ha begränsad tillgänglighet.
Inbäddningsmodeller: Om dina uppgifter omfattar sökning, klustring, rekommendationer och avvikelseidentifiering bör du använda en inbäddningsmodell. Datorer kan enkelt använda en vektor med tal som utgör inbäddningen. Inbäddningen är en informationstät representation av den semantiska innebörden av ett textstycke. Avståndet mellan två inbäddningar i vektorutrymmet korreleras med semantisk likhet. Om två texter till exempel är liknande är deras vektorrepresentationer också liknande.
DALL-E: Den här modellen genererar bilder från textprompter. DALL-E skiljer sig från andra språkmodeller eftersom dess utdata är en bild, inte text.
Whisper: Den här modellen tränas på en stor datamängd med engelskt ljud och text. Whisper är optimerat för tal-till-text-funktioner som att transkribera ljudfiler. Den kan användas för att transkribera ljudfiler som innehåller tal på andra språk än engelska, men modellens utdata är engelsk text. Använd Whisper för att snabbt transkribera ljudfiler en i taget, översätta ljud från andra språk till engelska eller ange din uppmaning till modellen för att vägleda utdata.