Modellen verfijnen met Azure AI Foundry
Belangrijk
Items die in dit artikel zijn gemarkeerd (preview) zijn momenteel beschikbaar als openbare preview. Deze preview wordt aangeboden zonder een service level agreement en we raden deze niet aan voor productieworkloads. Misschien worden bepaalde functies niet ondersteund of zijn de mogelijkheden ervan beperkt. Zie Aanvullende gebruiksvoorwaarden voor Microsoft Azure-previews voor meer informatie.
Afstemmen verwijst naar het aanpassen van een vooraf getraind AI-model met aanvullende training voor een specifieke taak of nieuwe gegevensset voor verbeterde prestaties, nieuwe vaardigheden of verbeterde nauwkeurigheid. Het resultaat is een nieuw, aangepast GenAI-model dat is geoptimaliseerd op basis van de opgegeven voorbeelden.
Overweeg om GenAI-modellen af te stemmen op:
- Schalen en aanpassen aan specifieke bedrijfsbehoeften
- Fout-positieven verminderen omdat op maat gemaakte modellen minder waarschijnlijk onnauwkeurige of irrelevante reacties opleveren
- De nauwkeurigheid van het model verbeteren voor domeinspecifieke taken
- Bespaar tijd en resources met snellere en nauwkeurigere resultaten
- Haal relevantere en contextbewuste resultaten op, omdat modellen zijn afgestemd op specifieke use cases
Azure AI Foundry biedt verschillende modellen voor modelproviders, zodat u toegang krijgt tot de nieuwste en beste op de markt. U kunt ondersteunde modellen ontdekken voor het verfijnen van onze modelcatalogus met behulp van het filter Voor het afstemmen van taken en het selecteren van de modelkaart voor gedetailleerde informatie over elk model. Specifieke modellen kunnen worden onderworpen aan regionale beperkingen. Bekijk deze lijst voor meer informatie.
In dit artikel wordt u begeleid bij gebruiksvoorbeelden voor het verfijnen en hoe dit u kan helpen bij uw GenAI-traject.
Aan de slag met het afstemmen
Wanneer u begint met uw generatieve AI-reis, raden we u aan om te beginnen met prompt engineering en RAG om vertrouwd te raken met basismodellen en de mogelijkheden ervan.
- Prompt engineering is een techniek waarbij prompts worden ontworpen met behulp van toon- en stijldetails, voorbeeldreacties en intentietoewijzing voor modellen voor verwerking van natuurlijke taal. Dit proces verbetert de nauwkeurigheid en relevantie in reacties om de prestaties van het model te optimaliseren.
- Het ophalen van augmented generation (RAG) verbetert de LLM-prestaties door gegevens op te halen uit externe bronnen en deze op te nemen in een prompt. RAG kan bedrijven helpen aangepaste oplossingen te bereiken terwijl de relevantie van gegevens behouden blijft en de kosten worden geoptimaliseerd.
Naarmate u vertrouwd raakt en begint met het bouwen van uw oplossing, is het belangrijk om te begrijpen waar prompt engineering kort is en dat helpt u te realiseren als u moet proberen af te stemmen.
- Mislukt het basismodel in edge-gevallen of uitzonderingen?
- Biedt het basismodel niet consistent uitvoer in de juiste indeling?
- Is het moeilijk om voldoende voorbeelden in het contextvenster aan te passen om het model te sturen?
- Is er sprake van hoge latentie?
Voorbeelden van fouten met het basismodel en prompt-engineering kunnen u helpen bij het identificeren van de gegevens die moeten worden verzameld voor het afstemmen en tot stand brengen van een prestatiebasislijn waarmee u uw nauwkeurig afgestemde model kunt evalueren en vergelijken. Het hebben van een basislijn voor prestaties zonder af te stemmen is essentieel om te weten of het afstemmen de modelprestaties verbetert.
Hier volgt een voorbeeld:
Een klant wil GPT-3.5 Turbo gebruiken om vragen in natuurlijke taal om te zetten in query's in een specifieke, niet-standaard querytaal. De klant biedt richtlijnen in de prompt ('Altijd GQL retourneren') en gebruikt RAG om het databaseschema op te halen. De syntaxis is echter niet altijd correct en mislukt vaak voor edge-gevallen. De klant verzamelt duizenden voorbeelden van vragen in natuurlijke taal en de equivalente query's voor de database, inclusief gevallen waarin het model eerder is mislukt. De klant gebruikt die gegevens vervolgens om het model af te stemmen. Door het zojuist afgestemde model te combineren met de ontworpen prompt en het ophalen, wordt de nauwkeurigheid van de modeluitvoer tot acceptabele normen voor gebruik gebracht.
Gebruiksgevallen
Basismodellen zijn al vooraf getraind op grote hoeveelheden gegevens en de meeste keren voegt u instructies en voorbeelden toe aan de prompt om de kwaliteitsreacties op te halen die u zoekt. Dit proces wordt 'paar-shot learning' genoemd. Met fine-tuning kunt u een model trainen met nog veel meer voorbeelden die u kunt aanpassen om te voldoen aan uw specifieke use-case, waardoor u op een paar minuten leren kunt verbeteren. Dit kan het aantal tokens in de prompt verminderen, wat leidt tot potentiële kostenbesparingen en aanvragen met een lagere latentie.
Het omzetten van natuurlijke taal in een querytaal is slechts één use case waarbij u niet kunt laten zien hoe het model zich moet gedragen. Hier volgen enkele aanvullende gebruiksvoorbeelden:
- De verwerking van opgehaalde gegevens verbeteren
- Stuur het model naar uitvoerinhoud in een specifieke stijl, toon of indeling
- De nauwkeurigheid verbeteren wanneer u informatie opzoekt
- De lengte van uw prompt verminderen
- Leer nieuwe vaardigheden (dat wil schrijven in natuurlijke taal)
Als u kosten identificeert als uw primaire motiverende functie, wees dan voorzichtig. Het afstemmen kan de kosten voor bepaalde gebruiksvoorbeelden verlagen door prompts te verkorten of u een kleiner model te laten gebruiken. Maar er zijn mogelijk hogere kosten vooraf voor training en u moet betalen voor het hosten van uw eigen aangepaste model.
Stappen voor het afstemmen van een model
Hier volgen de algemene stappen om een model af te stemmen:
- Kies op basis van uw use-case een model dat ondersteuning biedt voor uw taak
- Trainingsgegevens voorbereiden en uploaden
- (Optioneel) Validatiegegevens voorbereiden en uploaden
- (Optioneel) Taakparameters configureren
- Uw model trainen.
- Zodra dit is voltooid, controleert u de metrische gegevens en evalueert u het model. Als de resultaten niet voldoen aan uw benchmark, gaat u terug naar stap 2.
- Uw afgestemde model gebruiken
Het is belangrijk om aan te geven dat fine-tuning sterk afhankelijk is van de kwaliteit van gegevens die u kunt leveren. Het is raadzaam om honderden, zo niet duizenden, trainingsvoorbeelden te bieden om succesvol te zijn en de gewenste resultaten te verkrijgen.
Ondersteunde modellen voor het afstemmen
Nu u weet wanneer u fine-tuning voor uw use-case moet gebruiken, kunt u naar Azure AI Foundry gaan om modellen te vinden die beschikbaar zijn om af te stemmen. Voor sommige modellen in de modelcatalogus is fine-tuning beschikbaar met behulp van een serverloze API of een beheerde berekening (preview) of beide.
Het afstemmen is beschikbaar in specifieke Azure-regio's voor sommige modellen die zijn geïmplementeerd via serverloze API's. Als u dergelijke modellen wilt verfijnen, moet een gebruiker een hub/project hebben in de regio waar het model beschikbaar is voor afstemming. Zie Beschikbaarheid van regio's voor modellen in serverloze API-eindpunten voor gedetailleerde informatie.
Zie de documentatie over Azure OpenAI-servicemodellen of de azure OpenAI-modellentabel verderop in deze handleiding voor meer informatie over Azure OpenAI-modellen die beschikbaar zijn voor afstemming.
Voor de Azure OpenAI-servicemodellen die u kunt verfijnen, zijn ondersteunde regio's voor het verfijnen onder andere VS - noord-centraal, Zweden - centraal en meer.
Azure OpenAI-modellen verfijnen
Notitie
gpt-35-turbo
- Het afstemmen van dit model is beperkt tot een subset van regio's en is niet beschikbaar in elke regio waar het basismodel beschikbaar is.
De ondersteunde regio's voor het afstemmen kunnen variëren als u Azure OpenAI-modellen gebruikt in een Azure AI Foundry-project versus buiten een project.
Model-id | Regio's verfijnen | Maximum aantal aanvragen (tokens) | Trainingsgegevens (maximaal) |
---|---|---|---|
babbage-002 |
VS - noord-centraal Zweden - centraal Zwitserland - west |
16,384 | Sep 2021 |
davinci-002 |
VS - noord-centraal Zweden - centraal Zwitserland - west |
16,384 | Sep 2021 |
gpt-35-turbo (0613) |
VS - oost 2 VS - noord-centraal Zweden - centraal Zwitserland - west |
4096 | Sep 2021 |
gpt-35-turbo (1106) |
VS - oost 2 VS - noord-centraal Zweden - centraal Zwitserland - west |
Invoer: 16.385 Uitvoer: 4.096 |
Sep 2021 |
gpt-35-turbo (0125) |
VS - oost 2 VS - noord-centraal Zweden - centraal Zwitserland - west |
16,385 | Sep 2021 |
gpt-4 (0613) 1 |
VS - noord-centraal Zweden - centraal |
8192 | Sep 2021 |
gpt-4o-mini (2024-07-18) |
VS - noord-centraal Zweden - centraal |
Invoer: 128.000 Uitvoer: 16.384 Lengte van trainingsvoorbeeld: 64.536 |
Oktober 2023 |
gpt-4o (2024-08-06) |
VS - oost 2 VS - noord-centraal Zweden - centraal |
Invoer: 128.000 Uitvoer: 16.384 Lengte van trainingsvoorbeeld: 64.536 |
Oktober 2023 |
1 GPT-4 is momenteel beschikbaar als openbare preview.
Gerelateerde inhoud
- Modellen verfijnen met beheerde rekenkracht (preview)
- Een Azure OpenAI-model verfijnen in de Azure AI Foundry-portal
- Een Llama 2-model verfijnen in de Azure AI Foundry-portal
- Een Phi-3-model verfijnen in de Azure AI Foundry-portal
- Phi-3-serie van kleine taalmodellen implementeren met Azure AI Foundry