Een RAG-oplossing bouwen met behulp van Azure AI Search
In deze reeks zelfstudies ziet u een patroon voor het bouwen van RAG-oplossingen in Azure AI Search. Het omvat de onderdelen die zijn gebouwd in Azure AI Search, afhankelijkheden en optimalisaties voor het maximaliseren van relevantie en het minimaliseren van kosten.
Voorbeeldgegevens zijn een verzameling PDF-bestanden die zijn geĆ¼pload naar Azure Storage. De inhoud is afkomstig uit nasa's gratis e-book.
Voorbeeldcode is te vinden in dit Python-notebook, maar we raden u aan de artikelen in deze reeks te gebruiken voor context, inzichten en voor het verkennen van alternatieve benaderingen.
Oefeningen in deze reeks
Kies uw modellen voor insluiten en chatten
Een index ontwerpen voor gesprekszoekopdrachten
Een indexeringspijplijn ontwerpen die doorzoekbare inhoud laadt, segmenten, insluiten en opnemen
Doorzoekbare inhoud ophalen met query's en een chatmodel
Relevantie maximaliseren
Opslag en kosten minimaliseren
We hebben enkele aspecten van een RAG-patroon weggelaten om de complexiteit te verminderen:
Geen beheer van chatgeschiedenis en context. Chatgeschiedenis wordt doorgaans afzonderlijk van uw grondgegevens opgeslagen en beheerd. Dit betekent extra stappen en code. In deze zelfstudie wordt ervan uitgegaan dat atomische vragen en antwoorden van de LLM en de standaard-LLM-ervaring worden gebruikt.
Geen beveiliging van gebruikers per gebruiker boven de resultaten (waarnaar wordt verwezen als 'beveiligingsbeperkingen'). Voor meer informatie en bronnen begint u met beveiligingsbeperkingen en controleert u de koppelingen aan het einde van het artikel.
In deze reeks worden de basisprincipes van de ontwikkeling van RAG-oplossingen behandeld. Zodra u de basisprincipes begrijpt, gaat u verder met accelerators en andere codevoorbeelden die meer abstractie bieden of die anderszins beter geschikt zijn voor productieomgevingen en complexere workloads.
Waarom Azure AI Search voor RAG gebruiken?
Chatmodellen hebben te maken met beperkingen voor de hoeveelheid gegevens die ze op een aanvraag kunnen accepteren. U moet Azure AI Search gebruiken omdat de kwaliteit van inhoud die wordt doorgegeven aan een LLM een RAG-oplossing kan maken of breken.
Voor het leveren van de hoogste kwaliteit invoer aan een chatmodel biedt Azure AI Search een eersteklas zoekmachine met AI-integratie en uitgebreide afstemming van relevantie. De zoekmachine ondersteunt vector overeenkomsten zoeken (meerdere algoritmen), trefwoorden zoeken, fuzzy zoeken, georuimtelijke zoekopdrachten en filters. U kunt hybride queryaanvragen maken die al deze onderdelen bevatten en u kunt bepalen hoeveel elke query bijdraagt aan de totale aanvraag.