Delen via


Een RAG-oplossing bouwen met behulp van Azure AI Search

In deze reeks zelfstudies ziet u een patroon voor het bouwen van RAG-oplossingen in Azure AI Search. Het omvat de onderdelen die zijn gebouwd in Azure AI Search, afhankelijkheden en optimalisaties voor het maximaliseren van relevantie en het minimaliseren van kosten.

Voorbeeldgegevens zijn een verzameling PDF-bestanden die zijn geĆ¼pload naar Azure Storage. De inhoud is afkomstig uit nasa's gratis e-book.

Voorbeeldcode is te vinden in dit Python-notebook, maar we raden u aan de artikelen in deze reeks te gebruiken voor context, inzichten en voor het verkennen van alternatieve benaderingen.

Oefeningen in deze reeks

  • Kies uw modellen voor insluiten en chatten

  • Een index ontwerpen voor gesprekszoekopdrachten

  • Een indexeringspijplijn ontwerpen die doorzoekbare inhoud laadt, segmenten, insluiten en opnemen

  • Doorzoekbare inhoud ophalen met query's en een chatmodel

  • Relevantie maximaliseren

  • Opslag en kosten minimaliseren

We hebben enkele aspecten van een RAG-patroon weggelaten om de complexiteit te verminderen:

  • Geen beheer van chatgeschiedenis en context. Chatgeschiedenis wordt doorgaans afzonderlijk van uw grondgegevens opgeslagen en beheerd. Dit betekent extra stappen en code. In deze zelfstudie wordt ervan uitgegaan dat atomische vragen en antwoorden van de LLM en de standaard-LLM-ervaring worden gebruikt.

  • Geen beveiliging van gebruikers per gebruiker boven de resultaten (waarnaar wordt verwezen als 'beveiligingsbeperkingen'). Voor meer informatie en bronnen begint u met beveiligingsbeperkingen en controleert u de koppelingen aan het einde van het artikel.

In deze reeks worden de basisprincipes van de ontwikkeling van RAG-oplossingen behandeld. Zodra u de basisprincipes begrijpt, gaat u verder met accelerators en andere codevoorbeelden die meer abstractie bieden of die anderszins beter geschikt zijn voor productieomgevingen en complexere workloads.

Waarom Azure AI Search voor RAG gebruiken?

Chatmodellen hebben te maken met beperkingen voor de hoeveelheid gegevens die ze op een aanvraag kunnen accepteren. U moet Azure AI Search gebruiken omdat de kwaliteit van inhoud die wordt doorgegeven aan een LLM een RAG-oplossing kan maken of breken.

Voor het leveren van de hoogste kwaliteit invoer aan een chatmodel biedt Azure AI Search een eersteklas zoekmachine met AI-integratie en uitgebreide afstemming van relevantie. De zoekmachine ondersteunt vector overeenkomsten zoeken (meerdere algoritmen), trefwoorden zoeken, fuzzy zoeken, georuimtelijke zoekopdrachten en filters. U kunt hybride queryaanvragen maken die al deze onderdelen bevatten en u kunt bepalen hoeveel elke query bijdraagt aan de totale aanvraag.

Volgende stap