Noções básicas sobre a Geração Aumentada de Recuperação (RAG) com o Serviço OpenAI do Azure
A RAG com o OpenAI do Azure permite que os desenvolvedores usem modelos de chat de IA compatíveis que podem referenciar fontes de informação específicas para embasar respostas. A adição de seus próprios dados permite que o modelo faça referência às informações específicas fornecidas e ao respectivo conhecimento pré-treinado para fornecer respostas mais eficazes.
O OpenAI do Azure habilita a RAG conectando modelos pré-treinados às suas próprias fontes de dados. O OpenAI do Azure em seus dados utiliza a capacidade de pesquisa da Pesquisa de IA do Azure para adicionar os blocos de dados relevantes ao prompt. Depois que seus dados estiverem em um índice da Pesquisa de IA, o OpenAI do Azure em seus dados passará pelas seguintes etapas:
- Receber o prompt do usuário.
- Determinar o conteúdo relevante e a intenção do prompt.
- Consultar o índice de pesquisa com esse conteúdo e essa intenção.
- Inserir a parte do resultado da pesquisa no prompt do OpenAI do Azure com a mensagem do sistema e o prompt do usuário.
- Enviar todo o prompt para o OpenAI do Azure.
- Retornar a resposta e a referência de dados (se houver) para o usuário.
Por padrão, o OpenAI do Azure em seus dados incentiva, mas não exige, que o modelo responda usando somente seus dados. Essa configuração pode ser desmarcada ao conectar seus dados, o que pode fazer com que o modelo opte por usar o próprio conhecimento pré-treinado em vez de seus dados.
Ajuste fino versus RAG
O ajuste fino é uma técnica usada para criar um modelo personalizado treinando um modelo básico existente, como gpt-35-turbo
, com um conjunto de dados de treinamento adicionais. O ajuste fino pode resultar em solicitações de qualidade superior do que apenas a engenharia de prompts, personalizar o modelo com exemplos maiores do que podem ser incluídos em um prompt e permitir que o usuário forneça menos exemplos para obter a mesma resposta de alta qualidade. No entanto, o processo de ajuste fino é caro e demorado e deve ser usado somente para os casos de uso em que é necessário.
A RAG com o OpenAI do Azure em seus dados ainda usa a API sem estado para se conectar ao modelo, o que elimina a necessidade de treinar um modelo personalizado com seus dados e simplifica a interação com o modelo de IA. A Pesquisa de IA primeiro localiza as informações úteis para responder ao prompt, adiciona isso ao prompt como dados de base e o OpenAI do Azure forma a resposta com base nessas informações.