Compartilhar via


Modelos de linguagem grande (LLMS)

O Azure Databricks simplifica o acesso e compilação de modelos de linguagem grandes disponíveis publicamente.

O Databricks Runtime para Machine Learning inclui bibliotecas como Hugging Face Transformers e LangChain que permitem integrar modelos pré-treinados existentes ou outras bibliotecas de código aberto ao fluxo de trabalho. A partir daqui, você pode aproveitar os recursos da plataforma do Azure Databricks para ajustar LLMs usando seus próprios dados para melhorar o desempenho do domínio.

Além disso, o Azure Databricks oferece funcionalidade interna para que usuários SQL acessem e experimentem LLMs como o Azure OpenAI e o OpenAI usando por meio das funções de IA.

Ajuste fino do modelo de fundação

Importante

Esse recurso está em uma versão prévia. Entre em contato com sua equipe de conta do Databricks para se inscrever na Versão Prévia Pública.

O Ajuste Fino do Modelo de Base (agora parte do Treinamento de Modelo de IA do Mosaico) é uma interface simples para a pilha de treinamento do Databricks para executar o ajuste fino completo do modelo.

Você pode fazer o seguinte usando o ajuste fino do modelo de fundação:

  • Ajuste um modelo com seus dados personalizados, com os pontos de verificação salvos no MLflow. Você mantém o controle completo do modelo com ajuste fino.
  • Registre automaticamente o modelo no Catálogo do Unity, permitindo uma implantação fácil com o serviço de modelo.
  • Ajuste um modelo completo e proprietário carregando os pesos de um modelo em que foi aplicado ajuste fino anteriormente.

Consulte Ajuste fino do modelo de fundação.

Hugging Face Transformers

Com transformadores do Hugging Face no Databricks, você pode escalar horizontalmente seus aplicativos em lote de NLP (processamento de linguagem natural) e ajustar modelos para aplicativos de modelo de linguagem grande.

A biblioteca transformers do Hugging Face vem pré-instalada no Databricks Runtime 10.4 LTS ML e posterior. Muitos dos modelos populares de NLP funcionam melhor em hardware de GPU, portanto, você pode obter o melhor desempenho usando hardware de GPU recente, a menos que use um modelo especificamente otimizado para uso em CPUs.

DSPy

O DSPy automatiza o ajuste de prompts traduzindo assinaturas de linguagem natural definidas pelo usuário em instruções completas e exemplos de poucos disparos.

Consulte Criar aplicativos genAI usando o DSPy no Azure Databricks para obter exemplos sobre como usar o DSPy.

LangChain

O LangChain está disponível como uma variante experimental do MLflow que permite que os clientes do LangChain aproveitem as ferramentas robustas e os recursos de acompanhamento de experimentos do MLflow diretamente do ambiente do Azure Databricks.

O LangChain é uma estrutura de software projetada para ajudar a criar aplicativos que utilizam LLMs (modelos de linguagem grande) e combiná-los com dados externos para trazer mais contexto de treinamento para suas LLMs.

O Databricks Runtime ML inclui langchain no Databricks Runtime 13.1 ML e superior.

Saiba mais sobre as integrações específicas do LangChain do Databricks.

Funções de IA

Importante

Esse recurso está em uma versão prévia.

As funções de IA são funções SQL internas que permitem que os usuários do SQL:

  • Utilize APIs do Databricks Foundation Model para concluir várias tarefas nos dados da sua empresa.
  • Acesse modelos externos como GPT-4 da OpenAI e experimente-os.
  • Modelos de consulta hospedados por pontos de extremidade do Serviço de Modelo do Mosaic AI de consultas SQL.