Modelos de linguagem grande (LLMs) em Databricks
O Azure Databricks simplifica o acesso e a criação de modelos de linguagem grandes disponíveis publicamente.
O Databricks Runtime for Machine Learning inclui bibliotecas como Hugging, Face, Transformers e LangChain, que permitem integrar modelos pré-treinados existentes ou outras bibliotecas de código aberto ao seu fluxo de trabalho. A partir daqui, você pode aproveitar os recursos da plataforma Azure Databricks para ajustar LLMs usando seus próprios dados para um melhor desempenho de domínio.
Além disso, o Azure Databricks oferece funcionalidade interna para usuários SQL acessarem e experimentarem LLMs como Azure OpenAI e OpenAI usando funções de IA.
Ajuste fino do modelo de fundação
Importante
Esta funcionalidade está em Pré-visualização Pública. Entre em contato com sua equipe de conta Databricks para se inscrever na Visualização Pública.
O ajuste fino do modelo de base (agora parte do Mosaic AI Model Training) é uma interface simples para a pilha de treinamento do Databricks para executar o ajuste fino completo do modelo.
Você pode fazer o seguinte usando o ajuste fino do modelo de fundação:
- Ajuste um modelo com seus dados personalizados, com os pontos de verificação salvos no MLflow. Você mantém o controle total do modelo ajustado.
- Registre automaticamente o modelo no Unity Catalog, permitindo uma fácil implantação com o serviço de modelo.
- Ajuste um modelo completo e proprietário carregando os pesos de um modelo previamente ajustado.
Consulte Ajuste fino do modelo de fundação.
Abraçando Transformadores de Rosto
Com o Hugging Face Transformers no Databricks, você pode expandir seus aplicativos em lote de processamento de linguagem natural (NLP) e ajustar modelos para aplicativos de modelo de linguagem grande.
A biblioteca Hugging Face transformers
vem pré-instalada no Databricks Runtime 10.4 LTS ML e superior. Muitos dos modelos de NLP populares funcionam melhor em hardware de GPU, então você pode obter o melhor desempenho usando hardware de GPU recente, a menos que use um modelo especificamente otimizado para uso em CPUs.
DSPy
O DSPy automatiza o ajuste de prompts traduzindo assinaturas de linguagem natural definidas pelo usuário em instruções completas e exemplos de poucas capturas.
Consulte Criar aplicativos genAI usando DSPy no Azure Databricks para obter exemplos sobre como usar o DSPy.
LangChain
O LangChain está disponível como um sabor experimental de MLflow que permite que os clientes do LangChain aproveitem as ferramentas robustas e os recursos de rastreamento de experimentos do MLflow diretamente do ambiente do Azure Databricks.
LangChain é uma estrutura de software projetada para ajudar a criar aplicativos que utilizam grandes modelos de linguagem (LLMs) e combiná-los com dados externos para trazer mais contexto de treinamento para seus LLMs.
O Databricks Runtime ML inclui langchain
no Databricks Runtime 13.1 ML e superior.
Saiba mais sobre integrações LangChain específicas do Databricks.
Funções de IA
Importante
Esta funcionalidade está em Pré-visualização Pública.
As funções de IA são funções SQL incorporadas que permitem aos utilizadores SQL:
- Use as APIs do Databricks Foundation Model para concluir várias tarefas nos dados da sua empresa.
- Acesse modelos externos como GPT-4 da OpenAI e experimente-os.
- Modelos de consulta hospedados pelo Mosaic AI Model Servindo pontos de extremidade de consultas SQL.