Vyladění základního modelu
Důležité
Tato funkce je ve verzi Public Preview v následujících oblastech: centralus
, eastus
, eastus2
, northcentralus
a westus
.
S vyladěním základního modelu (nyní součástí trénování modelu Puzzle AI) můžete pomocí vlastních dat přizpůsobit základní model pro optimalizaci jeho výkonu pro vaši konkrétní aplikaci. Provedením úplného vyladění nebo pokračováním trénování základního modelu můžete vlastní model trénovat pomocí výrazně menšího množství dat, času a výpočetních prostředků než trénování modelu od začátku.
S Databricks máte všechno v jedné platformě: vaše vlastní data, která můžete použít pro trénování, základní model pro trénování, kontrolní body uložené v MLflow a model zaregistrovaný v katalogu Unity a připravený k nasazení.
Viz kurz: Vytvoření a nasazení spuštění jemného ladění základního modelu, ve které se dozvíte, jak vytvořit spuštění pomocí rozhraní API pro vyladění základního modelu a pak zkontrolovat výsledky a nasadit model pomocí uživatelského rozhraní Databricks a obsluhy modelu Mosaic AI.
Co je vyladění základního modelu?
Vyladění základního modelu umožňuje použít rozhraní Databricks API nebo uživatelské rozhraní k ladění nebo dalšímu trénování základního modelu.
Pomocí vyladění základního modelu můžete:
- Trénování modelu s vlastními daty s kontrolními body uloženými v MLflow Zachováte úplnou kontrolu nad natrénovaným modelem.
- Automaticky zaregistrujte model do katalogu Unity, což umožňuje snadné nasazení pomocí obsluhy modelů.
- Další trénování dokončeného, proprietárního modelu načtením hmotností dříve natrénovaného modelu.
Databricks doporučuje vyzkoušet vyladění základního modelu, pokud:
- Vyzkoušeli jste několik snímků učení a chcete lepší výsledky.
- Vyzkoušeli jste výzvu k vytvoření existujícího modelu a chcete lepší výsledky.
- Chcete mít úplné vlastnictví vlastního modelu pro ochranu osobních údajů.
- Citlivá na latenci nebo náklady a chcete použít menší a levnější model s daty specifickými pro konkrétní úlohy.
Podporované úlohy
Vyladění základního modelu podporuje následující případy použití:
- Dokončení chatu: Doporučený úkol. Vytrénujte model na protokolech chatu mezi uživatelem a asistentem AI. Tento formát lze použít jak pro skutečné protokoly chatu, tak jako standardní formát pro odpovědi na otázky a konverzační text. Text se automaticky naformátuje do příslušného formátu pro konkrétní model. Další informace o šablonách šablon najdete v ukázkových šablonách chatu v dokumentaci huggingFace.
- Vyladění pod dohledem: Trénování modelu na strukturovaných datech odezvy výzvy Pomocí tohoto postupu můžete model přizpůsobit novému úkolu, změnit jeho styl odpovědi nebo přidat možnosti pro následující instrukce. Tato úloha automaticky nepoužije žádné formátování dat a doporučuje se pouze v případě, že je požadováno vlastní formátování dat.
- Pokračování předběžného trénování: Trénování modelu s dalšími textovými daty Tento postup slouží k přidání nových znalostí do modelu nebo zaměření modelu na konkrétní doménu.
Požadavky
- Pracovní prostor Databricks v jedné z následujících oblastí Azure:
centralus
,eastus
,eastus2
,northcentralus
, nebowestus
. - Rozhraní API pro jemné ladění základního modelu nainstalovaná pomocí
pip install databricks_genai
. - Databricks Runtime 12.2 LTS ML nebo vyšší, pokud jsou vaše data v tabulce Delta.
Informace opožadovaných
Doporučená velikost dat pro trénování modelu
Databricks doporučuje počáteční trénování pomocí jednoho až čtyř epoch. Pokud chcete, aby výstupy modelu byly podobné trénovacím datům, můžete začít pokračovat v trénování pomocí jednoho až dvou epoch.
Pokud se výkon modelu výrazně sníží u úloh, které nejsou reprezentované ve vašich jemně vyladěných datech, nebo pokud se zdá, že model zobrazuje výstup přesných kopií dat jemného ladění, doporučuje Databricks snížit počet epoch trénování.
Pro vyladění pod dohledem a dokončení chatu byste měli poskytnout dostatek tokenů pro alespoň jednu úplnou délku kontextu modelu. Například 4096 tokenů pro meta-llama/Llama-2-7b-chat-hf
nebo 32768 tokenů pro mistralai/Mistral-7B-v0.1
.
Pro pokračování předběžného trénování doporučuje Databricks minimálně 1,5 milionu tokenů, aby získal model vyšší kvality, který se učí vaše vlastní data.
Podporované modely
Následující tabulka uvádí podporované modely. Viz licence modelu pro informace o příslušné licenci modelu a zásadách přijatelného použití.
Aby bylo možné pokračovat v podpoře většiny nejmodernějších modelů, může Databricks aktualizovat podporované modely nebo vyřadit starší modely. Viz Vyřazení modelů.
Model | Maximální délka kontextu | Notes |
---|---|---|
databricks/dbrx-base |
32768 | |
databricks/dbrx-instruct |
32768 | |
meta-llama/Llama-3.2-1B |
131072 | |
meta-llama/Llama-3.2-1B-Instruct |
131072 | |
meta-llama/Llama-3.2-3B |
131072 | |
meta-llama/Llama-3.2-3B-Instruct |
131072 | |
meta-llama/Meta-Llama-3.1-405B |
131072 | |
meta-llama/Meta-Llama-3.1-405B-Instruct |
131072 | |
meta-llama/Meta-Llama-3.1-70B |
131072 | |
meta-llama/Meta-Llama-3.1-70B-Instruct |
131072 | |
meta-llama/Meta-Llama-3.1-8B |
131072 | |
meta-llama/Meta-Llama-3.1-8B-Instruct |
131072 | |
mistralai/Mistral-7B-v0.1 |
32768 | |
mistralai/Mistral-7B-Instruct-v0.2 |
32768 | |
mistralai/Mixtral-8x7B-v0.1 |
32768 |
modely, které budou vyřazeny
Následující tabulka uvádí podporované modely, které se plánují pro vyřazení z provozu. Informace o plánovaných datech vyřazení a doporučených nahrazeních modelů najdete v tématu Vyřazené modely.
Model | Maximální délka kontextu | Notes |
---|---|---|
meta-llama/Meta-Llama-3-70B |
8192 | Tento model se už po 7. lednu 2025 nepodporuje. |
meta-llama/Meta-Llama-3-70B-Instruct |
8192 | Tento model se už po 7. lednu 2025 nepodporuje. |
meta-llama/Meta-Llama-3-8B |
8192 | Tento model se už po 7. lednu 2025 nepodporuje. |
meta-llama/Meta-Llama-3-8B-Instruct |
8192 | Tento model se už po 7. lednu 2025 nepodporuje. |
meta-llama/Llama-2-7b-hf |
4096 | Tento model se už po 7. lednu 2025 nepodporuje. |
meta-llama/Llama-2-13b-hf |
4096 | Tento model se už po 7. lednu 2025 nepodporuje. |
meta-llama/Llama-2-70b-hf |
4096 | Tento model se už po 7. lednu 2025 nepodporuje. |
meta-llama/Llama-2-7b-chat-hf |
4096 | Tento model se už po 7. lednu 2025 nepodporuje. |
meta-llama/Llama-2-13b-chat-hf |
4096 | Tento model se už po 7. lednu 2025 nepodporuje. |
meta-llama/Llama-2-70b-chat-hf |
4096 | Tento model se už po 7. lednu 2025 nepodporuje. |
codellama/CodeLlama-7b-hf |
16384 | Tento model se už po 7. lednu 2025 nepodporuje. |
codellama/CodeLlama-13b-hf |
16384 | Tento model se už po 7. lednu 2025 nepodporuje. |
codellama/CodeLlama-34b-hf |
16384 | Tento model se už po 7. lednu 2025 nepodporuje. |
codellama/CodeLlama-7b-Instruct-hf |
16384 | Tento model se už po 7. lednu 2025 nepodporuje. |
codellama/CodeLlama-13b-Instruct-hf |
16384 | Tento model se už po 7. lednu 2025 nepodporuje. |
codellama/CodeLlama-34b-Instruct-hf |
16384 | Tento model se už po 7. lednu 2025 nepodporuje. |
codellama/CodeLlama-7b-Python-hf |
16384 | Tento model se už po 7. lednu 2025 nepodporuje. |
codellama/CodeLlama-13b-Python-hf |
16384 | Tento model se už po 7. lednu 2025 nepodporuje. |
codellama/CodeLlama-34b-Python-hf |
16384 | Tento model se už po 7. lednu 2025 nepodporuje. |
licence modelu
Následující tabulka obsahuje příslušné informace o licencích modelu a přijatelných zásadách použití pro podporované rodiny modelů.
Modelová rodina | Zásady licencování a přijatelného použití |
---|---|
Meta Llama 3.2 | Meta Llama 3.2 je licencovaný v rámci licence LLAMA 3.2 Community License, Copyright © Meta Platforms, Inc. Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění souladu s podmínkami této licence a zásadami přijatelného použití Llama 3.2. |
Meta Llama 3.1 | Meta Llama 3.1 je licencovaný pod licencí LLAMA 3.1 Community License, Copyright © Meta Platforms, Inc. Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění dodržování předpisů s příslušnými licencemi modelu. |
Llama 3 | Llama 3 je licencovaný pod licencí LLAMA 3 Community License, Copyright © Meta Platforms, Inc. Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění dodržování předpisů s příslušnými licencemi modelu. |
Llama 2 | Llama 2 má licenci na LLAMA 2 Community License, Copyright © Meta Platforms, Inc. Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění dodržování předpisů s příslušnými licencemi modelu. |
CodeLlama | Modely CodeLlama jsou licencované v rámci LLAMA 2 Community License, Copyright © Meta Platforms, Inc. Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění dodržování předpisů s příslušnými licencemi modelu. |
DBRX | DBRX je poskytován v rámci a podléhá licenci Databricks Open Model, Copyright © Databricks, Inc. Všechna práva vyhrazena. Zákazníci zodpovídají za zajištění dodržování příslušných licencí modelu, včetně zásad přijatelného použití Databricks. |
Použití jemného ladění základního modelu
Vyladění základního databricks_genai
modelu je přístupné pomocí sady SDK. Následující příklad vytvoří a spustí trénovací běh, který používá data ze svazků katalogu Unity. Podrobnosti o konfiguraci najdete v tématu Vytvoření trénovacího spuštění pomocí rozhraní API pro vyladění základního modelu.
from databricks.model_training import foundation_model as fm
model = 'meta-llama/Meta-Llama-3.1-8B-Instruct'
# UC Volume with JSONL formatted data
train_data_path = 'dbfs:/Volumes/main/mydirectory/ift/train.jsonl'
register_to = 'main.mydirectory'
run = fm.create(
model=model,
train_data_path=train_data_path,
register_to=register_to,
)
Podívejte se na podrobné ladění instrukcí: Pojmenovaný poznámkový blok ukázky rozpoznávání entit pro příklad podrobného ladění instrukcí, který vás provede přípravou dat, vyladěním konfigurace a nasazením trénovacího spuštění.
Omezení
Velké datové sady (10B+ tokeny) nejsou podporované kvůli dostupnosti výpočetních prostředků.
V případě průběžného předběžného trénování jsou úlohy omezené na 60 až 256 MB souborů. Soubory větší než 1 GB můžou způsobit delší dobu zpracování.
Databricks se snaží zpřístupnit nejnovější nejmodernější modely pro přizpůsobení pomocí jemného ladění základního modelu. Jakmile budou nové modely dostupné, může se odebrat přístup ke starším modelům z rozhraní API nebo uživatelského rozhraní, starší modely můžou být zastaralé nebo se aktualizují podporované modely. Viz Zásady údržby modelů generování AI.
Vyladění základního modelu podporuje pouze trénování modelů pro pracovní prostory Azure pomocí úložiště za Private Linkem.
- V současné době se podporují pouze čtení dat z úložiště za službou Private Link
eastus2
.
- V současné době se podporují pouze čtení dat z úložiště za službou Private Link
Pokud máte v účtu Azure Data Lake Storage povolené brány firewall, které ukládají vaše data v katalogu Unity, musíte povolit provoz z clusterů bezserverové roviny dat Databricks, abyste mohli použít jemné ladění základního modelu. Spojte se s týmem účtů Databricks, kde najdete další informace a možná vlastní řešení.