Eksplorowanie modeli językowych dostrajania w usłudze Azure AI Studio
Jeśli chcesz dostosować model językowy, możesz użyć podstawowego lub podstawowego modelu, który jest już wstępnie wytrenowany na dużych ilościach danych. Istnieje wiele podstawowych modeli dostępnych za pośrednictwem wykazu modeli w usłudze Azure AI Studio. Modele podstawowe można dostosować do różnych zadań, takich jak klasyfikacja tekstu, tłumaczenie lub uzupełnianie czatu.
Jeśli chcesz użyć dostosowanego modelu do generowania odpowiedzi w aplikacji czatu, musisz użyć modelu podstawowego, który można dostosować do zadania ukończenia czatu. Katalog modeli usługi Azure AI Studio umożliwia filtrowanie na podstawie zadań dostrajania, aby zdecydować, który model podstawowy ma być wybrany. Możesz na przykład wybrać model GPT-4 lub Llama-2-7b, aby dostosować własne dane treningowe.
Aby dostosować model językowy z katalogu modeli usługi Azure AI Foundry, możesz użyć interfejsu użytkownika udostępnionego w portalu.
Wybieranie modelu podstawowego
Po przejściu do katalogu modeli w portalu usługi Azure AI Foundry możesz eksplorować wszystkie dostępne modele językowe.
Uwaga
Chociaż wszystkie dostępne modele językowe będą wyświetlane w wykazie modeli usługi Azure AI Foundry, może nie być możliwe dostosowanie żądanego modelu w zależności od dostępnego limitu przydziału. Upewnij się, że model, w którym chcesz dostosować, jest dostępny w regionie, w którym utworzono centrum sztucznej inteligencji.
Dostępne modele można filtrować na podstawie zadania, dla którego chcesz dostosować model. Na zadanie masz kilka opcji, z których można wybrać modele podstawowe. Podczas podejmowania decyzji o modelach podstawowych dla zadania można sprawdzić opis modelu i kartę modelu, do której odwołuje się model.
Niektóre zagadnienia, które można wziąć pod uwagę podczas podejmowania decyzji o modelu podstawowym przed dostrajaniem, to:
- Możliwości modelu: oceń możliwości modelu podstawowego i ich dopasowanie do zadania. Na przykład model, taki jak, jest lepszy w zrozumieniu krótkich tekstów.
- Dane wstępnego trenowania: rozważ zestaw danych używany do wstępnego trenowania modelu podstawowego. Na przykład GPT-2 jest trenowany na niefiltrowanej zawartości z Internetu, co może spowodować uprzedzenia.
- Ograniczenia i uprzedzenia: należy pamiętać o wszelkich ograniczeniach lub uprzedzeniach, które mogą występować w modelu podstawowym.
- Obsługa języka: Eksploruj, które modele oferują obsługę określonego języka lub wielojęzyczne możliwości, których potrzebujesz w przypadku użycia.
Napiwek
Chociaż portal Azure AI Foundry zawiera opisy dla każdego modelu podstawowego w katalogu modeli, możesz również znaleźć więcej informacji na temat każdego modelu za pomocą odpowiedniej karty modelu. Karty modelu są przywoływana w przeglądzie każdego modelu i hostowane na stronie internetowej aplikacji Hugging Face.
Konfigurowanie zadania dostrajania
Aby skonfigurować zadanie dostrajania przy użyciu portalu azure AI Foundry, należy wykonać następujące czynności:
- Wybierz model podstawowy.
- Wybierz dane szkoleniowe.
- (Opcjonalnie) Wybierz dane weryfikacji.
- Skonfiguruj opcje zaawansowane.
Podczas przesyłania modelu do dostrajania model jest dodatkowo trenowany na danych. Aby skonfigurować zadanie dostrajania lub trenowania, można określić następujące opcje zaawansowane:
Nazwa/nazwisko | opis |
---|---|
batch_size | Rozmiar partii do użycia do trenowania. Rozmiar partii to liczba przykładów trenowania używanych do trenowania pojedynczego przebiegu do przodu i do tyłu. Ogólnie rzecz biorąc, większe rozmiary partii zwykle działają lepiej w przypadku większych zestawów danych. Wartość domyślna i maksymalna wartość tej właściwości są specyficzne dla modelu podstawowego. Większy rozmiar partii oznacza, że parametry modelu są aktualizowane rzadziej, ale z niższą wariancją. |
learning_rate_multiplier | Mnożnik szybkości nauki używany do trenowania. Współczynnik dostrajania uczenia to oryginalny współczynnik uczenia używany do wstępnego trenowania pomnożonego przez tę wartość. Większe wskaźniki uczenia się mają tendencję do lepszej pracy z większymi rozmiarami partii. Zalecamy eksperymentowanie z wartościami z zakresu od 0,02 do 0,2, aby zobaczyć, co daje najlepsze wyniki. Mniejsze tempo nauki może być przydatne, aby uniknąć nadmiernego dopasowania. |
n_epochs | Liczba epok trenowania modelu dla. Epoka odnosi się do jednego pełnego cyklu za pośrednictwem zestawu danych trenowania. |
nasienie | Inicjator kontroluje powtarzalność zadania. Przekazywanie tych samych parametrów inicjacji i zadania powinno generować te same wyniki, ale może się różnić w rzadkich przypadkach. Jeśli nie określono inicjuszu, zostanie on wygenerowany. |
Po przesłaniu zadania dostrajania zadanie zostanie utworzone w celu wytrenowania modelu. Stan zadania można przejrzeć podczas jego działania. Po zakończeniu zadania możesz przejrzeć parametry wejściowe, gdy chcesz zrozumieć, jak został utworzony dobrze dostosowany model.
Jeśli dodano zestaw danych weryfikacji, możesz przejrzeć wydajność modelu, eksplorując sposób jego wykonywania w zestawie danych weryfikacji.
Alternatywnie można zawsze wdrożyć dostosowany model. Po wdrożeniu modelu można przetestować go, aby ocenić jego wydajność. Jeśli model jest zadowalający, możesz zintegrować wdrożony model z aplikacją czatu.