Udostępnij za pośrednictwem


Dostosowywanie modeli za pomocą rozwiązania Azure AI Foundry

Ważne

Elementy oznaczone (wersja zapoznawcza) w tym artykule są obecnie dostępne w publicznej wersji zapoznawczej. Ta wersja zapoznawcza jest udostępniana bez umowy dotyczącej poziomu usług i nie zalecamy korzystania z niej w przypadku obciążeń produkcyjnych. Niektóre funkcje mogą być nieobsługiwane lub ograniczone. Aby uzyskać więcej informacji, zobacz Uzupełniające warunki korzystania z wersji zapoznawczych platformy Microsoft Azure.

Dostrajanie odnosi się do dostosowywania wstępnie wytrenowanego modelu generowania sztucznej inteligencji z dodatkowym szkoleniem dla określonego zadania lub nowego zestawu danych w celu zwiększenia wydajności, nowych umiejętności lub lepszej dokładności. Wynikiem jest nowy, niestandardowy model GenAI zoptymalizowany na podstawie podanych przykładów.

Rozważ dostrajanie modeli GenAI w celu:

  • Skalowanie i dostosowywanie do określonych potrzeb przedsiębiorstwa
  • Zmniejszanie wyników fałszywie dodatnich, ponieważ modele dostosowane są mniej prawdopodobne, aby generować niedokładne lub nieistotne odpowiedzi
  • Zwiększanie dokładności modelu pod kątem zadań specyficznych dla domeny
  • Oszczędzaj czas i zasoby dzięki szybszym i bardziej precyzyjnym wynikom
  • Uzyskiwanie bardziej odpowiednich i kontekstowych wyników, ponieważ modele są dostosowane do konkretnych przypadków użycia

Usługa Azure AI Foundry oferuje kilka modeli między dostawcami modeli, co pozwala uzyskać dostęp do najnowszych i największych na rynku. Obsługiwane modele dostrajania można odnaleźć za pośrednictwem naszego wykazu modeli, korzystając z filtru Zadania dostrajania szczegółowego i klikając kartę modelu, aby dowiedzieć się więcej o poszczególnych modelach. Określone modele mogą być objęte ograniczeniami regionalnymi. Aby uzyskać więcej szczegółów, wyświetl tę listę.

Zrzut ekranu przedstawiający katalog modeli usługi Azure AI Foundry i filtrowanie według zadań dostrajania.

Ten artykuł przeprowadzi Cię przez przypadki użycia do dostrajania i sposobu, w jaki może to pomóc w podróży genAI.

Wprowadzenie do dostrajania

Podczas rozpoczynania pracy z generowaniem sztucznej inteligencji zalecamy rozpoczęcie od szybkiej inżynierii i rag, aby zapoznać się z modelami podstawowymi i jego możliwościami.

  • Inżynieria monitów to technika, która obejmuje projektowanie monitów przy użyciu szczegółów tonu i stylu, przykładowych odpowiedzi i mapowania intencji dla modeli przetwarzania języka naturalnego. Ten proces zwiększa dokładność i trafność w odpowiedziach, aby zoptymalizować wydajność modelu.
  • Generowanie rozszerzonego pobierania (RAG) zwiększa wydajność modułu LLM przez pobieranie danych ze źródeł zewnętrznych i dołączanie ich do monitu. Rag może pomóc firmom w osiągnięciu dostosowanych rozwiązań przy zachowaniu istotności danych i optymalizacji kosztów.

Gdy zaczniesz kompilować rozwiązanie, ważne jest, aby zrozumieć, gdzie brakuje monitów inżynieryjnych i które pomogą Ci zrozumieć, czy należy spróbować dostrajać.

  • Czy model podstawowy kończy się niepowodzeniem w przypadkach brzegowych lub wyjątkach?
  • Czy model podstawowy nie stale dostarcza danych wyjściowych w odpowiednim formacie?
  • Czy trudno jest zmieścić wystarczająco dużo przykładów w oknie kontekstowym, aby kierować modelem?
  • Czy występuje duże opóźnienie?

Przykłady awarii z modelem podstawowym i inżynierią monitu mogą pomóc w zidentyfikowaniu danych, które mają być zbierane w celu dostrajania i ustanowienia planu bazowego wydajności, z którym można ocenić i porównać dostosowany model. Posiadanie planu bazowego dla wydajności bez precyzyjnego dostrajania jest niezbędne do ustalenia, czy dostrajanie poprawia wydajność modelu.

Oto przykład:

Klient chce użyć biblioteki GPT-3.5 Turbo, aby przekształcić pytania języka naturalnego w zapytania w określonym, niestandardowym języku zapytań. Klient udostępnia wskazówki w wierszu polecenia ("Zawsze zwracaj GQL") i używa programu RAG do pobrania schematu bazy danych. Jednak składnia nie zawsze jest poprawna i często kończy się niepowodzeniem w przypadku przypadków brzegowych. Klient zbiera tysiące przykładów pytań w języku naturalnym i równoważnych zapytań dotyczących bazy danych, w tym przypadków, w których model zakończył się niepowodzeniem. Następnie klient używa tych danych do dostosowania modelu. Połączenie nowo dostrojonego modelu z zaprojektowanym monitem i pobieraniem daje dokładność danych wyjściowych modelu do akceptowalnych standardów do użycia.

Przypadki użycia

Modele podstawowe są już wstępnie wytrenowane na ogromnych ilościach danych, a większość razy dodasz instrukcje i przykłady do monitu o uzyskanie odpowiedzi dotyczących jakości, których szukasz — ten proces jest nazywany "uczeniem kilkusekrotnym". Dostrajanie umożliwia trenowanie modelu przy użyciu wielu innych przykładów, które można dostosować do konkretnego przypadku użycia, poprawiając w ten sposób uczenie się przy użyciu kilku strzałów. Może to zmniejszyć liczbę tokenów w wierszu polecenia, co prowadzi do potencjalnych oszczędności kosztów i żądań z mniejszym opóźnieniem.

Przekształcanie języka naturalnego w język zapytań to tylko jeden przypadek użycia, w którym nie można pokazać modelu, jak się zachowywać. Oto kilka dodatkowych przypadków użycia:

  • Ulepszanie obsługi pobranych danych przez model
  • Kierowanie modelu do zawartości wyjściowej w określonym stylu, tonu lub formacie
  • Zwiększanie dokładności podczas wyszukiwania informacji
  • Zmniejsz długość monitu
  • Uczenie nowych umiejętności (tj. języka naturalnego do programowania)

Jeśli zidentyfikujesz koszt jako podstawowy motywator, zachowaj ostrożność. Dostrajanie może obniżyć koszty niektórych przypadków użycia, skracając monity lub umożliwiając użycie mniejszego modelu. Jednak może istnieć wyższy koszt z góry trenowania i trzeba zapłacić za hosting własnego modelu niestandardowego.

Kroki dostosowywania modelu

Poniżej przedstawiono ogólne kroki dostosowywania modelu:

  1. W zależności od przypadku użycia wybierz model, który obsługuje zadanie
  2. Przygotowywanie i przekazywanie danych treningowych
  3. (Opcjonalnie) Przygotowywanie i przekazywanie danych weryfikacji
  4. (Opcjonalnie) Konfigurowanie parametrów zadania
  5. Szkolenie modelu.
  6. Po zakończeniu przejrzyj metryki i oceń model. Jeśli wyniki nie spełniają testu porównawczego, wróć do kroku 2.
  7. Korzystanie z dostosowanego modelu

Ważne jest, aby podkreślić, że dostrajanie jest w dużym stopniu zależne od jakości danych, które można dostarczyć. Najlepszym rozwiązaniem jest zapewnienie setek, jeśli nie tysięcy, przykładów szkoleniowych, które mają być skuteczne i uzyskać żądane wyniki.

Obsługiwane modele do dostrajania

Teraz, gdy wiesz, kiedy używać dostrajania w twoim przypadku użycia, możesz przejść do usługi Azure AI Foundry, aby znaleźć modele dostępne do dostosowania. Dostrajanie jest dostępne w określonych regionach świadczenia usługi Azure dla niektórych modeli. Aby dostosować takie modele, użytkownik musi mieć centrum/projekt w regionie, w którym model jest dostępny do dostrajania. Zobacz Dostępność regionów dla modeli w punktach końcowych bezserwerowego interfejsu API | Usługa Azure AI Foundry zawiera szczegółowe informacje.

Aby uzyskać szczegółowe informacje o modelach usługi Azure OpenAI, które są dostępne do dostrajania, zobacz dokumentację modeli usługi Azure OpenAI lub tabelę modeli usługi Azure OpenAI w dalszej części tego przewodnika.

W przypadku modeli usługi Azure OpenAI, które można dostosować, obsługiwane regiony do dostrajania obejmują północno-środkowe stany USA, Szwecja Środkowa i inne.

Dostrajanie modeli usługi Azure OpenAI

Uwaga

gpt-35-turbo — Dostrajanie tego modelu jest ograniczone do podzestawu regionów i nie jest dostępne w każdym regionie, w którym jest dostępny model podstawowy.

Obsługiwane regiony do dostrajania mogą się różnić, jeśli używasz modeli usługi Azure OpenAI w projekcie AI Studio, a nie poza projektem.

Model ID Dostrajanie regionów Maksymalna liczba żądań (tokenów) Dane szkoleniowe (maksymalnie)
babbage-002 Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
16,384 Wrzesień 2021 r.
davinci-002 Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
16,384 Wrzesień 2021 r.
gpt-35-turbo (0613) Wschodnie stany USA 2
Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
4,096 Wrzesień 2021 r.
gpt-35-turbo (1106) Wschodnie stany USA 2
Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
Dane wejściowe: 16 385
Dane wyjściowe: 4096
Wrzesień 2021 r.
gpt-35-turbo (0125) Wschodnie stany USA 2
Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
16,385 Wrzesień 2021 r.
gpt-4 (0613) 1 Północno-środkowe stany USA
Szwecja Środkowa
8192 Wrzesień 2021 r.
gpt-4o-mini (2024-07-18) Północno-środkowe stany USA
Szwecja Środkowa
Dane wejściowe: 128 000
Dane wyjściowe: 16 384
Długość kontekstu przykładowego szkolenia: 64 536
Październik 2023 r.
gpt-4o (2024-08-06) Wschodnie stany USA 2
Północno-środkowe stany USA
Szwecja Środkowa
Dane wejściowe: 128 000
Dane wyjściowe: 16 384
Długość kontekstu przykładowego szkolenia: 64 536
Październik 2023 r.

1 GPT-4 jest obecnie w publicznej wersji zapoznawczej.