Szkolenie to proces, w którym model uczy się z oznaczonych wypowiedzi. Po zakończeniu trenowania będzie można wyświetlić wydajność modelu.
Aby wytrenować model, uruchom zadanie szkoleniowe. Tylko zadania ukończone pomyślnie tworzą model. Zadania szkoleniowe wygasają po siedmiu dniach, po tym czasie nie będzie już można pobrać szczegółów zadania. Jeśli zadanie trenowania zostało ukończone pomyślnie i model został utworzony, nie będzie to miało wpływu na wygaśnięcie zadania. Jednocześnie można uruchomić tylko jedno zadanie szkoleniowe i nie można uruchomić innych zadań w tym samym projekcie.
Czasy trenowania mogą wynosić od kilku sekund w przypadku prostych projektów do kilku godzin, gdy osiągniesz maksymalny limit wypowiedzi.
Ocena modelu jest wyzwalana automatycznie po pomyślnym zakończeniu trenowania. Proces oceny rozpoczyna się przy użyciu wytrenowanego modelu do dokonywania przewidywań na wypowiedziach w zestawie testowym i porównuje przewidywane wyniki z dostarczonymi etykietami (co stanowi punkt odniesienia dla prawdy). Wyniki są zwracane, aby można było przejrzeć wydajność modelu.
Wymagania wstępne
Pomyślnie utworzono projekt przy użyciu skonfigurowanego konta usługi Azure Blob Storage
Przed rozpoczęciem procesu trenowania oznaczone etykietami wypowiedzi w projekcie są podzielone na zestaw szkoleniowy i zestaw testów. Każdy z nich pełni inną funkcję.
Zbiór treningowy jest używany do trenowania modelu. Jest to zbiór, z którego model uczy się oznaczonych wypowiedzi.
Zestaw testów to zestaw ślepy, który nie jest wprowadzany do modelu podczas trenowania, ale tylko podczas oceny.
Po pomyślnym wytrenowaniu modelu, model można użyć do dokonywania przewidywań na podstawie wypowiedzi w zestawie testowym. Te przewidywania są używane do obliczania metryk oceny.
Zaleca się upewnienie się, że wszystkie intencje są odpowiednio reprezentowane zarówno w zestawie treningowym, jak i testowym.
Proces orkiestracji obsługuje dwie dostępne metody dzielenia danych:
Automatyczne dzielenie zestawu testowego z danych treningowych: system podzieli oznakowane dane między zestawy treningowe i testowe, zgodnie z wybranymi procentami. Zalecany podział procentowy wynosi 80% na potrzeby trenowania i 20% na potrzeby testowania.
Uwaga
Jeśli wybierzesz opcję Automatycznego podziału zestawu testowego z danych treningowych, tylko dane przypisane do zestawu treningowego zostaną podzielone zgodnie z podanymi procentami.
Użyj ręcznego podziału danych treningowych i testowych: ta metoda umożliwia użytkownikom zdefiniowanie, które wypowiedzi powinny należeć do tego zestawu. Ten krok jest włączony tylko w przypadku dodania wypowiedzi do zestawu testów podczas etykietowania.
Uwaga
W zestawie danych szkoleniowych można dodawać tylko wypowiedzi dla intencji, które nie są połączone.
Aby rozpocząć trenowanie modelu z poziomu programu Language Studio:
Wybierz pozycję Zadania treningowe z menu po lewej stronie.
Wybierz pozycję Start a training job (Rozpocznij zadanie szkoleniowe) z górnego menu.
Wybierz pozycję Train a new model (Trenowanie nowego modelu ) i wpisz nazwę modelu w polu tekstowym. Możesz również zastąpić istniejący model , wybierając tę opcję i wybierając model, który chcesz zastąpić z menu rozwijanego. Zastępowanie wytrenowanego modelu jest nieodwracalne, ale nie wpłynie to na obecnie wdrożone modele, dopóki nie wdrożysz nowego modelu.
Jeśli włączyłeś projekt na ręczne dzielenie danych podczas tagowania wypowiedzi, pojawią się dwie opcje dzielenia danych:
Automatyczne dzielenie zestawu testowego od danych treningowych: Twoje oznaczone wypowiedzi zostaną losowo podzielone między zestawy testowe i treningowe zgodnie z wybranymi procentami. Domyślny podział procentowy wynosi 80% na potrzeby trenowania i 20% na potrzeby testowania. Aby zmienić te wartości, wybierz zestaw, który chcesz zmienić, i wpisz nową wartość.
Uwaga
Jeśli wybierzesz opcję Automatyczne rozdzielenie zestawu testowego od danych treningowych, tylko wypowiedzi w zestawie treningowym zostaną podzielone zgodnie z podanymi wartościami procentowymi.
Użyj ręcznego podziału danych treningowych i testowych: przypisz każdą wypowiedź do zestawu treningowego lub testowego podczas kroku tagowania projektu.
Uwaga
Opcja ręcznego dzielenia danych treningowych i testowych będzie dostępna dopiero po dodaniu wypowiedzi do zestawu testowego na stronie danych tagu. W przeciwnym razie zostanie ona wyłączona.
Wybierz przycisk Trenuj.
Uwaga
Tylko pomyślnie ukończone zadania szkoleniowe będą generować modele.
Trenowanie może potrwać od kilku minut do kilku godzin na podstawie rozmiaru oznakowanych danych.
Jednocześnie może być uruchomione tylko jedno zadanie treningowe. Nie można uruchomić innego zadania szkoleniowego w ramach tego samego projektu, dopóki działające zadanie nie zostanie ukończone.
Utwórz żądanie POST przy użyciu następującego adresu URL, nagłówków i treści JSON w celu przesłania zadania szkoleniowego.
Adres URL żądania
Podczas tworzenia żądania interfejsu API użyj następującego adresu URL. Zastąp poniższe wartości zastępcze własnymi wartościami.
Tryb treningowy. Tylko jeden tryb trenowania jest dostępny w orchestracji, czyli standard.
standard
trainingConfigVersion
{CONFIG-VERSION}
Wersja modelu konfiguracji trenowania. Domyślnie jest używana najnowsza wersja modelu.
2022-05-01
kind
percentage
Metody dzielenia. Możliwe wartości to percentage lub manual. Aby uzyskać więcej informacji, zobacz , jak wytrenować model .
percentage
trainingSplitPercentage
80
Procent oznakowanych danych, które mają zostać uwzględnione w zestawie treningowym. Zalecana wartość to 80.
80
testingSplitPercentage
20
Procent oznakowanych danych, które mają zostać uwzględnione w zbiorze danych testowych. Zalecana wartość to 20.
20
Uwaga
Wartości trainingSplitPercentage i testingSplitPercentage są wymagane tylko wtedy, gdy Kind jest ustawiona wartość percentage , a suma obu wartości procentowych powinna być równa 100.
Po wysłaniu żądania API otrzymasz odpowiedź wskazującą na powodzenie. Wyodrębnij wartość operation-location w nagłówkach odpowiedzi. Zostanie on sformatowany w następujący sposób:
Wybierz identyfikator zadania szkoleniowego z listy. Zostanie wyświetlone okienko boczne, w którym można sprawdzić postęp trenowania, stan zadania i inne szczegóły dotyczące tego zadania.
Trenowanie może trwać czasami w zależności od rozmiaru danych treningowych i złożoności schematu. Następujące żądanie umożliwia kontynuowanie sondowania stanu zadania szkoleniowego do momentu pomyślnego ukończenia zadania.
Użyj następującego żądania GET , aby uzyskać stan postępu trenowania modelu. Zastąp poniższe wartości zastępcze własnymi wartościami.
Aby anulować zadanie szkoleniowe w Language Studio, przejdź do strony Szkolenie modelu. Wybierz zadanie szkoleniowe, które chcesz anulować, a następnie wybierz pozycję Anuluj z górnego menu.
Utwórz żądanie POST przy użyciu następującego adresu URL, nagłówków i treści JSON, aby anulować zadanie trenowania.
Adres URL żądania
Podczas tworzenia żądania interfejsu API użyj następującego adresu URL. Zastąp poniższe wartości zastępcze własnymi wartościami.
Nazwa projektu. Ta wartość jest rozróżniana w zależności od wielkości liter.
EmailApp
{JOB-ID}
Jest to identyfikator zadania szkoleniowego
XXXXX-XXXXX-XXXX-XX
{API-VERSION}
Wersja wywoływanego interfejsu API.
2023-04-01
Nagłówki
Użyj następującego nagłówka, aby uwierzytelnić żądanie.
Klucz
Wartość
Ocp-Apim-Subscription-Key
Klucz do zasobu. Służy do uwierzytelniania żądań interfejsu API.
Po wysłaniu żądania API otrzymasz odpowiedź 202 wskazującą powodzenie, co oznacza, że zadanie szkoleniowe zostało anulowane. Skutkiem pomyślnego wywołania jest nagłówek Operation-Location, który służy do sprawdzania statusu zadania.