Trenowanie to proces, w którym model uczy się na podstawie oznaczonych wypowiedzi. Po zakończeniu trenowania będzie można wyświetlić wydajność modelu.
Aby wytrenować model, uruchom zadanie szkoleniowe. Tylko pomyślnie ukończone zadania tworzą model. Zadania szkoleniowe wygasają po siedmiu dniach, po tym czasie nie będzie już można pobrać szczegółów zadania. Jeśli zadanie trenowania zostało ukończone pomyślnie i model został utworzony, nie będzie to miało wpływu na wygaśnięcie zadania. Jednocześnie można uruchomić tylko jedno zadanie szkoleniowe i nie można uruchomić innych zadań w tym samym projekcie.
Czasy trenowania mogą wynosić od kilku sekund w przypadku prostych projektów do kilku godzin, gdy osiągniesz maksymalny limit wypowiedzi.
Ocena modelu jest wyzwalana automatycznie po pomyślnym zakończeniu trenowania. Proces oceny rozpoczyna się przy użyciu wytrenowanego modelu do uruchamiania przewidywań na wypowiedziach w zestawie testów i porównuje przewidywane wyniki z podanymi etykietami (co ustanawia punkt odniesienia prawdy). Wyniki są zwracane, aby można było przejrzeć wydajność modelu.
Wymagania wstępne
Pomyślnie utworzono projekt przy użyciu skonfigurowanego konta usługi Azure Blob Storage
Przed rozpoczęciem procesu trenowania oznaczone etykietami wypowiedzi w projekcie są podzielone na zestaw szkoleniowy i zestaw testów. Każdy z nich pełni inną funkcję.
Zestaw trenowania jest używany w trenowaniu modelu. Jest to zestaw , z którego model uczy się oznaczonych wypowiedziami.
Zestaw testów to zestaw ślepy, który nie jest wprowadzany do modelu podczas trenowania, ale tylko podczas oceny.
Po pomyślnym wytrenowanym modelu można użyć modelu do przewidywania z wypowiedzi w zestawie testów. Te przewidywania są używane do obliczania metryk oceny.
Zaleca się upewnienie się, że wszystkie intencje są odpowiednio reprezentowane zarówno w zestawie treningowym, jak i testowym.
Przepływ pracy orkiestracji obsługuje dwie metody dzielenia danych:
Automatyczne dzielenie zestawu testów z danych treningowych: system podzieli dane oznakowane między zestawy treningowe i testowe, zgodnie z wybranymi wartościami procentowymi. Zalecany podział procentowy wynosi 80% na potrzeby trenowania i 20% na potrzeby testowania.
Uwaga
Jeśli wybierzesz opcję Automatycznie dzieląc zestaw testów z danych treningowych, tylko dane przypisane do zestawu treningowego zostaną podzielone zgodnie z podanymi wartościami procentowymi.
Użyj ręcznego podziału danych treningowych i testowych: ta metoda umożliwia użytkownikom zdefiniowanie, które wypowiedzi powinny należeć do tego zestawu. Ten krok jest włączony tylko w przypadku dodania wypowiedzi do zestawu testów podczas etykietowania.
Uwaga
W zestawie danych szkoleniowych można dodawać tylko wypowiedzi dla intencji, które nie są połączone.
Aby rozpocząć trenowanie modelu z poziomu programu Language Studio:
Wybierz pozycję Zadania trenowania z menu po lewej stronie.
Wybierz pozycję Start a training job (Rozpocznij zadanie szkoleniowe) z górnego menu.
Wybierz pozycję Train a new model (Trenowanie nowego modelu ) i wpisz nazwę modelu w polu tekstowym. Możesz również zastąpić istniejący model , wybierając tę opcję i wybierając model, który chcesz zastąpić z menu rozwijanego. Zastępowanie wytrenowanego modelu jest nieodwracalne, ale nie wpłynie to na wdrożone modele do momentu wdrożenia nowego modelu.
Jeśli projekt został włączony do ręcznego dzielenia danych podczas tagowania wypowiedzi, zobaczysz dwie opcje dzielenia danych:
Automatyczne dzielenie zestawu testów na podstawie danych treningowych: wypowiedź oznakowana zostanie losowo podzielona między zestawy treningowe i testowe zgodnie z wybranymi wartościami procentowymi. Domyślny podział procentowy wynosi 80% na potrzeby trenowania i 20% na potrzeby testowania. Aby zmienić te wartości, wybierz zestaw, który chcesz zmienić, i wpisz nową wartość.
Uwaga
Jeśli wybierzesz opcję Automatycznie rozdzielając zestaw testów z danych treningowych, tylko wypowiedzi w zestawie treningowym zostaną podzielone zgodnie z podanymi wartościami procentowymi.
Użyj ręcznego podziału danych treningowych i testowych: przypisz każdą wypowiedź do zestawu treningowego lub testowego podczas kroku tagowania projektu.
Uwaga
Ręczne dzielenie danych treningowych i testowych będzie włączone tylko w przypadku dodawania wypowiedzi do zestawu testów na stronie danych tagu. W przeciwnym razie zostanie ona wyłączona.
Wybierz przycisk Train (Trenuj).
Uwaga
Tylko pomyślnie ukończone zadania szkoleniowe będą generować modele.
Trenowanie może potrwać od kilku minut do kilku godzin na podstawie rozmiaru oznakowanych danych.
Jednocześnie może być uruchomione tylko jedno zadanie trenowania. Nie można uruchomić innego zadania szkoleniowego wihtin tego samego projektu do momentu ukończenia uruchomionego zadania.
Utwórz żądanie POST przy użyciu następującego adresu URL, nagłówków i treści JSON w celu przesłania zadania szkoleniowego.
Adres URL żądania
Podczas tworzenia żądania interfejsu API użyj następującego adresu URL. Zastąp poniższe wartości symboli zastępczych własnymi wartościami.
Tryb trenowania. Tylko jeden tryb trenowania jest dostępny w aranżacji, czyli standard.
standard
trainingConfigVersion
{CONFIG-VERSION}
Wersja modelu konfiguracji trenowania. Domyślnie jest używana najnowsza wersja modelu.
2022-05-01
kind
percentage
Metody podzielone. Możliwe wartości to percentage lub manual. Aby uzyskać więcej informacji, zobacz , jak wytrenować model .
percentage
trainingSplitPercentage
80
Procent oznakowanych danych, które mają zostać uwzględnione w zestawie treningowym. Zalecana wartość to 80.
80
testingSplitPercentage
20
Procent oznakowanych danych, które mają zostać uwzględnione w zestawie testów. Zalecana wartość to 20.
20
Uwaga
Wartości trainingSplitPercentage i testingSplitPercentage są wymagane tylko wtedy, gdy Kind jest ustawiona wartość percentage , a suma obu wartości procentowych powinna być równa 100.
Po wysłaniu żądania interfejsu API otrzymasz odpowiedź wskazującą 202 powodzenie. W nagłówkach odpowiedzi wyodrębnij operation-location wartość. Zostanie on sformatowany w następujący sposób:
Wybierz identyfikator zadania szkoleniowego z listy. Zostanie wyświetlone okienko boczne, w którym można sprawdzić postęp trenowania, stan zadania i inne szczegóły dotyczące tego zadania.
Trenowanie może trwać czasami w zależności od rozmiaru danych treningowych i złożoności schematu. Następujące żądanie umożliwia kontynuowanie sondowania stanu zadania szkoleniowego do momentu pomyślnego ukończenia zadania.
Użyj następującego żądania GET , aby uzyskać stan postępu trenowania modelu. Zastąp poniższe wartości symboli zastępczych własnymi wartościami.
Aby anulować zadanie szkoleniowe z poziomu programu Language Studio, przejdź do strony Trenowanie modelu . Wybierz zadanie szkoleniowe, które chcesz anulować, a następnie wybierz pozycję Anuluj z górnego menu.
Utwórz żądanie POST przy użyciu następującego adresu URL, nagłówków i treści JSON, aby anulować zadanie trenowania.
Adres URL żądania
Podczas tworzenia żądania interfejsu API użyj następującego adresu URL. Zastąp poniższe wartości symboli zastępczych własnymi wartościami.
Nazwa projektu. Ta wartość jest uwzględniana w wielkości liter.
EmailApp
{JOB-ID}
Jest to identyfikator zadania szkoleniowego
XXXXX-XXXXX-XXXX-XX
{API-VERSION}
Wersja wywoływanego interfejsu API.
2023-04-01
Nagłówki
Użyj następującego nagłówka, aby uwierzytelnić żądanie.
Key
Wartość
Ocp-Apim-Subscription-Key
Klucz do zasobu. Służy do uwierzytelniania żądań interfejsu API.
Po wysłaniu żądania interfejsu API otrzymasz odpowiedź z 202 r. wskazującą powodzenie, co oznacza, że zadanie szkoleniowe zostało anulowane. Wyniki pomyślnego wywołania z nagłówkiem Operation-Location służącym do sprawdzania stanu zadania.