TorchSharpCatalog Klasa
Definicja
Ważne
Niektóre informacje odnoszą się do produktu w wersji wstępnej, który może zostać znacząco zmodyfikowany przed wydaniem. Firma Microsoft nie udziela żadnych gwarancji, jawnych lub domniemanych, w odniesieniu do informacji podanych w tym miejscu.
Kolekcja metod rozszerzenia do MulticlassClassificationCatalog.MulticlassClassificationTrainers tworzenia wystąpień składników trenera TorchSharp.
public static class TorchSharpCatalog
type TorchSharpCatalog = class
Public Module TorchSharpCatalog
- Dziedziczenie
-
TorchSharpCatalog
Uwagi
Wymaga to dodatkowych zależności nuget w celu połączenia z natywnymi bibliotekami dll TorchSharp. Aby uzyskać więcej informacji, zobacz ImageClassificationTrainer.
Metody
EvaluateObjectDetection(MulticlassClassificationCatalog, IDataView, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column) |
Ocenia ocenione dane wykrywania obiektów. |
NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions) |
Dostosuj model rozpoznawania jednostek nazwanych. |
NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView) |
Dostosuj model NAS-BERT do rozpoznawania jednostek nazwanych. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań. |
NameEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions) |
Przestarzałe.
Przestarzałe: zamiast tego użyj NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions) metody |
NameEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView) |
Przestarzałe.
Przestarzałe: zamiast tego użyj NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView) metody |
ObjectDetection(MulticlassClassificationCatalog+MulticlassClassificationTrainers, ObjectDetectionTrainer+Options) |
Dostrajanie modelu wykrywania obiektów. |
ObjectDetection(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, String, Int32) |
Dostrajanie modelu wykrywania obiektów. |
QuestionAnswer(MulticlassClassificationCatalog+MulticlassClassificationTrainers, QATrainer+Options) |
Dostrajanie modelu ROBERTA dla pytań i odpowiedzi. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań. |
QuestionAnswer(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, String, Int32, Int32, Int32, BertArchitecture, IDataView) |
Dostrajanie modelu ROBERTA dla pytań i odpowiedzi. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań. |
SentenceSimilarity(RegressionCatalog+RegressionTrainers, SentenceSimilarityTrainer+SentenceSimilarityOptions) |
Dostosuj model NAS-BERT dla podobieństwa zdań NLP. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań. |
SentenceSimilarity(RegressionCatalog+RegressionTrainers, String, String, String, String, Int32, Int32, BertArchitecture, IDataView) |
Dostosuj model NAS-BERT dla podobieństwa zdań NLP. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań. |
TextClassification(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, Int32, Int32, BertArchitecture, IDataView) |
Dostosuj model NAS-BERT do klasyfikacji NLP. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań. |
TextClassification(MulticlassClassificationCatalog+MulticlassClassificationTrainers, TextClassificationTrainer+TextClassificationOptions) |
Dostosuj model NAS-BERT do klasyfikacji NLP. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań. |