Udostępnij za pośrednictwem


TorchSharpCatalog Klasa

Definicja

Kolekcja metod rozszerzenia do MulticlassClassificationCatalog.MulticlassClassificationTrainers tworzenia wystąpień składników trenera TorchSharp.

public static class TorchSharpCatalog
type TorchSharpCatalog = class
Public Module TorchSharpCatalog
Dziedziczenie
TorchSharpCatalog

Uwagi

Wymaga to dodatkowych zależności nuget w celu połączenia z natywnymi bibliotekami dll TorchSharp. Aby uzyskać więcej informacji, zobacz ImageClassificationTrainer.

Metody

EvaluateObjectDetection(MulticlassClassificationCatalog, IDataView, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column)

Ocenia ocenione dane wykrywania obiektów.

NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions)

Dostosuj model rozpoznawania jednostek nazwanych.

NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView)

Dostosuj model NAS-BERT do rozpoznawania jednostek nazwanych. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań.

NameEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions)
Przestarzałe.

Przestarzałe: zamiast tego użyj NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions) metody

NameEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView)
Przestarzałe.

Przestarzałe: zamiast tego użyj NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView) metody

ObjectDetection(MulticlassClassificationCatalog+MulticlassClassificationTrainers, ObjectDetectionTrainer+Options)

Dostrajanie modelu wykrywania obiektów.

ObjectDetection(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, String, Int32)

Dostrajanie modelu wykrywania obiektów.

QuestionAnswer(MulticlassClassificationCatalog+MulticlassClassificationTrainers, QATrainer+Options)

Dostrajanie modelu ROBERTA dla pytań i odpowiedzi. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań.

QuestionAnswer(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, String, Int32, Int32, Int32, BertArchitecture, IDataView)

Dostrajanie modelu ROBERTA dla pytań i odpowiedzi. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań.

SentenceSimilarity(RegressionCatalog+RegressionTrainers, SentenceSimilarityTrainer+SentenceSimilarityOptions)

Dostosuj model NAS-BERT dla podobieństwa zdań NLP. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań.

SentenceSimilarity(RegressionCatalog+RegressionTrainers, String, String, String, String, Int32, Int32, BertArchitecture, IDataView)

Dostosuj model NAS-BERT dla podobieństwa zdań NLP. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań.

TextClassification(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, Int32, Int32, BertArchitecture, IDataView)

Dostosuj model NAS-BERT do klasyfikacji NLP. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań.

TextClassification(MulticlassClassificationCatalog+MulticlassClassificationTrainers, TextClassificationTrainer+TextClassificationOptions)

Dostosuj model NAS-BERT do klasyfikacji NLP. Limit dla dowolnego zdania to 512 tokenów. Każde słowo zwykle mapuje się na pojedynczy token i automatycznie dodajemy 2 tokeny specical (token początkowy i token separatora), więc ogólnie ten limit będzie zawierać 510 wyrazów dla wszystkich zdań.

Dotyczy