다음을 통해 공유


TorchSharpCatalog 클래스

정의

TorchSharp 트레이너 구성 요소의 인스턴스를 만들기 위한 MulticlassClassificationCatalog.MulticlassClassificationTrainers 확장 메서드 컬렉션입니다.

public static class TorchSharpCatalog
type TorchSharpCatalog = class
Public Module TorchSharpCatalog
상속
TorchSharpCatalog

설명

이를 위해서는 TorchSharp 네이티브 dll에 연결하기 위한 추가 nuget 종속성이 필요합니다. 자세한 내용은 ImageClassificationTrainer 을 참조하세요.

메서드

EvaluateObjectDetection(MulticlassClassificationCatalog, IDataView, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column)

점수가 매기된 개체 검색 데이터를 평가합니다.

NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions)

명명된 엔터티 인식 모델을 미세 조정합니다.

NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView)

명명된 엔터티 인식에 대한 NAS-BERT 모델을 미세 조정합니다. 모든 문장에 대한 제한은 512 토큰입니다. 각 단어는 일반적으로 단일 토큰에 매핑되며, 2개의 특정 토큰(시작 토큰 및 구분 기호 토큰)을 자동으로 추가하므로 일반적으로 이 제한은 모든 문장에 대해 510단어가 됩니다.

NameEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions)
사용되지 않음.

사용되지 않음: 대신 메서드를 NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions) 사용하세요.

NameEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView)
사용되지 않음.

사용되지 않음: 대신 메서드를 NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView) 사용하세요.

ObjectDetection(MulticlassClassificationCatalog+MulticlassClassificationTrainers, ObjectDetectionTrainer+Options)

개체 감지 모델을 미세 조정합니다.

ObjectDetection(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, String, Int32)

개체 감지 모델을 미세 조정합니다.

QuestionAnswer(MulticlassClassificationCatalog+MulticlassClassificationTrainers, QATrainer+Options)

질문 및 답변에 대한 ROBERTA 모델을 미세 조정합니다. 모든 문장에 대한 제한은 512 토큰입니다. 각 단어는 일반적으로 단일 토큰에 매핑되며, 2개의 특정 토큰(시작 토큰 및 구분 기호 토큰)을 자동으로 추가하므로 일반적으로 이 제한은 모든 문장에 대해 510단어가 됩니다.

QuestionAnswer(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, String, Int32, Int32, Int32, BertArchitecture, IDataView)

질문 및 답변에 대한 ROBERTA 모델을 미세 조정합니다. 모든 문장에 대한 제한은 512 토큰입니다. 각 단어는 일반적으로 단일 토큰에 매핑되며, 2개의 특정 토큰(시작 토큰 및 구분 기호 토큰)을 자동으로 추가하므로 일반적으로 이 제한은 모든 문장에 대해 510단어가 됩니다.

SentenceSimilarity(RegressionCatalog+RegressionTrainers, SentenceSimilarityTrainer+SentenceSimilarityOptions)

NLP 문장 유사성에 대한 NAS-BERT 모델을 미세 조정합니다. 모든 문장에 대한 제한은 512 토큰입니다. 각 단어는 일반적으로 단일 토큰에 매핑되며, 2개의 특정 토큰(시작 토큰 및 구분 기호 토큰)을 자동으로 추가하므로 일반적으로 이 제한은 모든 문장에 대해 510단어가 됩니다.

SentenceSimilarity(RegressionCatalog+RegressionTrainers, String, String, String, String, Int32, Int32, BertArchitecture, IDataView)

NLP 문장 유사성에 대한 NAS-BERT 모델을 미세 조정합니다. 모든 문장에 대한 제한은 512 토큰입니다. 각 단어는 일반적으로 단일 토큰에 매핑되며, 2개의 특정 토큰(시작 토큰 및 구분 기호 토큰)을 자동으로 추가하므로 일반적으로 이 제한은 모든 문장에 대해 510단어가 됩니다.

TextClassification(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, Int32, Int32, BertArchitecture, IDataView)

NLP 분류를 위해 NAS-BERT 모델을 미세 조정합니다. 모든 문장에 대한 제한은 512 토큰입니다. 각 단어는 일반적으로 단일 토큰에 매핑되며, 2개의 특정 토큰(시작 토큰 및 구분 기호 토큰)을 자동으로 추가하므로 일반적으로 이 제한은 모든 문장에 대해 510단어가 됩니다.

TextClassification(MulticlassClassificationCatalog+MulticlassClassificationTrainers, TextClassificationTrainer+TextClassificationOptions)

NLP 분류를 위해 NAS-BERT 모델을 미세 조정합니다. 모든 문장에 대한 제한은 512 토큰입니다. 각 단어는 일반적으로 단일 토큰에 매핑되며, 2개의 특정 토큰(시작 토큰 및 구분 기호 토큰)을 자동으로 추가하므로 일반적으로 이 제한은 모든 문장에 대해 510단어가 됩니다.

적용 대상