共用方式為


TorchSharpCatalog 類別

定義

用來 MulticlassClassificationCatalog.MulticlassClassificationTrainers 建立 TorchSharp 定型器元件的實例的擴充方法集合。

public static class TorchSharpCatalog
type TorchSharpCatalog = class
Public Module TorchSharpCatalog
繼承
TorchSharpCatalog

備註

這需要額外的 nuget 相依性,才能連結至 TorchSharp 原生 dll。 如需相關資訊,請參閱 ImageClassificationTrainer

方法

EvaluateObjectDetection(MulticlassClassificationCatalog, IDataView, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column, DataViewSchema+Column)

評估計分物件偵測數據。

NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions)

微調具名實體辨識模型。

NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView)

微調具名實體辨識的 NAS-BERT 模型。 任何句子的限制是512個標記。 每個單字通常會對應至單一令牌,而且我們會在開始標記和分隔符標記 (自動新增 2 個規格標記) ,因此一般而言,此限制對所有句子而言都是 510 個字。

NameEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions)
已淘汰.

過時:請改用 NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, NerTrainer+NerOptions) 方法

NameEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView)
已淘汰.

過時:請改用 NamedEntityRecognition(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, Int32, Int32, BertArchitecture, IDataView) 方法

ObjectDetection(MulticlassClassificationCatalog+MulticlassClassificationTrainers, ObjectDetectionTrainer+Options)

微調物件偵測模型。

ObjectDetection(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, String, Int32)

微調物件偵測模型。

QuestionAnswer(MulticlassClassificationCatalog+MulticlassClassificationTrainers, QATrainer+Options)

微調問題與答案的 ROBERTA 模型。 任何句子的限制是512個標記。 每個單字通常會對應至單一令牌,而且我們會在開始標記和分隔符標記 (自動新增 2 個規格標記) ,因此一般而言,此限制對所有句子而言都是 510 個字。

QuestionAnswer(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, String, Int32, Int32, Int32, BertArchitecture, IDataView)

微調問題與答案的 ROBERTA 模型。 任何句子的限制是512個標記。 每個單字通常會對應至單一令牌,而且我們會在開始標記和分隔符標記 (自動新增 2 個規格標記) ,因此一般而言,此限制對所有句子而言都是 510 個字。

SentenceSimilarity(RegressionCatalog+RegressionTrainers, SentenceSimilarityTrainer+SentenceSimilarityOptions)

微調 NLP 句子相似性的 NAS-BERT 模型。 任何句子的限制是512個標記。 每個單字通常會對應至單一令牌,而且我們會在開始標記和分隔符標記 (自動新增 2 個規格標記) ,因此一般而言,此限制對所有句子而言都是 510 個字。

SentenceSimilarity(RegressionCatalog+RegressionTrainers, String, String, String, String, Int32, Int32, BertArchitecture, IDataView)

微調 NLP 句子相似性的 NAS-BERT 模型。 任何句子的限制是512個標記。 每個單字通常會對應至單一令牌,而且我們會在開始標記和分隔符標記 (自動新增 2 個規格標記) ,因此一般而言,此限制對所有句子而言都是 510 個字。

TextClassification(MulticlassClassificationCatalog+MulticlassClassificationTrainers, String, String, String, String, String, Int32, Int32, BertArchitecture, IDataView)

微調 NLP 分類的 NAS-BERT 模型。 任何句子的限制是512個標記。 每個單字通常會對應至單一令牌,而且我們會在開始標記和分隔符標記 (自動新增 2 個規格標記) ,因此一般而言,此限制對所有句子而言都是 510 個字。

TextClassification(MulticlassClassificationCatalog+MulticlassClassificationTrainers, TextClassificationTrainer+TextClassificationOptions)

微調 NLP 分類的 NAS-BERT 模型。 任何句子的限制是512個標記。 每個單字通常會對應至單一令牌,而且我們會在開始標記和分隔符標記 (自動新增 2 個規格標記) ,因此一般而言,此限制對所有句子而言都是 510 個字。

適用於