次の方法で共有


LexicalTokenizerName 構造体

定義

Azure Cognitive Searchでサポートされているすべてのトークナイザーの名前を定義します。

public readonly struct LexicalTokenizerName : IEquatable<Azure.Search.Documents.Indexes.Models.LexicalTokenizerName>
type LexicalTokenizerName = struct
Public Structure LexicalTokenizerName
Implements IEquatable(Of LexicalTokenizerName)
継承
LexicalTokenizerName
実装

コンストラクター

LexicalTokenizerName(String)

LexicalTokenizerName の新しいインスタンスを初期化します。

プロパティ

Classic

ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 以下を参照してください。http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

EdgeNGram

エッジからの入力を特定のサイズの n グラムにトークン化します。 以下を参照してください。https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

Keyword

入力全体が 1 つのトークンとして生成されます。 以下を参照してください。http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

Letter

非文字でテキストを分割します。 以下を参照してください。http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

Lowercase

非文字でテキストが分割され、それらが小文字に変換されます。 以下を参照してください。http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

MicrosoftLanguageStemmingTokenizer

言語固有のルールを使用してテキストが分割され、基本フォームに単語が減らされます。

MicrosoftLanguageTokenizer

言語固有のルールを使用してテキストが分割されます。

NGram

入力が指定サイズの n グラムにトークン化されます。 以下を参照してください。http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

PathHierarchy

パスのような階層のトークナイザー。 以下を参照してください。http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

Pattern

正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 以下を参照してください。http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

Standard

標準 Lucene アナライザー。標準トークナイザー、小文字フィルター、および停止フィルターで構成されます。 以下を参照してください。http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

UaxUrlEmail

URL と電子メールが 1 つのトークンとしてトークン化されます。 以下を参照してください。http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

Whitespace

空白文字によりテキストが分割されます。 以下を参照してください。http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

メソッド

Equals(LexicalTokenizerName)

現在のオブジェクトが、同じ型の別のオブジェクトと等しいかどうかを示します。

ToString()

このインスタンスの完全修飾型名を返します。

演算子

Equality(LexicalTokenizerName, LexicalTokenizerName)

2 つの LexicalTokenizerName 値が同じかどうかを判断します。

Implicit(String to LexicalTokenizerName)

文字列を LexicalTokenizerName に変換します。

Inequality(LexicalTokenizerName, LexicalTokenizerName)

2 つの LexicalTokenizerName 値が同じでないかどうかを判断します。

適用対象