EdgeNGramTokenizer interface
Tokenzza l'input da un bordo in n grammi delle dimensioni specificate. Questo tokenizer viene implementato usando Apache Lucene.
- Extends
Proprietà
max |
Lunghezza massima di n grammi. Il valore predefinito è 2. Il valore massimo è 300. |
min |
Lunghezza minima di n grammi. Il valore predefinito è 1. Il valore massimo è 300. Deve essere minore del valore di maxGram. |
odatatype | Discriminare polimorfico, che specifica i diversi tipi che questo oggetto può essere |
token |
Classi di caratteri da mantenere nei token. |
Proprietà ereditate
name | Nome del tokenizer. Può contenere solo lettere, numeri, spazi, trattini o caratteri di sottolineatura, deve iniziare e terminare con caratteri alfanumerici e non può contenere più di 128 caratteri. |
Dettagli proprietà
maxGram
Lunghezza massima di n grammi. Il valore predefinito è 2. Il valore massimo è 300.
maxGram?: number
Valore della proprietà
number
minGram
Lunghezza minima di n grammi. Il valore predefinito è 1. Il valore massimo è 300. Deve essere minore del valore di maxGram.
minGram?: number
Valore della proprietà
number
odatatype
Discriminare polimorfico, che specifica i diversi tipi che questo oggetto può essere
odatatype: "#Microsoft.Azure.Search.EdgeNGramTokenizer"
Valore della proprietà
"#Microsoft.Azure.Search.EdgeNGramTokenizer"
tokenChars
Classi di caratteri da mantenere nei token.
tokenChars?: TokenCharacterKind[]
Valore della proprietà
Dettagli proprietà ereditate
name
Nome del tokenizer. Può contenere solo lettere, numeri, spazi, trattini o caratteri di sottolineatura, deve iniziare e terminare con caratteri alfanumerici e non può contenere più di 128 caratteri.
name: string
Valore della proprietà
string
Ereditato daBaseLexicalTokenizer.name