NGramTokenizer interface
Tokenzza l'input in n-grammi delle dimensioni specificate. Questo tokenizer viene implementato tramite Apache Lucene.
- Extends
Proprietà
max |
Lunghezza massima di n grammi. Il valore predefinito è 2. Il valore massimo è 300. |
min |
Lunghezza minima di n grammi. Il valore predefinito è 1. Il valore massimo è 300. Deve essere minore del valore di maxGram. |
odatatype | Discriminare polimorfico, che specifica i diversi tipi che questo oggetto può essere |
token |
Classi di caratteri da mantenere nei token. |
Proprietà ereditate
name | Nome del tokenizer. Deve contenere solo lettere, cifre, spazi, trattini o caratteri di sottolineatura, può iniziare e terminare solo con caratteri alfanumerici ed è limitato a 128 caratteri. |
Dettagli proprietà
maxGram
Lunghezza massima di n grammi. Il valore predefinito è 2. Il valore massimo è 300.
maxGram?: number
Valore della proprietà
number
minGram
Lunghezza minima di n grammi. Il valore predefinito è 1. Il valore massimo è 300. Deve essere minore del valore di maxGram.
minGram?: number
Valore della proprietà
number
odatatype
Discriminare polimorfico, che specifica i diversi tipi che questo oggetto può essere
odatatype: "#Microsoft.Azure.Search.NGramTokenizer"
Valore della proprietà
"#Microsoft.Azure.Search.NGramTokenizer"
tokenChars
Classi di caratteri da mantenere nei token.
tokenChars?: TokenCharacterKind[]
Valore della proprietà
Dettagli proprietà ereditate
name
Nome del tokenizer. Deve contenere solo lettere, cifre, spazi, trattini o caratteri di sottolineatura, può iniziare e terminare solo con caratteri alfanumerici ed è limitato a 128 caratteri.
name: string
Valore della proprietà
string
ereditato daBaseLexicalTokenizer.name