ClassicTokenizer interface
Tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Questo tokenizzatore viene implementato usando Apache Lucene.
- Extends
Proprietà
max |
Lunghezza massima del token. Il valore predefinito è 255. I token con lunghezza superiore a quella massima vengono suddivisi. La lunghezza massima del token che può essere usata è di 300 caratteri. |
odatatype | Discriminazione polimorfica, che specifica i diversi tipi che questo oggetto può essere |
Proprietà ereditate
name | Nome del tokenizer. Può contenere solo lettere, numeri, spazi, trattini o caratteri di sottolineatura, deve iniziare e terminare con caratteri alfanumerici e non può contenere più di 128 caratteri. |
Dettagli proprietà
maxTokenLength
Lunghezza massima del token. Il valore predefinito è 255. I token con lunghezza superiore a quella massima vengono suddivisi. La lunghezza massima del token che può essere usata è di 300 caratteri.
maxTokenLength?: number
Valore della proprietà
number
odatatype
Discriminazione polimorfica, che specifica i diversi tipi che questo oggetto può essere
odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"
Valore della proprietà
"#Microsoft.Azure.Search.ClassicTokenizer"
Dettagli proprietà ereditate
name
Nome del tokenizer. Può contenere solo lettere, numeri, spazi, trattini o caratteri di sottolineatura, deve iniziare e terminare con caratteri alfanumerici e non può contenere più di 128 caratteri.
name: string
Valore della proprietà
string
Ereditato daBaseLexicalTokenizer.name