Condividi tramite


ClassicTokenizer interface

Tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Questo tokenizer viene implementato tramite Apache Lucene.

Extends

Proprietà

maxTokenLength

Lunghezza massima del token. Il valore predefinito è 255. I token più lunghi della lunghezza massima vengono suddivisi. La lunghezza massima del token che può essere usata è di 300 caratteri.

odatatype

Discriminare polimorfico, che specifica i diversi tipi che questo oggetto può essere

Proprietà ereditate

name

Nome del tokenizer. Deve contenere solo lettere, cifre, spazi, trattini o caratteri di sottolineatura, può iniziare e terminare solo con caratteri alfanumerici ed è limitato a 128 caratteri.

Dettagli proprietà

maxTokenLength

Lunghezza massima del token. Il valore predefinito è 255. I token più lunghi della lunghezza massima vengono suddivisi. La lunghezza massima del token che può essere usata è di 300 caratteri.

maxTokenLength?: number

Valore della proprietà

number

odatatype

Discriminare polimorfico, che specifica i diversi tipi che questo oggetto può essere

odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"

Valore della proprietà

"#Microsoft.Azure.Search.ClassicTokenizer"

Dettagli proprietà ereditate

name

Nome del tokenizer. Deve contenere solo lettere, cifre, spazi, trattini o caratteri di sottolineatura, può iniziare e terminare solo con caratteri alfanumerici ed è limitato a 128 caratteri.

name: string

Valore della proprietà

string

ereditato daBaseLexicalTokenizer.name