Freigeben über


ClassicTokenizer interface

Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente mit europäischer Sprache geeignet ist. Dieser Tokenizer wird mit Apache Lucene implementiert.

Extends

Eigenschaften

maxTokenLength

Die maximale Tokenlänge. Der Standardwert ist 255. Token, die länger als die maximale Länge sind, werden geteilt. Die maximale Tokenlänge, die verwendet werden kann, beträgt 300 Zeichen.

odatatype

Polymorphe Diskriminator, der die verschiedenen Typen angibt, die dieses Objekt sein kann

Geerbte Eigenschaften

name

Der Name des Tokenizers. Sie darf nur Buchstaben, Ziffern, Leerzeichen, Gedankenstriche oder Unterstriche enthalten, kann nur mit alphanumerischen Zeichen beginnen und enden und ist auf 128 Zeichen beschränkt.

Details zur Eigenschaft

maxTokenLength

Die maximale Tokenlänge. Der Standardwert ist 255. Token, die länger als die maximale Länge sind, werden geteilt. Die maximale Tokenlänge, die verwendet werden kann, beträgt 300 Zeichen.

maxTokenLength?: number

Eigenschaftswert

number

odatatype

Polymorphe Diskriminator, der die verschiedenen Typen angibt, die dieses Objekt sein kann

odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"

Eigenschaftswert

"#Microsoft.Azure.Search.ClassicTokenizer"

Geerbte Eigenschaftsdetails

name

Der Name des Tokenizers. Sie darf nur Buchstaben, Ziffern, Leerzeichen, Gedankenstriche oder Unterstriche enthalten, kann nur mit alphanumerischen Zeichen beginnen und enden und ist auf 128 Zeichen beschränkt.

name: string

Eigenschaftswert

string

geerbt vonBaseLexicalTokenizer.name