KeywordTokenizer interface
Gibt die gesamte Eingabe als einzelnes Token aus. Dieser Tokenizer wird mit Apache Lucene implementiert.
Eigenschaften
max |
Die maximale Tokenlänge. Der Standardwert ist 256. Token, die länger als die maximale Länge sind, werden geteilt. Die maximale Tokenlänge, die verwendet werden kann, beträgt 300 Zeichen. Standardwert: 256. |
name | Der Name des Tokenizers. Sie darf nur Buchstaben, Ziffern, Leerzeichen, Gedankenstriche oder Unterstriche enthalten, kann nur mit alphanumerischen Zeichen beginnen und enden und ist auf 128 Zeichen beschränkt. |
odatatype | Polymorpher Diskriminator |
Details zur Eigenschaft
maxTokenLength
Die maximale Tokenlänge. Der Standardwert ist 256. Token, die länger als die maximale Länge sind, werden geteilt. Die maximale Tokenlänge, die verwendet werden kann, beträgt 300 Zeichen. Standardwert: 256.
maxTokenLength?: number
Eigenschaftswert
number
name
Der Name des Tokenizers. Sie darf nur Buchstaben, Ziffern, Leerzeichen, Gedankenstriche oder Unterstriche enthalten, kann nur mit alphanumerischen Zeichen beginnen und enden und ist auf 128 Zeichen beschränkt.
name: string
Eigenschaftswert
string
odatatype
Polymorpher Diskriminator
odatatype: "#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"
Eigenschaftswert
"#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"