EdgeNGramTokenizer interface
Tokenisiert die Eingabe von einer Kante in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.
- Extends
Eigenschaften
max |
Die maximale Länge von n Gramm. Standard ist 2. Der Höchstwert ist 300. |
min |
Die mindeste n-Gramm-Länge. Der Standardwert ist 1. Der Höchstwert ist 300. Muss kleiner als der Wert von maxGram sein. |
odatatype | Polymorpher Diskriminator, der die verschiedenen Typen angibt, die dieses Objekt sein kann |
token |
Zeichenklassen, die in den Token beibehalten werden sollen. |
Geerbte Eigenschaften
name | Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein. |
Details zur Eigenschaft
maxGram
Die maximale Länge von n Gramm. Standard ist 2. Der Höchstwert ist 300.
maxGram?: number
Eigenschaftswert
number
minGram
Die mindeste n-Gramm-Länge. Der Standardwert ist 1. Der Höchstwert ist 300. Muss kleiner als der Wert von maxGram sein.
minGram?: number
Eigenschaftswert
number
odatatype
Polymorpher Diskriminator, der die verschiedenen Typen angibt, die dieses Objekt sein kann
odatatype: "#Microsoft.Azure.Search.EdgeNGramTokenizer"
Eigenschaftswert
"#Microsoft.Azure.Search.EdgeNGramTokenizer"
tokenChars
Zeichenklassen, die in den Token beibehalten werden sollen.
tokenChars?: TokenCharacterKind[]
Eigenschaftswert
Geerbte Eigenschaftsdetails
name
Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.
name: string
Eigenschaftswert
string
Geerbt vonBaseLexicalTokenizer.name