EdgeNGramTokenizer Klasse
Definition
Wichtig
Einige Informationen beziehen sich auf Vorabversionen, die vor dem Release ggf. grundlegend überarbeitet werden. Microsoft übernimmt hinsichtlich der hier bereitgestellten Informationen keine Gewährleistungen, seien sie ausdrücklich oder konkludent.
Tokenisiert die Eingabe von einer Kante in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.
public class EdgeNGramTokenizer : Azure.Search.Documents.Indexes.Models.LexicalTokenizer
type EdgeNGramTokenizer = class
inherit LexicalTokenizer
Public Class EdgeNGramTokenizer
Inherits LexicalTokenizer
- Vererbung
Konstruktoren
EdgeNGramTokenizer(String) |
Initialisiert eine neue instance von EdgeNGramTokenizer. |
Eigenschaften
MaxGram |
Die maximale Länge von n Gramm. Standard ist 2. Maximum ist 300. |
MinGram |
Die Mindestlänge von n-Gramm. Der Standardwert ist 1. Maximum ist 300. Muss kleiner als der Wert von maxGram sein. |
Name |
Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein. (Geerbt von LexicalTokenizer) |
TokenChars |
Zeichenklassen, die in den Token beibehalten werden sollen. |