Freigeben über


CustomAnalyzer interface

Ermöglicht es Ihnen, den Prozess der Konvertierung von Text in in indizierbare/durchsuchbare Token zu übernehmen. Es ist eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für das Aufteilen von Text in Token verantwortlich, und die Filter zum Ändern von Token, die vom Tokenizer ausgegeben werden.

Eigenschaften

charFilters

Eine Liste der Zeichenfilter, die zum Vorbereiten von Eingabetext verwendet werden, bevor sie vom Tokenizer verarbeitet wird. Beispielsweise können sie bestimmte Zeichen oder Symbole ersetzen. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet werden.

name

Der Name des Analyzers. Sie darf nur Buchstaben, Ziffern, Leerzeichen, Gedankenstriche oder Unterstriche enthalten, kann nur mit alphanumerischen Zeichen beginnen und enden und ist auf 128 Zeichen beschränkt.

odatatype

Polymorpher Diskriminator

tokenFilters

Eine Liste der Tokenfilter, die zum Filtern oder Ändern der von einem Tokenizer generierten Token verwendet werden. Sie können z. B. einen Kleinbuchstabenfilter angeben, der alle Zeichen in Kleinbuchstaben konvertiert. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet werden.

tokenizerName

Der Name des Tokenizers, der verwendet werden soll, um fortlaufenden Text in eine Abfolge von Token aufzuteilen, z. B. das Aufteilen eines Satzes in Wörter. KnownTokenizerNames ist eine Enumeration mit integrierten Tokenizernamen.

Details zur Eigenschaft

charFilters

Eine Liste der Zeichenfilter, die zum Vorbereiten von Eingabetext verwendet werden, bevor sie vom Tokenizer verarbeitet wird. Beispielsweise können sie bestimmte Zeichen oder Symbole ersetzen. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet werden.

charFilters?: string[]

Eigenschaftswert

string[]

name

Der Name des Analyzers. Sie darf nur Buchstaben, Ziffern, Leerzeichen, Gedankenstriche oder Unterstriche enthalten, kann nur mit alphanumerischen Zeichen beginnen und enden und ist auf 128 Zeichen beschränkt.

name: string

Eigenschaftswert

string

odatatype

Polymorpher Diskriminator

odatatype: "#Microsoft.Azure.Search.CustomAnalyzer"

Eigenschaftswert

"#Microsoft.Azure.Search.CustomAnalyzer"

tokenFilters

Eine Liste der Tokenfilter, die zum Filtern oder Ändern der von einem Tokenizer generierten Token verwendet werden. Sie können z. B. einen Kleinbuchstabenfilter angeben, der alle Zeichen in Kleinbuchstaben konvertiert. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet werden.

tokenFilters?: string[]

Eigenschaftswert

string[]

tokenizerName

Der Name des Tokenizers, der verwendet werden soll, um fortlaufenden Text in eine Abfolge von Token aufzuteilen, z. B. das Aufteilen eines Satzes in Wörter. KnownTokenizerNames ist eine Enumeration mit integrierten Tokenizernamen.

tokenizerName: string

Eigenschaftswert

string