Delen via


EdgeNGramTokenizer interface

Hiermee wordt de invoer van een rand omgezet in n-grammen van de opgegeven grootte(n). Deze tokenizer wordt geïmplementeerd met apache Lucene.

Extends

Eigenschappen

maxGram

De maximale n-gram lengte. De standaardwaarde is 2. Het maximum is 300.

minGram

De minimale n-gram lengte. Standaard is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram.

odatatype

Polymorfe discriminator, waarmee de verschillende typen dit object kunnen worden opgegeven

tokenChars

Tekenklassen die in de tokens moeten worden bewaard.

Overgenomen eigenschappen

name

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

Eigenschapdetails

maxGram

De maximale n-gram lengte. De standaardwaarde is 2. Het maximum is 300.

maxGram?: number

Waarde van eigenschap

number

minGram

De minimale n-gram lengte. Standaard is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram.

minGram?: number

Waarde van eigenschap

number

odatatype

Polymorfe discriminator, waarmee de verschillende typen dit object kunnen worden opgegeven

odatatype: "#Microsoft.Azure.Search.EdgeNGramTokenizer"

Waarde van eigenschap

"#Microsoft.Azure.Search.EdgeNGramTokenizer"

tokenChars

Tekenklassen die in de tokens moeten worden bewaard.

tokenChars?: TokenCharacterKind[]

Waarde van eigenschap

Details van overgenomen eigenschap

name

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

name: string

Waarde van eigenschap

string

Overgenomen vanBaseLexicalTokenizer.name