Delen via


NGramTokenizer interface

Hiermee wordt de invoer in n-grammen van de opgegeven grootte(n) tokenizes. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Uitbreiding

Eigenschappen

maxGram

De maximale lengte n-gram. De standaardwaarde is 2. Maximum is 300.

minGram

De minimale lengte n-gram. De standaardwaarde is 1. Maximum is 300. Moet kleiner zijn dan de waarde van maxGram.

odatatype

Polymorf discriminator, waarmee de verschillende typen dit object kunnen worden opgegeven

tokenChars

Tekenklassen om in de tokens te blijven.

Overgenomen eigenschappen

name

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

Eigenschapdetails

maxGram

De maximale lengte n-gram. De standaardwaarde is 2. Maximum is 300.

maxGram?: number

Waarde van eigenschap

number

minGram

De minimale lengte n-gram. De standaardwaarde is 1. Maximum is 300. Moet kleiner zijn dan de waarde van maxGram.

minGram?: number

Waarde van eigenschap

number

odatatype

Polymorf discriminator, waarmee de verschillende typen dit object kunnen worden opgegeven

odatatype: "#Microsoft.Azure.Search.NGramTokenizer"

Waarde van eigenschap

"#Microsoft.Azure.Search.NGramTokenizer"

tokenChars

Tekenklassen om in de tokens te blijven.

tokenChars?: TokenCharacterKind[]

Waarde van eigenschap

Details van overgenomen eigenschap

name

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

name: string

Waarde van eigenschap

string

overgenomen vanBaseLexicalTokenizer.name