Dela via


NGramTokenizer interface

Tokeniserar indata i n-gram av de angivna storlekarna. Den här tokeniseraren implementeras med Apache Lucene.

Extends

Egenskaper

maxGram

Den maximala n-gramlängden. Standardvärdet är 2. Max är 300.

minGram

Minsta n-gramlängd. Standardvärdet är 1. Max är 300. Måste vara mindre än värdet för maxGram.

odatatype

Polymorfisk diskriminering, som anger de olika typerna som det här objektet kan vara

tokenChars

Teckenklasser som ska behållas i token.

Ärvda egenskaper

name

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

Egenskapsinformation

maxGram

Den maximala n-gramlängden. Standardvärdet är 2. Max är 300.

maxGram?: number

Egenskapsvärde

number

minGram

Minsta n-gramlängd. Standardvärdet är 1. Max är 300. Måste vara mindre än värdet för maxGram.

minGram?: number

Egenskapsvärde

number

odatatype

Polymorfisk diskriminering, som anger de olika typerna som det här objektet kan vara

odatatype: "#Microsoft.Azure.Search.NGramTokenizer"

Egenskapsvärde

"#Microsoft.Azure.Search.NGramTokenizer"

tokenChars

Teckenklasser som ska behållas i token.

tokenChars?: TokenCharacterKind[]

Egenskapsvärde

Information om ärvda egenskaper

name

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

name: string

Egenskapsvärde

string

Ärvd frånBaseLexicalTokenizer.name