Dela via


EdgeNGramTokenizer interface

Tokeniserar indata från en kant till n-gram av de angivna storlekarna. Den här tokenizern implementeras med Apache Lucene.

Extends

Egenskaper

maxGram

Den maximala n-gramlängden. Standardvärdet är 2. Maxvärdet är 300.

minGram

Minsta n-gramlängd. Standardvärdet är 1. Maxvärdet är 300. Måste vara mindre än värdet för maxGram.

odatatype

Polymorft diskriminerande, vilket anger de olika typer som det här objektet kan vara

tokenChars

Teckenklasser som ska behållas i token.

Ärvda egenskaper

name

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

Egenskapsinformation

maxGram

Den maximala n-gramlängden. Standardvärdet är 2. Maxvärdet är 300.

maxGram?: number

Egenskapsvärde

number

minGram

Minsta n-gramlängd. Standardvärdet är 1. Maxvärdet är 300. Måste vara mindre än värdet för maxGram.

minGram?: number

Egenskapsvärde

number

odatatype

Polymorft diskriminerande, vilket anger de olika typer som det här objektet kan vara

odatatype: "#Microsoft.Azure.Search.EdgeNGramTokenizer"

Egenskapsvärde

"#Microsoft.Azure.Search.EdgeNGramTokenizer"

tokenChars

Teckenklasser som ska behållas i token.

tokenChars?: TokenCharacterKind[]

Egenskapsvärde

Information om ärvda egenskaper

name

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

name: string

Egenskapsvärde

string

ärvd frånBaseLexicalTokenizer.name