Delen via


LuceneStandardTokenizer interface

Hiermee wordt de tekst onderbreekt volgens de unicode-regels voor tekstsegmentatie. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Eigenschappen

maxTokenLength

De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens. Standaardwaarde: 255.

name

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

odatatype

Polymorf discriminator

Eigenschapdetails

maxTokenLength

De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens. Standaardwaarde: 255.

maxTokenLength?: number

Waarde van eigenschap

number

name

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

name: string

Waarde van eigenschap

string

odatatype

Polymorf discriminator

odatatype: "#Microsoft.Azure.Search.StandardTokenizer" | "#Microsoft.Azure.Search.StandardTokenizerV2"

Waarde van eigenschap

"#Microsoft.Azure.Search.StandardTokenizer" | "#Microsoft.Azure.Search.StandardTokenizerV2"