Dela via


CustomAnalyzer interface

Gör att du kan ta kontroll över processen att konvertera text till indexerbara/sökbara token. Det är en användardefinierad konfiguration som består av en enda fördefinierad tokeniserare och ett eller flera filter. Tokeniseraren ansvarar för att dela upp text i token och filter för att ändra token som genereras av tokeniseraren.

Egenskaper

charFilters

En lista över teckenfilter som används för att förbereda indatatext innan den bearbetas av tokeniseraren. De kan till exempel ersätta vissa tecken eller symboler. Filtren körs i den ordning som de visas.

name

Namnet på analysatorn. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

odatatype

Polymorfisk diskriminering

tokenFilters

En lista över tokenfilter som används för att filtrera bort eller ändra token som genereras av en tokeniserare. Du kan till exempel ange ett gemener som konverterar alla tecken till gemener. Filtren körs i den ordning som de visas.

tokenizerName

Namnet på tokeniseraren som ska användas för att dela upp kontinuerlig text i en sekvens med token, till exempel att dela upp en mening i ord. KnownTokenizerNames är ett uppräkning som innehåller inbyggda tokenizernamn.

Egenskapsinformation

charFilters

En lista över teckenfilter som används för att förbereda indatatext innan den bearbetas av tokeniseraren. De kan till exempel ersätta vissa tecken eller symboler. Filtren körs i den ordning som de visas.

charFilters?: string[]

Egenskapsvärde

string[]

name

Namnet på analysatorn. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

name: string

Egenskapsvärde

string

odatatype

Polymorfisk diskriminering

odatatype: "#Microsoft.Azure.Search.CustomAnalyzer"

Egenskapsvärde

"#Microsoft.Azure.Search.CustomAnalyzer"

tokenFilters

En lista över tokenfilter som används för att filtrera bort eller ändra token som genereras av en tokeniserare. Du kan till exempel ange ett gemener som konverterar alla tecken till gemener. Filtren körs i den ordning som de visas.

tokenFilters?: string[]

Egenskapsvärde

string[]

tokenizerName

Namnet på tokeniseraren som ska användas för att dela upp kontinuerlig text i en sekvens med token, till exempel att dela upp en mening i ord. KnownTokenizerNames är ett uppräkning som innehåller inbyggda tokenizernamn.

tokenizerName: string

Egenskapsvärde

string