CustomAnalyzer interface
Gör att du kan ta kontroll över processen att konvertera text till indexerbara/sökbara token. Det är en användardefinierad konfiguration som består av en enda fördefinierad tokeniserare och ett eller flera filter. Tokeniseraren ansvarar för att dela upp text i token och filter för att ändra token som genereras av tokeniseraren.
Egenskaper
char |
En lista över teckenfilter som används för att förbereda indatatext innan den bearbetas av tokeniseraren. De kan till exempel ersätta vissa tecken eller symboler. Filtren körs i den ordning som de visas. |
name | Namnet på analysatorn. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken. |
odatatype | Polymorfisk diskriminering |
token |
En lista över tokenfilter som används för att filtrera bort eller ändra token som genereras av en tokeniserare. Du kan till exempel ange ett gemener som konverterar alla tecken till gemener. Filtren körs i den ordning som de visas. |
tokenizer |
Namnet på tokeniseraren som ska användas för att dela upp kontinuerlig text i en sekvens med token, till exempel att dela upp en mening i ord. KnownTokenizerNames är ett uppräkning som innehåller inbyggda tokenizernamn. |
Egenskapsinformation
charFilters
En lista över teckenfilter som används för att förbereda indatatext innan den bearbetas av tokeniseraren. De kan till exempel ersätta vissa tecken eller symboler. Filtren körs i den ordning som de visas.
charFilters?: string[]
Egenskapsvärde
string[]
name
Namnet på analysatorn. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.
name: string
Egenskapsvärde
string
odatatype
Polymorfisk diskriminering
odatatype: "#Microsoft.Azure.Search.CustomAnalyzer"
Egenskapsvärde
"#Microsoft.Azure.Search.CustomAnalyzer"
tokenFilters
En lista över tokenfilter som används för att filtrera bort eller ändra token som genereras av en tokeniserare. Du kan till exempel ange ett gemener som konverterar alla tecken till gemener. Filtren körs i den ordning som de visas.
tokenFilters?: string[]
Egenskapsvärde
string[]
tokenizerName
Namnet på tokeniseraren som ska användas för att dela upp kontinuerlig text i en sekvens med token, till exempel att dela upp en mening i ord. KnownTokenizerNames är ett uppräkning som innehåller inbyggda tokenizernamn.
tokenizerName: string
Egenskapsvärde
string