LexicalTokenizerName Enum
Defines the names of all tokenizers supported by the search engine.
Fields
CLASSIC |
EDGE_N_GRAM |
KEYWORD |
LETTER |
LOWERCASE |
MICROSOFT_LANGUAGE_STEMMING_TOKENIZER |
MICROSOFT_LANGUAGE_TOKENIZER |
N_GRAM |
PATH_HIERARCHY |
PATTERN |
STANDARD |
UAX_URL_EMAIL |
WHITESPACE |
Совместная работа с нами на GitHub
Источник этого содержимого можно найти на GitHub, где также можно создавать и просматривать проблемы и запросы на вытягивание. Дополнительные сведения см. в нашем руководстве для участников.
Azure SDK for Python