KeywordTokenizer interface
Emituje całe dane wejściowe jako pojedynczy token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.
Właściwości
max |
Maksymalna długość tokenu. Wartość domyślna to 256. Tokeny dłuższe niż maksymalna długość są dzielone. Maksymalna długość tokenu, która może być używana, to 300 znaków. Wartość domyślna: 256. |
name | Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się tylko znakami alfanumerycznymi i jest ograniczona do 128 znaków. |
odatatype | Dyskryminujący polimorficzny |
Szczegóły właściwości
maxTokenLength
Maksymalna długość tokenu. Wartość domyślna to 256. Tokeny dłuższe niż maksymalna długość są dzielone. Maksymalna długość tokenu, która może być używana, to 300 znaków. Wartość domyślna: 256.
maxTokenLength?: number
Wartość właściwości
number
name
Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się tylko znakami alfanumerycznymi i jest ograniczona do 128 znaków.
name: string
Wartość właściwości
string
odatatype
Dyskryminujący polimorficzny
odatatype: "#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"
Wartość właściwości
"#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"