KeywordTokenizer interface
Emite toda a entrada como um único token. Esse tokenizador é implementado usando o Apache Lucene.
Propriedades
max |
O comprimento máximo do token. O padrão é 256. Tokens maiores que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Valor padrão: 256. |
name | O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode iniciar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres. |
odatatype | Discriminatório polimórfico |
Detalhes da propriedade
maxTokenLength
O comprimento máximo do token. O padrão é 256. Tokens maiores que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Valor padrão: 256.
maxTokenLength?: number
Valor da propriedade
number
name
O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode iniciar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.
name: string
Valor da propriedade
string
odatatype
Discriminatório polimórfico
odatatype: "#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"
Valor da propriedade
"#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"