Compartilhar via


KeywordTokenizer interface

Emite toda a entrada como um único token. Esse tokenizador é implementado usando o Apache Lucene.

Propriedades

maxTokenLength

O comprimento máximo do token. O padrão é 256. Tokens maiores que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Valor padrão: 256.

name

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode iniciar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

odatatype

Discriminatório polimórfico

Detalhes da propriedade

maxTokenLength

O comprimento máximo do token. O padrão é 256. Tokens maiores que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Valor padrão: 256.

maxTokenLength?: number

Valor da propriedade

number

name

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode iniciar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

name: string

Valor da propriedade

string

odatatype

Discriminatório polimórfico

odatatype: "#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"

Valor da propriedade

"#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"