ClassicTokenizer interface
Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Este tokenizador se implementa mediante Apache Lucene.
- Extends
Propiedades
max |
Longitud máxima del token. El valor predeterminado es 255. Los tokens que sobrepasen la longitud máxima se dividen. La longitud máxima del token que se puede usar es de 300 caracteres. |
odatatype | Discriminador polimórfico, que especifica los diferentes tipos que puede ser este objeto |
Propiedades heredadas
name | Nombre del tokenizador. Solo puede contener letras, dígitos, espacios, guiones o guiones bajos, debe empezar y acabar con caracteres alfanuméricos y no puede superar los 128 caracteres. |
Detalles de las propiedades
maxTokenLength
Longitud máxima del token. El valor predeterminado es 255. Los tokens que sobrepasen la longitud máxima se dividen. La longitud máxima del token que se puede usar es de 300 caracteres.
maxTokenLength?: number
Valor de propiedad
number
odatatype
Discriminador polimórfico, que especifica los diferentes tipos que puede ser este objeto
odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"
Valor de propiedad
"#Microsoft.Azure.Search.ClassicTokenizer"
Detalles de las propiedades heredadas
name
Nombre del tokenizador. Solo puede contener letras, dígitos, espacios, guiones o guiones bajos, debe empezar y acabar con caracteres alfanuméricos y no puede superar los 128 caracteres.
name: string
Valor de propiedad
string
Heredado deBaseLexicalTokenizer.name