Compartir a través de


NGramTokenizer Clase

Definición

Tokeniza la entrada en n-gramas de tamaños dados. Este tokenizador se implementa mediante Apache Lucene.

public class NGramTokenizer : Azure.Search.Documents.Indexes.Models.LexicalTokenizer
type NGramTokenizer = class
    inherit LexicalTokenizer
Public Class NGramTokenizer
Inherits LexicalTokenizer
Herencia
NGramTokenizer

Constructores

NGramTokenizer(String)

Inicializa una nueva instancia de NGramTokenizer.

Propiedades

MaxGram

Longitud máxima de n-gramas. El valor predeterminado es 2. El máximo es 300.

MinGram

Longitud mínima de n-gramas. El valor predeterminado es 1. El máximo es 300. Debe ser menor que el valor de maxGram.

Name

Nombre del tokenizador. Solo puede contener letras, dígitos, espacios, guiones o guiones bajos, debe empezar y acabar con caracteres alfanuméricos y no puede superar los 128 caracteres.

(Heredado de LexicalTokenizer)
TokenChars

Clases de caracteres que se mantendrán en los tokens.

Se aplica a