Compartilhar via


MicrosoftLanguageStemmingTokenizer Construtores

Definição

Sobrecargas

MicrosoftLanguageStemmingTokenizer()

Inicializa uma nova instância da classe MicrosoftLanguageStemmingTokenizer.

MicrosoftLanguageStemmingTokenizer(String, Nullable<Int32>, Nullable<Boolean>, Nullable<MicrosoftStemmingTokenizerLanguage>)

Inicializa uma nova instância da classe MicrosoftLanguageStemmingTokenizer.

MicrosoftLanguageStemmingTokenizer()

Origem:
MicrosoftLanguageStemmingTokenizer.cs

Inicializa uma nova instância da classe MicrosoftLanguageStemmingTokenizer.

public MicrosoftLanguageStemmingTokenizer ();
Public Sub New ()

Aplica-se a

MicrosoftLanguageStemmingTokenizer(String, Nullable<Int32>, Nullable<Boolean>, Nullable<MicrosoftStemmingTokenizerLanguage>)

Origem:
MicrosoftLanguageStemmingTokenizer.cs

Inicializa uma nova instância da classe MicrosoftLanguageStemmingTokenizer.

public MicrosoftLanguageStemmingTokenizer (string name, int? maxTokenLength = default, bool? isSearchTokenizer = default, Microsoft.Azure.Search.Models.MicrosoftStemmingTokenizerLanguage? language = default);
new Microsoft.Azure.Search.Models.MicrosoftLanguageStemmingTokenizer : string * Nullable<int> * Nullable<bool> * Nullable<Microsoft.Azure.Search.Models.MicrosoftStemmingTokenizerLanguage> -> Microsoft.Azure.Search.Models.MicrosoftLanguageStemmingTokenizer
Public Sub New (name As String, Optional maxTokenLength As Nullable(Of Integer) = Nothing, Optional isSearchTokenizer As Nullable(Of Boolean) = Nothing, Optional language As Nullable(Of MicrosoftStemmingTokenizerLanguage) = Nothing)

Parâmetros

name
String

O nome do tokenizer. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres.

maxTokenLength
Nullable<Int32>

O comprimento máximo do token. Tokens maiores do que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Tokens com mais de 300 caracteres são divididos primeiro em tokens de comprimento 300 e, em seguida, cada um desses tokens é dividido com base no conjunto de comprimento máximo do token. O padrão é 255.

isSearchTokenizer
Nullable<Boolean>

Um valor que indica como o tokenizer é usado. Defina como true se usado como o tokenizador de pesquisa, defina como false se usado como o tokenizador de indexação. O padrão é false.

language
Nullable<MicrosoftStemmingTokenizerLanguage>

O idioma a ser usado. O padrão é inglês. Os valores possíveis incluem: 'árabe', 'bangla', 'búlgaro', 'catalão', 'croata', 'tcheco', 'dinamarquês', 'holandês', 'inglês', 'estoniano', 'finlandês', 'francês', 'alemão', 'grego', 'gujarati', 'hebraico', 'hindi', 'húngaro', 'islandês', 'indonésio', 'italiano', 'kannada', 'letão', 'lituano', 'malaio', 'malaia', 'marathi', 'norwegianBokmaal', 'polonês', 'português', 'portuguêsbrazilo', 'punjabi', 'romeno', 'russo', 'sérvioCyrillic', 'sérvioLatin', 'eslovaco', 'eslovaco', 'espanhol', 'espanhol', 'swedish', 'tamil', 'telugu', 'turkish', 'ucraniano', 'urdu'

Aplica-se a