Compartir a través de


Indexes - Analyze

Muestra cómo un analizador divide el texto en tokens.

POST {endpoint}/indexes('{indexName}')/search.analyze?api-version=2024-07-01

Parámetros de identificador URI

Nombre En Requerido Tipo Description
endpoint
path True

string

Dirección URL del punto de conexión del servicio de búsqueda.

indexName
path True

string

Nombre del índice para el que se va a probar un analizador.

api-version
query True

string

Versión de api de cliente.

Encabezado de la solicitud

Nombre Requerido Tipo Description
x-ms-client-request-id

string (uuid)

Identificador de seguimiento enviado con la solicitud para ayudar con la depuración.

Cuerpo de la solicitud

Nombre Requerido Tipo Description
text True

string

Texto que se va a dividir en tokens.

analyzer

LexicalAnalyzerName

Nombre del analizador que se va a usar para interrumpir el texto especificado. Si no se especifica este parámetro, debe especificar un tokenizador en su lugar. Los parámetros de tokenizador y analizador son mutuamente excluyentes.

charFilters

CharFilterName[]

Lista opcional de filtros de caracteres que se usarán al interrumpir el texto especificado. Este parámetro solo se puede establecer cuando se usa el parámetro tokenizer.

tokenFilters

TokenFilterName[]

Una lista opcional de filtros de token que se usarán al interrumpir el texto especificado. Este parámetro solo se puede establecer cuando se usa el parámetro tokenizer.

tokenizer

LexicalTokenizerName

Nombre del tokenizador que se va a usar para interrumpir el texto especificado. Si no se especifica este parámetro, debe especificar un analizador en su lugar. Los parámetros de tokenizador y analizador son mutuamente excluyentes.

Respuestas

Nombre Tipo Description
200 OK

AnalyzeResult

Other Status Codes

ErrorResponse

Respuesta de error.

Ejemplos

SearchServiceIndexAnalyze

Solicitud de ejemplo

POST https://myservice.search.windows.net/indexes('hotels')/search.analyze?api-version=2024-07-01

{
  "text": "Text to analyze",
  "analyzer": "standard.lucene"
}

Respuesta de muestra

{
  "tokens": [
    {
      "token": "text",
      "startOffset": 0,
      "endOffset": 4,
      "position": 0
    },
    {
      "token": "to",
      "startOffset": 5,
      "endOffset": 7,
      "position": 1
    },
    {
      "token": "analyze",
      "startOffset": 8,
      "endOffset": 15,
      "position": 2
    }
  ]
}

Definiciones

Nombre Description
AnalyzedTokenInfo

Información sobre un token devuelto por un analizador.

AnalyzeRequest

Especifica algunos componentes de texto y análisis que se usan para dividir ese texto en tokens.

AnalyzeResult

Resultado de probar un analizador en el texto.

CharFilterName

Define los nombres de todos los filtros de caracteres admitidos por el motor de búsqueda.

ErrorAdditionalInfo

Información adicional sobre el error de administración de recursos.

ErrorDetail

Detalle del error.

ErrorResponse

Respuesta de error

LexicalAnalyzerName

Define los nombres de todos los analizadores de texto admitidos por el motor de búsqueda.

LexicalTokenizerName

Define los nombres de todos los tokenizadores admitidos por el motor de búsqueda.

TokenFilterName

Define los nombres de todos los filtros de token admitidos por el motor de búsqueda.

AnalyzedTokenInfo

Información sobre un token devuelto por un analizador.

Nombre Tipo Description
endOffset

integer (int32)

Índice del último carácter del token en el texto de entrada.

position

integer (int32)

Posición del token en el texto de entrada en relación con otros tokens. El primer token del texto de entrada tiene la posición 0, la siguiente tiene la posición 1, etc. Dependiendo del analizador usado, algunos tokens podrían tener la misma posición, por ejemplo, si son sinónimos entre sí.

startOffset

integer (int32)

Índice del primer carácter del token en el texto de entrada.

token

string

Token devuelto por el analizador.

AnalyzeRequest

Especifica algunos componentes de texto y análisis que se usan para dividir ese texto en tokens.

Nombre Tipo Description
analyzer

LexicalAnalyzerName

Nombre del analizador que se va a usar para interrumpir el texto especificado. Si no se especifica este parámetro, debe especificar un tokenizador en su lugar. Los parámetros de tokenizador y analizador son mutuamente excluyentes.

charFilters

CharFilterName[]

Lista opcional de filtros de caracteres que se usarán al interrumpir el texto especificado. Este parámetro solo se puede establecer cuando se usa el parámetro tokenizer.

text

string

Texto que se va a dividir en tokens.

tokenFilters

TokenFilterName[]

Una lista opcional de filtros de token que se usarán al interrumpir el texto especificado. Este parámetro solo se puede establecer cuando se usa el parámetro tokenizer.

tokenizer

LexicalTokenizerName

Nombre del tokenizador que se va a usar para interrumpir el texto especificado. Si no se especifica este parámetro, debe especificar un analizador en su lugar. Los parámetros de tokenizador y analizador son mutuamente excluyentes.

AnalyzeResult

Resultado de probar un analizador en el texto.

Nombre Tipo Description
tokens

AnalyzedTokenInfo[]

Lista de tokens devueltos por el analizador especificado en la solicitud.

CharFilterName

Define los nombres de todos los filtros de caracteres admitidos por el motor de búsqueda.

Valor Description
html_strip

Filtro de caracteres que intenta quitar construcciones HTML. Vea https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html.

ErrorAdditionalInfo

Información adicional sobre el error de administración de recursos.

Nombre Tipo Description
info

object

Información adicional.

type

string

Tipo de información adicional.

ErrorDetail

Detalle del error.

Nombre Tipo Description
additionalInfo

ErrorAdditionalInfo[]

Información adicional del error.

code

string

Código de error.

details

ErrorDetail[]

Detalles del error.

message

string

Mensaje de error.

target

string

Destino del error.

ErrorResponse

Respuesta de error

Nombre Tipo Description
error

ErrorDetail

Objeto de error.

LexicalAnalyzerName

Define los nombres de todos los analizadores de texto admitidos por el motor de búsqueda.

Valor Description
ar.lucene

Analizador de Lucene para árabe.

ar.microsoft

Analizador de Microsoft para árabe.

bg.lucene

Analizador de Lucene para Búlgaro.

bg.microsoft

Analizador de Microsoft para búlgaro.

bn.microsoft

Analizador de Microsoft para Bangla.

ca.lucene

Analizador de Lucene para Catalán.

ca.microsoft

Analizador de Microsoft para catalán.

cs.lucene

Analizador de Lucene para Checo.

cs.microsoft

Analizador de Microsoft para Checo.

da.lucene

Analizador de Lucene para danés.

da.microsoft

Analizador de Microsoft para danés.

de.lucene

Analizador de Lucene para alemán.

de.microsoft

Analizador de Microsoft para alemán.

el.lucene

Analizador de Lucene para griego.

el.microsoft

Analizador de Microsoft para griego.

en.lucene

Analizador de Lucene para inglés.

en.microsoft

Analizador de Microsoft para inglés.

es.lucene

Analizador de Lucene para español.

es.microsoft

Analizador de Microsoft para español.

et.microsoft

Analizador de Microsoft para Estonia.

eu.lucene

Analizador de Lucene para Euskera.

fa.lucene

Analizador de Lucene para persa.

fi.lucene

Analizador de Lucene para finés.

fi.microsoft

Analizador de Microsoft para finés.

fr.lucene

Analizador de Lucene para francés.

fr.microsoft

Analizador de Microsoft para francés.

ga.lucene

Analizador de Lucene para irlandés.

gl.lucene

Analizador de Lucene para Gallega.

gu.microsoft

Analizador de Microsoft para Gujarati.

he.microsoft

Analizador de Microsoft para hebreo.

hi.lucene

Analizador de Lucene para hindi.

hi.microsoft

Analizador de Microsoft para hindi.

hr.microsoft

Analizador de Microsoft para croata.

hu.lucene

Analizador de Lucene para húngaro.

hu.microsoft

Analizador de Microsoft para húngaro.

hy.lucene

Analizador de Lucene para Armenio.

id.lucene

Analizador de Lucene para Indonesia.

id.microsoft

Analizador de Microsoft para Indonesia (Bahasa).

is.microsoft

Analizador de Microsoft para Islandés.

it.lucene

Analizador de Lucene para italiano.

it.microsoft

Analizador de Microsoft para italiano.

ja.lucene

Analizador de Lucene para japonés.

ja.microsoft

Analizador de Microsoft para japonés.

keyword

Trata todo el contenido de un campo como un solo token. Esto es útil para datos como códigos postales, identificadores y algunos nombres de producto. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html.

kn.microsoft

Analizador de Microsoft para Kannada.

ko.lucene

Analizador de Lucene para coreano.

ko.microsoft

Analizador de Microsoft para coreano.

lt.microsoft

Analizador de Microsoft para Lituano.

lv.lucene

Analizador de Lucene para Letón.

lv.microsoft

Analizador de Microsoft para Letonia.

ml.microsoft

Analizador de Microsoft para Malayalam.

mr.microsoft

Analizador de Microsoft para Marathi.

ms.microsoft

Analizador de Microsoft para malayo (latino).

nb.microsoft

Analizador de Microsoft para noruego (Bokmål).

nl.lucene

Analizador de Lucene para neerlandés.

nl.microsoft

Analizador de Microsoft para neerlandés.

no.lucene

Analizador de Lucene para Noruego.

pa.microsoft

Analizador de Microsoft para Punjabi.

pattern

Separa de forma flexible el texto en términos a través de un patrón de expresión regular. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html.

pl.lucene

Analizador de Lucene para polaco.

pl.microsoft

Analizador de Microsoft para polaco.

pt-BR.lucene

Analizador de Lucene para portugués (Brasil).

pt-BR.microsoft

Analizador de Microsoft para portugués (Brasil).

pt-PT.lucene

Analizador de Lucene para portugués (Portugal).

pt-PT.microsoft

Analizador de Microsoft para portugués (Portugal).

ro.lucene

Analizador de Lucene para rumano.

ro.microsoft

Analizador de Microsoft para rumano.

ru.lucene

Analizador de Lucene para ruso.

ru.microsoft

Analizador de Microsoft para ruso.

simple

Divide el texto en minúsculas y los convierte en minúsculas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html.

sk.microsoft

Analizador de Microsoft para Eslovaco.

sl.microsoft

Analizador de Microsoft para esloveno.

sr-cyrillic.microsoft

Analizador de Microsoft para serbio (cirílico).

sr-latin.microsoft

Analizador de Microsoft para serbio (latino).

standard.lucene

Analizador estándar de Lucene.

standardasciifolding.lucene

Analizador estándar de Lucene plegado ASCII. Vea https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers.

stop

Divide el texto en letras no letras; Aplica los filtros de token en minúsculas y palabras irrelevantes. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html.

sv.lucene

Analizador de Lucene para sueco.

sv.microsoft

Analizador de Microsoft para sueco.

ta.microsoft

Analizador de Microsoft para Tamil.

te.microsoft

Analizador de Microsoft para Telugu.

th.lucene

Analizador de Lucene para Tailandés.

th.microsoft

Analizador de Microsoft para tailandés.

tr.lucene

Analizador de Lucene para turco.

tr.microsoft

Analizador de Microsoft para turco.

uk.microsoft

Analizador de Microsoft para Ucrania.

ur.microsoft

Analizador de Microsoft para Urdu.

vi.microsoft

Analizador de Microsoft para vietnamita.

whitespace

Analizador que usa el tokenizador de espacio en blanco. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html.

zh-Hans.lucene

Analizador de Lucene para chino (simplificado).

zh-Hans.microsoft

Analizador de Microsoft para chino (simplificado).

zh-Hant.lucene

Analizador de Lucene para chino (tradicional).

zh-Hant.microsoft

Analizador de Microsoft para chino (tradicional).

LexicalTokenizerName

Define los nombres de todos los tokenizadores admitidos por el motor de búsqueda.

Valor Description
classic

Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html.

edgeNGram

Tokeniza la entrada de un borde en n gramos de los tamaños especificados. Vea https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html.

keyword_v2

Emite toda la entrada como un solo token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html.

letter

Divide el texto en no letras. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html.

lowercase

Divide el texto en minúsculas y los convierte en minúsculas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html.

microsoft_language_stemming_tokenizer

Divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formularios base.

microsoft_language_tokenizer

Divide el texto mediante reglas específicas del idioma.

nGram

Tokeniza la entrada en n-gramas de los tamaños especificados. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html.

path_hierarchy_v2

Tokenizador para jerarquías similares a la ruta de acceso. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html.

pattern

Tokenizer que usa la coincidencia de patrones regex para construir tokens distintos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html.

standard_v2

Analizador estándar de Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html.

uax_url_email

Tokeniza las direcciones URL y los correos electrónicos como un token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html.

whitespace

Divide el texto en espacios en blanco. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html.

TokenFilterName

Define los nombres de todos los filtros de token admitidos por el motor de búsqueda.

Valor Description
apostrophe

Tira todos los caracteres después de un apóstrofo (incluido el apóstrofo en sí). Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html.

arabic_normalization

Filtro de token que aplica el normalizador árabe para normalizar la ortografía. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html.

asciifolding

Convierte caracteres alfabéticos, numéricos y simbólicos Unicode que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Básico latino") en sus equivalentes ASCII, si existen dichos equivalentes. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.

cjk_bigram

Forma bigrams de términos de CJK que se generan a partir del tokenizador estándar. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html.

cjk_width

Normaliza las diferencias de ancho de CJK. Plega las variantes ASCII de fullwidth en el latino básico equivalente y las variantes katakana de ancho medio en el kana equivalente. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html.

classic

Quita los posesivos en inglés y los puntos de los acrónimos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html.

common_grams

Construya bigrams para términos que se producen con frecuencia durante la indexación. Los términos únicos todavía se indexan también, con bigrams superpuestos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html.

edgeNGram_v2

Genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html.

elision

Quita las elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.

german_normalization

Normaliza los caracteres alemanes según la heurística del algoritmo de bola de nieve alemán2. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html.

hindi_normalization

Normaliza el texto en hindi para eliminar algunas diferencias en las variaciones ortográficas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html.

indic_normalization

Normaliza la representación Unicode del texto en idiomas indios. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html.

keyword_repeat

Emite cada token entrante dos veces, una como palabra clave y una vez como palabra clave no clave. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html.

kstem

Filtro kstem de alto rendimiento para inglés. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html.

length

Quita las palabras que son demasiado largas o demasiado cortas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html.

limit

Limita el número de tokens durante la indexación. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html.

lowercase

Normaliza el texto del token en minúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html.

nGram_v2

Genera n-gramas de los tamaños especificados. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html.

persian_normalization

Aplica la normalización para persa. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html.

phonetic

Cree tokens para coincidencias fonéticas. Vea https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html.

porter_stem

Usa el algoritmo de lematización porter para transformar la secuencia de tokens. Vea http://tartarus.org/~martin/PorterStemmer.

reverse

Invierte la cadena del token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.

scandinavian_folding

Dobla caracteres escandinavos åÅäæÄÆ->a y öÖøØ->o. También discrimina el uso de vocales dobles aa, ae, ao, oe y oo, dejando solo el primero. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html.

scandinavian_normalization

Normaliza el uso de los caracteres escandinavos intercambiables. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html.

shingle

Crea combinaciones de tokens como un único token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html.

snowball

Filtro que deriva las palabras mediante un lematizador generado por Snowball. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html.

sorani_normalization

Normaliza la representación Unicode del texto Sorani. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html.

stemmer

Filtro de lematización específico del idioma. Vea https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.

stopwords

Quita las palabras irrelevantes de una secuencia de tokens. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.

trim

Recorta el espacio en blanco inicial y final de los tokens. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html.

truncate

Trunca los términos a una longitud específica. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html.

unique

Filtra los tokens con el mismo texto que el token anterior. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html.

uppercase

Normaliza el texto del token en mayúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.

word_delimiter

Divide palabras en subpalabras y realiza transformaciones opcionales en grupos de subwords.