Azure.Search.Documents.Indexes.Models Espacio de nombres
Importante
Parte de la información hace referencia a la versión preliminar del producto, que puede haberse modificado sustancialmente antes de lanzar la versión definitiva. Microsoft no otorga ninguna garantía, explícita o implícita, con respecto a la información proporcionada aquí.
Clases
AnalyzedTokenInfo |
Información sobre un token devuelto por un analizador. |
AnalyzeTextOptions |
Especifica algunos componentes de texto y análisis que se usan para dividir ese texto en tokens. |
AsciiFoldingTokenFilter |
Convierte caracteres Unicode alfabéticos, numéricos y simbólicos que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Basic Latin" ) en sus equivalentes ASCII, si existen dichos equivalentes. Este filtro de token se implementa mediante Apache Lucene. |
AzureMachineLearningSkill |
La aptitud AML permite ampliar el enriquecimiento de IA con un modelo personalizado de Azure Machine Learning (AML). Una vez que un modelo de AML se ha entrenado e implementado, una aptitud de AML lo integra en el enriquecimiento con IA. |
AzureOpenAIEmbeddingSkill |
Permite generar una inserción de vectores para una entrada de texto determinada mediante el servicio Azure Open AI. |
AzureOpenAIParameters |
Contiene los parámetros específicos para usar un servicio Azure Open AI para la vectorización en el momento de la consulta. |
AzureOpenAIVectorizer |
Contiene los parámetros específicos para usar un servicio Azure Open AI para la vectorización en el momento de la consulta. |
BM25Similarity |
Función de clasificación basada en el algoritmo de similitud okapi BM25. BM25 es un algoritmo similar a TF-IDF que incluye la normalización de longitud (controlada por el parámetro 'b'), así como la saturación de la frecuencia de términos (controlada por el parámetro 'k1'). |
CharFilter |
Tipo base para filtros de caracteres. Tenga en cuenta CharFilter que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen MappingCharFilter y PatternReplaceCharFilter. |
CjkBigramTokenFilter |
Forma bigrams de términos de CJK que se generan a partir del tokenizador estándar. Este filtro de token se implementa mediante Apache Lucene. |
ClassicSimilarity |
Algoritmo de similitud heredado que usa la implementación TFIDFSimilarity de Lucene de TF-IDF. Esta variación de TF-IDF presenta la normalización de longitud de documento estática, así como factores de coordinación que penalizan los documentos que solo coinciden parcialmente con las consultas buscadas. |
ClassicTokenizer |
Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Este tokenizador se implementa mediante Apache Lucene. |
CognitiveServicesAccount |
Tipo base para describir cualquier recurso de Cognitive Services asociado a un conjunto de aptitudes. Tenga en cuenta CognitiveServicesAccount que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen CognitiveServicesAccountKey y DefaultCognitiveServicesAccount. |
CognitiveServicesAccountKey |
Un recurso de Cognitive Services aprovisionado con una clave asociada a un conjunto de aptitudes. |
CommonGramTokenFilter |
Construye bigramas para términos que se repiten con frecuencia durante la indexación. Los términos individuales también se indexan, con los bigramas superpuestos. Este filtro de token se implementa mediante Apache Lucene. |
ComplexField |
Campo complejo o colección de campos complejos que contienen campos secundarios. Los campos secundarios pueden ser SimpleField o ComplexField. |
ConditionalSkill |
Una aptitud que permite escenarios que requieren una operación booleana para determinar los datos que se van a asignar a una salida. |
CorsOptions |
Define opciones para controlar el uso compartido de recursos entre orígenes (CORS) para un índice. |
CustomAnalyzer |
Permite tomar el control sobre el proceso de conversión de texto en tokens indexables o buscables. Se trata de una configuración definida por el usuario que consta de un único tokenizador predefinido y uno o varios filtros. El tokenizador es responsable de dividir texto en tokens y los filtros para modificar los tokens emitidos por el tokenizador. |
CustomEntity |
Objeto que contiene información sobre las coincidencias que se encontraron y metadatos relacionados. |
CustomEntityAlias |
Objeto complejo que se puede usar para especificar ortografías o sinónimos alternativos al nombre de la entidad raíz. |
CustomEntityLookupSkill |
Una aptitud busca texto de una lista personalizada definida por el usuario de palabras y frases. |
CustomNormalizer |
Permite configurar la normalización para campos filtrables, ordenables y facetables, que de forma predeterminada funcionan con coincidencias estrictas. Se trata de una configuración definida por el usuario que consta de al menos uno o varios filtros, que modifican el token almacenado. |
CustomVectorizer |
Contiene los parámetros específicos para generar incrustaciones de vectores a través de un punto de conexión personalizado. |
CustomVectorizerParameters |
Contiene los parámetros específicos para generar incrustaciones de vectores a través de un punto de conexión personalizado. |
DataChangeDetectionPolicy |
Tipo base para las directivas de detección de cambios de datos. Tenga en cuenta DataChangeDetectionPolicy que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen HighWaterMarkChangeDetectionPolicy y SqlIntegratedChangeTrackingPolicy. |
DataDeletionDetectionPolicy |
Tipo base para las directivas de detección de eliminación de datos. Tenga en cuenta DataDeletionDetectionPolicy que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen NativeBlobSoftDeleteDeletionDetectionPolicy y SoftDeleteColumnDeletionDetectionPolicy. |
DefaultCognitiveServicesAccount |
Objeto vacío que representa el recurso predeterminado de Cognitive Services para un conjunto de aptitudes. |
DictionaryDecompounderTokenFilter |
Descompone las palabras compuestas que se encuentran en muchas lenguas germánicas. Este filtro de token se implementa mediante Apache Lucene. |
DistanceScoringFunction |
Define una función que aumenta las puntuaciones en función de la distancia desde una ubicación geográfica. |
DistanceScoringParameters |
Proporciona valores de parámetro a una función de puntuación de distancia. |
DocumentExtractionSkill |
Una aptitud que extrae contenido de un archivo dentro de la canalización de enriquecimiento. |
EdgeNGramTokenFilter |
Genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Este filtro de token se implementa mediante Apache Lucene. |
EdgeNGramTokenizer |
Tokeniza la entrada de un borde en n-gramas de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene. |
ElisionTokenFilter |
Quita las elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Este filtro de token se implementa mediante Apache Lucene. |
EntityLinkingSkill |
Con la API de Text Analytics, extrae entidades vinculadas del texto. |
EntityRecognitionSkill |
Esta aptitud está en desuso. Use la versión V3. EntityRecognitionSkill en su lugar. |
ExhaustiveKnnParameters |
Contiene los parámetros específicos del algoritmo KNN exhaustivo. |
ExhaustiveKnnVectorSearchAlgorithmConfiguration |
Contiene opciones de configuración específicas del algoritmo KNN exhaustivo utilizado durante la consulta, que realizará la búsqueda por fuerza bruta en todo el índice vectorial. |
FieldMapping |
Define una asignación entre un campo de un origen de datos y un campo de destino en un índice. |
FieldMappingFunction |
Representa una función que transforma un valor de un origen de datos antes de la indexación. |
FreshnessScoringFunction |
Define una función que aumenta las puntuaciones en función del valor de un campo de fecha y hora. |
FreshnessScoringParameters |
Proporciona valores de parámetro a una función de puntuación de actualización. |
HighWaterMarkChangeDetectionPolicy |
Define una directiva de detección de cambios de datos que captura los cambios en función del valor de una columna de marca de agua alta. |
HnswParameters |
Contiene los parámetros específicos del algoritmo hnsw. |
HnswVectorSearchAlgorithmConfiguration |
Contiene opciones de configuración específicas del algoritmo de vecinos más cercano aproximado que se usan durante la indexación y la consulta. El algoritmo hnsw ofrece un equilibrio ajustable entre la velocidad de búsqueda y la precisión. |
ImageAnalysisSkill |
Una aptitud que analiza los archivos de imagen. Extrae un amplio conjunto de características visuales basadas en el contenido de la imagen. |
IndexerChangeTrackingState |
Representa el estado de seguimiento de cambios durante la ejecución de un indexador. |
IndexerExecutionResult |
Representa el resultado de una ejecución de indizador individual. |
IndexerState |
Representa todo el estado que define y dicta la ejecución actual del indexador. |
IndexingParameters |
Representa los parámetros para la ejecución del indizador. |
IndexingParametersConfiguration |
Diccionario de propiedades de configuración específicas del indexador. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo. |
IndexingSchedule |
Representa una programación para la ejecución del indizador. |
InputFieldMappingEntry |
Asignación de campos de entrada para una aptitud. |
KeepTokenFilter |
Filtro de token que solo mantiene los tokens con texto contenido en una lista especificada de palabras. Este filtro de token se implementa mediante Apache Lucene. |
KeyPhraseExtractionSkill |
Una aptitud que usa text analytics para la extracción de frases clave. |
KeywordMarkerTokenFilter |
Marca los términos como palabras clave. Este filtro de token se implementa mediante Apache Lucene. |
KeywordTokenizer |
Emite la entrada completa como un solo token. Este tokenizador se implementa mediante Apache Lucene. |
KnowledgeStore |
Definición de proyecciones adicionales para azure Blob, tabla o archivos, de datos enriquecidos. |
KnowledgeStoreFileProjectionSelector |
Definición de proyección para qué datos almacenar en Azure Files. |
KnowledgeStoreObjectProjectionSelector |
Definición de proyección de los datos que se van a almacenar en azure Blob. |
KnowledgeStoreProjection |
Objeto contenedor para varios selectores de proyección. |
KnowledgeStoreProjectionSelector |
Clase abstracta para compartir propiedades entre selectores concretos. |
KnowledgeStoreStorageProjectionSelector |
Clase abstracta para compartir propiedades entre selectores concretos. |
KnowledgeStoreTableProjectionSelector |
Descripción de los datos que se van a almacenar en tablas de Azure. |
LanguageDetectionSkill |
Una aptitud que detecta el idioma del texto de entrada e informa de un único código de idioma para cada documento enviado en la solicitud. El código de idioma se empareja con una puntuación que indica la confianza del análisis. |
LengthTokenFilter |
Quita las palabras que son demasiado largas o demasiado cortas. Este filtro de token se implementa mediante Apache Lucene. |
LexicalAnalyzer |
Tipo base para analizadores. Tenga en cuenta LexicalAnalyzer que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen CustomAnalyzer, PatternAnalyzerLuceneStandardAnalyzer y StopAnalyzer. |
LexicalAnalyzerName.Values |
Los valores de todas las propiedades declaradas LexicalAnalyzerName como constantes de cadena. Se pueden usar en SearchableFieldAttribute y en cualquier otro lugar donde se necesiten constantes. |
LexicalNormalizer |
Tipo base para normalizadores. Tenga en cuenta LexicalNormalizer que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen CustomNormalizer. |
LexicalNormalizerName.Values |
Los valores de todas las propiedades declaradas LexicalNormalizerName como constantes de cadena. Se pueden usar en SimpleFieldAttributey SearchableFieldAttribute en cualquier otro lugar se requieren constantes. |
LexicalTokenizer |
Tipo base para tokenizadores. Tenga en cuenta LexicalTokenizer que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen ClassicTokenizer, EdgeNGramTokenizer, KeywordTokenizer, KeywordTokenizerMicrosoftLanguageStemmingTokenizer, MicrosoftLanguageTokenizer, NGramTokenizer, PathHierarchyTokenizer, , PatternTokenizer, , LuceneStandardTokenizerLuceneStandardTokenizery UaxUrlEmailTokenizer. |
LimitTokenFilter |
Limita el número de tokens durante la indexación. Este filtro de token se implementa mediante Apache Lucene. |
LuceneStandardAnalyzer |
Analizador estándar de Apache Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop. |
LuceneStandardTokenizer |
Divide el texto siguiendo las reglas de segmentación de texto Unicode. Este tokenizador se implementa mediante Apache Lucene. |
MagnitudeScoringFunction |
Define una función que aumenta las puntuaciones en función de la magnitud de un campo numérico. |
MagnitudeScoringParameters |
Proporciona valores de parámetro a una función de puntuación de magnitud. |
MappingCharFilter |
Filtro de caracteres que aplica asignaciones definidas con la opción asignaciones. La coincidencia es ambiciosa (la mayor coincidencia de patrones en un momento dado gana). Se permite que la sustitución sea una cadena vacía. Este filtro de caracteres se implementa mediante Apache Lucene. |
MergeSkill |
Una aptitud para combinar dos o más cadenas en una sola cadena unificada, con un delimitador opcional definido por el usuario que separa cada parte de componente. |
MicrosoftLanguageStemmingTokenizer |
Divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formas base. |
MicrosoftLanguageTokenizer |
Divide el texto mediante reglas específicas del idioma. |
NativeBlobSoftDeleteDeletionDetectionPolicy |
Define una directiva de detección de eliminación de datos que usa la característica de eliminación temporal nativa de Azure Blob Storage para la detección de eliminación. |
NGramTokenFilter |
Genera n-gramas de los tamaños dados. Este filtro de token se implementa mediante Apache Lucene. |
NGramTokenizer |
Tokeniza la entrada en n-gramas de tamaños dados. Este tokenizador se implementa mediante Apache Lucene. |
OcrSkill |
Una aptitud que extrae texto de los archivos de imagen. |
OutputFieldMappingEntry |
Asignación de campos de salida para una aptitud. |
PathHierarchyTokenizer |
Tokenizador para las jerarquías parecidas a rutas de acceso. Este tokenizador se implementa mediante Apache Lucene. |
PatternAnalyzer |
Separa el texto de manera flexible en términos a través de un patrón de expresión regular. Este analizador se implementa mediante Apache Lucene. |
PatternCaptureTokenFilter |
Usa expresiones regulares de Java para emitir varios tokens: uno para cada grupo de capturas en uno o varios patrones. Este filtro de token se implementa mediante Apache Lucene. |
PatternReplaceCharFilter |
Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar las secuencias de caracteres que se desean conservar y un patrón de reemplazo para identificar los caracteres que se desean reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb aa#bb". Este filtro de caracteres se implementa mediante Apache Lucene. |
PatternReplaceTokenFilter |
Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar las secuencias de caracteres que se desean conservar y un patrón de reemplazo para identificar los caracteres que se desean reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb aa#bb". Este filtro de token se implementa mediante Apache Lucene. |
PatternTokenizer |
Tokenizador que usa la coincidencia de patrones regex para construir tokens distintos. Este tokenizador se implementa mediante Apache Lucene. |
PhoneticTokenFilter |
Crea tokens para coincidencias fonéticas. Este filtro de token se implementa mediante Apache Lucene. |
PiiDetectionSkill |
Con la API de Text Analytics, extrae información personal de un texto de entrada y le ofrece la opción de enmascararlo. |
PrioritizedFields |
Describe los campos título, contenido y palabras clave que se usarán para la clasificación semántica, los títulos, los resaltados y las respuestas. |
ScoringFunction |
Tipo base para funciones que pueden modificar las puntuaciones de documentos durante la clasificación. Tenga en cuenta ScoringFunction que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen DistanceScoringFunction, FreshnessScoringFunctionMagnitudeScoringFunction y TagScoringFunction. |
ScoringProfile |
Define parámetros para un índice de búsqueda que influye en la puntuación en las consultas de búsqueda. |
SearchableField |
Campo String o "Collection(String)" que se puede buscar. |
SearchAlias |
Representa un alias de índice, que describe una asignación del nombre del alias a un índice. El nombre del alias se puede usar en lugar del nombre del índice para las operaciones admitidas. |
SearchField |
Representa un campo de una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo. |
SearchFieldTemplate |
Tipo de campo base para las clases auxiliares para crear más fácilmente un SearchIndex. |
SearchIndex |
Representa una definición de índice de búsqueda, que describe los campos y el comportamiento de búsqueda de un índice. |
SearchIndexer |
Representa un indexador. |
SearchIndexerCache |
The SearchIndexerCache. |
SearchIndexerDataContainer |
Representa información sobre la entidad (como Azure SQL tabla o colección de CosmosDB) que se indexará. |
SearchIndexerDataIdentity |
Tipo base abstracto para identidades de datos. Tenga en cuenta SearchIndexerDataIdentity que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen SearchIndexerDataNoneIdentity y SearchIndexerDataUserAssignedIdentity. |
SearchIndexerDataNoneIdentity |
Borra la propiedad de identidad de un origen de datos. |
SearchIndexerDataSourceConnection |
Representa una definición de origen de datos, que se puede usar para configurar un indexador. |
SearchIndexerDataUserAssignedIdentity |
Especifica la identidad de un origen de datos que se va a usar. |
SearchIndexerError |
Representa un error de indización de nivel de elemento o documento. |
SearchIndexerIndexProjections |
Definición de proyecciones adicionales a índices de búsqueda secundarios. |
SearchIndexerIndexProjectionSelector |
Descripción de los datos que se van a almacenar en el índice de búsqueda designado. |
SearchIndexerIndexProjectionsParameters |
Diccionario de propiedades de configuración específicas de proyección de índice. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo. |
SearchIndexerKnowledgeStoreParameters |
Diccionario de propiedades de configuración específicas del almacén de conocimiento. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo. |
SearchIndexerLimits |
The SearchIndexerLimits. |
SearchIndexerSkill |
Tipo base para aptitudes. Tenga en cuenta SearchIndexerSkill que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen AzureMachineLearningSkill, WebApiSkill, AzureOpenAIEmbeddingSkillMergeSkillPiiDetectionSkillCustomEntityLookupSkillEntityRecognitionSkillLanguageDetectionSkillKeyPhraseExtractionSkill, , SentimentSkill, , SplitSkill, TextTranslationSkillDocumentExtractionSkillConditionalSkillShaperSkillAzure.Search.Documents.Indexes.Models.EntityRecognitionSkillV3Azure.Search.Documents.Indexes.Models.SentimentSkillV3EntityLinkingSkilly . ImageAnalysisSkillOcrSkill |
SearchIndexerSkillset |
Una lista de aptitudes. |
SearchIndexerStatus |
Representa el historial de ejecución y el estado actual de un indizador. |
SearchIndexerWarning |
Representa una advertencia de nivel de elemento. |
SearchIndexStatistics |
Estadísticas de un índice determinado. Las estadísticas se recopilan periódicamente y no se garantiza que siempre estén actualizadas. |
SearchResourceCounter |
Representa el uso y la cuota de un recurso. |
SearchResourceEncryptionKey |
Una clave de cifrado administrada por el cliente en Azure Key Vault. Las claves que cree y administre se pueden usar para cifrar o descifrar datos en reposo en Azure Cognitive Search, como índices y mapas de sinónimos. |
SearchServiceCounters |
Representa las cuotas y los contadores de recursos de nivel de servicio. |
SearchServiceLimits |
Representa varios límites de nivel de servicio. |
SearchServiceStatistics |
Respuesta de una solicitud de obtención de estadísticas de servicio. Si se ejecuta correctamente, incluye contadores y límites de nivel de servicio. |
SearchSuggester |
Define cómo se debe aplicar suggest API a un grupo de campos del índice. |
SemanticConfiguration |
Define una configuración específica que se usará en el contexto de las funcionalidades semánticas. |
SemanticField |
Campo que se usa como parte de la configuración semántica. |
SemanticSettings |
Define parámetros para un índice de búsqueda que influye en las funcionalidades semánticas. |
SentimentSkill |
Esta aptitud está en desuso. Use la versión V3. SentimentSkill en su lugar. |
ShaperSkill |
Aptitud para cambiar la forma de las salidas. Crea un tipo complejo para admitir campos compuestos (también conocidos como campos de varias partes). |
ShingleTokenFilter |
Crea combinaciones de tokens como un solo token. Este filtro de token se implementa mediante Apache Lucene. |
SimilarityAlgorithm |
Tipo base para algoritmos de similitud. Los algoritmos de similitud se usan para calcular puntuaciones que vinculan consultas a documentos. Cuanto mayor sea la puntuación, más relevante será el documento para esa consulta específica. Esas puntuaciones se usan para clasificar los resultados de la búsqueda. Tenga en cuenta SimilarityAlgorithm que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen BM25Similarity y ClassicSimilarity. |
SimpleField |
Un campo simple mediante un tipo primitivo o una colección de un tipo primitivo. |
SnowballTokenFilter |
Filtro que deriva las palabras mediante un lematizador generado por Snowball. Este filtro de token se implementa mediante Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Define una directiva de detección de eliminación de datos que implementa una estrategia de eliminación temporal. Determina si se debe eliminar un elemento en función del valor de una columna designada de "eliminación temporal". |
SplitSkill |
Aptitud para dividir una cadena en fragmentos de texto. |
SqlIntegratedChangeTrackingPolicy |
Define una directiva de detección de cambios de datos que captura los cambios mediante la característica Change Tracking integrada de Azure SQL Database. |
StemmerOverrideTokenFilter |
Proporciona la capacidad de invalidar otros filtros de lematización con lematización personalizada basada en diccionarios. Los términos con lematización del diccionario se marcarán como palabras clave para que no se lematice con lematizadores hacia abajo en la cadena. Se debe colocar antes de los filtros de lematización. Este filtro de token se implementa mediante Apache Lucene. |
StemmerTokenFilter |
Filtro de lematización específico del idioma. Este filtro de token se implementa mediante Apache Lucene. |
StopAnalyzer |
Divide el texto en letras no letras; Aplica los filtros de token en minúsculas y de palabra irrelevante. Este analizador se implementa mediante Apache Lucene. |
StopwordsTokenFilter |
Quita las palabras irrelevantes de una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene. |
SynonymMap |
Representa una definición de mapa de sinónimos. |
SynonymTokenFilter |
Coincide con sinónimos de una o varias palabras en una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene. |
TagScoringFunction |
Define una función que aumenta las puntuaciones de documentos con valores de cadena que coinciden con una lista determinada de etiquetas. |
TagScoringParameters |
Proporciona valores de parámetro a una función de puntuación de etiquetas. |
TextTranslationSkill |
Aptitud para traducir texto de un idioma a otro. |
TextWeights |
Define las ponderaciones en los campos de índice para los que las coincidencias deben aumentar la puntuación en las consultas de búsqueda. |
TokenFilter |
Tipo base para los filtros de token. Tenga en cuenta TokenFilter que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen AsciiFoldingTokenFilter, CjkBigramTokenFilter, CommonGramTokenFilterEdgeNGramTokenFilterElisionTokenFilterLengthTokenFilterKeepTokenFilterDictionaryDecompounderTokenFilterKeywordMarkerTokenFilterEdgeNGramTokenFilter, , LimitTokenFilter, PatternCaptureTokenFilterNGramTokenFilterPatternReplaceTokenFilterNGramTokenFilterPhoneticTokenFilterShingleTokenFilterSynonymTokenFilterStopwordsTokenFilterTruncateTokenFilterStemmerOverrideTokenFilterStemmerTokenFilterSnowballTokenFiltery . UniqueTokenFilterWordDelimiterTokenFilter |
TruncateTokenFilter |
Trunca los términos a una longitud específica. Este filtro de token se implementa mediante Apache Lucene. |
UaxUrlEmailTokenizer |
Tokeniza las direcciones URL y los correos electrónicos como un token. Este tokenizador se implementa mediante Apache Lucene. |
UniqueTokenFilter |
Filtra los tokens con el mismo texto que el token anterior. Este filtro de token se implementa mediante Apache Lucene. |
VectorSearch |
Contiene opciones de configuración relacionadas con la búsqueda vectorial. |
VectorSearchAlgorithmConfiguration |
Contiene opciones de configuración específicas del algoritmo utilizado durante la indexación o consulta. Tenga en cuenta VectorSearchAlgorithmConfiguration que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen ExhaustiveKnnVectorSearchAlgorithmConfiguration y HnswVectorSearchAlgorithmConfiguration. |
VectorSearchProfile |
Define una combinación de configuraciones que se usarán con la búsqueda vectorial. |
VectorSearchVectorizer |
Contiene detalles específicos de un método de vectorización que se usará durante el tiempo de consulta. Tenga en cuenta VectorSearchVectorizer que es la clase base. Según el escenario, es posible que sea necesario asignar una clase derivada de la clase base aquí, o esta propiedad debe convertirse en una de las posibles clases derivadas. Las clases derivadas disponibles incluyen AzureOpenAIVectorizer y CustomVectorizer. |
WebApiSkill |
Aptitud que puede llamar a un punto de conexión de API web, lo que le permite ampliar un conjunto de aptitudes haciendo que llame al código personalizado. |
WordDelimiterTokenFilter |
Divide palabras en subpalabras y realiza transformaciones opcionales en los grupos de subpalabras. Este filtro de token se implementa mediante Apache Lucene. |
Estructuras
BlobIndexerDataToExtract |
Especifica los datos que se van a extraer de Azure Blob Storage e indica al indexador qué datos extraer del contenido de la imagen cuando "imageAction" está establecido en un valor distinto de "none". Esto se aplica al contenido de imagen insertado en una .PDF u otra aplicación, o archivos de imagen, como .jpg y .png, en blobs de Azure. |
BlobIndexerImageAction |
Determina cómo procesar imágenes incrustadas y archivos de imagen en Azure Blob Storage. Establecer la configuración "imageAction" en cualquier valor distinto de "none" requiere que también se adjunte un conjunto de aptitudes a ese indexador. |
BlobIndexerParsingMode |
Representa el modo de análisis para la indexación desde un origen de datos de blobs de Azure. |
BlobIndexerPdfTextRotationAlgorithm |
Determina el algoritmo para la extracción de texto de archivos PDF en Azure Blob Storage. |
CharFilterName |
Define los nombres de todos los filtros de caracteres admitidos por Azure Cognitive Search. |
CustomEntityLookupSkillLanguage |
Los códigos de idioma admitidos para el texto de entrada de CustomEntityLookupSkill. |
EntityCategory |
Cadena que indica qué categorías de entidad se van a devolver. |
EntityRecognitionSkill.SkillVersion |
Representa la información de la versión del servicio de .EntityRecognitionSkill |
EntityRecognitionSkillLanguage |
Desusado. Los códigos de idioma admitidos para el texto de entrada de EntityRecognitionSkill. |
ImageAnalysisSkillLanguage |
Códigos de idioma admitidos para la entrada por ImageAnalysisSkill. |
ImageDetail |
Cadena que indica qué detalles específicos del dominio se van a devolver. |
IndexerExecutionEnvironment |
Especifica el entorno en el que se debe ejecutar el indexador. |
IndexerExecutionStatusDetail |
Detalla el estado de una ejecución individual del indexador. |
IndexingMode |
Representa el modo en el que se ejecuta el indexador. |
IndexProjectionMode |
Define el comportamiento de las proyecciones de índice en relación con el resto del indexador. |
KeyPhraseExtractionSkillLanguage |
Los códigos de idioma admitidos para el texto de entrada de KeyPhraseExtractionSkill. |
LexicalAnalyzerName |
Define los nombres de todos los analizadores de texto admitidos por Azure Cognitive Search. |
LexicalNormalizerName |
Define los nombres de todos los normalizadores de texto admitidos por Azure Cognitive Search. |
LexicalTokenizerName |
Define los nombres de todos los tokenizadores admitidos por Azure Cognitive Search. |
LineEnding |
Define la secuencia de caracteres que se van a usar entre las líneas de texto reconocidas por la aptitud OCR. El valor predeterminado es "space". |
OcrSkillLanguage |
Códigos de idioma admitidos para la entrada por OcrSkill. |
PiiDetectionSkillMaskingMode |
Cadena que indica qué maskingMode se va a usar para enmascarar la información personal detectada en el texto de entrada. |
RegexFlag |
Define marcas que se pueden combinar para controlar cómo se usan las expresiones regulares en el analizador de patrones y el tokenizador de patrones. |
SearchFieldDataType |
Define el tipo de datos de un campo en un índice de búsqueda. |
SearchIndexerDataSourceType |
Define el tipo de un origen de datos. |
SentimentSkill.SkillVersion |
Representa la información de la versión del servicio de .SentimentSkill |
SentimentSkillLanguage |
Desusado. Los códigos de idioma admitidos para el texto de entrada de SentimentSkill. |
SplitSkillLanguage |
Los códigos de idioma admitidos para el texto de entrada de SplitSkill. |
TextSplitMode |
Valor que indica el modo de división que se va a realizar. |
TextTranslationSkillLanguage |
Los códigos de idioma admitidos para el texto de entrada por TextTranslationSkill. |
TokenFilterName |
Define los nombres de todos los filtros de token admitidos por Azure Cognitive Search. |
VectorSearchAlgorithmKind |
Algoritmo que se usa para la indexación y la consulta. |
VectorSearchAlgorithmMetric |
Métrica de similitud que se va a usar para las comparaciones de vectores. |
VectorSearchVectorizerKind |
Método de vectorización que se va a usar durante el tiempo de consulta. |
VisualFeature |
Las cadenas que indican qué tipos de características visuales se van a devolver. |
Enumeraciones
CjkBigramTokenFilterScripts |
Scripts que CjkBigramTokenFilter puede omitir. |
EdgeNGramTokenFilterSide |
Especifica a qué lado de la entrada se debe generar un n-grama. |
IndexerExecutionStatus |
Representa el estado de una ejecución individual del indizador. |
IndexerStatus |
Representa el estado general del indizador. |
MicrosoftStemmingTokenizerLanguage |
Enumera los idiomas admitidos por el tokenizador de lematización de idioma de Microsoft. |
MicrosoftTokenizerLanguage |
Enumera los idiomas admitidos por el tokenizador de idioma de Microsoft. |
PhoneticEncoder |
Identifica el tipo de codificador fonético que se va a usar con un PhoneticTokenFilter. |
ScoringFunctionAggregation |
Define la función de agregación que se usa para combinar los resultados de todas las funciones de puntuación de un perfil de puntuación. |
ScoringFunctionInterpolation |
Define la función que se usa para interpolar la mejora de la puntuación en un intervalo de documentos. |
SnowballTokenFilterLanguage |
Idioma que se va a usar para un filtro de token de Snowball. |
StemmerTokenFilterLanguage |
Idioma que se va a usar para un filtro de token de lematizador. |
StopwordsList |
Identifica una lista predefinida de palabras irrelevantes específicas del lenguaje. |
TokenCharacterKind |
Representa clases de caracteres en las que puede funcionar un filtro de token. |