Partager via


@azure/search-documents package

Classes

AzureKeyCredential

Informations d’identification statiques basées sur une clé qui prend en charge la mise à jour de la valeur de clé sous-jacente.

GeographyPoint

Représente un point géographique dans les coordonnées globales.

IndexDocumentsBatch

Classe utilisée pour effectuer des opérations de traitement par lots avec plusieurs documents à l’index.

SearchClient

Classe utilisée pour effectuer des opérations sur un index de recherche, y compris l’interrogation de documents dans l’index, ainsi que l’ajout, la mise à jour et la suppression de ces documents.

SearchIndexClient

Classe pour effectuer des opérations pour gérer les index (créer, mettre à jour, liste/supprimer), & synonymes.

SearchIndexerClient

Classe pour effectuer des opérations pour gérer (créer, mettre à jour, liste/supprimer) des indexeurs, des sources de données & des ensembles de compétences.

SearchIndexingBufferedSender

Classe utilisée pour effectuer des opérations mises en mémoire tampon sur un index de recherche, notamment l’ajout, la mise à jour et la suppression de celles-ci.

Interfaces

AnalyzeRequest

Spécifie certains composants de texte et d’analyse utilisés pour décomposer ce texte en jetons.

AnalyzeResult

Résultat du test d’un analyseur sur du texte.

AnalyzedTokenInfo

Informations sur un jeton retourné par un analyseur.

AsciiFoldingTokenFilter

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

AutocompleteItem

Résultat des demandes de saisie semi-automatique.

AutocompleteRequest

Paramètres de correspondance approximative et autres comportements de requête de saisie semi-automatique.

AutocompleteResult

Résultat de la requête de saisie semi-automatique.

AzureActiveDirectoryApplicationCredentials

Informations d’identification d’une application inscrite créée pour votre service de recherche, utilisée pour l’accès authentifié aux clés de chiffrement stockées dans Azure Key Vault.

AzureOpenAIEmbeddingSkill

Vous permet de générer un incorporation vectorielle pour une entrée de texte donnée à l’aide de la ressource Azure OpenAI.

AzureOpenAIParameters

Contient les paramètres spécifiques à l’utilisation d’un service Azure Open AI pour la vectorisation au moment de la requête.

AzureOpenAIVectorizer

Contient les paramètres spécifiques à l’utilisation d’un service Azure Open AI pour la vectorisation au moment de la requête.

BM25Similarity

Fonction de classement basée sur l’algorithme de similarité OKapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de longueur (contrôlée par le paramètre « b ») ainsi que la saturation de fréquence de terme (contrôlée par le paramètre « k1 »).

BaseCharFilter

Type de base pour les filtres de caractères.

BaseCognitiveServicesAccount

Type de base pour décrire toute ressource de service Azure AI attachée à un ensemble de compétences.

BaseDataChangeDetectionPolicy

Type de base pour les stratégies de détection des modifications de données.

BaseDataDeletionDetectionPolicy

Type de base pour les stratégies de détection de suppression de données.

BaseLexicalAnalyzer

Type de base pour les analyseurs.

BaseLexicalTokenizer

Type de base pour les tokenizers.

BaseScoringFunction

Type de base pour les fonctions qui peuvent modifier les scores de document pendant le classement.

BaseSearchIndexerDataIdentity

Type de base abstrait pour les identités de données.

BaseSearchIndexerSkill

Type de base pour les compétences.

BaseSearchRequestOptions

Paramètres de filtrage, de tri, de facette, de pagination et d’autres comportements de requête de recherche.

BaseTokenFilter

Type de base pour les filtres de jetons.

BaseVectorQuery

Paramètres de requête pour les requêtes de recherche vectorielle et hybride.

BaseVectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme utilisé pendant l’indexation et/ou l’interrogation.

BaseVectorSearchCompression

Contient des options de configuration spécifiques à la méthode de compression utilisée lors de l’indexation ou de l’interrogation.

BaseVectorSearchVectorizer

Contient des détails spécifiques pour une méthode de vectorisation à utiliser pendant le temps de requête.

BinaryQuantizationCompression

Contient des options de configuration spécifiques à la méthode de compression de quantisation binaire utilisée lors de l’indexation et de l’interrogation.

CjkBigramTokenFilter

Forme des bigrams de termes CJK générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

ClassicSimilarity

Algorithme de similarité hérité qui utilise l’implémentation lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation de longueur de document statique ainsi que les facteurs de coordination qui pénalisent les documents qui ne correspondent qu’en partie aux requêtes recherchées.

ClassicTokenizer

Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

CognitiveServicesAccountKey

Clé de compte multirégion d’une ressource de service IA Azure attachée à un ensemble de compétences.

CommonGramTokenFilter

Construisez des bigrams pour des termes fréquents lors de l’indexation. Les termes uniques sont toujours indexés, avec des bigrams superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

ComplexField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

ConditionalSkill

Compétence qui permet aux scénarios nécessitant une opération booléenne pour déterminer les données à affecter à une sortie.

CorsOptions

Définit les options permettant de contrôler le partage de ressources cross-origin (CORS) pour un index.

CreateOrUpdateIndexOptions

Options pour l’opération de création/mise à jour de l’index.

CreateOrUpdateSkillsetOptions

Options d’opération de création/mise à jour de l’ensemble de compétences.

CreateOrUpdateSynonymMapOptions

Options pour l’opération create/update synonymmap.

CreateorUpdateDataSourceConnectionOptions

Options de création/mise à jour de l’opération de source de données.

CreateorUpdateIndexerOptions

Options pour l’opération de création/mise à jour de l’indexeur.

CustomAnalyzer

Vous permet de contrôler le processus de conversion de texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul tokenizer prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres pour modifier les jetons émis par le tokenizer.

CustomEntity

Objet qui contient des informations sur les correspondances trouvées et les métadonnées associées.

CustomEntityAlias

Objet complexe qui peut être utilisé pour spécifier d’autres orthographes ou synonymes au nom de l’entité racine.

CustomEntityLookupSkill

Une compétence recherche du texte à partir d’une liste personnalisée définie par l’utilisateur de mots et d’expressions.

DefaultCognitiveServicesAccount

Objet vide qui représente la ressource de service Azure AI par défaut pour un ensemble de compétences.

DeleteDataSourceConnectionOptions

Options de suppression de l’opération de source de données.

DeleteIndexOptions

Options pour l’opération de suppression d’index.

DeleteIndexerOptions

Options pour l’opération de suppression d’indexeur.

DeleteSkillsetOptions

Options pour supprimer l’opération d’ensemble de compétences.

DeleteSynonymMapOptions

Options pour l’opération de suppression de synonymmap.

DictionaryDecompounderTokenFilter

Décompose les mots composés trouvés dans de nombreuses langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

DistanceScoringFunction

Définit une fonction qui améliore les scores en fonction de la distance d’un emplacement géographique.

DistanceScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de distance.

DocumentExtractionSkill

Compétence qui extrait le contenu d’un fichier dans le pipeline d’enrichissement.

EdgeNGramTokenFilter

Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

EdgeNGramTokenizer

Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

ElisionTokenFilter

Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

EntityLinkingSkill

À l’aide de l’API Text Analytique, extrait les entités liées du texte.

EntityRecognitionSkill

Reconnaissance d’entité de texte analytique.

EntityRecognitionSkillV3

À l’aide de l’API Text Analytique, extrait les entités de différents types à partir du texte.

ExhaustiveKnnParameters

Contient les paramètres spécifiques à l’algorithme KNN exhaustif.

ExtractiveQueryAnswer

Extrait les candidats de réponse du contenu des documents retournés en réponse à une requête exprimée en tant que question en langage naturel.

ExtractiveQueryCaption

Extrait les légendes des documents correspondants qui contiennent des passages pertinents pour la requête de recherche.

FacetResult

Un seul compartiment d’un résultat de requête de facette. Signale le nombre de documents avec une valeur de champ comprise dans une plage particulière ou ayant une valeur ou un intervalle particulier.

FieldMapping

Définit un mappage entre un champ dans une source de données et un champ cible dans un index.

FieldMappingFunction

Représente une fonction qui transforme une valeur d’une source de données avant l’indexation.

FreshnessScoringFunction

Définit une fonction qui améliore les scores en fonction de la valeur d’un champ date-heure.

FreshnessScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’actualisation.

GetDocumentOptions

Options de récupération d’un document unique.

HighWaterMarkChangeDetectionPolicy

Définit une stratégie de détection des modifications de données qui capture les modifications en fonction de la valeur d’une colonne de marque d’eau élevée.

HnswParameters

Contient les paramètres spécifiques à l’algorithme hnsw.

ImageAnalysisSkill

Compétence qui analyse les fichiers image. Il extrait un ensemble complet de fonctionnalités visuelles basées sur le contenu de l’image.

IndexDocumentsClient

Indexer le client documents

IndexDocumentsOptions

Options pour l’opération de modification du lot d’index.

IndexDocumentsResult

Réponse contenant l’état des opérations pour tous les documents de la demande d’indexation.

IndexerExecutionResult

Représente le résultat d’une exécution d’indexeur individuelle.

IndexingParameters

Représente des paramètres pour l’exécution de l’indexeur.

IndexingParametersConfiguration

Dictionnaire de propriétés de configuration spécifiques à l’indexeur. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif.

IndexingResult

État d’une opération d’indexation pour un document unique.

IndexingSchedule

Représente une planification pour l’exécution de l’indexeur.

InputFieldMappingEntry

Mappage de champs d’entrée pour une compétence.

KeepTokenFilter

Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste spécifiée de mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

KeyPhraseExtractionSkill

Compétence qui utilise du texte analytique pour l’extraction d’expressions clés.

KeywordMarkerTokenFilter

Marque les termes en tant que mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

KeywordTokenizer

Émet l’entrée entière sous forme de jeton unique. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

LanguageDetectionSkill

Compétence qui détecte la langue du texte d’entrée et signale un code de langue unique pour chaque document soumis à la demande. Le code de langage est associé à un score indiquant la confiance de l’analyse.

LengthTokenFilter

Supprime les mots trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

LimitTokenFilter

Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

ListSearchResultsPageSettings

Arguments pour récupérer la page suivante des résultats de recherche.

LuceneStandardAnalyzer

Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt.

LuceneStandardTokenizer

Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

MagnitudeScoringFunction

Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique.

MagnitudeScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de magnitude.

MappingCharFilter

Filtre de caractères qui applique les mappages définis avec l’option mappages. La correspondance est gourmande (la correspondance la plus longue à un point donné gagne). Le remplacement est autorisé à être la chaîne vide. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

MergeSkill

Compétence permettant de fusionner deux chaînes ou plus en une seule chaîne unifiée, avec un délimiteur facultatif défini par l’utilisateur séparant chaque composant.

MicrosoftLanguageStemmingTokenizer

Divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leurs formulaires de base.

MicrosoftLanguageTokenizer

Divise le texte à l’aide de règles spécifiques à la langue.

NGramTokenFilter

Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

NGramTokenizer

Tokenise l’entrée en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

OcrSkill

Compétence qui extrait du texte à partir de fichiers image.

OutputFieldMappingEntry

Mappage de champs de sortie pour une compétence.

PIIDetectionSkill

À l’aide de l’API Text Analytique, extrait des informations personnelles d’un texte d’entrée et vous donne la possibilité de la masquer.

PathHierarchyTokenizer

Tokenizer pour les hiérarchies similaires au chemin d’accès. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

PatternAnalyzer

Sépare de manière flexible le texte en termes par le biais d’un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene.

PatternCaptureTokenFilter

Utilise des regex Java pour émettre plusieurs jetons : un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PatternReplaceCharFilter

Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

PatternReplaceTokenFilter

Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PatternTokenizer

Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

PhoneticTokenFilter

Créez des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

QueryAnswerResult

Une réponse est un passage de texte extrait du contenu des documents les plus pertinents correspondant à la requête. Les réponses sont extraites des résultats de recherche principaux. Les candidats à la réponse sont marqués et les premières réponses sont sélectionnées.

QueryCaptionResult

Les légendes sont les passages les plus représentatifs du document relativement à la requête de recherche. Ils sont souvent utilisés comme résumé de document. Les légendes sont retournées uniquement pour les requêtes de type semantic.

ResourceCounter

Représente l’utilisation et le quota d’une ressource.

ScalarQuantizationCompression

Contient des options de configuration spécifiques à la méthode de compression de quantisation scalaire utilisée lors de l’indexation et de l’interrogation.

ScalarQuantizationParameters

Contient les paramètres spécifiques à la quantisation scalaire.

ScoringProfile

Définit des paramètres pour un index de recherche qui influencent le scoring dans les requêtes de recherche.

SearchClientOptions

Options clientes utilisées pour configurer les demandes d’API Recherche cognitive.

SearchDocumentsPageResult

Réponse contenant les résultats de la page de recherche à partir d’un index.

SearchDocumentsResult

Réponse contenant des résultats de recherche à partir d’un index.

SearchDocumentsResultBase

Réponse contenant des résultats de recherche à partir d’un index.

SearchIndex

Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index.

SearchIndexClientOptions

Options clientes utilisées pour configurer les demandes d’API Recherche cognitive.

SearchIndexStatistics

Statistiques d’un index donné. Les statistiques sont collectées régulièrement et ne sont pas garanties d’être toujours up-to-date.

SearchIndexer

Représente un indexeur.

SearchIndexerClientOptions

Options clientes utilisées pour configurer les demandes d’API Recherche cognitive.

SearchIndexerDataContainer

Représente des informations sur l’entité (par exemple, la table Azure SQL ou la collection CosmosDB) qui sera indexée.

SearchIndexerDataNoneIdentity

Efface la propriété d’identité d’une source de données.

SearchIndexerDataSourceConnection

Représente une définition de source de données, qui peut être utilisée pour configurer un indexeur.

SearchIndexerDataUserAssignedIdentity

Spécifie l’identité d’une source de données à utiliser.

SearchIndexerError

Représente une erreur d’indexation au niveau de l’élément ou du document.

SearchIndexerIndexProjection

Définition de projections supplémentaires pour les index de recherche secondaire.

SearchIndexerIndexProjectionParameters

Dictionnaire des propriétés de configuration spécifiques à la projection d’index. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif.

SearchIndexerIndexProjectionSelector

Description des données à stocker dans l’index de recherche désigné.

SearchIndexerKnowledgeStore

Définition de projections supplémentaires sur des objets blob, une table ou des fichiers Azure, de données enrichies.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Classe abstraite pour partager des propriétés entre des sélecteurs concrets.

SearchIndexerKnowledgeStoreFileProjectionSelector

Définition de projection pour les données à stocker dans Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Définition de projection pour les données à stocker dans l’objet blob Azure.

SearchIndexerKnowledgeStoreParameters

Dictionnaire des propriétés de configuration spécifiques à la base de connaissances. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif.

SearchIndexerKnowledgeStoreProjection

Objet conteneur pour différents sélecteurs de projection.

SearchIndexerKnowledgeStoreProjectionSelector

Classe abstraite pour partager des propriétés entre des sélecteurs concrets.

SearchIndexerKnowledgeStoreTableProjectionSelector

Description des données à stocker dans les tables Azure.

SearchIndexerLimits
SearchIndexerSkillset

Une liste de compétences.

SearchIndexerStatus

Représente l’état actuel et l’historique d’exécution d’un indexeur.

SearchIndexerWarning

Représente un avertissement au niveau de l’élément.

SearchIndexingBufferedSenderOptions

Options de SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos dans Recherche cognitive Azure, telles que des index et des mappages de synonymes.

SearchServiceStatistics

Réponse d’une demande de statistiques de service get. Si elle réussit, elle inclut des compteurs et des limites de niveau de service.

SearchSuggester

Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index.

SemanticConfiguration

Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques.

SemanticField

Champ utilisé dans le cadre de la configuration sémantique.

SemanticPrioritizedFields

Décrit les champs de titre, de contenu et de mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses.

SemanticSearch

Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques.

SemanticSearchOptions

Définit des options pour les requêtes de recherche sémantique

SentimentSkill

Le texte analytique analyse des sentiments négatifs positifs, marqué comme une valeur à virgule flottante dans une plage de zéro à 1.

SentimentSkillV3

À l’aide de l’API Text Analytique, évalue le texte non structuré et pour chaque enregistrement, fournit des étiquettes de sentiment (telles que « négative », « neutre » et « positive ») basées sur le score de confiance le plus élevé trouvé par le service au niveau de la phrase et du document.

ServiceCounters

Représente les compteurs de ressources et les quotas au niveau du service.

ServiceLimits

Représente différentes limites de niveau de service.

ShaperSkill

Une compétence pour remodeler les sorties. Il crée un type complexe pour prendre en charge les champs composites (également appelés champs à plusieurs parties).

ShingleTokenFilter

Crée des combinaisons de jetons en tant que jeton unique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Similarity

Type de base pour les algorithmes de similarité. Les algorithmes de similarité sont utilisés pour calculer des scores qui lient des requêtes à des documents. Plus le score est élevé, plus le document est pertinent pour cette requête spécifique. Ces scores sont utilisés pour classer les résultats de la recherche.

SimpleField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

SnowballTokenFilter

Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Définit une stratégie de détection de suppression de données qui implémente une stratégie de suppression réversible. Il détermine si un élément doit être supprimé en fonction de la valeur d’une colonne « suppression réversible » désignée.

SplitSkill

Compétence permettant de fractionner une chaîne en blocs de texte.

SqlIntegratedChangeTrackingPolicy

Définit une stratégie de détection des modifications de données qui capture les modifications à l’aide de la fonctionnalité Suivi des modifications intégré d’Azure SQL Database.

StemmerOverrideTokenFilter

Fournit la possibilité de remplacer d’autres filtres de recherche de recherche par recherche de données personnalisées basées sur des dictionnaires. Tous les termes liés aux dictionnaires seront marqués comme des mots clés afin qu’ils ne soient pas suivis de formes dérivées dans la chaîne. Doit être placé avant les filtres de recherche de recherche. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

StemmerTokenFilter

Filtre de recherche de recherche spécifique au langage. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

StopAnalyzer

Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene.

StopwordsTokenFilter

Supprime les mots d’arrêt d’un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

SuggestDocumentsResult

Réponse contenant des résultats de requête de suggestion à partir d’un index.

SuggestRequest

Paramètres pour le filtrage, le tri, la correspondance approximative et d’autres comportements de requête de suggestions.

SynonymMap

Représente une définition de carte de synonymes.

SynonymTokenFilter

Correspond aux synonymes à mot unique ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

TagScoringFunction

Définit une fonction qui améliore les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises.

TagScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’étiquette.

TextTranslationSkill

Compétence pour traduire du texte d’une langue à une autre.

TextWeights

Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche.

TruncateTokenFilter

Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

UaxUrlEmailTokenizer

Tokenise les URL et les e-mails sous la forme d’un seul jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

UniqueTokenFilter

Filtre les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

VectorSearch

Contient des options de configuration liées à la recherche vectorielle.

VectorSearchOptions

Définit des options pour les requêtes de recherche vectorielle

VectorSearchProfile

Définit une combinaison de configurations à utiliser avec la recherche vectorielle.

VectorizableTextQuery

Les paramètres de requête à utiliser pour la recherche vectorielle lorsqu’une valeur de texte devant être vectorisée est fournie.

VectorizedQuery

Paramètres de requête à utiliser pour la recherche vectorielle lorsqu’une valeur vectorielle brute est fournie.

WebApiParameters

Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur.

WebApiSkill

Compétence qui peut appeler un point de terminaison d’API web, ce qui vous permet d’étendre un ensemble de compétences en le faisant appeler votre code personnalisé.

WebApiVectorizer

Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est obtenue à l’aide de l’interface d’API Web personnalisée d’un ensemble de compétences.

WordDelimiterTokenFilter

Fractionne les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Alias de type

AnalyzeTextOptions

Options d’analyse du texte.

AutocompleteMode

Définit des valeurs pour AutocompleteMode.

AutocompleteOptions

Options de récupération du texte de saisie semi-automatique pour un searchText partiel.

AzureOpenAIModelName

Définit des valeurs pour AzureOpenAIModelName.
KnownAzureOpenAIModelName peut être utilisé de manière interchangeable avec AzureOpenAIModelName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

text-embedding-ada-002
d’incorporation de texte à 3 grandes
d’incorporation de texte à 3 petites

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Contient les cas possibles pour CharFilter.

CharFilterName

Définit des valeurs pour CharFilterName.
<xref:KnownCharFilterName> pouvez être utilisé de manière interchangeable avec CharFilterName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

html_strip: filtre de caractères qui tente de supprimer les constructions HTML. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Définit des valeurs pour CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Contient les cas possibles pour CognitiveServicesAccount.

ComplexDataType

Définit des valeurs pour ComplexDataType. Les valeurs possibles sont les suivantes : « Edm.ComplexType », « Collection(Edm.ComplexType) »

CountDocumentsOptions

Options d’exécution de l’opération de comptage sur l’index.

CreateDataSourceConnectionOptions

Options de création d’une opération de source de données.

CreateIndexOptions

Options de création d’une opération d’index.

CreateIndexerOptions

Options de création d’une opération d’indexeur.

CreateSkillsetOptions

Options de création d’une opération d’ensemble de compétences.

CreateSynonymMapOptions

Options de création d’une opération de synonymmap.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Contient les cas possibles pour DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Contient les cas possibles pour DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Options pour l’opération de suppression de documents.

EdgeNGramTokenFilterSide

Définit des valeurs pour EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche par force brute sur l’index vectoriel entier.

ExtractDocumentKey
GetDataSourceConnectionOptions

Options d’obtention de l’opération de source de données.

GetIndexOptions

Options d’obtention de l’opération d’index.

GetIndexStatisticsOptions

Options d’obtention de l’opération de statistiques d’index.

GetIndexerOptions

Options pour l’opération get indexer.

GetIndexerStatusOptions

Options pour obtenir l’opération d’état de l’indexeur.

GetServiceStatisticsOptions

Options d’obtention de l’opération de statistiques de service.

GetSkillSetOptions

Options d’obtention d’une opération d’ensemble de compétences.

GetSynonymMapsOptions

Options pour l’opération get synonymmaps.

HnswAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme de voisin le plus proche approximativement utilisé pendant l’indexation.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Définit des valeurs pour IndexActionType.

IndexDocumentsAction

Représente une action d’index qui fonctionne sur un document.

IndexIterator

Itérateur pour répertorier les index qui existent dans le service de recherche. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération.

IndexNameIterator

Itérateur pour répertorier les index qui existent dans le service de recherche. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération.

IndexProjectionMode

Définit des valeurs pour IndexProjectionMode.
KnownIndexProjectionMode peut être utilisé de manière interchangeable avec IndexProjectionMode, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

skipIndexingParentDocuments: le document source est ignoré de l’écriture dans l’index cible de l’indexeur.
includeIndexingParentDocuments: le document source est écrit dans l’index cible de l’indexeur. Il s’agit du modèle par défaut.

IndexerExecutionEnvironment
IndexerExecutionStatus

Définit des valeurs pour IndexerExecutionStatus.

IndexerStatus

Définit des valeurs pour IndexerStatus.

KeyPhraseExtractionSkillLanguage
LexicalAnalyzer

Contient les cas possibles pour Analyzer.

LexicalAnalyzerName

Définit des valeurs pour LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> pouvez être utilisé de manière interchangeable avec LexicalAnalyzerName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

ar.microsoft: Analyseur Microsoft pour l’arabe.
ar.lucene: analyseur Lucene pour l’arabe.
hy.lucene: analyseur Lucene pour arménien.
bn.microsoft: Analyseur Microsoft pour Bangla.
eu.lucene: analyseur Lucene pour basque.
bg.microsoft: Analyseur Microsoft pour bulgare.
bg.lucene: analyseur Lucene pour bulgare.
ca.microsoft: Analyseur Microsoft pour catalan.
ca.lucene: analyseur Lucene pour catalan.
zh-Hans.microsoft: Analyseur Microsoft pour chinois (simplifié).
zh-Hans.lucene: analyseur Lucene pour chinois (simplifié).
zh-Hant.microsoft: Analyseur Microsoft pour chinois (traditionnel).
zh-Hant.lucene: analyseur Lucene pour chinois (traditionnel).
hr.microsoft: Analyseur Microsoft pour croate.
cs.microsoft: Analyseur Microsoft pour tchèque.
cs.lucene: analyseur Lucene pour tchèque.
da.microsoft: Analyseur Microsoft pour danois.
da.lucene: analyseur Lucene pour danois.
nl.microsoft: Analyseur Microsoft pour néerlandais.
nl.lucene: analyseur Lucene pour néerlandais.
en.microsoft: Analyseur Microsoft pour l’anglais.
en.lucene: analyseur Lucene pour l’anglais.
et.microsoft: Analyseur Microsoft pour estonien.
fi.microsoft: Analyseur Microsoft pour finnois.
fi.lucene: analyseur Lucene pour le finnois.
fr.microsoft: Analyseur Microsoft pour Français.
fr.lucene: analyseur Lucene pour Français.
gl.lucene: analyseur Lucene pour Galicien.
de.microsoft: Analyseur Microsoft pour l’allemand.
de.lucene: analyseur Lucene pour l’allemand.
el.microsoft: Analyseur Microsoft pour grec.
el.lucene: analyseur Lucene pour grec.
gu.microsoft: Analyseur Microsoft pour Gujarati.
he.microsoft: Analyseur Microsoft pour hébreu.
hi.microsoft: Analyseur Microsoft pour hindi.
hi.lucene: analyseur Lucene pour hindi.
hu.microsoft: Analyseur Microsoft pour hongrois.
hu.lucene: analyseur Lucene pour hongrois.
is.microsoft: Analyseur Microsoft pour l’Islande.
id.microsoft: Analyseur Microsoft pour indonésien (Bahasa).
id.lucene: analyseur Lucene pour indonésien.
ga.lucene: analyseur Lucene pour irlandais.
it.microsoft: Analyseur Microsoft pour italien.
it.lucene: analyseur Lucene pour italien.
ja.microsoft: Analyseur Microsoft pour japonais.
ja.lucene: analyseur Lucene pour japonais.
kn.microsoft: Analyseur Microsoft pour Kannada.
ko.microsoft: Analyseur Microsoft pour coréen.
ko.lucene: analyseur Lucene pour coréen.
lv.microsoft: Analyseur Microsoft pour letton.
lv.lucene: analyseur Lucene pour letton.
lt.microsoft: Analyseur Microsoft pour lituanien.
ml.microsoft: Analyseur Microsoft pour Malayalam.
ms.microsoft: Analyseur Microsoft pour Malay (latin).
mr.microsoft: Analyseur Microsoft pour Marathi.
nb.microsoft: Analyseur Microsoft pour norvégien (Bokmål).
no.lucene: analyseur Lucene pour norvégien.
fa.lucene: analyseur Lucene pour persane.
pl.microsoft: Analyseur Microsoft pour polonais.
pl.lucene: analyseur Lucene pour polonais.
pt-BR.microsoft: Analyseur Microsoft pour portugais (Brésil).
pt-BR.lucene: analyseur Lucene pour portugais (Brésil).
pt-PT.microsoft: Analyseur Microsoft pour portugais (Portugal).
pt-PT.lucene: analyseur Lucene pour portugais (Portugal).
pa.microsoft: Analyseur Microsoft pour Punjabi.
ro.microsoft: Analyseur Microsoft pour roumain.
ro.lucene: analyseur Lucene pour roumain.
ru.microsoft: Analyseur Microsoft pour russe.
ru.lucene: analyseur Lucene pour russe.
sr-cyrillic.microsoft: Analyseur Microsoft pour serbe (cyrillique).
sr-latin.microsoft: Analyseur Microsoft pour serbe (latin).
sk.microsoft: Analyseur Microsoft pour slovaque.
sl.microsoft: Analyseur Microsoft pour le Slovène.
es.microsoft: Analyseur Microsoft pour l’espagnol.
es.lucene: analyseur Lucene pour l’espagnol.
sv.microsoft: Analyseur Microsoft pour suédois.
sv.lucene: analyseur Lucene pour suédois.
ta.microsoft: Analyseur Microsoft pour tamoul.
te.microsoft: Analyseur Microsoft pour Telugu.
th.microsoft: Analyseur Microsoft pour thaï.
th.lucene: analyseur Lucene pour thaï.
tr.microsoft: Analyseur Microsoft pour turc.
tr.lucene: analyseur Lucene pour turc.
uk.microsoft: Analyseur Microsoft pour ukrainien.
votre.microsoft: Analyseur Microsoft pour Urdu.
vi.microsoft: Analyseur Microsoft pour le Vietnamien.
standard.lucene: analyseur Lucene standard.
standardasciifolding.lucene: analyseur Lucene pliable ASCII standard. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
mot clé: traite tout le contenu d’un champ comme un seul jeton. Cela est utile pour les données telles que les codes postal, les ID et certains noms de produits. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
modèle: sépare de manière flexible le texte en termes par le biais d’un modèle d’expression régulière. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
simple: divise le texte en lettres non lettres et les convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
arrêter: divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
espace blanc: analyseur qui utilise le générateur de jetons d’espace blanc. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Contient les cas possibles pour Tokenizer.

LexicalTokenizerName

Définit des valeurs pour LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> pouvez être utilisé de manière interchangeable avec LexicalTokenizerName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

classique : tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: émet l’entrée entière sous forme de jeton unique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
lettre: divise le texte en lettres non lettres. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
minuscules: divise le texte en lettres non lettres et les convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: divise le texte à l’aide de règles spécifiques à la langue.
microsoft_language_stemming_tokenizer: divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leurs formulaires de base.
nGram: tokenise l’entrée en n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer pour les hiérarchies similaires au chemin d’accès. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
modèle: Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: analyseur Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokenizes url et e-mails sous la forme d’un seul jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
espace blanc: divise le texte à l’espace blanc. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Options d’une opération de sources de données de liste.

ListIndexersOptions

Options d’une opération d’indexeurs de liste.

ListIndexesOptions

Options d’une opération d’index de liste.

ListSkillsetsOptions

Options d’une opération d’ensembles de compétences de liste.

ListSynonymMapsOptions

Options d’une opération synonymMaps de liste.

MergeDocumentsOptions

Options pour l’opération de fusion de documents.

MergeOrUploadDocumentsOptions

Options pour l’opération de fusion ou de chargement de documents.

MicrosoftStemmingTokenizerLanguage

Définit des valeurs pour MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Définit des valeurs pour MicrosoftTokenizerLanguage.

NarrowedModel

Réduit le type de modèle pour inclure uniquement les champs sélectionnés

OcrLineEnding

Définit des valeurs pour OcrLineEnding.
KnownOcrLineEnding peut être utilisé de manière interchangeable avec OcrLineEnding, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

'espace: les lignes sont séparées par un seul espace.
chariotReturn: les lignes sont séparées par un caractère de retour chariot ('\r').
lineFeed: les lignes sont séparées par un seul caractère de flux de ligne ('\n').
chariotReturnLineFeed: les lignes sont séparées par un retour chariot et un caractère de saut de ligne ('\r\n').

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Définit des valeurs pour PhoneticEncoder.

QueryAnswer

Valeur qui spécifie si les réponses doivent être retournées dans le cadre de la réponse de recherche. Ce paramètre n’est valide que si le type de requête est « sémantique ». Si elle est définie sur extractive, la requête retourne des réponses extraites des passages clés dans les documents les plus classés.

QueryCaption

Valeur qui spécifie si les légendes doivent être retournées dans le cadre de la réponse de recherche. Ce paramètre n’est valide que si le type de requête est « sémantique ». Si elle est définie, la requête retourne des légendes extraites des passages clés dans les documents classés les plus élevés. Lorsque les légendes sont « extractibles », la mise en surbrillance est activée par défaut. La valeur par défaut est « none ».

QueryType

Définit des valeurs pour QueryType.

RegexFlags
ResetIndexerOptions

Options pour l’opération de réinitialisation de l’indexeur.

RunIndexerOptions

Options pour l’opération d’indexeur d’exécution.

ScoringFunction

Contient les cas possibles pour ScoringFunction.

ScoringFunctionAggregation

Définit des valeurs pour ScoringFunctionAggregation.

ScoringFunctionInterpolation

Définit des valeurs pour ScoringFunctionInterpolation.

ScoringStatistics

Définit des valeurs pour ScoringStatistics.

SearchField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

SearchFieldArray

Si TModel est un objet non typé, un tableau de chaînes non typé sinon, les champs délimités par des barres obliques de TModel.

SearchFieldDataType

Définit des valeurs pour SearchFieldDataType.

Valeurs connues prises en charge par le service :

Edm.String : indique qu’un champ contient une chaîne.

Edm.Int32: indique qu’un champ contient un entier signé 32 bits.

Edm.Int64: indique qu’un champ contient un entier signé 64 bits.

Edm.Double: indique qu’un champ contient un nombre à virgule flottante à double précision IEEE.

Edm.Boolean: indique qu’un champ contient une valeur booléenne (true ou false).

Edm.DateTimeOffset: indique qu’un champ contient une valeur de date/heure, y compris les informations de fuseau horaire.

Edm.GeographyPoint: indique qu’un champ contient un emplacement géographique en termes de longitude et de latitude.

Edm.ComplexType: indique qu’un champ contient un ou plusieurs objets complexes qui, à son tour, ont des sous-champs d’autres types.

Edm.Single: indique qu’un champ contient un nombre à virgule flottante simple précision. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Single).

Edm.Half: indique qu’un champ contient un nombre à virgule flottante demi précision. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Half).

Edm.Int16: indique qu’un champ contient un entier signé 16 bits. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Int16).

Edm.SByte: indique qu’un champ contient un entier signé 8 bits. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.SByte).

Edm.Byte: indique qu’un champ contient un entier non signé 8 bits. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Byte).

SearchIndexerDataIdentity

Contient les cas possibles pour SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Contient les cas possibles pour Compétence.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Options pour SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Options pour SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Options pour SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Options pour SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Options pour SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Itérateur pour les résultats de recherche d’une requête paticulaire. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération.

SearchMode

Définit des valeurs pour SearchMode.

SearchOptions

Options de validation d’une demande de recherche complète.

SearchPick

Sélectionnez profondément les champs de T à l’aide des chemins DData de recherche cognitive valides $select.

SearchRequestOptions

Paramètres de filtrage, de tri, de facette, de pagination et d’autres comportements de requête de recherche.

SearchRequestQueryTypeOptions
SearchResult

Contient un document trouvé par une requête de recherche, ainsi que les métadonnées associées.

SelectArray

Si TFields n’est jamais, un tableau de chaînes non typé sinon, un type de Fields[] restreint à utiliser ailleurs dans le type consommateur.

SelectFields

Produit une union d’OData de recherche cognitive valide $select chemins d’accès pour T à l’aide d’une traversée post-ordre de l’arborescence de champs enracinée à T.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

Contient les cas possibles pour similarité.

SnowballTokenFilterLanguage

Définit des valeurs pour SnowballTokenFilterLanguage.

SplitSkillLanguage
StemmerTokenFilterLanguage

Définit des valeurs pour StemmerTokenFilterLanguage.

StopwordsList

Définit des valeurs pour StopwordsList.

SuggestNarrowedModel
SuggestOptions

Options de récupération des suggestions basées sur searchText.

SuggestResult

Résultat contenant un document trouvé par une requête de suggestion, ainsi que des métadonnées associées.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Définit des valeurs pour TokenCharacterKind.

TokenFilter

Contient les cas possibles pour TokenFilter.

TokenFilterName

Définit des valeurs pour TokenFilterName.
<xref:KnownTokenFilterName> pouvez être utilisé de manière interchangeable avec TokenFilterName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

arabic_normalization: filtre de jeton qui applique le normaliseur arabe pour normaliser l’orthographie. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrophe: supprime tous les caractères après une apostrophe (y compris l’apostrophe elle-même). Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, le cas échéant. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: forme des bigrams de termes CJK générés à partir du tokenizer standard. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: normalise les différences de largeur CJK. Plie les variantes ASCII pleine chasse en latin de base équivalent, et les variantes Katakana de demi-largeur dans l’équivalent Kana. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
classique : supprime les possessifs anglais et les points des acronymes. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: construisez des bigrams pour des termes fréquents lors de l’indexation. Les termes uniques sont toujours indexés, avec des bigrams superposés. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
élision: supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: normalise les caractères allemands en fonction de l’heuristique de l’algorithme de boule de neige allemand2. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: normalise le texte en hindi pour supprimer certaines différences dans les variantes orthographiques. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: normalise la représentation Unicode du texte dans les langues indiennes. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: émet chaque jeton entrant deux fois, une fois en tant que mot clé et une fois comme non-mot clé. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: filtre kstem hautes performances pour l’anglais. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
longueur: supprime les mots trop longs ou trop courts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limite: limite le nombre de jetons lors de l’indexation. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
minuscules : normalise le texte du jeton en minuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: génère des n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: applique la normalisation pour le persane. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
phonétique : créez des jetons pour les correspondances phonétiques. Voir https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: utilise l’algorithme de recherche de type Porter pour transformer le flux de jetons. Voir http://tartarus.org/~martin/PorterStemmer
inverse : inverse la chaîne de jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: normalise l’utilisation des caractères scandinaves interchangeables. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Plie les caractères scandinaves åÅäæÄÆ->a et öÖøØ->o. Il discrimine également contre l’utilisation de voyelles doubles aa, ae, ao, oe et oo, laissant juste la première. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
bardeau: crée des combinaisons de jetons en tant que jeton unique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
boule de neige: filtre qui forme des mots à l’aide d’un générateur de tiges généré par Snowball. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: normalise la représentation Unicode du texte Sorani. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
de souche : filtre de recherche de contenu spécifique au langage. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
mots vides: supprime les mots vides d’un flux de jetons. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
découper: supprime les espaces blancs de début et de fin des jetons. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
tronquer: tronque les termes à une longueur spécifique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unique : filtre les jetons avec le même texte que le jeton précédent. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
majuscules: normalise le texte du jeton en majuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: fractionne les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots.

UnionToIntersection
UploadDocumentsOptions

Options pour l’opération de chargement de documents.

VectorEncodingFormat

Définit des valeurs pour VectorEncodingFormat.
KnownVectorEncodingFormat pouvez être utilisé de manière interchangeable avec VectorEncodingFormat, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

packedBit: format d’encodage représentant les bits emballés dans un type de données plus large.

VectorFilterMode
VectorQuery

Paramètres de requête pour les requêtes de recherche vectorielle et hybride.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme utilisé pendant l’indexation et/ou l’interrogation.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Contient des options de configuration spécifiques à la méthode de compression utilisée lors de l’indexation ou de l’interrogation.

VectorSearchCompressionKind

Définit des valeurs pour VectorSearchCompressionKind.
KnownVectorSearchCompressionKind peut être utilisé de manière interchangeable avec VectorSearchCompressionKind, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

scalaireQuantization: Quantization Scalar, type de méthode de compression. Dans la quantisation scalaire, les valeurs de vecteurs d’origine sont compressées dans un type plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide d’un ensemble réduit de valeurs quantifiées, réduisant ainsi la taille globale des données.
binaryQuantization: Quantization binaire, type de méthode de compression. Dans la quantisation binaire, les valeurs de vecteurs d’origine sont compressées dans le type binaire plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide de valeurs binaires, réduisant ainsi la taille globale des données.

VectorSearchCompressionTarget

Définit des valeurs pour VectorSearchCompressionTarget.
KnownVectorSearchCompressionTarget peut être utilisé de manière interchangeable avec VectorSearchCompressionTarget, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

int8

VectorSearchVectorizer

Contient des options de configuration sur la façon de vectoriser des requêtes vectorielles de texte.

VectorSearchVectorizerKind

Définit des valeurs pour VectorSearchVectorizerKind.
KnownVectorSearchVectorizerKind peut être utilisé de manière interchangeable avec VectorSearchVectorizerKind, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

azureOpenAI: générer des incorporations à l’aide d’une ressource Azure OpenAI au moment de la requête.
customWebApi: générer des incorporations à l’aide d’un point de terminaison web personnalisé au moment de la requête.

VisualFeature

Énumérations

KnownAnalyzerNames

Définit des valeurs pour AnalyzerName. Voir https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Valeurs connues de AzureOpenAIModelName que le service accepte.

KnownBlobIndexerDataToExtract

Valeurs connues de BlobIndexerDataToExtract que le service accepte.

KnownBlobIndexerImageAction

Valeurs connues de BlobIndexerImageAction que le service accepte.

KnownBlobIndexerPDFTextRotationAlgorithm

Valeurs connues de BlobIndexerPDFTextRotationAlgorithm que le service accepte.

KnownBlobIndexerParsingMode

Valeurs connues de BlobIndexerParsingMode que le service accepte.

KnownCharFilterNames

Valeurs connues de CharFilterName que le service accepte.

KnownCustomEntityLookupSkillLanguage

Valeurs connues de CustomEntityLookupSkillLanguage que le service accepte.

KnownEntityCategory

Valeurs connues de EntityCategory que le service accepte.

KnownEntityRecognitionSkillLanguage

Valeurs connues de EntityRecognitionSkillLanguage que le service accepte.

KnownImageAnalysisSkillLanguage

Valeurs connues de ImageAnalysisSkillLanguage que le service accepte.

KnownImageDetail

Valeurs connues de ImageDetail que le service accepte.

KnownIndexProjectionMode

Valeurs connues de IndexProjectionMode que le service accepte.

KnownIndexerExecutionEnvironment

Valeurs connues de IndexerExecutionEnvironment que le service accepte.

KnownKeyPhraseExtractionSkillLanguage

Valeurs connues de KeyPhraseExtractionSkillLanguage que le service accepte.

KnownOcrLineEnding

Valeurs connues de OcrLineEnding que le service accepte.

KnownOcrSkillLanguage

Valeurs connues de OcrSkillLanguage que le service accepte.

KnownPIIDetectionSkillMaskingMode

Valeurs connues de PIIDetectionSkillMaskingMode que le service accepte.

KnownRegexFlags

Valeurs connues de RegexFlags que le service accepte.

KnownSearchAudience

Valeurs connues pour l’audience de recherche

KnownSearchFieldDataType

Valeurs connues de SearchFieldDataType que le service accepte.

KnownSearchIndexerDataSourceType

Valeurs connues de SearchIndexerDataSourceType que le service accepte.

KnownSemanticErrorMode

Valeurs connues de SemanticErrorMode que le service accepte.

KnownSemanticErrorReason

Valeurs connues de SemanticErrorReason que le service accepte.

KnownSemanticSearchResultsType

Valeurs connues de SemanticSearchResultsType que le service accepte.

KnownSentimentSkillLanguage

Valeurs connues de SentimentSkillLanguage que le service accepte.

KnownSplitSkillLanguage

Valeurs connues de SplitSkillLanguage que le service accepte.

KnownTextSplitMode

Valeurs connues de TextSplitMode que le service accepte.

KnownTextTranslationSkillLanguage

Valeurs connues de TextTranslationSkillLanguage que le service accepte.

KnownTokenFilterNames

Valeurs connues de TokenFilterName que le service accepte.

KnownTokenizerNames

Valeurs connues de LexicalTokenizerName que le service accepte.

KnownVectorEncodingFormat

Valeurs connues de VectorEncodingFormat que le service accepte.

KnownVectorFilterMode

Valeurs connues de VectorFilterMode que le service accepte.

KnownVectorQueryKind

Valeurs connues de VectorQueryKind que le service accepte.

KnownVectorSearchAlgorithmKind

Valeurs connues de VectorSearchAlgorithmKind que le service accepte.

KnownVectorSearchAlgorithmMetric

Valeurs connues de VectorSearchAlgorithmMetric que le service accepte.

KnownVectorSearchCompressionKind

Valeurs connues de VectorSearchCompressionKind que le service accepte.

KnownVectorSearchCompressionTarget

Valeurs connues de VectorSearchCompressionTarget que le service accepte.

KnownVectorSearchVectorizerKind

Valeurs connues de VectorSearchVectorizerKind que le service accepte.

KnownVisualFeature

Valeurs connues de VisualFeature que le service accepte.

Functions

createSynonymMapFromFile(string, string)

Méthode d’assistance pour créer un objet SynonymMap. Il s’agit d’une méthode NodeJS uniquement.

odata(TemplateStringsArray, unknown[])

Échappe une expression de filtre odata pour éviter les erreurs avec des littéraux de chaîne de guillemets. Exemple d’utilisation :

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Pour plus d’informations sur la syntaxe prise en charge, consultez : https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Informations relatives à la fonction

createSynonymMapFromFile(string, string)

Méthode d’assistance pour créer un objet SynonymMap. Il s’agit d’une méthode NodeJS uniquement.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Paramètres

name

string

Nom du SynonymMap.

filePath

string

Chemin d’accès du fichier qui contient les synonymes (séparés par de nouvelles lignes)

Retours

Promise<SynonymMap>

Objet SynonymMap

odata(TemplateStringsArray, unknown[])

Échappe une expression de filtre odata pour éviter les erreurs avec des littéraux de chaîne de guillemets. Exemple d’utilisation :

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Pour plus d’informations sur la syntaxe prise en charge, consultez : https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Paramètres

strings

TemplateStringsArray

Tableau de chaînes pour l’expression

values

unknown[]

Tableau de valeurs pour l’expression

Retours

string