@azure/search-documents package
Classes
AzureKeyCredential |
Informations d’identification statiques basées sur une clé qui prend en charge la mise à jour de la valeur de clé sous-jacente. |
GeographyPoint |
Représente un point géographique dans les coordonnées globales. |
IndexDocumentsBatch |
Classe utilisée pour effectuer des opérations de traitement par lots avec plusieurs documents à l’index. |
SearchClient |
Classe utilisée pour effectuer des opérations sur un index de recherche, y compris l’interrogation de documents dans l’index, ainsi que l’ajout, la mise à jour et la suppression de ces documents. |
SearchIndexClient |
Classe pour effectuer des opérations pour gérer les index (créer, mettre à jour, liste/supprimer), & synonymes. |
SearchIndexerClient |
Classe pour effectuer des opérations pour gérer (créer, mettre à jour, liste/supprimer) des indexeurs, des sources de données & des ensembles de compétences. |
SearchIndexingBufferedSender |
Classe utilisée pour effectuer des opérations mises en mémoire tampon sur un index de recherche, notamment l’ajout, la mise à jour et la suppression de celles-ci. |
Interfaces
AnalyzeRequest |
Spécifie certains composants de texte et d’analyse utilisés pour décomposer ce texte en jetons. |
AnalyzeResult |
Résultat du test d’un analyseur sur du texte. |
AnalyzedTokenInfo |
Informations sur un jeton retourné par un analyseur. |
AsciiFoldingTokenFilter |
Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
AutocompleteItem |
Résultat des demandes de saisie semi-automatique. |
AutocompleteRequest |
Paramètres de correspondance approximative et autres comportements de requête de saisie semi-automatique. |
AutocompleteResult |
Résultat de la requête de saisie semi-automatique. |
AzureActiveDirectoryApplicationCredentials |
Informations d’identification d’une application inscrite créée pour votre service de recherche, utilisée pour l’accès authentifié aux clés de chiffrement stockées dans Azure Key Vault. |
AzureOpenAIEmbeddingSkill |
Vous permet de générer un incorporation vectorielle pour une entrée de texte donnée à l’aide de la ressource Azure OpenAI. |
AzureOpenAIParameters |
Contient les paramètres spécifiques à l’utilisation d’un service Azure Open AI pour la vectorisation au moment de la requête. |
AzureOpenAIVectorizer |
Contient les paramètres spécifiques à l’utilisation d’un service Azure Open AI pour la vectorisation au moment de la requête. |
BM25Similarity |
Fonction de classement basée sur l’algorithme de similarité OKapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de longueur (contrôlée par le paramètre « b ») ainsi que la saturation de fréquence de terme (contrôlée par le paramètre « k1 »). |
BaseCharFilter |
Type de base pour les filtres de caractères. |
BaseCognitiveServicesAccount |
Type de base pour décrire toute ressource de service Azure AI attachée à un ensemble de compétences. |
BaseDataChangeDetectionPolicy |
Type de base pour les stratégies de détection des modifications de données. |
BaseDataDeletionDetectionPolicy |
Type de base pour les stratégies de détection de suppression de données. |
BaseLexicalAnalyzer |
Type de base pour les analyseurs. |
BaseLexicalTokenizer |
Type de base pour les tokenizers. |
BaseScoringFunction |
Type de base pour les fonctions qui peuvent modifier les scores de document pendant le classement. |
BaseSearchIndexerDataIdentity |
Type de base abstrait pour les identités de données. |
BaseSearchIndexerSkill |
Type de base pour les compétences. |
BaseSearchRequestOptions |
Paramètres de filtrage, de tri, de facette, de pagination et d’autres comportements de requête de recherche. |
BaseTokenFilter |
Type de base pour les filtres de jetons. |
BaseVectorQuery |
Paramètres de requête pour les requêtes de recherche vectorielle et hybride. |
BaseVectorSearchAlgorithmConfiguration |
Contient des options de configuration spécifiques à l’algorithme utilisé pendant l’indexation et/ou l’interrogation. |
BaseVectorSearchCompression |
Contient des options de configuration spécifiques à la méthode de compression utilisée lors de l’indexation ou de l’interrogation. |
BaseVectorSearchVectorizer |
Contient des détails spécifiques pour une méthode de vectorisation à utiliser pendant le temps de requête. |
BinaryQuantizationCompression |
Contient des options de configuration spécifiques à la méthode de compression de quantisation binaire utilisée lors de l’indexation et de l’interrogation. |
CjkBigramTokenFilter |
Forme des bigrams de termes CJK générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
ClassicSimilarity |
Algorithme de similarité hérité qui utilise l’implémentation lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation de longueur de document statique ainsi que les facteurs de coordination qui pénalisent les documents qui ne correspondent qu’en partie aux requêtes recherchées. |
ClassicTokenizer |
Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
CognitiveServicesAccountKey |
Clé de compte multirégion d’une ressource de service IA Azure attachée à un ensemble de compétences. |
CommonGramTokenFilter |
Construisez des bigrams pour des termes fréquents lors de l’indexation. Les termes uniques sont toujours indexés, avec des bigrams superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
ComplexField |
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ. |
ConditionalSkill |
Compétence qui permet aux scénarios nécessitant une opération booléenne pour déterminer les données à affecter à une sortie. |
CorsOptions |
Définit les options permettant de contrôler le partage de ressources cross-origin (CORS) pour un index. |
CreateOrUpdateIndexOptions |
Options pour l’opération de création/mise à jour de l’index. |
CreateOrUpdateSkillsetOptions |
Options d’opération de création/mise à jour de l’ensemble de compétences. |
CreateOrUpdateSynonymMapOptions |
Options pour l’opération create/update synonymmap. |
CreateorUpdateDataSourceConnectionOptions |
Options de création/mise à jour de l’opération de source de données. |
CreateorUpdateIndexerOptions |
Options pour l’opération de création/mise à jour de l’indexeur. |
CustomAnalyzer |
Vous permet de contrôler le processus de conversion de texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul tokenizer prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres pour modifier les jetons émis par le tokenizer. |
CustomEntity |
Objet qui contient des informations sur les correspondances trouvées et les métadonnées associées. |
CustomEntityAlias |
Objet complexe qui peut être utilisé pour spécifier d’autres orthographes ou synonymes au nom de l’entité racine. |
CustomEntityLookupSkill |
Une compétence recherche du texte à partir d’une liste personnalisée définie par l’utilisateur de mots et d’expressions. |
DefaultCognitiveServicesAccount |
Objet vide qui représente la ressource de service Azure AI par défaut pour un ensemble de compétences. |
DeleteDataSourceConnectionOptions |
Options de suppression de l’opération de source de données. |
DeleteIndexOptions |
Options pour l’opération de suppression d’index. |
DeleteIndexerOptions |
Options pour l’opération de suppression d’indexeur. |
DeleteSkillsetOptions |
Options pour supprimer l’opération d’ensemble de compétences. |
DeleteSynonymMapOptions |
Options pour l’opération de suppression de synonymmap. |
DictionaryDecompounderTokenFilter |
Décompose les mots composés trouvés dans de nombreuses langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
DistanceScoringFunction |
Définit une fonction qui améliore les scores en fonction de la distance d’un emplacement géographique. |
DistanceScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring de distance. |
DocumentExtractionSkill |
Compétence qui extrait le contenu d’un fichier dans le pipeline d’enrichissement. |
EdgeNGramTokenFilter |
Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
EdgeNGramTokenizer |
Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
ElisionTokenFilter |
Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
EntityLinkingSkill |
À l’aide de l’API Text Analytique, extrait les entités liées du texte. |
EntityRecognitionSkill |
Reconnaissance d’entité de texte analytique. |
EntityRecognitionSkillV3 |
À l’aide de l’API Text Analytique, extrait les entités de différents types à partir du texte. |
ExhaustiveKnnParameters |
Contient les paramètres spécifiques à l’algorithme KNN exhaustif. |
ExtractiveQueryAnswer |
Extrait les candidats de réponse du contenu des documents retournés en réponse à une requête exprimée en tant que question en langage naturel. |
ExtractiveQueryCaption |
Extrait les légendes des documents correspondants qui contiennent des passages pertinents pour la requête de recherche. |
FacetResult |
Un seul compartiment d’un résultat de requête de facette. Signale le nombre de documents avec une valeur de champ comprise dans une plage particulière ou ayant une valeur ou un intervalle particulier. |
FieldMapping |
Définit un mappage entre un champ dans une source de données et un champ cible dans un index. |
FieldMappingFunction |
Représente une fonction qui transforme une valeur d’une source de données avant l’indexation. |
FreshnessScoringFunction |
Définit une fonction qui améliore les scores en fonction de la valeur d’un champ date-heure. |
FreshnessScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring d’actualisation. |
GetDocumentOptions |
Options de récupération d’un document unique. |
HighWaterMarkChangeDetectionPolicy |
Définit une stratégie de détection des modifications de données qui capture les modifications en fonction de la valeur d’une colonne de marque d’eau élevée. |
HnswParameters |
Contient les paramètres spécifiques à l’algorithme hnsw. |
ImageAnalysisSkill |
Compétence qui analyse les fichiers image. Il extrait un ensemble complet de fonctionnalités visuelles basées sur le contenu de l’image. |
IndexDocumentsClient |
Indexer le client documents |
IndexDocumentsOptions |
Options pour l’opération de modification du lot d’index. |
IndexDocumentsResult |
Réponse contenant l’état des opérations pour tous les documents de la demande d’indexation. |
IndexerExecutionResult |
Représente le résultat d’une exécution d’indexeur individuelle. |
IndexingParameters |
Représente des paramètres pour l’exécution de l’indexeur. |
IndexingParametersConfiguration |
Dictionnaire de propriétés de configuration spécifiques à l’indexeur. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif. |
IndexingResult |
État d’une opération d’indexation pour un document unique. |
IndexingSchedule |
Représente une planification pour l’exécution de l’indexeur. |
InputFieldMappingEntry |
Mappage de champs d’entrée pour une compétence. |
KeepTokenFilter |
Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste spécifiée de mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
KeyPhraseExtractionSkill |
Compétence qui utilise du texte analytique pour l’extraction d’expressions clés. |
KeywordMarkerTokenFilter |
Marque les termes en tant que mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
KeywordTokenizer |
Émet l’entrée entière sous forme de jeton unique. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
LanguageDetectionSkill |
Compétence qui détecte la langue du texte d’entrée et signale un code de langue unique pour chaque document soumis à la demande. Le code de langage est associé à un score indiquant la confiance de l’analyse. |
LengthTokenFilter |
Supprime les mots trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
LimitTokenFilter |
Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
ListSearchResultsPageSettings |
Arguments pour récupérer la page suivante des résultats de recherche. |
LuceneStandardAnalyzer |
Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt. |
LuceneStandardTokenizer |
Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
MagnitudeScoringFunction |
Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique. |
MagnitudeScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring de magnitude. |
MappingCharFilter |
Filtre de caractères qui applique les mappages définis avec l’option mappages. La correspondance est gourmande (la correspondance la plus longue à un point donné gagne). Le remplacement est autorisé à être la chaîne vide. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene. |
MergeSkill |
Compétence permettant de fusionner deux chaînes ou plus en une seule chaîne unifiée, avec un délimiteur facultatif défini par l’utilisateur séparant chaque composant. |
MicrosoftLanguageStemmingTokenizer |
Divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leurs formulaires de base. |
MicrosoftLanguageTokenizer |
Divise le texte à l’aide de règles spécifiques à la langue. |
NGramTokenFilter |
Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
NGramTokenizer |
Tokenise l’entrée en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
OcrSkill |
Compétence qui extrait du texte à partir de fichiers image. |
OutputFieldMappingEntry |
Mappage de champs de sortie pour une compétence. |
PIIDetectionSkill |
À l’aide de l’API Text Analytique, extrait des informations personnelles d’un texte d’entrée et vous donne la possibilité de la masquer. |
PathHierarchyTokenizer |
Tokenizer pour les hiérarchies similaires au chemin d’accès. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
PatternAnalyzer |
Sépare de manière flexible le texte en termes par le biais d’un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene. |
PatternCaptureTokenFilter |
Utilise des regex Java pour émettre plusieurs jetons : un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
PatternReplaceCharFilter |
Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene. |
PatternReplaceTokenFilter |
Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
PatternTokenizer |
Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
PhoneticTokenFilter |
Créez des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
QueryAnswerResult |
Une réponse est un passage de texte extrait du contenu des documents les plus pertinents correspondant à la requête. Les réponses sont extraites des résultats de recherche principaux. Les candidats à la réponse sont marqués et les premières réponses sont sélectionnées. |
QueryCaptionResult |
Les légendes sont les passages les plus représentatifs du document relativement à la requête de recherche. Ils sont souvent utilisés comme résumé de document. Les légendes sont retournées uniquement pour les requêtes de type |
ResourceCounter |
Représente l’utilisation et le quota d’une ressource. |
ScalarQuantizationCompression |
Contient des options de configuration spécifiques à la méthode de compression de quantisation scalaire utilisée lors de l’indexation et de l’interrogation. |
ScalarQuantizationParameters |
Contient les paramètres spécifiques à la quantisation scalaire. |
ScoringProfile |
Définit des paramètres pour un index de recherche qui influencent le scoring dans les requêtes de recherche. |
SearchClientOptions |
Options clientes utilisées pour configurer les demandes d’API Recherche cognitive. |
SearchDocumentsPageResult |
Réponse contenant les résultats de la page de recherche à partir d’un index. |
SearchDocumentsResult |
Réponse contenant des résultats de recherche à partir d’un index. |
SearchDocumentsResultBase |
Réponse contenant des résultats de recherche à partir d’un index. |
SearchIndex |
Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index. |
SearchIndexClientOptions |
Options clientes utilisées pour configurer les demandes d’API Recherche cognitive. |
SearchIndexStatistics |
Statistiques d’un index donné. Les statistiques sont collectées régulièrement et ne sont pas garanties d’être toujours up-to-date. |
SearchIndexer |
Représente un indexeur. |
SearchIndexerClientOptions |
Options clientes utilisées pour configurer les demandes d’API Recherche cognitive. |
SearchIndexerDataContainer |
Représente des informations sur l’entité (par exemple, la table Azure SQL ou la collection CosmosDB) qui sera indexée. |
SearchIndexerDataNoneIdentity |
Efface la propriété d’identité d’une source de données. |
SearchIndexerDataSourceConnection |
Représente une définition de source de données, qui peut être utilisée pour configurer un indexeur. |
SearchIndexerDataUserAssignedIdentity |
Spécifie l’identité d’une source de données à utiliser. |
SearchIndexerError |
Représente une erreur d’indexation au niveau de l’élément ou du document. |
SearchIndexerIndexProjection |
Définition de projections supplémentaires pour les index de recherche secondaire. |
SearchIndexerIndexProjectionParameters |
Dictionnaire des propriétés de configuration spécifiques à la projection d’index. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif. |
SearchIndexerIndexProjectionSelector |
Description des données à stocker dans l’index de recherche désigné. |
SearchIndexerKnowledgeStore |
Définition de projections supplémentaires sur des objets blob, une table ou des fichiers Azure, de données enrichies. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Classe abstraite pour partager des propriétés entre des sélecteurs concrets. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Définition de projection pour les données à stocker dans Azure Files. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Définition de projection pour les données à stocker dans l’objet blob Azure. |
SearchIndexerKnowledgeStoreParameters |
Dictionnaire des propriétés de configuration spécifiques à la base de connaissances. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif. |
SearchIndexerKnowledgeStoreProjection |
Objet conteneur pour différents sélecteurs de projection. |
SearchIndexerKnowledgeStoreProjectionSelector |
Classe abstraite pour partager des propriétés entre des sélecteurs concrets. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Description des données à stocker dans les tables Azure. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Une liste de compétences. |
SearchIndexerStatus |
Représente l’état actuel et l’historique d’exécution d’un indexeur. |
SearchIndexerWarning |
Représente un avertissement au niveau de l’élément. |
SearchIndexingBufferedSenderOptions |
Options de SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos dans Recherche cognitive Azure, telles que des index et des mappages de synonymes. |
SearchServiceStatistics |
Réponse d’une demande de statistiques de service get. Si elle réussit, elle inclut des compteurs et des limites de niveau de service. |
SearchSuggester |
Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index. |
SemanticConfiguration |
Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques. |
SemanticField |
Champ utilisé dans le cadre de la configuration sémantique. |
SemanticPrioritizedFields |
Décrit les champs de titre, de contenu et de mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. |
SemanticSearch |
Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques. |
SemanticSearchOptions |
Définit des options pour les requêtes de recherche sémantique |
SentimentSkill |
Le texte analytique analyse des sentiments négatifs positifs, marqué comme une valeur à virgule flottante dans une plage de zéro à 1. |
SentimentSkillV3 |
À l’aide de l’API Text Analytique, évalue le texte non structuré et pour chaque enregistrement, fournit des étiquettes de sentiment (telles que « négative », « neutre » et « positive ») basées sur le score de confiance le plus élevé trouvé par le service au niveau de la phrase et du document. |
ServiceCounters |
Représente les compteurs de ressources et les quotas au niveau du service. |
ServiceLimits |
Représente différentes limites de niveau de service. |
ShaperSkill |
Une compétence pour remodeler les sorties. Il crée un type complexe pour prendre en charge les champs composites (également appelés champs à plusieurs parties). |
ShingleTokenFilter |
Crée des combinaisons de jetons en tant que jeton unique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Similarity |
Type de base pour les algorithmes de similarité. Les algorithmes de similarité sont utilisés pour calculer des scores qui lient des requêtes à des documents. Plus le score est élevé, plus le document est pertinent pour cette requête spécifique. Ces scores sont utilisés pour classer les résultats de la recherche. |
SimpleField |
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ. |
SnowballTokenFilter |
Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Définit une stratégie de détection de suppression de données qui implémente une stratégie de suppression réversible. Il détermine si un élément doit être supprimé en fonction de la valeur d’une colonne « suppression réversible » désignée. |
SplitSkill |
Compétence permettant de fractionner une chaîne en blocs de texte. |
SqlIntegratedChangeTrackingPolicy |
Définit une stratégie de détection des modifications de données qui capture les modifications à l’aide de la fonctionnalité Suivi des modifications intégré d’Azure SQL Database. |
StemmerOverrideTokenFilter |
Fournit la possibilité de remplacer d’autres filtres de recherche de recherche par recherche de données personnalisées basées sur des dictionnaires. Tous les termes liés aux dictionnaires seront marqués comme des mots clés afin qu’ils ne soient pas suivis de formes dérivées dans la chaîne. Doit être placé avant les filtres de recherche de recherche. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
StemmerTokenFilter |
Filtre de recherche de recherche spécifique au langage. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
StopAnalyzer |
Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene. |
StopwordsTokenFilter |
Supprime les mots d’arrêt d’un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
SuggestDocumentsResult |
Réponse contenant des résultats de requête de suggestion à partir d’un index. |
SuggestRequest |
Paramètres pour le filtrage, le tri, la correspondance approximative et d’autres comportements de requête de suggestions. |
SynonymMap |
Représente une définition de carte de synonymes. |
SynonymTokenFilter |
Correspond aux synonymes à mot unique ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
TagScoringFunction |
Définit une fonction qui améliore les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises. |
TagScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring d’étiquette. |
TextTranslationSkill |
Compétence pour traduire du texte d’une langue à une autre. |
TextWeights |
Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche. |
TruncateTokenFilter |
Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
UaxUrlEmailTokenizer |
Tokenise les URL et les e-mails sous la forme d’un seul jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
UniqueTokenFilter |
Filtre les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
VectorSearch |
Contient des options de configuration liées à la recherche vectorielle. |
VectorSearchOptions |
Définit des options pour les requêtes de recherche vectorielle |
VectorSearchProfile |
Définit une combinaison de configurations à utiliser avec la recherche vectorielle. |
VectorizableTextQuery |
Les paramètres de requête à utiliser pour la recherche vectorielle lorsqu’une valeur de texte devant être vectorisée est fournie. |
VectorizedQuery |
Paramètres de requête à utiliser pour la recherche vectorielle lorsqu’une valeur vectorielle brute est fournie. |
WebApiParameters |
Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur. |
WebApiSkill |
Compétence qui peut appeler un point de terminaison d’API web, ce qui vous permet d’étendre un ensemble de compétences en le faisant appeler votre code personnalisé. |
WebApiVectorizer |
Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est obtenue à l’aide de l’interface d’API Web personnalisée d’un ensemble de compétences. |
WordDelimiterTokenFilter |
Fractionne les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Alias de type
AnalyzeTextOptions |
Options d’analyse du texte. |
AutocompleteMode |
Définit des valeurs pour AutocompleteMode. |
AutocompleteOptions |
Options de récupération du texte de saisie semi-automatique pour un searchText partiel. |
AzureOpenAIModelName |
Définit des valeurs pour AzureOpenAIModelName. Valeurs connues prises en charge par le service
text-embedding-ada-002 |
BlobIndexerDataToExtract | |
BlobIndexerImageAction | |
BlobIndexerPDFTextRotationAlgorithm | |
BlobIndexerParsingMode | |
CharFilter |
Contient les cas possibles pour CharFilter. |
CharFilterName |
Définit des valeurs pour CharFilterName. Valeurs connues prises en charge par le servicehtml_strip: filtre de caractères qui tente de supprimer les constructions HTML. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Définit des valeurs pour CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Contient les cas possibles pour CognitiveServicesAccount. |
ComplexDataType |
Définit des valeurs pour ComplexDataType. Les valeurs possibles sont les suivantes : « Edm.ComplexType », « Collection(Edm.ComplexType) » |
CountDocumentsOptions |
Options d’exécution de l’opération de comptage sur l’index. |
CreateDataSourceConnectionOptions |
Options de création d’une opération de source de données. |
CreateIndexOptions |
Options de création d’une opération d’index. |
CreateIndexerOptions |
Options de création d’une opération d’indexeur. |
CreateSkillsetOptions |
Options de création d’une opération d’ensemble de compétences. |
CreateSynonymMapOptions |
Options de création d’une opération de synonymmap. |
CustomEntityLookupSkillLanguage | |
DataChangeDetectionPolicy |
Contient les cas possibles pour DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Contient les cas possibles pour DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Options pour l’opération de suppression de documents. |
EdgeNGramTokenFilterSide |
Définit des valeurs pour EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage | |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche par force brute sur l’index vectoriel entier. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Options d’obtention de l’opération de source de données. |
GetIndexOptions |
Options d’obtention de l’opération d’index. |
GetIndexStatisticsOptions |
Options d’obtention de l’opération de statistiques d’index. |
GetIndexerOptions |
Options pour l’opération get indexer. |
GetIndexerStatusOptions |
Options pour obtenir l’opération d’état de l’indexeur. |
GetServiceStatisticsOptions |
Options d’obtention de l’opération de statistiques de service. |
GetSkillSetOptions |
Options d’obtention d’une opération d’ensemble de compétences. |
GetSynonymMapsOptions |
Options pour l’opération get synonymmaps. |
HnswAlgorithmConfiguration |
Contient des options de configuration spécifiques à l’algorithme de voisin le plus proche approximativement utilisé pendant l’indexation. |
ImageAnalysisSkillLanguage | |
ImageDetail | |
IndexActionType |
Définit des valeurs pour IndexActionType. |
IndexDocumentsAction |
Représente une action d’index qui fonctionne sur un document. |
IndexIterator |
Itérateur pour répertorier les index qui existent dans le service de recherche. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération. |
IndexNameIterator |
Itérateur pour répertorier les index qui existent dans le service de recherche. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération. |
IndexProjectionMode |
Définit des valeurs pour IndexProjectionMode. Valeurs connues prises en charge par le service
skipIndexingParentDocuments: le document source est ignoré de l’écriture dans l’index cible de l’indexeur. |
IndexerExecutionEnvironment | |
IndexerExecutionStatus |
Définit des valeurs pour IndexerExecutionStatus. |
IndexerStatus |
Définit des valeurs pour IndexerStatus. |
KeyPhraseExtractionSkillLanguage | |
LexicalAnalyzer |
Contient les cas possibles pour Analyzer. |
LexicalAnalyzerName |
Définit des valeurs pour LexicalAnalyzerName. Valeurs connues prises en charge par le service
ar.microsoft: Analyseur Microsoft pour l’arabe. |
LexicalTokenizer |
Contient les cas possibles pour Tokenizer. |
LexicalTokenizerName |
Définit des valeurs pour LexicalTokenizerName. Valeurs connues prises en charge par le service
classique : tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Options d’une opération de sources de données de liste. |
ListIndexersOptions |
Options d’une opération d’indexeurs de liste. |
ListIndexesOptions |
Options d’une opération d’index de liste. |
ListSkillsetsOptions |
Options d’une opération d’ensembles de compétences de liste. |
ListSynonymMapsOptions |
Options d’une opération synonymMaps de liste. |
MergeDocumentsOptions |
Options pour l’opération de fusion de documents. |
MergeOrUploadDocumentsOptions |
Options pour l’opération de fusion ou de chargement de documents. |
MicrosoftStemmingTokenizerLanguage |
Définit des valeurs pour MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Définit des valeurs pour MicrosoftTokenizerLanguage. |
NarrowedModel |
Réduit le type de modèle pour inclure uniquement les champs sélectionnés |
OcrLineEnding |
Définit des valeurs pour OcrLineEnding. Valeurs connues prises en charge par le service
'espace: les lignes sont séparées par un seul espace. |
OcrSkillLanguage | |
PIIDetectionSkillMaskingMode | |
PhoneticEncoder |
Définit des valeurs pour PhoneticEncoder. |
QueryAnswer |
Valeur qui spécifie si les réponses doivent être retournées dans le cadre de la réponse de recherche.
Ce paramètre n’est valide que si le type de requête est « sémantique ». Si elle est définie sur |
QueryCaption |
Valeur qui spécifie si les légendes doivent être retournées dans le cadre de la réponse de recherche. Ce paramètre n’est valide que si le type de requête est « sémantique ». Si elle est définie, la requête retourne des légendes extraites des passages clés dans les documents classés les plus élevés. Lorsque les légendes sont « extractibles », la mise en surbrillance est activée par défaut. La valeur par défaut est « none ». |
QueryType |
Définit des valeurs pour QueryType. |
RegexFlags | |
ResetIndexerOptions |
Options pour l’opération de réinitialisation de l’indexeur. |
RunIndexerOptions |
Options pour l’opération d’indexeur d’exécution. |
ScoringFunction |
Contient les cas possibles pour ScoringFunction. |
ScoringFunctionAggregation |
Définit des valeurs pour ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Définit des valeurs pour ScoringFunctionInterpolation. |
ScoringStatistics |
Définit des valeurs pour ScoringStatistics. |
SearchField |
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ. |
SearchFieldArray |
Si |
SearchFieldDataType |
Définit des valeurs pour SearchFieldDataType. Valeurs connues prises en charge par le service :Edm.String : indique qu’un champ contient une chaîne. Edm.Int32: indique qu’un champ contient un entier signé 32 bits. Edm.Int64: indique qu’un champ contient un entier signé 64 bits. Edm.Double: indique qu’un champ contient un nombre à virgule flottante à double précision IEEE. Edm.Boolean: indique qu’un champ contient une valeur booléenne (true ou false). Edm.DateTimeOffset: indique qu’un champ contient une valeur de date/heure, y compris les informations de fuseau horaire. Edm.GeographyPoint: indique qu’un champ contient un emplacement géographique en termes de longitude et de latitude. Edm.ComplexType: indique qu’un champ contient un ou plusieurs objets complexes qui, à son tour, ont des sous-champs d’autres types. Edm.Single: indique qu’un champ contient un nombre à virgule flottante simple précision. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Single). Edm.Half: indique qu’un champ contient un nombre à virgule flottante demi précision. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Half). Edm.Int16: indique qu’un champ contient un entier signé 16 bits. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Int16). Edm.SByte: indique qu’un champ contient un entier signé 8 bits. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.SByte). Edm.Byte: indique qu’un champ contient un entier non signé 8 bits. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Byte). |
SearchIndexerDataIdentity |
Contient les cas possibles pour SearchIndexerDataIdentity. |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Contient les cas possibles pour Compétence. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Options pour SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Options pour SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Options pour SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Options pour SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Options pour SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Itérateur pour les résultats de recherche d’une requête paticulaire. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération. |
SearchMode |
Définit des valeurs pour SearchMode. |
SearchOptions |
Options de validation d’une demande de recherche complète. |
SearchPick |
Sélectionnez profondément les champs de T à l’aide des chemins DData de recherche cognitive valides $select. |
SearchRequestOptions |
Paramètres de filtrage, de tri, de facette, de pagination et d’autres comportements de requête de recherche. |
SearchRequestQueryTypeOptions | |
SearchResult |
Contient un document trouvé par une requête de recherche, ainsi que les métadonnées associées. |
SelectArray |
Si |
SelectFields |
Produit une union d’OData de recherche cognitive valide $select chemins d’accès pour T à l’aide d’une traversée post-ordre de l’arborescence de champs enracinée à T. |
SemanticErrorMode | |
SemanticErrorReason | |
SemanticSearchResultsType | |
SentimentSkillLanguage | |
SimilarityAlgorithm |
Contient les cas possibles pour similarité. |
SnowballTokenFilterLanguage |
Définit des valeurs pour SnowballTokenFilterLanguage. |
SplitSkillLanguage | |
StemmerTokenFilterLanguage |
Définit des valeurs pour StemmerTokenFilterLanguage. |
StopwordsList |
Définit des valeurs pour StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Options de récupération des suggestions basées sur searchText. |
SuggestResult |
Résultat contenant un document trouvé par une requête de suggestion, ainsi que des métadonnées associées. |
TextSplitMode | |
TextTranslationSkillLanguage | |
TokenCharacterKind |
Définit des valeurs pour TokenCharacterKind. |
TokenFilter |
Contient les cas possibles pour TokenFilter. |
TokenFilterName |
Définit des valeurs pour TokenFilterName. Valeurs connues prises en charge par le service
arabic_normalization: filtre de jeton qui applique le normaliseur arabe pour normaliser l’orthographie. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Options pour l’opération de chargement de documents. |
VectorEncodingFormat |
Définit des valeurs pour VectorEncodingFormat. Valeurs connues prises en charge par le servicepackedBit: format d’encodage représentant les bits emballés dans un type de données plus large. |
VectorFilterMode | |
VectorQuery |
Paramètres de requête pour les requêtes de recherche vectorielle et hybride. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Contient des options de configuration spécifiques à l’algorithme utilisé pendant l’indexation et/ou l’interrogation. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric | |
VectorSearchCompression |
Contient des options de configuration spécifiques à la méthode de compression utilisée lors de l’indexation ou de l’interrogation. |
VectorSearchCompressionKind |
Définit des valeurs pour VectorSearchCompressionKind. Valeurs connues prises en charge par le service
scalaireQuantization: Quantization Scalar, type de méthode de compression. Dans la quantisation scalaire, les valeurs de vecteurs d’origine sont compressées dans un type plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide d’un ensemble réduit de valeurs quantifiées, réduisant ainsi la taille globale des données. |
VectorSearchCompressionTarget |
Définit des valeurs pour VectorSearchCompressionTarget. Valeurs connues prises en charge par le serviceint8 |
VectorSearchVectorizer |
Contient des options de configuration sur la façon de vectoriser des requêtes vectorielles de texte. |
VectorSearchVectorizerKind |
Définit des valeurs pour VectorSearchVectorizerKind. Valeurs connues prises en charge par le service
azureOpenAI: générer des incorporations à l’aide d’une ressource Azure OpenAI au moment de la requête. |
VisualFeature |
Énumérations
Functions
create |
Méthode d’assistance pour créer un objet SynonymMap. Il s’agit d’une méthode NodeJS uniquement. |
odata(Template |
Échappe une expression de filtre odata pour éviter les erreurs avec des littéraux de chaîne de guillemets. Exemple d’utilisation :
Pour plus d’informations sur la syntaxe prise en charge, consultez : https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Informations relatives à la fonction
createSynonymMapFromFile(string, string)
Méthode d’assistance pour créer un objet SynonymMap. Il s’agit d’une méthode NodeJS uniquement.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Paramètres
- name
-
string
Nom du SynonymMap.
- filePath
-
string
Chemin d’accès du fichier qui contient les synonymes (séparés par de nouvelles lignes)
Retours
Promise<SynonymMap>
Objet SynonymMap
odata(TemplateStringsArray, unknown[])
Échappe une expression de filtre odata pour éviter les erreurs avec des littéraux de chaîne de guillemets. Exemple d’utilisation :
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Pour plus d’informations sur la syntaxe prise en charge, consultez : https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Paramètres
- strings
-
TemplateStringsArray
Tableau de chaînes pour l’expression
- values
-
unknown[]
Tableau de valeurs pour l’expression
Retours
string