AccessCondition
|
一组操作的其他参数。
|
Analyzer
|
分析器的抽象基类。
|
AnalyzeRequest
|
指定一些用于将文本分解为标记的文本和分析组件。
|
AnalyzeResult
|
测试文本分析器的结果。
|
AnalyzerName.AsString
|
以纯字符串形式表示的所有分析器的名称。
|
AsciiFoldingTokenFilter
|
将“基本拉丁语”Unicode) 块 (的前 127 个 ASCII 字符中的字母、数字和符号 Unicode 字符转换为其 ASCII 等效项(如果存在此类等效字符)。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
|
AutocompleteItem
|
自动完成请求的结果。
|
AutocompleteParameters
|
AutocompleteGet 操作的其他参数。
|
AutocompleteResult
|
自动完成查询的结果。
|
CharFilter
|
字符筛选器的抽象基类。
https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search
|
CjkBigramTokenFilter
|
形成 CJK 词条的二元语法,这些词条从 StandardTokenizer 生成。
此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
|
ClassicTokenizer
|
适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
|
CognitiveServices
|
用于描述附加到技能组的任何认知服务资源的抽象基类。
|
CognitiveServicesByKey
|
使用附加到技能组的密钥预配的认知服务资源。
|
CommonGramTokenFilter
|
在编制索引时为经常出现的词条构造二元语法。 此外,仍将为单个词条编制索引并叠加二元语法。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
|
ConditionalSkill
|
一种技能,使需要布尔运算来确定要分配给输出的数据的方案。
https://docs.microsoft.com/azure/search/cognitive-search-skill-conditional
|
CorsOptions
|
定义用于控制索引的跨域资源共享 (CORS) 的选项。
https://docs.microsoft.com/rest/api/searchservice/Create-Index
|
CustomAnalyzer
|
允许你控制将文本转换为可索引/可搜索令牌的过程。 它是用户定义的配置,由单个预定义的 tokenizer 和一个或多个筛选器组成。
tokenizer 负责将文本分解为令牌,以及用于修改 tokenizer 发出的令牌的筛选器。
|
DataChangeDetectionPolicy
|
数据更改检测策略的抽象基类。
|
DataContainer
|
表示有关实体 (的信息,例如将编制索引的Azure SQL表或 DocumentDb 集合) 。
|
DataDeletionDetectionPolicy
|
数据删除检测策略的抽象基类。
|
DataSource
|
表示可用于配置索引器的数据源定义。
|
DataSourceCredentials
|
表示可用于连接到数据源的凭据。
|
DataSourceListResult
|
“列出数据源”请求的响应。 如果成功,则包含所有数据源的完整定义。
|
DataType.AsString
|
以纯字符串形式表示的所有数据类型的名称。
|
DataTypeExtensions
|
定义 的 DataType 扩展方法。
|
DefaultCognitiveServices
|
一个空对象,表示技能组的默认认知服务资源。
|
DictionaryDecompounderTokenFilter
|
分解在许多日耳曼语系中找到的复合词。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/compound/DictionaryCompoundWordTokenFilter.html
|
DistanceScoringFunction
|
定义一个函数,该函数根据与地理位置的距离提高分数。
https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index
|
DistanceScoringParameters
|
为距离评分函数提供参数值。
|
Document
|
将文档表示为属性包。 这对于索引架构仅在运行时已知的情况非常有用。
|
DocumentIndexResult
|
包含索引请求中所有文档的操作状态的响应。
|
DocumentSearchResult<T>
|
包含索引中的搜索结果的响应。
|
DocumentSuggestResult<T>
|
包含来自索引的建议查询结果的响应。
|
EdgeNGramTokenFilter
|
从输入标记的前面或后面开始,生成给定大小 (s) 的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
|
EdgeNGramTokenFilterV2
|
从输入标记的前面或后面开始,生成给定大小 (s) 的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
|
EdgeNGramTokenizer
|
将来自边缘的输入标记化为给定大小的 n 元语法 (s) 。
此 tokenizer 是使用 Apache Lucene 实现的。
https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
|
ElisionTokenFilter
|
删除省音。 例如,“l'avion” (平面) 将转换为“avion” (平面) 。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
|
EntityRecognitionSkill
|
文本分析实体识别。
https://docs.microsoft.com/azure/search/cognitive-search-skill-entity-recognition
|
FacetResult
|
分面查询结果的单个存储桶。 报告字段值在特定范围内或具有特定值或间隔的文档数。
|
Field
|
表示索引定义中的字段,该字段描述字段的名称、数据类型和搜索行为。
https://docs.microsoft.com/rest/api/searchservice/Create-Index
|
FieldMapping
|
定义数据源中的字段与索引中目标字段之间的映射。
https://docs.microsoft.com/azure/search/search-indexer-field-mappings
|
FieldMappingFunction
|
表示在编制索引之前转换数据源中的值的函数。
https://docs.microsoft.com/azure/search/search-indexer-field-mappings
|
FreshnessScoringFunction
|
定义一个函数,该函数根据日期时间字段的值提高分数。
https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index
|
FreshnessScoringParameters
|
为新鲜度评分函数提供参数值。
|
HighWaterMarkChangeDetectionPolicy
|
定义数据更改检测策略,该策略根据高使用标记列的值捕获更改。
|
ImageAnalysisSkill
|
分析图像文件的技能。 它基于图像内容提取一组丰富的视觉特征。
https://docs.microsoft.com/azure/search/cognitive-search-skill-image-analysis
|
Index
|
表示搜索索引定义,该定义描述索引的字段和搜索行为。
|
IndexAction
|
提供用于创建对文档进行操作的索引操作的工厂方法。
|
IndexAction<T>
|
表示对文档进行操作的索引操作。
|
IndexBatch
|
提供工厂方法,用于创建要发送到搜索索引的一批文档写入操作。
|
IndexBatch<T>
|
包含要发送到索引的一批文档写入操作。
|
Indexer
|
表示索引器。
https://docs.microsoft.com/rest/api/searchservice/Indexer-operations
|
IndexerExecutionInfo
|
表示索引器的当前状态和执行历史记录。
|
IndexerExecutionResult
|
表示单个索引器执行的结果。
|
IndexerLimits
|
IndexerListResult
|
“列出索引器”请求的响应。 如果成功,则包含所有索引器的完整定义。
|
IndexGetStatisticsResult
|
给定索引的统计信息。 统计信息是定期收集的,不保证始终是最新的。
|
IndexingParameters
|
表示索引器执行的参数。
|
IndexingParametersExtensions
|
定义 IndexingParameters 类的扩展方法。
|
IndexingResult
|
单个文档的索引操作的状态。
|
IndexingSchedule
|
表示索引器执行的计划。
|
IndexListResult
|
来自列表索引请求的响应。 如果成功,则包含所有索引的完整定义。
|
InputFieldMappingEntry
|
技能的输入字段映射。
|
ItemError
|
表示项级别或文档级别索引错误。
|
ItemWarning
|
表示项级警告。
|
KeepTokenFilter
|
一个标记筛选器,它仅保留包含指定单词列表中的文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeepWordFilter.html
|
KeyPhraseExtractionSkill
|
使用文本分析提取关键短语的技能。
https://docs.microsoft.com/azure/search/cognitive-search-skill-keyphrases
|
KeywordMarkerTokenFilter
|
将词条标记为关键字。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordMarkerFilter.html
|
KeywordTokenizer
|
将整个输入作为单个标记发出。 此 tokenizer 是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
|
KeywordTokenizerV2
|
将整个输入作为单个标记发出。 此 tokenizer 是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
|
LanguageDetectionSkill
|
一种技能,用于检测输入文本的语言,并为请求中提交的每个文档报告单个语言代码。 语言代码与指示分析置信度分数配对。
https://docs.microsoft.com/azure/search/cognitive-search-skill-language-detection
|
LengthTokenFilter
|
删除太长或太短的字词。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
|
LimitTokenFilter
|
编制索引时限制标记数量。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
|
MagnitudeScoringFunction
|
定义一个函数,该函数根据数值字段的量级提高分数。
https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index
|
MagnitudeScoringParameters
|
为数量级评分函数提供参数值。
|
MappingCharFilter
|
一个字符筛选器,用于应用使用映射选项定义的映射。 匹配具有贪婪性(给定点的最长模式匹配获胜)。 允许替换为空字符串。 此字符筛选器是使用 Apache Lucene 实现的。
https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/MappingCharFilter.html
|
MergeSkill
|
一种技能,用于将两个或多个字符串合并为单个统一字符串,并使用可选的用户定义的分隔符分隔每个组件部分。
https://docs.microsoft.com/azure/search/cognitive-search-skill-textmerger
|
MicrosoftLanguageStemmingTokenizer
|
使用特定于语言的规则划分文本,并将各字词缩减为其原形。
|
MicrosoftLanguageTokenizer
|
使用特定于语言的规则划分文本。
|
NamedEntityRecognitionSkill
|
名为实体识别的文本分析。 此技能已弃用,转而改用 EntityRecognitionSkillhttps://docs.microsoft.com/azure/search/cognitive-search-skill-named-entity-recognition
|
NGramTokenFilter
|
生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
|
NGramTokenFilterV2
|
生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
|
NGramTokenizer
|
将输入标记为给定大小的 n 元语法。 此 tokenizer 是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
|
OcrSkill
|
一种从图像文件中提取文本的技能。
https://docs.microsoft.com/azure/search/cognitive-search-skill-ocr
|
OutputFieldMappingEntry
|
技能的输出字段映射。
https://docs.microsoft.com/rest/api/searchservice/naming-rules
|
PathHierarchyTokenizer
|
用于路径式层次结构的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
|
PathHierarchyTokenizerV2
|
用于路径式层次结构的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
|
PatternAnalyzer
|
通过正则表达式模式将文本灵活地分解成多个词条。
此分析器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
|
PatternCaptureTokenFilter
|
使用 Java 正则表达式发出多个令牌 - 一个或多个模式中的每个捕获组一个令牌。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternCaptureGroupTokenFilter.html
|
PatternReplaceCharFilter
|
一个字符筛选器,用于替换输入字符串中的字符。 它使用正则表达式来标识要保留的字符序列,并使用替换模式来标识要替换的字符。 例如,给定输入文本“aa bb aa bb”、“模式” (aa) \s+ (bb) “和替换”$1#$2“,结果将为”aa#bb aa#bb”。 此字符筛选器是使用 Apache Lucene 实现的。
https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceCharFilter.html
|
PatternReplaceTokenFilter
|
一个字符筛选器,用于替换输入字符串中的字符。 它使用正则表达式来标识要保留的字符序列,并使用替换模式来标识要替换的字符。 例如,给定输入文本“aa bb aa bb”、“模式” (aa) \s+ (bb) “和替换”$1#$2“,结果将为”aa#bb aa#bb”。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceFilter.html
|
PatternTokenizer
|
使用正则表达式模式匹配来构造不同令牌的 Tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
|
PhoneticTokenFilter
|
为拼音匹配项创建标记。 此令牌筛选器是使用 Apache Lucene 实现的。
https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
|
RangeFacetResult<T>
|
范围方面查询结果的单个存储桶,用于报告字段值在特定范围内的文档数。
|
ResourceCounter
|
表示资源的使用情况和配额。
|
ScoringFunction
|
可在排名期间修改文档分数的函数的抽象基类。
https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index
|
ScoringParameter
|
表示要在评分函数中使用的参数值, (例如 referencePointParameter) 。
|
ScoringProfile
|
定义影响搜索查询评分的搜索索引的参数。
https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index
|
SearchContinuationToken
|
封装继续提取搜索结果所需的状态。 当Azure 认知搜索无法通过单个响应满足搜索请求时,这是必需的。
|
SearchParameters
|
用于筛选、排序、分面、分页和其他搜索查询行为的参数。
|
SearchRequestOptions
|
一组操作的其他参数。
|
SearchResult<T>
|
包含搜索查询找到的文档,以及关联的元数据。
|
SentimentSkill
|
文本分析正负情绪分析,评分为 0 到 1 范围内的浮点值。
https://docs.microsoft.com/azure/search/cognitive-search-skill-sentiment
|
SerializePropertyNamesAsCamelCaseAttribute
|
指示模型类型的公共属性应序列化为 camel 大小写,以便匹配搜索索引的字段名称。
|
ServiceCounters
|
表示服务级别资源计数器和配额。
|
ServiceLimits
|
表示各种服务级别限制。
|
ServiceStatistics
|
来自获取服务统计信息请求的响应。 如果成功,则包含服务级别计数器和限制。
|
ShaperSkill
|
用于重塑输出的技能。 它创建一个复杂类型来支持复合字段 (也称为多部分字段) 。
https://docs.microsoft.com/azure/search/cognitive-search-skill-shaper
|
ShingleTokenFilter
|
创建标记组合作为单个标记。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
|
Skill
|
技能的抽象基类。
https://docs.microsoft.com/azure/search/cognitive-search-predefined-skills
|
Skillset
|
技能列表。
https://docs.microsoft.com/azure/search/cognitive-search-tutorial-blob
|
SkillsetListResult
|
来自列表技能组请求的响应。 如果成功,则包含所有技能集的完整定义。
|
SnowballTokenFilter
|
使用 Snowball 生成的词干分析器来词干的筛选器。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
|
SoftDeleteColumnDeletionDetectionPolicy
|
定义实现软删除策略的数据删除检测策略。 它确定是否应根据指定的“软删除”列的值删除项。
|
SplitSkill
|
将字符串拆分为文本块的技能。
https://docs.microsoft.com/azure/search/cognitive-search-skill-textsplit
|
SqlIntegratedChangeTrackingPolicy
|
定义使用 Azure SQL Database 的集成更改跟踪功能捕获更改的数据更改检测策略。
|
StandardAnalyzer
|
标准 Apache Lucene 分析器;由标准 tokenizer、小写筛选器和停止筛选器组成。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardAnalyzer.html
|
StandardTokenizer
|
按照 Unicode 文本分段规则划分文本。 此 tokenizer 是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
|
StandardTokenizerV2
|
按照 Unicode 文本分段规则划分文本。 此 tokenizer 是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
|
StemmerOverrideTokenFilter
|
提供使用基于自定义字典的词干分解替代其他词干筛选器的功能。 任何字典词干术语都将标记为关键字,以便它们不会在链中通过词干分析器进行词干分解。 必须放在任何词干分解筛选器之前。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html
|
StemmerTokenFilter
|
特定于语言的词干筛选。 此令牌筛选器是使用 Apache Lucene 实现的。
https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
|
StopAnalyzer
|
将文本除以非字母;应用小写和非字标记筛选器。 此分析器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
|
StopwordsTokenFilter
|
从标记流中删除非索引字。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
|
Suggester
|
定义建议 API 应如何应用于索引中的一组字段。
|
SuggestParameters
|
用于筛选、排序、模糊匹配和其他建议查询行为的参数。
|
SuggestResult<T>
|
包含建议查询找到的文档以及关联的元数据的结果。
|
SynonymMap
|
表示同义词映射定义。
|
SynonymMapListResult
|
来自列表 SynonymMaps 请求的响应。 如果成功,则包含所有同义词映射的完整定义。
|
SynonymTokenFilter
|
匹配令牌流中的单字或多字同义词。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/synonym/SynonymFilter.html
|
TagScoringFunction
|
定义一个函数,该函数使用与给定标记列表匹配的字符串值提升文档分数。
https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index
|
TagScoringParameters
|
为标记评分函数提供参数值。
|
TextTranslationSkill
|
将文本从一种语言翻译成另一种语言的技能。
https://docs.microsoft.com/azure/search/cognitive-search-skill-text-translation
|
TextWeights
|
定义索引字段的权重,匹配项应提高搜索查询中的评分。
|
TokenFilter
|
标记筛选器的抽象基类。
https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search
|
TokenInfo
|
有关分析器返回的令牌的信息。
|
Tokenizer
|
tokenizer 的抽象基类。
https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search
|
TruncateTokenFilter
|
将字词截断为特定长度。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
|
UaxUrlEmailTokenizer
|
将 URL 和电子邮件标记为一个标记。 此 tokenizer 是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
|
UniqueTokenFilter
|
筛选出与前一个标记具有相同文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
|
ValueFacetResult<T>
|
简单或间隔方面查询结果的单个存储桶,用于报告字段在特定间隔内或具有特定值的文档数。
|
WebApiSkill
|
一种可以调用 Web API 终结点的技能,使你能够通过调用自定义代码来扩展技能集。
https://docs.microsoft.com/azure/search/cognitive-search-custom-skill-web-api
|
WordDelimiterTokenFilter
|
将字词拆分为子字,并对子字组执行可选转换。 此令牌筛选器是使用 Apache Lucene 实现的。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/WordDelimiterFilter.html
|