Indexes - List
검색 서비스에 사용할 수 있는 모든 인덱스를 나열합니다.
GET {endpoint}/indexes?api-version=2024-07-01
GET {endpoint}/indexes?$select={$select}&api-version=2024-07-01
URI 매개 변수
Name | In(다음 안에) | 필수 | 형식 | Description |
---|---|---|---|---|
endpoint
|
path | True |
string |
검색 서비스의 엔드포인트 URL입니다. |
api-version
|
query | True |
string |
클라이언트 API 버전입니다. |
$select
|
query |
string |
검색할 인덱스 정의의 최상위 속성을 선택합니다. JSON 속성 이름의 쉼표로 구분된 목록으로 지정되거나 모든 속성에 대해 '*'로 지정됩니다. 기본값은 모든 속성입니다. |
요청 헤더
Name | 필수 | 형식 | Description |
---|---|---|---|
x-ms-client-request-id |
string uuid |
디버깅에 도움이 되도록 요청과 함께 전송된 추적 ID입니다. |
응답
Name | 형식 | Description |
---|---|---|
200 OK | ||
Other Status Codes |
오류 응답입니다. |
예제
SearchServiceListIndexes
샘플 요청
GET https://myservice.search.windows.net/indexes?$select=*&api-version=2024-07-01
샘플 응답
{
"value": [
{
"name": "hotels",
"fields": [
{
"name": "hotelId",
"type": "Edm.String",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": true,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": []
},
{
"name": "baseRate",
"type": "Edm.Double",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": []
},
{
"name": "description",
"type": "Edm.String",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": []
},
{
"name": "description_fr",
"type": "Edm.String",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": "fr.lucene",
"synonymMaps": []
},
{
"name": "hotelName",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": []
},
{
"name": "category",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": []
},
{
"name": "tags",
"type": "Collection(Edm.String)",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": false,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": "tagsAnalyzer",
"synonymMaps": []
},
{
"name": "parkingIncluded",
"type": "Edm.Boolean",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": []
},
{
"name": "smokingAllowed",
"type": "Edm.Boolean",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": []
},
{
"name": "lastRenovationDate",
"type": "Edm.DateTimeOffset",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": []
},
{
"name": "rating",
"type": "Edm.Int32",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": []
},
{
"name": "location",
"type": "Edm.GeographyPoint",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": []
}
],
"scoringProfiles": [
{
"name": "geo",
"text": {
"weights": {
"hotelName": 5
}
},
"functions": [
{
"type": "distance",
"boost": 5,
"fieldName": "location",
"interpolation": "logarithmic",
"distance": {
"referencePointParameter": "currentLocation",
"boostingDistance": 10
}
}
]
}
],
"defaultScoringProfile": "geo",
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"hotelName"
]
}
],
"analyzers": [
{
"name": "tagsAnalyzer",
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"charFilters": [
"html_strip"
],
"tokenizer": "standard_v2"
}
],
"tokenizers": [],
"tokenFilters": [],
"charFilters": [],
"corsOptions": {
"allowedOrigins": [
"tempuri.org"
],
"maxAgeInSeconds": 60
},
"encryptionKey": {
"keyVaultKeyName": "myKeyName",
"keyVaultKeyVersion": "myKeyVersion",
"keyVaultUri": "https://myKeyVault.vault.azure.net",
"accessCredentials": null
},
"semantic": {
"configurations": [
{
"name": "semanticHotels",
"prioritizedFields": {
"titleField": {
"fieldName": "hotelName"
},
"prioritizedContentFields": [
{
"fieldName": "description"
},
{
"fieldName": "description_fr"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "tags"
},
{
"fieldName": "category"
}
]
}
}
]
}
},
{
"name": "testindex",
"fields": [
{
"name": "id",
"type": "Edm.String",
"searchable": false,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": true,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": []
},
{
"name": "hidden",
"type": "Edm.Double",
"searchable": false,
"filterable": true,
"retrievable": false,
"sortable": true,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": []
}
],
"scoringProfiles": [],
"defaultScoringProfile": null,
"suggesters": [],
"analyzers": [],
"tokenizers": [],
"tokenFilters": [],
"charFilters": [],
"corsOptions": null,
"encryptionKey": null
}
]
}
정의
Name | Description |
---|---|
Ascii |
처음 127개의 ASCII 문자("기본 라틴어" 유니코드 블록)에 없는 알파벳, 숫자 및 기호 유니코드 문자를 해당하는 ASCII 등가물로 변환합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Azure |
Azure Key Vault에 저장된 암호화 키에 대한 인증된 액세스에 사용되는 검색 서비스에 대해 생성된 등록된 애플리케이션의 자격 증명입니다. |
Azure |
Azure OpenAI 리소스를 사용하여 지정된 텍스트 입력에 대한 벡터 포함을 생성할 수 있습니다. |
Azure |
호출될 Azure Open AI 모델 이름입니다. |
Azure |
Azure OpenAI 리소스에 연결하기 위한 매개 변수를 지정합니다. |
Azure |
쿼리 문자열을 벡터화하는 데 사용되는 Azure OpenAI 리소스를 지정합니다. |
Binary |
인덱싱 및 쿼리 중에 사용되는 이진 양자화 압축 방법과 관련된 구성 옵션을 포함합니다. |
BM25Similarity |
Okapi BM25 유사성 알고리즘을 기반으로 하는 순위 함수입니다. BM25는 길이 정규화('b' 매개 변수에 의해 제어됨)와 용어 빈도 포화('k1' 매개 변수로 제어됨)를 포함하는 TF-IDF와 유사한 알고리즘입니다. |
Char |
검색 엔진에서 지원하는 모든 문자 필터의 이름을 정의합니다. |
Cjk |
표준 토케나이저에서 생성된 CJK 용어의 bigrams를 형성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Cjk |
CjkBigramTokenFilter에서 무시할 수 있는 스크립트입니다. |
Classic |
TF-IDF의 Lucene TFIDFSimilarity 구현을 사용하는 레거시 유사성 알고리즘입니다. 이러한 TF-IDF 변형은 정적 문서 길이 정규화뿐만 아니라 검색된 쿼리와 부분적으로만 일치하는 문서를 처벌하는 요인을 조정합니다. |
Classic |
대부분의 유럽 언어 문서를 처리하는 데 적합한 문법 기반 토큰 변환기입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
Common |
인덱싱하는 동안 자주 발생하는 용어에 대한 bigram을 생성합니다. 단일 용어도 여전히 인덱싱되며 bigrams가 오버레이됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Cors |
인덱스에 대한 CORS(원본 간 리소스 공유)를 제어하는 옵션을 정의합니다. |
Custom |
텍스트를 인덱싱 가능/검색 가능한 토큰으로 변환하는 프로세스를 제어할 수 있습니다. 미리 정의된 단일 토케나이저와 하나 이상의 필터로 구성된 사용자 정의 구성입니다. tokenizer는 텍스트를 토큰으로 분리하고 토큰 변환기에서 내보낸 토큰을 수정하기 위한 필터를 담당합니다. |
Dictionary |
여러 독일어 언어로 찾은 복합 단어를 분해합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Distance |
지리적 위치에서의 거리에 따라 점수를 높이는 함수를 정의합니다. |
Distance |
거리 점수 매기기 함수에 매개 변수 값을 제공합니다. |
Edge |
입력 토큰의 앞이나 뒷면에서 시작하여 지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Edge |
n-gram을 생성할 입력의 어느 쪽을 지정합니다. |
Edge |
입력 토큰의 앞이나 뒷면에서 시작하여 지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Edge |
에지의 입력을 지정된 크기의 n-gram으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
Elision |
엘리션을 제거합니다. 예를 들어 "l'avion"(평면)은 "avion"(평면)으로 변환됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Error |
리소스 관리 오류 추가 정보입니다. |
Error |
오류 세부 정보입니다. |
Error |
오류 응답 |
Exhaustive |
전체 KNN 알고리즘과 관련된 매개 변수를 포함합니다. |
Exhaustive |
전체 벡터 인덱스에 대해 무차별 암호 대입 검색을 수행하는 쿼리 중에 사용되는 전체 KNN 알고리즘과 관련된 구성 옵션을 포함합니다. |
Freshness |
날짜-시간 필드의 값에 따라 점수를 높이는 함수를 정의합니다. |
Freshness |
새로 고침 점수 매기기 함수에 매개 변수 값을 제공합니다. |
Hnsw |
HNSW 알고리즘과 관련된 매개 변수를 포함합니다. |
Hnsw |
인덱싱 및 쿼리 중에 사용되는 HNSW 근사한 인접 알고리즘과 관련된 구성 옵션을 포함합니다. HNSW 알고리즘은 검색 속도와 정확도 간에 조정 가능한 절차를 제공합니다. |
Input |
기술에 대한 입력 필드 매핑입니다. |
Keep |
지정된 단어 목록에 포함된 텍스트로만 토큰을 유지하는 토큰 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Keyword |
용어를 키워드로 표시합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Keyword |
전체 입력을 단일 토큰으로 내보낸다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
Keyword |
전체 입력을 단일 토큰으로 내보낸다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
Length |
너무 길거나 너무 짧은 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Lexical |
검색 엔진에서 지원하는 모든 텍스트 분석기의 이름을 정의합니다. |
Lexical |
검색 엔진에서 지원하는 모든 토큰화기의 이름을 정의합니다. |
Limit |
인덱싱하는 동안 토큰 수를 제한합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
List |
목록 인덱스 요청의 응답입니다. 성공하면 모든 인덱스의 전체 정의가 포함됩니다. |
Lucene |
표준 Apache Lucene 분석기; 표준 토큰라이저, 소문자 필터 및 중지 필터로 구성됩니다. |
Lucene |
유니코드 텍스트 구분 규칙에 따라 텍스트를 중단합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
Lucene |
유니코드 텍스트 구분 규칙에 따라 텍스트를 중단합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
Magnitude |
숫자 필드의 크기에 따라 점수를 높이는 함수를 정의합니다. |
Magnitude |
크기 점수 매기기 함수에 매개 변수 값을 제공합니다. |
Mapping |
매핑 옵션으로 정의된 매핑을 적용하는 문자 필터입니다. 일치는 greedy(지정된 포인트에서 가장 긴 패턴 일치)입니다. 대체는 빈 문자열이 될 수 있습니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다. |
Microsoft |
언어별 규칙을 사용하여 텍스트를 나누고 단어를 기본 형식으로 줄입니다. |
Microsoft |
언어별 규칙을 사용하여 텍스트를 나눕니다. |
Microsoft |
Microsoft 언어 형태소 분석 토큰화기에서 지원하는 언어를 나열합니다. |
Microsoft |
Microsoft 언어 토큰화기에서 지원하는 언어를 나열합니다. |
NGram |
지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
NGram |
지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
NGram |
입력을 지정된 크기의 n-gram으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
Output |
기술에 대한 출력 필드 매핑입니다. |
Path |
경로와 유사한 계층 구조에 대한 토큰 변환기입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
Pattern |
정규식 패턴을 통해 텍스트를 용어로 유연하게 구분합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다. |
Pattern |
Java regexes를 사용하여 하나 이상의 패턴으로 각 캡처 그룹에 대해 하나씩 여러 토큰을 내보낸다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Pattern |
입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고 대체 패턴을 사용하여 바꿀 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", 패턴 "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다. |
Pattern |
입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고 대체 패턴을 사용하여 바꿀 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", 패턴 "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Pattern |
regex 패턴 일치를 사용하여 고유 토큰을 생성하는 Tokenizer입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
Phonetic |
PhoneticTokenFilter와 함께 사용할 윗주 인코더의 유형을 식별합니다. |
Phonetic |
윗주 일치에 대한 토큰을 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Prioritized |
의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 제목, 콘텐츠 및 키워드 필드를 설명합니다. |
Regex |
패턴 분석기 및 패턴 토큰화기에서 정규식이 사용되는 방식을 제어하기 위해 결합할 수 있는 플래그를 정의합니다. |
Scalar |
스칼라 양자화와 관련된 매개 변수를 포함합니다. |
Scalar |
인덱싱 및 쿼리 중에 사용되는 스칼라 양자화 압축 방법과 관련된 구성 옵션을 포함합니다. |
Scoring |
점수 매기기 프로필에 있는 모든 점수 매기기 함수의 결과를 결합하는 데 사용되는 집계 함수를 정의합니다. |
Scoring |
문서 범위에서 점수 상승 보간에 사용되는 함수를 정의합니다. |
Scoring |
검색 쿼리의 점수 매기기 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다. |
Search |
필드의 이름, 데이터 형식 및 검색 동작을 설명하는 인덱스 정의의 필드를 나타냅니다. |
Search |
검색 인덱스에 있는 필드의 데이터 형식을 정의합니다. |
Search |
인덱스의 필드 및 검색 동작을 설명하는 검색 인덱스 정의를 나타냅니다. |
Search |
데이터 원본의 ID 속성을 지웁니다. |
Search |
사용할 데이터 원본의 ID를 지정합니다. |
Search |
Azure Key Vault의 고객 관리형 암호화 키입니다. 만들고 관리하는 키를 사용하여 인덱스 및 동의어 맵과 같은 미사용 데이터를 암호화하거나 암호 해독할 수 있습니다. |
Semantic |
의미 체계 기능의 컨텍스트에서 사용할 특정 구성을 정의합니다. |
Semantic |
의미 체계 구성의 일부로 사용되는 필드입니다. |
Semantic |
의미 체계 기능에 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다. |
Shingle |
토큰 조합을 단일 토큰으로 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Snowball |
Snowball에서 생성된 형태소 분석기를 사용하여 단어를 막는 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Snowball |
Snowball 토큰 필터에 사용할 언어입니다. |
Stemmer |
사용자 지정 사전 기반 형태소 분석으로 다른 형태소 분석 필터를 재정의하는 기능을 제공합니다. 사전 형태소 분석된 용어는 키워드로 표시되므로 체인의 형태소 분석기에서 형태소 분석되지 않습니다. 형태소 분석 필터 앞에 배치해야 합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Stemmer |
언어별 형태소 분석 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Stemmer |
형태소 분석기 토큰 필터에 사용할 언어입니다. |
Stop |
텍스트를 문자가 아닌 문자로 나눕니다. 소문자 및 중지 단어 토큰 필터를 적용합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다. |
Stopwords |
언어별 중지 단어의 미리 정의된 목록을 식별합니다. |
Stopwords |
토큰 스트림에서 중지 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Suggester |
인덱스의 필드 그룹에 Suggest API를 적용하는 방법을 정의합니다. |
Suggester |
제안기의 기능을 나타내는 값입니다. |
Synonym |
토큰 스트림에서 단일 또는 다중 단어 동의어를 찾습니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Tag |
지정된 태그 목록과 일치하는 문자열 값을 사용하여 문서의 점수를 높이는 함수를 정의합니다. |
Tag |
태그 점수 매기기 함수에 매개 변수 값을 제공합니다. |
Text |
일치 항목이 검색 쿼리에서 점수를 높여야 하는 인덱스 필드의 가중치를 정의합니다. |
Token |
토큰 필터가 작동할 수 있는 문자 클래스를 나타냅니다. |
Token |
검색 엔진에서 지원하는 모든 토큰 필터의 이름을 정의합니다. |
Truncate |
용어를 특정 길이로 자립니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Uax |
URL 및 전자 메일을 하나의 토큰으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
Unique |
이전 토큰과 동일한 텍스트로 토큰을 필터링합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Vector |
벡터 필드 내용을 해석하기 위한 인코딩 형식입니다. |
Vector |
벡터 검색과 관련된 구성 옵션을 포함합니다. |
Vector |
인덱싱 및 쿼리에 사용되는 알고리즘입니다. |
Vector |
벡터 비교에 사용할 유사성 메트릭입니다. 포함 모델이 학습된 것과 동일한 유사성 메트릭을 선택하는 것이 좋습니다. |
Vector |
인덱싱 및 쿼리에 사용되는 압축 메서드입니다. |
Vector |
압축된 벡터 값의 정량화된 데이터 형식입니다. |
Vector |
벡터 검색에 사용할 구성의 조합을 정의합니다. |
Vector |
쿼리 시간 동안 사용할 벡터화 메서드입니다. |
Web |
사용자 정의 벡터라이저에 연결하기 위한 속성을 지정합니다. |
Web |
쿼리 문자열의 벡터 포함을 생성하기 위한 사용자 정의 벡터라이저를 지정합니다. 외부 벡터라이저의 통합은 기술 세트의 사용자 지정 Web API 인터페이스를 사용하여 수행됩니다. |
Word |
단어를 하위 단어로 분할하고 하위 단어 그룹에서 선택적 변환을 수행합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
AsciiFoldingTokenFilter
처음 127개의 ASCII 문자("기본 라틴어" 유니코드 블록)에 없는 알파벳, 숫자 및 기호 유니코드 문자를 해당하는 ASCII 등가물로 변환합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
preserveOriginal |
boolean |
False |
원래 토큰을 유지할지 여부를 나타내는 값입니다. 기본값은 false입니다. |
AzureActiveDirectoryApplicationCredentials
Azure Key Vault에 저장된 암호화 키에 대한 인증된 액세스에 사용되는 검색 서비스에 대해 생성된 등록된 애플리케이션의 자격 증명입니다.
Name | 형식 | Description |
---|---|---|
applicationId |
string |
미사용 데이터를 암호화할 때 사용할 Azure Key Vault에 필요한 액세스 권한이 부여된 AAD 애플리케이션 ID입니다. 애플리케이션 ID는 AAD 애플리케이션의 개체 ID와 혼동해서는 안 됩니다. |
applicationSecret |
string |
지정된 AAD 애플리케이션의 인증 키입니다. |
AzureOpenAIEmbeddingSkill
Azure OpenAI 리소스를 사용하여 지정된 텍스트 입력에 대한 벡터 포함을 생성할 수 있습니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
기술 유형을 지정하는 URI 조각입니다. |
apiKey |
string |
지정된 Azure OpenAI 리소스의 API 키입니다. |
authIdentity | SearchIndexerDataIdentity: |
아웃바운드 연결에 사용되는 사용자 할당 관리 ID입니다. |
context |
string |
문서 루트 또는 문서 콘텐츠(예: /document 또는 /document/content)와 같은 작업이 수행되는 수준을 나타냅니다. 기본값은 /document입니다. |
deploymentId |
string |
지정된 리소스에 대한 Azure OpenAI 모델 배포의 ID입니다. |
description |
string |
기술의 입력, 출력 및 사용을 설명하는 기술에 대한 설명입니다. |
dimensions |
integer |
결과 출력 포함에 포함해야 하는 차원의 수입니다. text-embedding-3 이상 모델에서만 지원됩니다. |
inputs |
기술 입력은 원본 데이터 집합의 열 또는 업스트림 기술의 출력일 수 있습니다. |
|
modelName |
제공된 deploymentId 경로에 배포되는 포함 모델의 이름입니다. |
|
name |
string |
기술 세트 내에서 고유하게 식별하는 기술의 이름입니다. 이름이 정의되지 않은 기술에는 '#' 문자 앞에 접두사로 지정된 기술 배열에서 1부터 시작하는 인덱스의 기본 이름이 지정됩니다. |
outputs |
기술의 출력은 검색 인덱스의 필드이거나 다른 기술의 입력으로 사용할 수 있는 값입니다. |
|
resourceUri |
string |
Azure OpenAI 리소스의 리소스 URI입니다. |
AzureOpenAIModelName
호출될 Azure Open AI 모델 이름입니다.
Name | 형식 | Description |
---|---|---|
text-embedding-3-large |
string |
|
text-embedding-3-small |
string |
|
text-embedding-ada-002 |
string |
AzureOpenAIParameters
Azure OpenAI 리소스에 연결하기 위한 매개 변수를 지정합니다.
Name | 형식 | Description |
---|---|---|
apiKey |
string |
지정된 Azure OpenAI 리소스의 API 키입니다. |
authIdentity | SearchIndexerDataIdentity: |
아웃바운드 연결에 사용되는 사용자 할당 관리 ID입니다. |
deploymentId |
string |
지정된 리소스에 대한 Azure OpenAI 모델 배포의 ID입니다. |
modelName |
제공된 deploymentId 경로에 배포되는 포함 모델의 이름입니다. |
|
resourceUri |
string |
Azure OpenAI 리소스의 리소스 URI입니다. |
AzureOpenAIVectorizer
쿼리 문자열을 벡터화하는 데 사용되는 Azure OpenAI 리소스를 지정합니다.
Name | 형식 | Description |
---|---|---|
azureOpenAIParameters | AzureOpenAIParameters: |
Azure OpenAI 포함 벡터화와 관련된 매개 변수를 포함합니다. |
kind |
string:
azure |
벡터 검색에 사용하도록 구성되는 벡터화 메서드의 종류 이름입니다. |
name |
string |
이 특정 벡터화 메서드와 연결할 이름입니다. |
BinaryQuantizationVectorSearchCompressionConfiguration
인덱싱 및 쿼리 중에 사용되는 이진 양자화 압축 방법과 관련된 구성 옵션을 포함합니다.
Name | 형식 | Default value | Description |
---|---|---|---|
defaultOversampling |
number |
기본 오버샘플링 요소입니다. 오버샘플링은 내부적으로 초기 검색에서 더 많은 문서(이 승수로 지정됨)를 요청합니다. 이렇게 하면 전체 정밀도 벡터에서 다시 계산된 유사성 점수를 사용하여 다시 계산되는 결과 집합이 증가합니다. 최소값은 1이며, 이는 오버샘플링 없음(1x)을 의미합니다. 이 매개 변수는 rerankWithOriginalVectors가 true인 경우에만 설정할 수 있습니다. 값이 높을수록 대기 시간을 희생하여 회수가 향상됩니다. |
|
kind |
string:
binary |
벡터 검색에 사용하도록 구성되는 압축 방법의 이름입니다. |
|
name |
string |
이 특정 구성과 연결할 이름입니다. |
|
rerankWithOriginalVectors |
boolean |
True |
true로 설정하면 압축된 벡터를 사용하여 계산된 정렬된 결과 집합을 가져오면 전체 정밀도 유사성 점수를 다시 계산하여 다시 순위가 다시 지정됩니다. 이렇게 하면 대기 시간을 희생하여 회수가 향상됩니다. |
BM25Similarity
Okapi BM25 유사성 알고리즘을 기반으로 하는 순위 함수입니다. BM25는 길이 정규화('b' 매개 변수에 의해 제어됨)와 용어 빈도 포화('k1' 매개 변수로 제어됨)를 포함하는 TF-IDF와 유사한 알고리즘입니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
|
b |
number |
이 속성은 문서의 길이가 관련성 점수에 미치는 영향을 제어합니다. 기본적으로 0.75의 값이 사용됩니다. 값이 0.0이면 길이 정규화가 적용되지 않고 값이 1.0이면 문서 길이에 따라 점수가 완전히 정규화됩니다. |
k1 |
number |
이 속성은 일치하는 각 용어의 용어 빈도와 문서 쿼리 쌍의 최종 관련성 점수 사이의 크기 조정 함수를 제어합니다. 기본적으로 1.2의 값이 사용됩니다. 값이 0.0이면 용어 빈도가 증가하여 점수가 조정되지 않습니다. |
CharFilterName
검색 엔진에서 지원하는 모든 문자 필터의 이름을 정의합니다.
Name | 형식 | Description |
---|---|---|
html_strip |
string |
HTML 구문을 제거하려는 문자 필터입니다. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html 참조 |
CjkBigramTokenFilter
표준 토케나이저에서 생성된 CJK 용어의 bigrams를 형성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
ignoreScripts |
무시할 스크립트입니다. |
||
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
outputUnigrams |
boolean |
False |
유니그램과 bigrams(true인 경우) 또는 bigrams(false인 경우)만 출력할지를 나타내는 값입니다. 기본값은 false입니다. |
CjkBigramTokenFilterScripts
CjkBigramTokenFilter에서 무시할 수 있는 스크립트입니다.
Name | 형식 | Description |
---|---|---|
han |
string |
CJK 용어의 bigrams를 구성할 때 Han 스크립트를 무시합니다. |
hangul |
string |
CJK 용어의 bigrams를 구성할 때 한글 스크립트를 무시합니다. |
hiragana |
string |
CJK 용어의 bigrams를 구성할 때 히라가나 스크립트를 무시합니다. |
katakana |
string |
CJK 용어의 bigrams를 구성할 때 가타카나 스크립트를 무시합니다. |
ClassicSimilarity
TF-IDF의 Lucene TFIDFSimilarity 구현을 사용하는 레거시 유사성 알고리즘입니다. 이러한 TF-IDF 변형은 정적 문서 길이 정규화뿐만 아니라 검색된 쿼리와 부분적으로만 일치하는 문서를 처벌하는 요인을 조정합니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
ClassicTokenizer
대부분의 유럽 언어 문서를 처리하는 데 적합한 문법 기반 토큰 변환기입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰화기의 형식을 지정하는 URI 조각입니다. |
|
maxTokenLength |
integer |
255 |
최대 토큰 길이입니다. 기본값은 255입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다. |
name |
string |
tokenizer의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
CommonGramTokenFilter
인덱싱하는 동안 자주 발생하는 용어에 대한 bigram을 생성합니다. 단일 용어도 여전히 인덱싱되며 bigrams가 오버레이됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
commonWords |
string[] |
일반적인 단어 집합입니다. |
|
ignoreCase |
boolean |
False |
일치하는 일반적인 단어가 대/소문자를 구분하지 않는지 여부를 나타내는 값입니다. 기본값은 false입니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
queryMode |
boolean |
False |
토큰 필터가 쿼리 모드에 있는지 여부를 나타내는 값입니다. 쿼리 모드에서 토큰 필터는 bigrams를 생성한 다음 일반 단어와 단일 용어와 공통 단어를 제거합니다. 기본값은 false입니다. |
CorsOptions
인덱스에 대한 CORS(원본 간 리소스 공유)를 제어하는 옵션을 정의합니다.
Name | 형식 | Description |
---|---|---|
allowedOrigins |
string[] |
JavaScript 코드에서 인덱스에 대한 액세스 권한을 부여할 원본 목록입니다. {protocol}://{fully-qualified-domain-name}[:{port#}] 형식의 호스트 목록을 포함하거나 모든 원본을 허용하는 단일 '*' 목록을 포함할 수 있습니다(권장되지 않음). |
maxAgeInSeconds |
integer |
브라우저가 CORS 실행 전 응답을 캐시해야 하는 기간입니다. 기본값은 5분입니다. |
CustomAnalyzer
텍스트를 인덱싱 가능/검색 가능한 토큰으로 변환하는 프로세스를 제어할 수 있습니다. 미리 정의된 단일 토케나이저와 하나 이상의 필터로 구성된 사용자 정의 구성입니다. tokenizer는 텍스트를 토큰으로 분리하고 토큰 변환기에서 내보낸 토큰을 수정하기 위한 필터를 담당합니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
분석기 유형을 지정하는 URI 조각입니다. |
charFilters |
tokenizer에서 처리하기 전에 입력 텍스트를 준비하는 데 사용되는 문자 필터 목록입니다. 예를 들어 특정 문자 또는 기호를 바꿀 수 있습니다. 필터는 나열된 순서대로 실행됩니다. |
|
name |
string |
분석기의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
tokenFilters |
토큰 변환기에서 생성된 토큰을 필터링하거나 수정하는 데 사용되는 토큰 필터 목록입니다. 예를 들어 모든 문자를 소문자로 변환하는 소문자 필터를 지정할 수 있습니다. 필터는 나열된 순서대로 실행됩니다. |
|
tokenizer |
연속 텍스트를 일련의 토큰으로 나누는 데 사용할 토큰라이저의 이름입니다(예: 문장을 단어로 나누기). |
DictionaryDecompounderTokenFilter
여러 독일어 언어로 찾은 복합 단어를 분해합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
maxSubwordSize |
integer |
15 |
최대 하위 단어 크기입니다. 이보다 짧은 하위 단어만 출력됩니다. 기본값은 15입니다. 최대값은 300입니다. |
minSubwordSize |
integer |
2 |
최소 하위 단어 크기입니다. 이보다 긴 하위 단어만 출력됩니다. 기본값은 2입니다. 최대값은 300입니다. |
minWordSize |
integer |
5 |
최소 단어 크기입니다. 이보다 긴 단어만 처리됩니다. 기본값은 5입니다. 최대값은 300입니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
onlyLongestMatch |
boolean |
False |
출력에 가장 긴 일치 하위 단어만 추가할지 여부를 나타내는 값입니다. 기본값은 false입니다. |
wordList |
string[] |
일치시킬 단어 목록입니다. |
DistanceScoringFunction
지리적 위치에서의 거리에 따라 점수를 높이는 함수를 정의합니다.
Name | 형식 | Description |
---|---|---|
boost |
number |
원시 점수의 승수입니다. 1.0과 같지 않은 양수여야 합니다. |
distance |
거리 점수 매기기 함수의 매개 변수 값입니다. |
|
fieldName |
string |
채점 함수에 대한 입력으로 사용되는 필드의 이름입니다. |
interpolation |
문서 점수에서 부스팅을 보간하는 방법을 나타내는 값입니다. 기본값은 "선형"입니다. |
|
type |
string:
distance |
사용할 함수의 형식을 나타냅니다. 유효한 값은 크기, 새로 고침, 거리 및 태그를 포함합니다. 함수 형식은 소문자여야 합니다. |
DistanceScoringParameters
거리 점수 매기기 함수에 매개 변수 값을 제공합니다.
Name | 형식 | Description |
---|---|---|
boostingDistance |
number |
부스팅 범위가 끝나는 참조 위치에서 킬로미터 단위의 거리입니다. |
referencePointParameter |
string |
참조 위치를 지정하기 위해 검색 쿼리에 전달된 매개 변수의 이름입니다. |
EdgeNGramTokenFilter
입력 토큰의 앞이나 뒷면에서 시작하여 지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
maxGram |
integer |
2 |
최대 n-그램 길이입니다. 기본값은 2입니다. |
minGram |
integer |
1 |
최소 n-그램 길이입니다. 기본값은 1입니다. maxGram 값보다 작아야 합니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
side | front |
n-gram을 생성할 입력의 어느 쪽을 지정합니다. 기본값은 "front"입니다. |
EdgeNGramTokenFilterSide
n-gram을 생성할 입력의 어느 쪽을 지정합니다.
Name | 형식 | Description |
---|---|---|
back |
string |
n-gram을 입력의 뒷면에서 생성되도록 지정합니다. |
front |
string |
n-gram을 입력의 앞면에서 생성되도록 지정합니다. |
EdgeNGramTokenFilterV2
입력 토큰의 앞이나 뒷면에서 시작하여 지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
maxGram |
integer |
2 |
최대 n-그램 길이입니다. 기본값은 2입니다. 최대값은 300입니다. |
minGram |
integer |
1 |
최소 n-그램 길이입니다. 기본값은 1입니다. 최대값은 300입니다. maxGram 값보다 작아야 합니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
side | front |
n-gram을 생성할 입력의 어느 쪽을 지정합니다. 기본값은 "front"입니다. |
EdgeNGramTokenizer
에지의 입력을 지정된 크기의 n-gram으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰화기의 형식을 지정하는 URI 조각입니다. |
|
maxGram |
integer |
2 |
최대 n-그램 길이입니다. 기본값은 2입니다. 최대값은 300입니다. |
minGram |
integer |
1 |
최소 n-그램 길이입니다. 기본값은 1입니다. 최대값은 300입니다. maxGram 값보다 작아야 합니다. |
name |
string |
tokenizer의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
tokenChars |
토큰에 유지할 문자 클래스입니다. |
ElisionTokenFilter
엘리션을 제거합니다. 예를 들어 "l'avion"(평면)은 "avion"(평면)으로 변환됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
articles |
string[] |
제거할 문서 집합입니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
ErrorAdditionalInfo
리소스 관리 오류 추가 정보입니다.
Name | 형식 | Description |
---|---|---|
info |
object |
추가 정보입니다. |
type |
string |
추가 정보 유형입니다. |
ErrorDetail
오류 세부 정보입니다.
Name | 형식 | Description |
---|---|---|
additionalInfo |
오류 추가 정보입니다. |
|
code |
string |
오류 코드입니다. |
details |
오류 세부 정보입니다. |
|
message |
string |
오류 메시지입니다. |
target |
string |
오류 대상입니다. |
ErrorResponse
오류 응답
Name | 형식 | Description |
---|---|---|
error |
오류 개체입니다. |
ExhaustiveKnnParameters
전체 KNN 알고리즘과 관련된 매개 변수를 포함합니다.
Name | 형식 | Description |
---|---|---|
metric |
벡터 비교에 사용할 유사성 메트릭입니다. |
ExhaustiveKnnVectorSearchAlgorithmConfiguration
전체 벡터 인덱스에 대해 무차별 암호 대입 검색을 수행하는 쿼리 중에 사용되는 전체 KNN 알고리즘과 관련된 구성 옵션을 포함합니다.
Name | 형식 | Description |
---|---|---|
exhaustiveKnnParameters |
전체 KNN 알고리즘과 관련된 매개 변수를 포함합니다. |
|
kind |
string:
exhaustive |
벡터 검색에 사용하도록 구성되는 알고리즘 종류의 이름입니다. |
name |
string |
이 특정 구성과 연결할 이름입니다. |
FreshnessScoringFunction
날짜-시간 필드의 값에 따라 점수를 높이는 함수를 정의합니다.
Name | 형식 | Description |
---|---|---|
boost |
number |
원시 점수의 승수입니다. 1.0과 같지 않은 양수여야 합니다. |
fieldName |
string |
채점 함수에 대한 입력으로 사용되는 필드의 이름입니다. |
freshness |
새로 고침 점수 매기기 함수의 매개 변수 값입니다. |
|
interpolation |
문서 점수에서 부스팅을 보간하는 방법을 나타내는 값입니다. 기본값은 "선형"입니다. |
|
type |
string:
freshness |
사용할 함수의 형식을 나타냅니다. 유효한 값은 크기, 새로 고침, 거리 및 태그를 포함합니다. 함수 형식은 소문자여야 합니다. |
FreshnessScoringParameters
새로 고침 점수 매기기 함수에 매개 변수 값을 제공합니다.
Name | 형식 | Description |
---|---|---|
boostingDuration |
string |
특정 문서에 대해 상승이 중지되는 만료 기간입니다. |
HnswParameters
HNSW 알고리즘과 관련된 매개 변수를 포함합니다.
Name | 형식 | Default value | Description |
---|---|---|---|
efConstruction |
integer |
400 |
인덱스 시간 동안 사용되는 가장 가까운 인접 항목이 포함된 동적 목록의 크기입니다. 이 매개 변수를 늘리면 인덱싱 시간이 늘어나면서 인덱스 품질이 향상될 수 있습니다. 특정 시점에서 이 매개 변수를 늘리면 반환이 줄어듭니다. |
efSearch |
integer |
500 |
검색 시간 동안 사용되는 가장 가까운 인접 항목이 포함된 동적 목록의 크기입니다. 이 매개 변수를 늘리면 검색 결과가 향상되고 검색 속도가 느려질 수 있습니다. 특정 시점에서 이 매개 변수를 늘리면 반환이 줄어듭니다. |
m |
integer |
4 |
생성 중에 모든 새 요소에 대해 생성된 양방향 링크 수입니다. 이 매개 변수 값을 늘리면 메모리 사용량이 증가하고 인덱싱 시간이 길어지는 대신 내장 차원이 높은 데이터 세트에 대한 회수 및 검색 시간이 단축될 수 있습니다. |
metric |
벡터 비교에 사용할 유사성 메트릭입니다. |
HnswVectorSearchAlgorithmConfiguration
인덱싱 및 쿼리 중에 사용되는 HNSW 근사한 인접 알고리즘과 관련된 구성 옵션을 포함합니다. HNSW 알고리즘은 검색 속도와 정확도 간에 조정 가능한 절차를 제공합니다.
Name | 형식 | Description |
---|---|---|
hnswParameters |
HNSW 알고리즘과 관련된 매개 변수를 포함합니다. |
|
kind |
string:
hnsw |
벡터 검색에 사용하도록 구성되는 알고리즘 종류의 이름입니다. |
name |
string |
이 특정 구성과 연결할 이름입니다. |
InputFieldMappingEntry
기술에 대한 입력 필드 매핑입니다.
Name | 형식 | Description |
---|---|---|
inputs |
복합 형식을 만들 때 사용되는 재귀 입력입니다. |
|
name |
string |
입력의 이름입니다. |
source |
string |
입력의 소스입니다. |
sourceContext |
string |
재귀 입력을 선택하는 데 사용되는 원본 컨텍스트입니다. |
KeepTokenFilter
지정된 단어 목록에 포함된 텍스트로만 토큰을 유지하는 토큰 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
keepWords |
string[] |
유지할 단어 목록입니다. |
|
keepWordsCase |
boolean |
False |
모든 단어를 먼저 소문자로 할지 여부를 나타내는 값입니다. 기본값은 false입니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
KeywordMarkerTokenFilter
용어를 키워드로 표시합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
ignoreCase |
boolean |
False |
대/소문자를 무시할지 여부를 나타내는 값입니다. true이면 모든 단어가 먼저 소문자로 변환됩니다. 기본값은 false입니다. |
keywords |
string[] |
키워드로 표시할 단어 목록입니다. |
|
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
KeywordTokenizer
전체 입력을 단일 토큰으로 내보낸다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰화기의 형식을 지정하는 URI 조각입니다. |
|
bufferSize |
integer |
256 |
읽기 버퍼 크기(바이트)입니다. 기본값은 256입니다. |
name |
string |
tokenizer의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
KeywordTokenizerV2
전체 입력을 단일 토큰으로 내보낸다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰화기의 형식을 지정하는 URI 조각입니다. |
|
maxTokenLength |
integer |
256 |
최대 토큰 길이입니다. 기본값은 256입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다. |
name |
string |
tokenizer의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
LengthTokenFilter
너무 길거나 너무 짧은 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
max |
integer |
300 |
최대 문자 길이입니다. 기본값과 최대값은 300입니다. |
min |
integer |
0 |
최소 문자 길이입니다. 기본값은 0입니다. 최대값은 300입니다. max 값보다 작아야 합니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
LexicalAnalyzerName
검색 엔진에서 지원하는 모든 텍스트 분석기의 이름을 정의합니다.
Name | 형식 | Description |
---|---|---|
ar.lucene |
string |
아랍어용 Lucene 분석기입니다. |
ar.microsoft |
string |
아랍어용 Microsoft 분석기입니다. |
bg.lucene |
string |
불가리아어용 Lucene 분석기입니다. |
bg.microsoft |
string |
불가리아어용 Microsoft 분석기입니다. |
bn.microsoft |
string |
Bangla용 Microsoft 분석기입니다. |
ca.lucene |
string |
카탈로니아어 Lucene 분석기입니다. |
ca.microsoft |
string |
카탈로니아어용 Microsoft 분석기입니다. |
cs.lucene |
string |
체코어용 Lucene 분석기입니다. |
cs.microsoft |
string |
체코어용 Microsoft 분석기입니다. |
da.lucene |
string |
덴마크어용 Lucene 분석기입니다. |
da.microsoft |
string |
덴마크어용 Microsoft 분석기입니다. |
de.lucene |
string |
독일어용 Lucene 분석기입니다. |
de.microsoft |
string |
독일어용 Microsoft 분석기입니다. |
el.lucene |
string |
그리스어용 Lucene 분석기입니다. |
el.microsoft |
string |
그리스어용 Microsoft 분석기입니다. |
en.lucene |
string |
영어용 Lucene 분석기입니다. |
en.microsoft |
string |
영어용 Microsoft 분석기입니다. |
es.lucene |
string |
스페인어용 Lucene 분석기입니다. |
es.microsoft |
string |
스페인어용 Microsoft 분석기입니다. |
et.microsoft |
string |
에스토니아어용 Microsoft 분석기입니다. |
eu.lucene |
string |
Basque용 Lucene 분석기입니다. |
fa.lucene |
string |
페르시아어용 Lucene 분석기입니다. |
fi.lucene |
string |
핀란드어용 Lucene 분석기입니다. |
fi.microsoft |
string |
핀란드어용 Microsoft 분석기입니다. |
fr.lucene |
string |
프랑스어용 Lucene 분석기입니다. |
fr.microsoft |
string |
프랑스어용 Microsoft 분석기입니다. |
ga.lucene |
string |
아일랜드어용 Lucene 분석기입니다. |
gl.lucene |
string |
Galician용 Lucene 분석기입니다. |
gu.microsoft |
string |
Gujarati용 Microsoft 분석기입니다. |
he.microsoft |
string |
히브리어용 Microsoft 분석기. |
hi.lucene |
string |
힌디어용 Lucene 분석기입니다. |
hi.microsoft |
string |
힌디어용 Microsoft 분석기입니다. |
hr.microsoft |
string |
크로아티아어용 Microsoft 분석기입니다. |
hu.lucene |
string |
헝가리어용 Lucene 분석기입니다. |
hu.microsoft |
string |
헝가리어용 Microsoft 분석기입니다. |
hy.lucene |
string |
아르메니아어용 Lucene 분석기입니다. |
id.lucene |
string |
인도네시아어용 Lucene 분석기입니다. |
id.microsoft |
string |
인도네시아어용 Microsoft 분석기(Bahasa). |
is.microsoft |
string |
아이슬란드어용 Microsoft 분석기입니다. |
it.lucene |
string |
이탈리아어용 Lucene 분석기입니다. |
it.microsoft |
string |
이탈리아어용 Microsoft 분석기입니다. |
ja.lucene |
string |
일본어용 Lucene 분석기입니다. |
ja.microsoft |
string |
일본어용 Microsoft 분석기입니다. |
keyword |
string |
필드의 전체 콘텐츠를 단일 토큰으로 처리합니다. 이는 우편 번호, ID 및 일부 제품 이름과 같은 데이터에 유용합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html 참조 |
kn.microsoft |
string |
Kannada용 Microsoft 분석기입니다. |
ko.lucene |
string |
한국어용 Lucene 분석기입니다. |
ko.microsoft |
string |
한국어용 Microsoft 분석기입니다. |
lt.microsoft |
string |
리투아니아어용 Microsoft 분석기입니다. |
lv.lucene |
string |
라트비아어용 Lucene 분석기입니다. |
lv.microsoft |
string |
라트비아어용 Microsoft 분석기입니다. |
ml.microsoft |
string |
Malayalam용 Microsoft 분석기입니다. |
mr.microsoft |
string |
Marathi용 Microsoft 분석기입니다. |
ms.microsoft |
string |
말레이어용 Microsoft 분석기(라틴 문자) |
nb.microsoft |
string |
노르웨이어용 Microsoft 분석기(Bokmål). |
nl.lucene |
string |
네덜란드어용 Lucene 분석기입니다. |
nl.microsoft |
string |
네덜란드어용 Microsoft 분석기입니다. |
no.lucene |
string |
노르웨이어용 Lucene 분석기입니다. |
pa.microsoft |
string |
펀자브어용 Microsoft 분석기입니다. |
pattern |
string |
정규식 패턴을 통해 텍스트를 용어로 유연하게 구분합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html 참조 |
pl.lucene |
string |
폴란드어용 Lucene 분석기입니다. |
pl.microsoft |
string |
폴란드어용 Microsoft 분석기입니다. |
pt-BR.lucene |
string |
포르투갈어(브라질)용 Lucene 분석기입니다. |
pt-BR.microsoft |
string |
포르투갈어(브라질)용 Microsoft 분석기입니다. |
pt-PT.lucene |
string |
포르투갈어(포르투갈)용 Lucene 분석기입니다. |
pt-PT.microsoft |
string |
포르투갈어(포르투갈)용 Microsoft 분석기입니다. |
ro.lucene |
string |
루마니아어 Lucene 분석기입니다. |
ro.microsoft |
string |
루마니아어용 Microsoft 분석기입니다. |
ru.lucene |
string |
러시아어용 Lucene 분석기입니다. |
ru.microsoft |
string |
러시아어용 Microsoft 분석기입니다. |
simple |
string |
텍스트를 문자가 아닌 문자로 나누고 소문자로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html 참조 |
sk.microsoft |
string |
슬로바키아어용 Microsoft 분석기입니다. |
sl.microsoft |
string |
슬로베니아어용 Microsoft 분석기입니다. |
sr-cyrillic.microsoft |
string |
세르비아어용 Microsoft 분석기(키릴 자모). |
sr-latin.microsoft |
string |
세르비아어(라틴어)용 Microsoft 분석기입니다. |
standard.lucene |
string |
표준 Lucene 분석기입니다. |
standardasciifolding.lucene |
string |
표준 ASCII 접기 Lucene 분석기입니다. https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers 참조 |
stop |
string |
텍스트를 문자가 아닌 문자로 나눕니다. 소문자 및 중지 단어 토큰 필터를 적용합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html 참조 |
sv.lucene |
string |
스웨덴어용 Lucene 분석기입니다. |
sv.microsoft |
string |
스웨덴어용 Microsoft 분석기입니다. |
ta.microsoft |
string |
타밀어용 Microsoft 분석기. |
te.microsoft |
string |
Telugu용 Microsoft 분석기입니다. |
th.lucene |
string |
태국어용 Lucene 분석기입니다. |
th.microsoft |
string |
태국어용 Microsoft 분석기입니다. |
tr.lucene |
string |
터키어용 Lucene 분석기입니다. |
tr.microsoft |
string |
터키어용 Microsoft 분석기입니다. |
uk.microsoft |
string |
우크라이나어용 Microsoft 분석기입니다. |
ur.microsoft |
string |
Urdu용 Microsoft 분석기입니다. |
vi.microsoft |
string |
베트남어용 Microsoft 분석기입니다. |
whitespace |
string |
공백 토큰화기를 사용하는 분석기입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html 참조 |
zh-Hans.lucene |
string |
중국어(간체)용 Lucene 분석기입니다. |
zh-Hans.microsoft |
string |
중국어용 Microsoft 분석기(간체). |
zh-Hant.lucene |
string |
중국어(번체)용 Lucene 분석기입니다. |
zh-Hant.microsoft |
string |
중국어(번체)용 Microsoft 분석기입니다. |
LexicalTokenizerName
검색 엔진에서 지원하는 모든 토큰화기의 이름을 정의합니다.
LimitTokenFilter
인덱싱하는 동안 토큰 수를 제한합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
consumeAllTokens |
boolean |
False |
maxTokenCount에 도달한 경우에도 입력의 모든 토큰을 사용해야 하는지 여부를 나타내는 값입니다. 기본값은 false입니다. |
maxTokenCount |
integer |
1 |
생성할 최대 토큰 수입니다. 기본값은 1입니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
ListIndexesResult
목록 인덱스 요청의 응답입니다. 성공하면 모든 인덱스의 전체 정의가 포함됩니다.
Name | 형식 | Description |
---|---|---|
value |
Search 서비스의 인덱스입니다. |
LuceneStandardAnalyzer
표준 Apache Lucene 분석기; 표준 토큰라이저, 소문자 필터 및 중지 필터로 구성됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
분석기 유형을 지정하는 URI 조각입니다. |
|
maxTokenLength |
integer |
255 |
최대 토큰 길이입니다. 기본값은 255입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다. |
name |
string |
분석기의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
stopwords |
string[] |
중지 단어 목록입니다. |
LuceneStandardTokenizer
유니코드 텍스트 구분 규칙에 따라 텍스트를 중단합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰화기의 형식을 지정하는 URI 조각입니다. |
|
maxTokenLength |
integer |
255 |
최대 토큰 길이입니다. 기본값은 255입니다. 최대 길이보다 긴 토큰은 분할됩니다. |
name |
string |
tokenizer의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
LuceneStandardTokenizerV2
유니코드 텍스트 구분 규칙에 따라 텍스트를 중단합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰화기의 형식을 지정하는 URI 조각입니다. |
|
maxTokenLength |
integer |
255 |
최대 토큰 길이입니다. 기본값은 255입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다. |
name |
string |
tokenizer의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
MagnitudeScoringFunction
숫자 필드의 크기에 따라 점수를 높이는 함수를 정의합니다.
Name | 형식 | Description |
---|---|---|
boost |
number |
원시 점수의 승수입니다. 1.0과 같지 않은 양수여야 합니다. |
fieldName |
string |
채점 함수에 대한 입력으로 사용되는 필드의 이름입니다. |
interpolation |
문서 점수에서 부스팅을 보간하는 방법을 나타내는 값입니다. 기본값은 "선형"입니다. |
|
magnitude |
크기 채점 함수의 매개 변수 값입니다. |
|
type |
string:
magnitude |
사용할 함수의 형식을 나타냅니다. 유효한 값은 크기, 새로 고침, 거리 및 태그를 포함합니다. 함수 형식은 소문자여야 합니다. |
MagnitudeScoringParameters
크기 점수 매기기 함수에 매개 변수 값을 제공합니다.
Name | 형식 | Description |
---|---|---|
boostingRangeEnd |
number |
부스팅이 끝나는 필드 값입니다. |
boostingRangeStart |
number |
부스팅이 시작되는 필드 값입니다. |
constantBoostBeyondRange |
boolean |
범위 끝 값을 초과하는 필드 값에 상수 부스트를 적용할지 여부를 나타내는 값입니다. 기본값은 false입니다. |
MappingCharFilter
매핑 옵션으로 정의된 매핑을 적용하는 문자 필터입니다. 일치는 greedy(지정된 포인트에서 가장 긴 패턴 일치)입니다. 대체는 빈 문자열이 될 수 있습니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
char 필터의 형식을 지정하는 URI 조각입니다. |
mappings |
string[] |
다음 형식의 매핑 목록입니다. "a=>b"(문자 "a"의 모든 항목은 문자 "b"로 바뀝니다). |
name |
string |
char 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
MicrosoftLanguageStemmingTokenizer
언어별 규칙을 사용하여 텍스트를 나누고 단어를 기본 형식으로 줄입니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰화기의 형식을 지정하는 URI 조각입니다. |
|
isSearchTokenizer |
boolean |
False |
토큰화기를 사용하는 방법을 나타내는 값입니다. 검색 토큰라이저로 사용되는 경우 true로 설정하고, 인덱싱 토큰라이저로 사용되는 경우 false로 설정합니다. 기본값은 false입니다. |
language |
사용할 언어입니다. 기본값은 영어입니다. |
||
maxTokenLength |
integer |
255 |
최대 토큰 길이입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다. 300자보다 긴 토큰은 먼저 길이가 300인 토큰으로 분할된 다음 각 토큰은 최대 토큰 길이 집합에 따라 분할됩니다. 기본값은 255입니다. |
name |
string |
tokenizer의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
MicrosoftLanguageTokenizer
언어별 규칙을 사용하여 텍스트를 나눕니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰화기의 형식을 지정하는 URI 조각입니다. |
|
isSearchTokenizer |
boolean |
False |
토큰화기를 사용하는 방법을 나타내는 값입니다. 검색 토큰라이저로 사용되는 경우 true로 설정하고, 인덱싱 토큰라이저로 사용되는 경우 false로 설정합니다. 기본값은 false입니다. |
language |
사용할 언어입니다. 기본값은 영어입니다. |
||
maxTokenLength |
integer |
255 |
최대 토큰 길이입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다. 300자보다 긴 토큰은 먼저 길이가 300인 토큰으로 분할된 다음 각 토큰은 최대 토큰 길이 집합에 따라 분할됩니다. 기본값은 255입니다. |
name |
string |
tokenizer의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
MicrosoftStemmingTokenizerLanguage
Microsoft 언어 형태소 분석 토큰화기에서 지원하는 언어를 나열합니다.
Name | 형식 | Description |
---|---|---|
arabic |
string |
아랍어에 대한 Microsoft 형태소 분석 토큰화기를 선택합니다. |
bangla |
string |
Bangla용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
bulgarian |
string |
불가리아어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
catalan |
string |
카탈로니아어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
croatian |
string |
크로아티아어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
czech |
string |
체코어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
danish |
string |
덴마크어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
dutch |
string |
네덜란드어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
english |
string |
영어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
estonian |
string |
에스토니아어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
finnish |
string |
핀란드어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
french |
string |
프랑스어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
german |
string |
독일어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
greek |
string |
그리스어로 Microsoft 형태소 분석 토케나이저를 선택합니다. |
gujarati |
string |
Gujarati에 대한 Microsoft 형태소 분석 토큰화기를 선택합니다. |
hebrew |
string |
히브리어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
hindi |
string |
힌디어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
hungarian |
string |
헝가리어에 대한 Microsoft 형태소 분석 토큰화기를 선택합니다. |
icelandic |
string |
아이슬란드에 대한 Microsoft 형태소 분석 토큰화기를 선택합니다. |
indonesian |
string |
인도네시아어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
italian |
string |
이탈리아어로 Microsoft 형태소 분석 토케나이저를 선택합니다. |
kannada |
string |
Kannada용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
latvian |
string |
라트비아어에 대한 Microsoft 형태소 분석 토큰화기를 선택합니다. |
lithuanian |
string |
리투아니아어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
malay |
string |
말레이어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
malayalam |
string |
Malayalam에 대한 Microsoft 형태소 분석 토큰화기를 선택합니다. |
marathi |
string |
Marathi용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
norwegianBokmaal |
string |
노르웨이어(Bokmål)용 Microsoft 형태소 분석 토크나이저를 선택합니다. |
polish |
string |
폴란드어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
portuguese |
string |
포르투갈어용 Microsoft 형태소 분석 토큰화기를 선택합니다. |
portugueseBrazilian |
string |
포르투갈어(브라질)에 대한 Microsoft 형태소 분석 토케나이저를 선택합니다. |
punjabi |
string |
펀자브에 대한 Microsoft 형태소 분석 토큰 변환기를 선택합니다. |
romanian |
string |
루마니아어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
russian |
string |
러시아어용 Microsoft 형태소 분석 토큰화기를 선택합니다. |
serbianCyrillic |
string |
세르비아어(키릴 자모)에 대한 Microsoft 형태소 분석 토케나이저를 선택합니다. |
serbianLatin |
string |
세르비아어(라틴 문자)에 대한 Microsoft 형태소 분석 토케나이저를 선택합니다. |
slovak |
string |
슬로바키아어로 Microsoft 형태소 분석 토케나이저를 선택합니다. |
slovenian |
string |
슬로베니아어에 대한 Microsoft 형태소 분석 토케나이저를 선택합니다. |
spanish |
string |
스페인어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
swedish |
string |
스웨덴어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
tamil |
string |
타밀어에 대한 Microsoft 형태소 분석 토케나이저를 선택합니다. |
telugu |
string |
Telugu용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
turkish |
string |
터키어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
ukrainian |
string |
우크라이나어용 Microsoft 형태소 분석 토케나이저를 선택합니다. |
urdu |
string |
Urdu에 대한 Microsoft 형태소 분석 토큰화기를 선택합니다. |
MicrosoftTokenizerLanguage
Microsoft 언어 토큰화기에서 지원하는 언어를 나열합니다.
Name | 형식 | Description |
---|---|---|
bangla |
string |
Bangla용 Microsoft 토케나이저를 선택합니다. |
bulgarian |
string |
불가리아어용 Microsoft 토케나이저를 선택합니다. |
catalan |
string |
카탈로니아어용 Microsoft tokenizer를 선택합니다. |
chineseSimplified |
string |
중국어용 Microsoft 토케나이저를 선택합니다(간체). |
chineseTraditional |
string |
중국어(번체)용 Microsoft 토케나이저를 선택합니다. |
croatian |
string |
크로아티아어용 Microsoft 토케나이저를 선택합니다. |
czech |
string |
체코어용 Microsoft tokenizer를 선택합니다. |
danish |
string |
덴마크어용 Microsoft 토케나이저를 선택합니다. |
dutch |
string |
네덜란드어용 Microsoft 토케나이저를 선택합니다. |
english |
string |
영어용 Microsoft tokenizer를 선택합니다. |
french |
string |
프랑스어용 Microsoft 토케나이저를 선택합니다. |
german |
string |
독일어용 Microsoft 토케나이저를 선택합니다. |
greek |
string |
그리스어로 Microsoft 토큰화기를 선택합니다. |
gujarati |
string |
구자라트어용 Microsoft 토큰화기를 선택합니다. |
hindi |
string |
힌디어용 Microsoft 토케나이저를 선택합니다. |
icelandic |
string |
아이슬란드어로 Microsoft 토케나이저를 선택합니다. |
indonesian |
string |
인도네시아어용 Microsoft 토케나이저를 선택합니다. |
italian |
string |
이탈리아어용 Microsoft 토케나이저를 선택합니다. |
japanese |
string |
일본어용 Microsoft 토케나이저를 선택합니다. |
kannada |
string |
Kannada용 Microsoft tokenizer를 선택합니다. |
korean |
string |
한국어용 Microsoft 토케나이저를 선택합니다. |
malay |
string |
말레이어용 Microsoft tokenizer를 선택합니다. |
malayalam |
string |
Malayalam용 Microsoft tokenizer를 선택합니다. |
marathi |
string |
Marathi용 Microsoft tokenizer를 선택합니다. |
norwegianBokmaal |
string |
노르웨이어(Bokmål)용 Microsoft 토크나이저를 선택합니다. |
polish |
string |
폴란드어용 Microsoft tokenizer를 선택합니다. |
portuguese |
string |
포르투갈어용 Microsoft tokenizer를 선택합니다. |
portugueseBrazilian |
string |
포르투갈어(브라질)용 Microsoft 토케나이저를 선택합니다. |
punjabi |
string |
펀잡어용 Microsoft 토큰 변환기를 선택합니다. |
romanian |
string |
루마니아어용 Microsoft tokenizer를 선택합니다. |
russian |
string |
러시아어용 Microsoft tokenizer를 선택합니다. |
serbianCyrillic |
string |
세르비아어(키릴 자모)용 Microsoft 토케나이저를 선택합니다. |
serbianLatin |
string |
세르비아어(라틴어)에 대한 Microsoft 토큰화기를 선택합니다. |
slovenian |
string |
슬로베니아어용 Microsoft tokenizer를 선택합니다. |
spanish |
string |
스페인어용 Microsoft tokenizer를 선택합니다. |
swedish |
string |
스웨덴어용 Microsoft tokenizer를 선택합니다. |
tamil |
string |
타밀어용 Microsoft 토케나이저를 선택합니다. |
telugu |
string |
Telugu용 Microsoft tokenizer를 선택합니다. |
thai |
string |
태국어용 Microsoft tokenizer를 선택합니다. |
ukrainian |
string |
우크라이나어용 Microsoft tokenizer를 선택합니다. |
urdu |
string |
Urdu용 Microsoft 토큰화기를 선택합니다. |
vietnamese |
string |
베트남어용 Microsoft 토케나이저를 선택합니다. |
NGramTokenFilter
지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
maxGram |
integer |
2 |
최대 n-그램 길이입니다. 기본값은 2입니다. |
minGram |
integer |
1 |
최소 n-그램 길이입니다. 기본값은 1입니다. maxGram 값보다 작아야 합니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
NGramTokenFilterV2
지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
maxGram |
integer |
2 |
최대 n-그램 길이입니다. 기본값은 2입니다. 최대값은 300입니다. |
minGram |
integer |
1 |
최소 n-그램 길이입니다. 기본값은 1입니다. 최대값은 300입니다. maxGram 값보다 작아야 합니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
NGramTokenizer
입력을 지정된 크기의 n-gram으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰화기의 형식을 지정하는 URI 조각입니다. |
|
maxGram |
integer |
2 |
최대 n-그램 길이입니다. 기본값은 2입니다. 최대값은 300입니다. |
minGram |
integer |
1 |
최소 n-그램 길이입니다. 기본값은 1입니다. 최대값은 300입니다. maxGram 값보다 작아야 합니다. |
name |
string |
tokenizer의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
tokenChars |
토큰에 유지할 문자 클래스입니다. |
OutputFieldMappingEntry
기술에 대한 출력 필드 매핑입니다.
Name | 형식 | Description |
---|---|---|
name |
string |
기술에서 정의한 출력의 이름입니다. |
targetName |
string |
출력의 대상 이름입니다. 선택 사항이며 기본적으로 이름을 지정합니다. |
PathHierarchyTokenizerV2
경로와 유사한 계층 구조에 대한 토큰 변환기입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰화기의 형식을 지정하는 URI 조각입니다. |
|
delimiter |
string |
/ |
사용할 구분 기호 문자입니다. 기본값은 "/"입니다. |
maxTokenLength |
integer |
300 |
최대 토큰 길이입니다. 기본값과 최대값은 300입니다. |
name |
string |
tokenizer의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
replacement |
string |
/ |
설정된 경우 구분 기호 문자를 대체하는 값입니다. 기본값은 "/"입니다. |
reverse |
boolean |
False |
토큰을 역순으로 생성할지 여부를 나타내는 값입니다. 기본값은 false입니다. |
skip |
integer |
0 |
건너뛸 초기 토큰의 수입니다. 기본값은 0입니다. |
PatternAnalyzer
정규식 패턴을 통해 텍스트를 용어로 유연하게 구분합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
분석기 유형을 지정하는 URI 조각입니다. |
|
flags |
정규식 플래그입니다. |
||
lowercase |
boolean |
True |
용어가 소문자여야 하는지 여부를 나타내는 값입니다. 기본값은 true입니다. |
name |
string |
분석기의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
pattern |
string |
\W+ |
토큰 구분 기호와 일치하는 정규식 패턴입니다. 기본값은 하나 이상의 단어가 아닌 문자와 일치하는 식입니다. |
stopwords |
string[] |
중지 단어 목록입니다. |
PatternCaptureTokenFilter
Java regexes를 사용하여 하나 이상의 패턴으로 각 캡처 그룹에 대해 하나씩 여러 토큰을 내보낸다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
patterns |
string[] |
각 토큰에 대해 일치시킬 패턴 목록입니다. |
|
preserveOriginal |
boolean |
True |
패턴 중 하나가 일치하는 경우에도 원래 토큰을 반환할지 여부를 나타내는 값입니다. 기본값은 true입니다. |
PatternReplaceCharFilter
입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고 대체 패턴을 사용하여 바꿀 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", 패턴 "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
char 필터의 형식을 지정하는 URI 조각입니다. |
name |
string |
char 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
pattern |
string |
정규식 패턴입니다. |
replacement |
string |
대체 텍스트입니다. |
PatternReplaceTokenFilter
입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고 대체 패턴을 사용하여 바꿀 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", 패턴 "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
pattern |
string |
정규식 패턴입니다. |
replacement |
string |
대체 텍스트입니다. |
PatternTokenizer
regex 패턴 일치를 사용하여 고유 토큰을 생성하는 Tokenizer입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰화기의 형식을 지정하는 URI 조각입니다. |
|
flags |
정규식 플래그입니다. |
||
group |
integer |
-1 |
토큰으로 추출할 정규식 패턴에서 일치하는 그룹의 0부터 시작하는 서수입니다. 일치하는 그룹에 관계없이 전체 패턴을 사용하여 입력을 토큰으로 분할하려는 경우 -1 사용합니다. 기본값은 -1입니다. |
name |
string |
tokenizer의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
pattern |
string |
\W+ |
토큰 구분 기호와 일치하는 정규식 패턴입니다. 기본값은 하나 이상의 단어가 아닌 문자와 일치하는 식입니다. |
PhoneticEncoder
PhoneticTokenFilter와 함께 사용할 윗주 인코더의 유형을 식별합니다.
Name | 형식 | Description |
---|---|---|
beiderMorse |
string |
토큰을 Beider-Morse 값으로 인코딩합니다. |
caverphone1 |
string |
토큰을 Caverphone 1.0 값으로 인코딩합니다. |
caverphone2 |
string |
토큰을 Caverphone 2.0 값으로 인코딩합니다. |
cologne |
string |
토큰을 쾰른 윗주 값으로 인코딩합니다. |
doubleMetaphone |
string |
토큰을 이중 메타폰 값으로 인코딩합니다. |
haasePhonetik |
string |
Kölner Phonetik 알고리즘의 Haase 구체화를 사용하여 토큰을 인코딩합니다. |
koelnerPhonetik |
string |
Kölner Phonetik 알고리즘을 사용하여 토큰을 인코딩합니다. |
metaphone |
string |
토큰을 Metaphone 값으로 인코딩합니다. |
nysiis |
string |
토큰을 NYSIIS 값으로 인코딩합니다. |
refinedSoundex |
string |
토큰을 구체화된 Soundex 값으로 인코딩합니다. |
soundex |
string |
토큰을 Soundex 값으로 인코딩합니다. |
PhoneticTokenFilter
윗주 일치에 대한 토큰을 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
encoder | metaphone |
사용할 윗주 인코더입니다. 기본값은 "메타폰"입니다. |
|
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
replace |
boolean |
True |
인코딩된 토큰이 원래 토큰을 대체해야 하는지 여부를 나타내는 값입니다. false이면 인코딩된 토큰이 동의어로 추가됩니다. 기본값은 true입니다. |
PrioritizedFields
의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 제목, 콘텐츠 및 키워드 필드를 설명합니다.
Name | 형식 | Description |
---|---|---|
prioritizedContentFields |
의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 콘텐츠 필드를 정의합니다. 최상의 결과를 위해 선택한 필드에 자연어 형식의 텍스트가 포함되어야 합니다. 배열의 필드 순서는 해당 우선 순위를 나타냅니다. 콘텐츠가 길면 우선 순위가 낮은 필드가 잘려질 수 있습니다. |
|
prioritizedKeywordsFields |
의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 키워드 필드를 정의합니다. 최상의 결과를 얻으려면 선택한 필드에 키워드 목록이 포함되어야 합니다. 배열의 필드 순서는 해당 우선 순위를 나타냅니다. 콘텐츠가 길면 우선 순위가 낮은 필드가 잘려질 수 있습니다. |
|
titleField |
의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 제목 필드를 정의합니다. 인덱스의 제목 필드가 없는 경우 이 필드를 비워 둡니다. |
RegexFlags
패턴 분석기 및 패턴 토큰화기에서 정규식이 사용되는 방식을 제어하기 위해 결합할 수 있는 플래그를 정의합니다.
Name | 형식 | Description |
---|---|---|
CANON_EQ |
string |
정식 동등성을 사용하도록 설정합니다. |
CASE_INSENSITIVE |
string |
대/소문자를 구분하지 않는 일치를 사용하도록 설정합니다. |
COMMENTS |
string |
패턴에서 공백 및 주석을 허용합니다. |
DOTALL |
string |
dotall 모드를 사용하도록 설정합니다. |
LITERAL |
string |
패턴의 리터럴 구문 분석을 사용하도록 설정합니다. |
MULTILINE |
string |
여러 줄 모드를 사용하도록 설정합니다. |
UNICODE_CASE |
string |
유니코드 인식 대/소문자 접을 수 있습니다. |
UNIX_LINES |
string |
Unix 줄 모드를 사용하도록 설정합니다. |
ScalarQuantizationParameters
스칼라 양자화와 관련된 매개 변수를 포함합니다.
Name | 형식 | Description |
---|---|---|
quantizedDataType |
압축된 벡터 값의 정량화된 데이터 형식입니다. |
ScalarQuantizationVectorSearchCompressionConfiguration
인덱싱 및 쿼리 중에 사용되는 스칼라 양자화 압축 방법과 관련된 구성 옵션을 포함합니다.
Name | 형식 | Default value | Description |
---|---|---|---|
defaultOversampling |
number |
기본 오버샘플링 요소입니다. 오버샘플링은 내부적으로 초기 검색에서 더 많은 문서(이 승수로 지정됨)를 요청합니다. 이렇게 하면 전체 정밀도 벡터에서 다시 계산된 유사성 점수를 사용하여 다시 계산되는 결과 집합이 증가합니다. 최소값은 1이며, 이는 오버샘플링 없음(1x)을 의미합니다. 이 매개 변수는 rerankWithOriginalVectors가 true인 경우에만 설정할 수 있습니다. 값이 높을수록 대기 시간을 희생하여 회수가 향상됩니다. |
|
kind |
string:
scalar |
벡터 검색에 사용하도록 구성되는 압축 방법의 이름입니다. |
|
name |
string |
이 특정 구성과 연결할 이름입니다. |
|
rerankWithOriginalVectors |
boolean |
True |
true로 설정하면 압축된 벡터를 사용하여 계산된 정렬된 결과 집합을 가져오면 전체 정밀도 유사성 점수를 다시 계산하여 다시 순위가 다시 지정됩니다. 이렇게 하면 대기 시간을 희생하여 회수가 향상됩니다. |
scalarQuantizationParameters |
스칼라 양자화와 관련된 매개 변수를 포함합니다. |
ScoringFunctionAggregation
점수 매기기 프로필에 있는 모든 점수 매기기 함수의 결과를 결합하는 데 사용되는 집계 함수를 정의합니다.
Name | 형식 | Description |
---|---|---|
average |
string |
모든 점수 매기기 함수 결과의 평균으로 점수를 높입니다. |
firstMatching |
string |
점수 매기기 프로필에서 적용 가능한 첫 번째 점수 매기기 함수를 사용하여 점수를 높입니다. |
maximum |
string |
모든 점수 매기기 함수 결과의 최대값으로 점수를 높입니다. |
minimum |
string |
모든 점수 매기기 함수 결과의 최소값으로 점수를 높입니다. |
sum |
string |
모든 점수 매기기 함수 결과의 합계로 점수를 높입니다. |
ScoringFunctionInterpolation
문서 범위에서 점수 상승 보간에 사용되는 함수를 정의합니다.
Name | 형식 | Description |
---|---|---|
constant |
string |
일정한 요소로 점수를 높입니다. |
linear |
string |
선형적으로 감소하는 양만큼 점수를 높입니다. 점수 매기기 함수의 기본 보간입니다. |
logarithmic |
string |
로그적으로 감소하는 양만큼 점수를 높입니다. 상승은 더 높은 점수를 위해 빠르게 감소하고, 점수가 감소함에 따라 더 느리게 감소합니다. 이 보간 옵션은 태그 채점 함수에서 허용되지 않습니다. |
quadratic |
string |
사분면적으로 감소하는 양만큼 점수를 높입니다. 상승은 더 높은 점수를 위해 천천히 감소하고, 점수가 감소함에 따라 더 빨리 감소합니다. 이 보간 옵션은 태그 채점 함수에서 허용되지 않습니다. |
ScoringProfile
검색 쿼리의 점수 매기기 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다.
Name | 형식 | Description |
---|---|---|
functionAggregation |
개별 채점 함수의 결과를 결합하는 방법을 나타내는 값입니다. 기본값은 "Sum"입니다. 점수 매기기 함수가 없으면 무시됩니다. |
|
functions | ScoringFunction[]: |
문서 채점에 영향을 주는 함수의 컬렉션입니다. |
name |
string |
점수 매기기 프로필의 이름입니다. |
text |
특정 인덱스 필드의 텍스트 일치를 기반으로 점수를 높이는 매개 변수입니다. |
SearchField
필드의 이름, 데이터 형식 및 검색 동작을 설명하는 인덱스 정의의 필드를 나타냅니다.
Name | 형식 | Description |
---|---|---|
analyzer |
필드에 사용할 분석기의 이름입니다. 이 옵션은 검색 가능한 필드에만 사용할 수 있으며 searchAnalyzer 또는 indexAnalyzer와 함께 설정할 수 없습니다. 분석기를 선택한 후에는 필드에 대해 변경할 수 없습니다. 복합 필드의 경우 null이어야 합니다. |
|
dimensions |
integer |
벡터 필드의 차원입니다. |
facetable |
boolean |
패싯 쿼리에서 필드를 참조할 수 있도록 설정할지 여부를 나타내는 값입니다. 일반적으로 범주별 적중 횟수를 포함하는 검색 결과 프레젠테이션에 사용됩니다(예: 디지털 카메라를 검색하고 브랜드별, 메가픽셀별, 가격별 적중 항목 보기). 이 속성은 복합 필드의 경우 null이어야 합니다. Edm.GeographyPoint 또는 Collection(Edm.GeographyPoint) 형식의 필드는 패싯할 수 없습니다. 다른 모든 단순 필드에 대한 기본값은 true입니다. |
fields |
Edm.ComplexType 또는 Collection(Edm.ComplexType) 형식의 필드인 경우 하위 필드 목록입니다. 단순 필드의 경우 null이거나 비어 있어야 합니다. |
|
filterable |
boolean |
$filter 쿼리에서 필드를 참조할 수 있도록 설정할지 여부를 나타내는 값입니다. 필터링 가능 항목은 문자열 처리 방식에서 검색 가능한 항목과 다릅니다. 필터링할 수 있는 Edm.String 또는 Collection(Edm.String) 형식의 필드는 단어 분리를 거치지 않으므로 비교는 정확한 일치에만 해당합니다. 예를 들어 이러한 필드 f를 "맑은 날"로 설정하면 $filter=f eq 'sunny'는 일치하는 항목을 찾을 수 없지만 $filter=f eq '맑은 날'입니다. 이 속성은 복합 필드의 경우 null이어야 합니다. 기본값은 단순 필드의 경우 true이고 복합 필드의 경우 null입니다. |
indexAnalyzer |
필드에 대한 인덱싱 시간에 사용되는 분석기의 이름입니다. 이 옵션은 검색 가능한 필드에만 사용할 수 있습니다. searchAnalyzer와 함께 설정해야 하며 분석기 옵션과 함께 설정할 수 없습니다. 이 속성은 언어 분석기의 이름으로 설정할 수 없습니다. 언어 분석기가 필요한 경우 대신 분석기 속성을 사용합니다. 분석기를 선택한 후에는 필드에 대해 변경할 수 없습니다. 복합 필드의 경우 null이어야 합니다. |
|
key |
boolean |
필드가 인덱스의 문서를 고유하게 식별하는지 여부를 나타내는 값입니다. 각 인덱스의 최상위 필드 하나만 키 필드로 선택해야 하며 Edm.String 형식이어야 합니다. 키 필드를 사용하여 문서를 직접 조회하고 특정 문서를 업데이트하거나 삭제할 수 있습니다. 단순 필드의 경우 기본값이 false이고 복합 필드의 경우 null입니다. |
name |
string |
인덱스 또는 부모 필드의 필드 컬렉션 내에서 고유해야 하는 필드의 이름입니다. |
retrievable |
boolean |
검색 결과에서 필드를 반환할 수 있는지 여부를 나타내는 값입니다. 필드(예: 여백)를 필터, 정렬 또는 채점 메커니즘으로 사용하지만 최종 사용자에게 필드를 표시하지 않으려면 이 옵션을 사용하지 않도록 설정할 수 있습니다. 이 속성은 키 필드에 대해 true여야 하며 복합 필드의 경우 null이어야 합니다. 이 속성은 기존 필드에서 변경할 수 있습니다. 이 속성을 사용하도록 설정해도 인덱스 스토리지 요구 사항이 증가하지는 않습니다. 기본값은 단순 필드의 경우 true이고, 벡터 필드에는 false이고, 복합 필드에는 null입니다. |
searchAnalyzer |
필드에 대한 검색 시간에 사용되는 분석기의 이름입니다. 이 옵션은 검색 가능한 필드에만 사용할 수 있습니다. indexAnalyzer와 함께 설정해야 하며 분석기 옵션과 함께 설정할 수 없습니다. 이 속성은 언어 분석기의 이름으로 설정할 수 없습니다. 언어 분석기가 필요한 경우 대신 분석기 속성을 사용합니다. 이 분석기는 기존 필드에서 업데이트할 수 있습니다. 복합 필드의 경우 null이어야 합니다. |
|
searchable |
boolean |
필드가 전체 텍스트 검색 가능한지 여부를 나타내는 값입니다. 즉, 인덱싱 중에 단어 분리와 같은 분석을 거칩니다. 검색 가능한 필드를 "sunny day"와 같은 값으로 설정하면 내부적으로 개별 토큰 "sunny" 및 "day"로 분할됩니다. 이렇게 하면 이러한 용어를 전체 텍스트로 검색할 수 있습니다. Edm.String 또는 Collection(Edm.String) 형식의 필드는 기본적으로 검색할 수 있습니다. 이 속성은 문자열이 아닌 다른 데이터 형식의 단순 필드에 대해 false여야 하며 복합 필드의 경우 null이어야 합니다. 참고: 검색 가능한 필드는 전체 텍스트 검색을 위해 추가 토큰화된 버전의 필드 값을 수용하기 위해 인덱스의 추가 공간을 사용합니다. 인덱스의 공간을 절약하고 검색에 필드를 포함할 필요가 없는 경우 검색 가능 항목을 false로 설정합니다. |
sortable |
boolean |
$orderby 식에서 필드를 참조할 수 있도록 설정할지 여부를 나타내는 값입니다. 기본적으로 검색 엔진은 점수를 기준으로 결과를 정렬하지만 대부분의 환경에서 사용자는 문서의 필드를 기준으로 정렬하려고 합니다. 단순 필드는 단일 값인 경우에만 정렬할 수 있습니다(부모 문서의 범위에 단일 값이 있음). 단순 컬렉션 필드는 다중값이므로 정렬할 수 없습니다. 복합 컬렉션의 단순 하위 필드도 다중값이므로 정렬할 수 없습니다. 즉, 직계 부모 필드이든 상위 필드이든 관계없이 복합 컬렉션입니다. 복합 필드는 정렬할 수 없으며 정렬 가능한 속성은 해당 필드에 대해 null이어야 합니다. 정렬 가능의 기본값은 단일 값 단순 필드의 경우 true이고, 다중값 단순 필드에는 false이고, 복합 필드에는 null입니다. |
stored |
boolean |
필드가 검색 결과에 반환될 디스크에 별도로 유지되는지 여부를 나타내는 변경할 수 없는 값입니다. 스토리지 오버헤드를 절약하기 위해 검색 응답에서 필드 내용을 반환하지 않으려는 경우 이 옵션을 사용하지 않도록 설정할 수 있습니다. 인덱스 생성 중에만 설정할 수 있으며 벡터 필드에 대해서만 설정할 수 있습니다. 기존 필드에 대해 이 속성을 변경하거나 새 필드에 대해 false로 설정할 수 없습니다. 이 속성을 false로 설정하면 'retrievable' 속성도 false로 설정해야 합니다. 이 속성은 키 필드, 새 필드 및 비벡터 필드의 경우 true이거나 설정되지 않아야 하며 복합 필드의 경우 null이어야 합니다. 이 속성을 사용하지 않도록 설정하면 인덱스 스토리지 요구 사항이 줄어듭니다. 기본값은 벡터 필드의 경우 true입니다. |
synonymMaps |
string[] |
이 필드와 연결할 동의어 맵의 이름 목록입니다. 이 옵션은 검색 가능한 필드에만 사용할 수 있습니다. 현재 필드당 하나의 동의어 맵만 지원됩니다. 필드에 동의어 맵을 할당하면 해당 필드를 대상으로 하는 쿼리 용어가 동의어 맵의 규칙을 사용하여 쿼리 시간에 확장됩니다. 이 특성은 기존 필드에서 변경할 수 있습니다. 복소수 필드의 경우 null이거나 빈 컬렉션이어야 합니다. |
type |
필드의 데이터 형식입니다. |
|
vectorEncoding |
필드 내용을 해석하는 인코딩 형식입니다. |
|
vectorSearchProfile |
string |
벡터 필드를 검색할 때 사용할 알고리즘 및 벡터라이저를 지정하는 벡터 검색 프로필의 이름입니다. |
SearchFieldDataType
검색 인덱스에 있는 필드의 데이터 형식을 정의합니다.
Name | 형식 | Description |
---|---|---|
Edm.Boolean |
string |
필드에 부울 값(true 또는 false)이 포함되어 있음을 나타냅니다. |
Edm.Byte |
string |
필드에 부호 없는 8비트 정수가 포함되어 있음을 나타냅니다. 이는 Collection(Edm.Byte)과 함께 사용할 때만 유효합니다. |
Edm.ComplexType |
string |
필드에 다른 형식의 하위 필드가 있는 하나 이상의 복잡한 개체가 포함되어 있음을 나타냅니다. |
Edm.DateTimeOffset |
string |
필드에 표준 시간대 정보를 포함한 날짜/시간 값이 포함되어 있음을 나타냅니다. |
Edm.Double |
string |
필드에 IEEE 배정밀도 부동 소수점 번호가 포함되어 있음을 나타냅니다. |
Edm.GeographyPoint |
string |
필드에 경도 및 위도 측면에서 지리적 위치가 포함되어 있음을 나타냅니다. |
Edm.Half |
string |
필드에 반정밀도 부동 소수점 숫자가 포함되어 있음을 나타냅니다. 이는 Collection(Edm.Half)과 함께 사용할 때만 유효합니다. |
Edm.Int16 |
string |
필드에 부가된 16비트 정수가 있음을 나타냅니다. Collection(Edm.Int16)과 함께 사용할 때만 유효합니다. |
Edm.Int32 |
string |
필드에 부가된 32비트 정수가 있음을 나타냅니다. |
Edm.Int64 |
string |
필드에 64비트 부가 정수가 포함되어 있음을 나타냅니다. |
Edm.SByte |
string |
필드에 8비트 부가 정수가 포함되어 있음을 나타냅니다. Collection(Edm.SByte)과 함께 사용할 때만 유효합니다. |
Edm.Single |
string |
필드에 단정밀도 부동 소수점 번호가 포함되어 있음을 나타냅니다. Collection(Edm.Single)과 함께 사용할 때만 유효합니다. |
Edm.String |
string |
필드에 문자열이 포함되어 있음을 나타냅니다. |
SearchIndex
인덱스의 필드 및 검색 동작을 설명하는 검색 인덱스 정의를 나타냅니다.
Name | 형식 | Description |
---|---|---|
@odata.etag |
string |
인덱스의 ETag입니다. |
analyzers | LexicalAnalyzer[]: |
인덱스 분석기입니다. |
charFilters | CharFilter[]: |
인덱스에 대한 문자 필터입니다. |
corsOptions |
인덱스에 대한 CORS(원본 간 리소스 공유)를 제어하는 옵션입니다. |
|
defaultScoringProfile |
string |
쿼리에 지정되지 않은 경우 사용할 점수 매기기 프로필의 이름입니다. 이 속성이 설정되지 않고 쿼리에 점수 매기기 프로필이 지정되지 않은 경우 기본 채점(tf-idf)이 사용됩니다. |
encryptionKey |
Azure Key Vault에서 만드는 암호화 키에 대한 설명입니다. 이 키는 Microsoft를 비롯한 누구도 데이터의 암호를 해독할 수 없다는 완전한 보증을 원할 때 데이터에 대한 추가 수준의 미사용 암호화를 제공하는 데 사용됩니다. 데이터를 암호화한 후에는 항상 암호화된 상태로 유지됩니다. 검색 서비스는 이 속성을 null로 설정하려는 시도를 무시합니다. 암호화 키를 회전하려는 경우 필요에 따라 이 속성을 변경할 수 있습니다. 데이터는 영향을 받지 않습니다. 고객 관리형 키를 사용한 암호화는 무료 검색 서비스에 사용할 수 없으며 2019년 1월 1일 이후 생성된 유료 서비스에만 사용할 수 있습니다. |
|
fields |
인덱스의 필드입니다. |
|
name |
string |
인덱스의 이름입니다. |
scoringProfiles |
인덱스에 대한 점수 매기기 프로필입니다. |
|
semantic |
의미 체계 기능에 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다. |
|
similarity | Similarity: |
검색 쿼리와 일치하는 문서의 점수를 매기고 순위를 지정하는 데 사용할 유사성 알고리즘의 유형입니다. 유사성 알고리즘은 인덱스를 만들 때만 정의할 수 있으며 기존 인덱스에서는 수정할 수 없습니다. null이면 ClassicSimilarity 알고리즘이 사용됩니다. |
suggesters |
인덱스 제안기입니다. |
|
tokenFilters |
TokenFilter[]:
|
인덱스에 대한 토큰 필터입니다. |
tokenizers | LexicalTokenizer[]: |
인덱스에 대한 토큰 변환기입니다. |
vectorSearch |
벡터 검색과 관련된 구성 옵션을 포함합니다. |
SearchIndexerDataNoneIdentity
데이터 원본의 ID 속성을 지웁니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
ID 유형을 지정하는 URI 조각입니다. |
SearchIndexerDataUserAssignedIdentity
사용할 데이터 원본의 ID를 지정합니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
ID 유형을 지정하는 URI 조각입니다. |
userAssignedIdentity |
string |
일반적으로 검색 서비스에 할당되어야 하는 "/subscriptions/12345678-1234-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId" 형식으로 사용자 할당 관리 ID의 정규화된 Azure 리소스 ID입니다. |
SearchResourceEncryptionKey
Azure Key Vault의 고객 관리형 암호화 키입니다. 만들고 관리하는 키를 사용하여 인덱스 및 동의어 맵과 같은 미사용 데이터를 암호화하거나 암호 해독할 수 있습니다.
Name | 형식 | Description |
---|---|---|
accessCredentials |
Azure Key Vault에 액세스하는 데 사용되는 선택적 Azure Active Directory 자격 증명입니다. 대신 관리 ID를 사용하는 경우에는 필요하지 않습니다. |
|
keyVaultKeyName |
string |
미사용 데이터를 암호화하는 데 사용할 Azure Key Vault 키의 이름입니다. |
keyVaultKeyVersion |
string |
미사용 데이터를 암호화하는 데 사용할 Azure Key Vault 키의 버전입니다. |
keyVaultUri |
string |
미사용 데이터를 암호화하는 데 사용할 키를 포함하는 DNS 이름이라고도 하는 Azure Key Vault의 URI입니다. 예제 URI는 |
SemanticConfiguration
의미 체계 기능의 컨텍스트에서 사용할 특정 구성을 정의합니다.
Name | 형식 | Description |
---|---|---|
name |
string |
의미 체계 구성의 이름입니다. |
prioritizedFields |
의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 제목, 콘텐츠 및 키워드 필드를 설명합니다. 세 개의 하위 속성(titleField, prioritizedKeywordsFields 및 prioritizedContentFields) 중 하나 이상을 설정해야 합니다. |
SemanticField
의미 체계 구성의 일부로 사용되는 필드입니다.
Name | 형식 | Description |
---|---|---|
fieldName |
string |
SemanticSettings
의미 체계 기능에 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다.
Name | 형식 | Description |
---|---|---|
configurations |
인덱스에 대한 의미 체계 구성입니다. |
|
defaultConfiguration |
string |
인덱스에 기본 의미 체계 구성의 이름을 설정할 수 있으므로 매번 쿼리 매개 변수로 전달할 수 있습니다. |
ShingleTokenFilter
토큰 조합을 단일 토큰으로 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
filterToken |
string |
_ |
토큰이 없는 각 위치에 삽입할 문자열입니다. 기본값은 밑줄("_")입니다. |
maxShingleSize |
integer |
2 |
최대 대상 포진 크기입니다. 기본값과 최소값은 2입니다. |
minShingleSize |
integer |
2 |
최소 대상 포진 크기입니다. 기본값과 최소값은 2입니다. maxShingleSize 값보다 작아야 합니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
outputUnigrams |
boolean |
True |
출력 스트림에 입력 토큰(유니그램)과 대상 포진이 포함되는지 여부를 나타내는 값입니다. 기본값은 true입니다. |
outputUnigramsIfNoShingles |
boolean |
False |
대상 포진을 사용할 수 없는 경우 해당 시간에 대해 유니그램을 출력할지 여부를 나타내는 값입니다. outputUnigrams가 false로 설정된 경우 이 속성이 우선합니다. 기본값은 false입니다. |
tokenSeparator |
string |
인접한 토큰을 조인하여 대상 포진을 형성할 때 사용할 문자열입니다. 기본값은 단일 공백(" ")입니다. |
SnowballTokenFilter
Snowball에서 생성된 형태소 분석기를 사용하여 단어를 막는 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
language |
사용할 언어입니다. |
|
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
SnowballTokenFilterLanguage
Snowball 토큰 필터에 사용할 언어입니다.
Name | 형식 | Description |
---|---|---|
armenian |
string |
아르메니아의 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
basque |
string |
바스크어의 루센 스노우볼 형태소 분석 토크나이저를 선택합니다. |
catalan |
string |
카탈로니아어 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
danish |
string |
덴마크어로 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
dutch |
string |
네덜란드어로 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
english |
string |
영어용 Lucene Snowball 형태소 분석 토크나이저를 선택합니다. |
finnish |
string |
핀란드의 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
french |
string |
프랑스어로 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
german |
string |
독일어로 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
german2 |
string |
독일 변형 알고리즘을 사용하는 Lucene Snowball 형태소 분석 토크나이저를 선택합니다. |
hungarian |
string |
헝가리의 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
italian |
string |
이탈리아어로 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
kp |
string |
Kraaij-Pohlmann 형태소 분석 알고리즘을 사용하는 네덜란드어용 Lucene Snowball 형태소 분석 토크나이저를 선택합니다. |
lovins |
string |
Lovins 형태소 분석 알고리즘을 사용하는 영어용 Lucene Snowball 형태소 분석 토크나이저를 선택합니다. |
norwegian |
string |
노르웨이어로 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
porter |
string |
포터 형태소 분석 알고리즘을 사용하는 영어용 Lucene Snowball 형태소 분석 토크나이저를 선택합니다. |
portuguese |
string |
포르투갈어로 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
romanian |
string |
루마니아어 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
russian |
string |
러시아어로 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
spanish |
string |
스페인어로 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
swedish |
string |
스웨덴어의 Lucene Snowball 형태소 분석 토크나이저를 선택합니다. |
turkish |
string |
터키어로 루체네 스노우볼 형태소 분석 토크나이저를 선택합니다. |
StemmerOverrideTokenFilter
사용자 지정 사전 기반 형태소 분석으로 다른 형태소 분석 필터를 재정의하는 기능을 제공합니다. 사전 형태소 분석된 용어는 키워드로 표시되므로 체인의 형태소 분석기에서 형태소 분석되지 않습니다. 형태소 분석 필터 앞에 배치해야 합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
rules |
string[] |
"word => stem"(예: "ran => run") 형식의 형태소 분석 규칙 목록입니다. |
StemmerTokenFilter
언어별 형태소 분석 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
language |
사용할 언어입니다. |
|
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
StemmerTokenFilterLanguage
형태소 분석기 토큰 필터에 사용할 언어입니다.
Name | 형식 | Description |
---|---|---|
arabic |
string |
아랍어로 Lucene 형태소 분석 토크나이저를 선택합니다. |
armenian |
string |
아르메니아어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
basque |
string |
바스크어에 대한 Lucene 형태소 분석 토크나이저를 선택합니다. |
brazilian |
string |
포르투갈어(브라질)의 Lucene 형태소 분석 토크나이저를 선택합니다. |
bulgarian |
string |
불가리아어로 루체네 형태소 분석 토크나이저를 선택합니다. |
catalan |
string |
카탈로니아어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
czech |
string |
체코어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
danish |
string |
덴마크어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
dutch |
string |
네덜란드어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
dutchKp |
string |
Kraaij-Pohlmann 형태소 분석 알고리즘을 사용하는 네덜란드어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
english |
string |
영어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
finnish |
string |
핀란드어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
french |
string |
프랑스어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
galician |
string |
갈리시아어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
german |
string |
독일어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
german2 |
string |
독일 변형 알고리즘을 사용하는 Lucene 형태소 분석 토크나이저를 선택합니다. |
greek |
string |
그리스어로 루체네 형태소 분석 토크나이저를 선택합니다. |
hindi |
string |
힌디어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
hungarian |
string |
헝가리어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
indonesian |
string |
인도네시아어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
irish |
string |
아일랜드어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
italian |
string |
이탈리아어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
latvian |
string |
라트비아어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
lightEnglish |
string |
빛 형태소 분석이 수행되는 영어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
lightFinnish |
string |
가벼운 형태소 분석을 수행하는 핀란드의 Lucene 형태소 분석 토크나이저를 선택합니다. |
lightFrench |
string |
가벼운 형태소 분석이 수행되는 프랑스어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
lightGerman |
string |
빛 형태소 분석이 수행되는 독일어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
lightHungarian |
string |
빛 형태소 분석이 수행되는 헝가리어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
lightItalian |
string |
가벼운 형태소 분석을 수행하는 이탈리아어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
lightNorwegian |
string |
가벼운 형태소 분석을 수행하는 노르웨이어(Bokmål)의 루체네 형태소 분석 토크나이저를 선택합니다. |
lightNynorsk |
string |
빛 형태소 분석을 수행하는 노르웨이어(Nynorsk)용 Lucene 형태소 분석 토크나이저를 선택합니다. |
lightPortuguese |
string |
가벼운 형태소 분석을 수행하는 포르투갈어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
lightRussian |
string |
가벼운 형태소 분석이 수행되는 러시아어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
lightSpanish |
string |
가벼운 형태소 분석이 수행되는 스페인어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
lightSwedish |
string |
가벼운 형태소 분석을 수행하는 스웨덴어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
lovins |
string |
Lovins 형태소 분석 알고리즘을 사용하는 영어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
minimalEnglish |
string |
최소한의 형태소 분석 작업을 수행하는 영어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
minimalFrench |
string |
최소한의 형태소 분석 작업을 수행하는 프랑스어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
minimalGalician |
string |
최소한의 형태소 분석을 수행하는 갈리시아어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
minimalGerman |
string |
최소 형태소 분석을 수행하는 독일어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
minimalNorwegian |
string |
최소한의 형태소 분석 작업을 수행하는 노르웨이어(Bokmål)용 Lucene 형태소 분석 토크나이저를 선택합니다. |
minimalNynorsk |
string |
최소한의 형태소 분석 작업을 수행하는 노르웨이어(Nynorsk)용 Lucene 형태소 분석 토크나이저를 선택합니다. |
minimalPortuguese |
string |
최소한의 형태소 분석을 수행하는 포르투갈어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
norwegian |
string |
노르웨이어(Bokmål)의 Lucene 형태소 분석 토크나이저를 선택합니다. |
porter2 |
string |
Porter2 형태소 분석 알고리즘을 사용하는 영어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
portuguese |
string |
포르투갈어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
portugueseRslp |
string |
RSLP 형태소 분석 알고리즘을 사용하는 포르투갈어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
possessiveEnglish |
string |
단어에서 후행 소유를 제거하는 영어용 Lucene 형태소 분석 토크나이저를 선택합니다. |
romanian |
string |
루마니아어 루체네 형태소 분석 토크나이저를 선택합니다. |
russian |
string |
러시아어에 대한 Lucene 형태소 분석 토크나이저를 선택합니다. |
sorani |
string |
소라니의 Lucene 형태소 분석 토크나이저를 선택합니다. |
spanish |
string |
스페인어에 대한 Lucene 형태소 분석 토크나이저를 선택합니다. |
swedish |
string |
스웨덴어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
turkish |
string |
터키어의 Lucene 형태소 분석 토크나이저를 선택합니다. |
StopAnalyzer
텍스트를 문자가 아닌 문자로 나눕니다. 소문자 및 중지 단어 토큰 필터를 적용합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
분석기 유형을 지정하는 URI 조각입니다. |
name |
string |
분석기의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
stopwords |
string[] |
중지 단어 목록입니다. |
StopwordsList
언어별 중지 단어의 미리 정의된 목록을 식별합니다.
Name | 형식 | Description |
---|---|---|
arabic |
string |
아랍어의 중지 단어 목록을 선택합니다. |
armenian |
string |
아르메니아어의 중지 단어 목록을 선택합니다. |
basque |
string |
바스크어에 대한 중지 단어 목록을 선택합니다. |
brazilian |
string |
포르투갈어(브라질)의 중지 단어 목록을 선택합니다. |
bulgarian |
string |
불가리아어의 중지 단어 목록을 선택합니다. |
catalan |
string |
카탈로니아어의 중지 단어 목록을 선택합니다. |
czech |
string |
체코어의 중지 단어 목록을 선택합니다. |
danish |
string |
덴마크어의 중지 단어 목록을 선택합니다. |
dutch |
string |
네덜란드어의 중지 단어 목록을 선택합니다. |
english |
string |
영어의 중지 단어 목록을 선택합니다. |
finnish |
string |
핀란드어의 중지 단어 목록을 선택합니다. |
french |
string |
프랑스어의 중지 단어 목록을 선택합니다. |
galician |
string |
Galician의 중지 단어 목록을 선택합니다. |
german |
string |
독일어의 중지 단어 목록을 선택합니다. |
greek |
string |
그리스어의 중지 단어 목록을 선택합니다. |
hindi |
string |
힌디어의 중지 단어 목록을 선택합니다. |
hungarian |
string |
헝가리어의 중지 단어 목록을 선택합니다. |
indonesian |
string |
인도네시아어의 중지 단어 목록을 선택합니다. |
irish |
string |
아일랜드어의 중지 단어 목록을 선택합니다. |
italian |
string |
이탈리아어의 중지 단어 목록을 선택합니다. |
latvian |
string |
라트비아어의 중지 단어 목록을 선택합니다. |
norwegian |
string |
노르웨이어의 중지 단어 목록을 선택합니다. |
persian |
string |
페르시아어의 중지 단어 목록을 선택합니다. |
portuguese |
string |
포르투갈어의 중지 단어 목록을 선택합니다. |
romanian |
string |
루마니아어의 중지 단어 목록을 선택합니다. |
russian |
string |
러시아어의 중지 단어 목록을 선택합니다. |
sorani |
string |
Sorani의 중지 단어 목록을 선택합니다. |
spanish |
string |
스페인어의 중지 단어 목록을 선택합니다. |
swedish |
string |
스웨덴어의 중지 단어 목록을 선택합니다. |
thai |
string |
태국어의 중지 단어 목록을 선택합니다. |
turkish |
string |
터키어의 중지 단어 목록을 선택합니다. |
StopwordsTokenFilter
토큰 스트림에서 중지 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
ignoreCase |
boolean |
False |
대/소문자를 무시할지 여부를 나타내는 값입니다. true이면 모든 단어가 먼저 소문자로 변환됩니다. 기본값은 false입니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
removeTrailing |
boolean |
True |
중지 단어인 경우 마지막 검색어를 무시할지 여부를 나타내는 값입니다. 기본값은 true입니다. |
stopwords |
string[] |
중지 단어 목록입니다. 이 속성과 중지 단어 목록 속성은 둘 다 설정할 수 없습니다. |
|
stopwordsList | english |
사용할 중지 단어의 미리 정의된 목록입니다. 이 속성과 중지 단어 속성은 둘 다 설정할 수 없습니다. 기본값은 영어입니다. |
Suggester
인덱스의 필드 그룹에 Suggest API를 적용하는 방법을 정의합니다.
Name | 형식 | Description |
---|---|---|
name |
string |
제안기의 이름입니다. |
searchMode |
제안기의 기능을 나타내는 값입니다. |
|
sourceFields |
string[] |
제안기가 적용되는 필드 이름 목록입니다. 각 필드를 검색할 수 있어야 합니다. |
SuggesterSearchMode
제안기의 기능을 나타내는 값입니다.
Name | 형식 | Description |
---|---|---|
analyzingInfixMatching |
string |
필드의 연속된 전체 용어 및 접두사를 일치합니다. 예를 들어 '가장 빠른 갈색 여우' 필드의 경우 쿼리가 '빠르다'와 '가장 빠른 눈썹'이 모두 일치합니다. |
SynonymTokenFilter
토큰 스트림에서 단일 또는 다중 단어 동의어를 찾습니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
expand |
boolean |
True |
동의어 목록의 모든 단어(=> 표기법이 사용되지 않는 경우)가 서로 매핑되는지 여부를 나타내는 값입니다. true이면 동의어 목록의 모든 단어(=> 표기법이 사용되지 않는 경우)가 서로 매핑됩니다. 다음 목록: 믿을 수 없는, 믿을 수 없는, 멋진, 놀라운 동일: 믿을 수 없는, 믿을 수 없는, 멋진, 놀라운 => 놀라운, 믿을 수 없는, 멋진, 놀라운. 거짓이면, 다음 목록 : 믿을 수없는, 믿을 수없는, 멋진, 놀라운 동일 할 것이다 : 믿을 수없는, 믿을 수없는, 멋진, 놀라운 => 놀라운. 기본값은 true입니다. |
ignoreCase |
boolean |
False |
일치를 위해 대/소문자를 접을지 여부를 나타내는 값입니다. 기본값은 false입니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
synonyms |
string[] |
두 가지 형식 중 하나인 1의 동의어 목록입니다. 믿을 수없는, 믿을 수없는, 멋진 => 놀라운 - => 기호의 왼쪽에있는 모든 용어는 오른쪽에있는 모든 용어로 대체됩니다; 2. 믿을 수없는, 믿을 수없는, 멋진, 놀라운 - 동등한 단어의 쉼표로 구분 된 목록. 이 목록을 해석하는 방법을 변경하려면 확장 옵션을 설정합니다. |
TagScoringFunction
지정된 태그 목록과 일치하는 문자열 값을 사용하여 문서의 점수를 높이는 함수를 정의합니다.
Name | 형식 | Description |
---|---|---|
boost |
number |
원시 점수의 승수입니다. 1.0과 같지 않은 양수여야 합니다. |
fieldName |
string |
채점 함수에 대한 입력으로 사용되는 필드의 이름입니다. |
interpolation |
문서 점수에서 부스팅을 보간하는 방법을 나타내는 값입니다. 기본값은 "선형"입니다. |
|
tag |
태그 점수 매기기 함수의 매개 변수 값입니다. |
|
type |
string:
tag |
사용할 함수의 형식을 나타냅니다. 유효한 값은 크기, 새로 고침, 거리 및 태그를 포함합니다. 함수 형식은 소문자여야 합니다. |
TagScoringParameters
태그 점수 매기기 함수에 매개 변수 값을 제공합니다.
Name | 형식 | Description |
---|---|---|
tagsParameter |
string |
대상 필드와 비교할 태그 목록을 지정하기 위해 검색 쿼리에 전달된 매개 변수의 이름입니다. |
TextWeights
일치 항목이 검색 쿼리에서 점수를 높여야 하는 인덱스 필드의 가중치를 정의합니다.
Name | 형식 | Description |
---|---|---|
weights |
object |
문서 점수를 높이기 위한 필드별 가중치 사전입니다. 키는 필드 이름이고 값은 각 필드의 가중치입니다. |
TokenCharacterKind
토큰 필터가 작동할 수 있는 문자 클래스를 나타냅니다.
Name | 형식 | Description |
---|---|---|
digit |
string |
토큰에 숫자를 유지합니다. |
letter |
string |
문자를 토큰에 보관합니다. |
punctuation |
string |
토큰에 문장 부호를 유지합니다. |
symbol |
string |
토큰에 기호를 유지합니다. |
whitespace |
string |
토큰에 공백을 유지합니다. |
TokenFilterName
검색 엔진에서 지원하는 모든 토큰 필터의 이름을 정의합니다.
TruncateTokenFilter
용어를 특정 길이로 자립니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
length |
integer |
300 |
용어가 잘리는 길이입니다. 기본값과 최대값은 300입니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
UaxUrlEmailTokenizer
URL 및 전자 메일을 하나의 토큰으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰화기의 형식을 지정하는 URI 조각입니다. |
|
maxTokenLength |
integer |
255 |
최대 토큰 길이입니다. 기본값은 255입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다. |
name |
string |
tokenizer의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
UniqueTokenFilter
이전 토큰과 동일한 텍스트로 토큰을 필터링합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
onlyOnSamePosition |
boolean |
False |
동일한 위치에서만 중복 항목을 제거할지 여부를 나타내는 값입니다. 기본값은 false입니다. |
VectorEncodingFormat
벡터 필드 내용을 해석하기 위한 인코딩 형식입니다.
Name | 형식 | Description |
---|---|---|
packedBit |
string |
더 넓은 데이터 형식으로 압축된 비트를 나타내는 인코딩 형식입니다. |
VectorSearch
벡터 검색과 관련된 구성 옵션을 포함합니다.
Name | 형식 | Description |
---|---|---|
algorithms | VectorSearchAlgorithmConfiguration[]: |
인덱싱 또는 쿼리 중에 사용되는 알고리즘과 관련된 구성 옵션을 포함합니다. |
compressions | VectorSearchCompressionConfiguration[]: |
인덱싱 또는 쿼리 중에 사용되는 압축 방법과 관련된 구성 옵션을 포함합니다. |
profiles |
벡터 검색에 사용할 구성의 조합을 정의합니다. |
|
vectorizers | VectorSearchVectorizer[]: |
텍스트 벡터 쿼리를 벡터화하는 방법에 대한 구성 옵션을 포함합니다. |
VectorSearchAlgorithmKind
인덱싱 및 쿼리에 사용되는 알고리즘입니다.
Name | 형식 | Description |
---|---|---|
exhaustiveKnn |
string |
무차별 암호 대입 검색을 수행하는 철저한 KNN 알고리즘입니다. |
hnsw |
string |
근사한 인접 알고리즘의 한 유형인 HNSW(계층적 탐색 가능한 Small World)입니다. |
VectorSearchAlgorithmMetric
벡터 비교에 사용할 유사성 메트릭입니다. 포함 모델이 학습된 것과 동일한 유사성 메트릭을 선택하는 것이 좋습니다.
Name | 형식 | Description |
---|---|---|
cosine |
string |
벡터 사이의 각도를 측정하여 유사성을 정량화하고 크기를 무시합니다. 각도가 작을수록 유사성이 더 가깝습니다. |
dotProduct |
string |
요소별 제품의 합계를 계산하여 맞춤 및 크기 유사성을 측정합니다. 더 크고 긍정적일수록 유사성이 더 가깝습니다. |
euclidean |
string |
다차원 공간에서 벡터 간의 직선 거리를 계산합니다. 거리가 작을수록 유사성이 더 가깝습니다. |
hamming |
string |
비트 압축된 이진 데이터 형식에만 적용됩니다. 이진 벡터에서 서로 다른 위치를 계산하여 서로 다른 위치를 결정합니다. 차이가 적을수록 유사성이 더 가깝습니다. |
VectorSearchCompressionKind
인덱싱 및 쿼리에 사용되는 압축 메서드입니다.
Name | 형식 | Description |
---|---|---|
binaryQuantization |
string |
압축 방법의 형식인 이진 양자화입니다. 이진 양자화에서 원래 벡터 값은 이진 값을 사용하여 벡터의 각 구성 요소를 불연속화하고 표시하여 더 좁은 이진 형식으로 압축되어 전체 데이터 크기를 줄입니다. |
scalarQuantization |
string |
압축 방법의 유형인 스칼라 양자화입니다. 스칼라 정량화에서 원래 벡터 값은 제한된 정량화된 값 집합을 사용하여 벡터의 각 구성 요소를 불연속화하고 표현하여 더 좁은 형식으로 압축되어 전체 데이터 크기를 줄입니다. |
VectorSearchCompressionTargetDataType
압축된 벡터 값의 정량화된 데이터 형식입니다.
Name | 형식 | Description |
---|---|---|
int8 |
string |
VectorSearchProfile
벡터 검색에 사용할 구성의 조합을 정의합니다.
Name | 형식 | Description |
---|---|---|
algorithm |
string |
알고리즘 및 선택적 매개 변수를 지정하는 벡터 검색 알고리즘 구성의 이름입니다. |
compression |
string |
압축 메서드 및 선택적 매개 변수를 지정하는 압축 메서드 구성의 이름입니다. |
name |
string |
이 특정 벡터 검색 프로필과 연결할 이름입니다. |
vectorizer |
string |
벡터 검색에 사용하도록 구성되는 벡터화의 이름입니다. |
VectorSearchVectorizerKind
쿼리 시간 동안 사용할 벡터화 메서드입니다.
Name | 형식 | Description |
---|---|---|
azureOpenAI |
string |
쿼리 시 Azure OpenAI 리소스를 사용하여 포함을 생성합니다. |
customWebApi |
string |
쿼리 시 사용자 지정 웹 엔드포인트를 사용하여 포함을 생성합니다. |
WebApiParameters
사용자 정의 벡터라이저에 연결하기 위한 속성을 지정합니다.
Name | 형식 | Description |
---|---|---|
authIdentity | SearchIndexerDataIdentity: |
아웃바운드 연결에 사용되는 사용자 할당 관리 ID입니다. authResourceId가 제공되고 지정되지 않은 경우 시스템 할당 관리 ID가 사용됩니다. 인덱서 업데이트 시 ID가 지정되지 않은 경우 값은 변경되지 않은 상태로 유지됩니다. "none"으로 설정하면 이 속성의 값이 지워집니다. |
authResourceId |
string |
Azure 함수 또는 변환을 제공하는 다른 애플리케이션의 외부 코드에 연결하는 사용자 지정 엔드포인트에 적용됩니다. 이 값은 함수 또는 앱이 Azure Active Directory에 등록되었을 때 만든 애플리케이션 ID여야 합니다. 지정된 경우 벡터화는 검색 서비스의 관리 ID(시스템 또는 사용자 할당)와 함수 또는 앱의 액세스 토큰을 사용하여 함수 또는 앱에 연결합니다. 이 값을 액세스 토큰의 범위를 만들기 위한 리소스 ID로 사용합니다. |
httpHeaders |
object |
HTTP 요청을 만드는 데 필요한 헤더입니다. |
httpMethod |
string |
HTTP 요청에 대한 메서드입니다. |
timeout |
string |
요청에 대해 원하는 시간 제한입니다. 기본값은 30초입니다. |
uri |
string |
벡터라이저를 제공하는 Web API의 URI입니다. |
WebApiVectorizer
쿼리 문자열의 벡터 포함을 생성하기 위한 사용자 정의 벡터라이저를 지정합니다. 외부 벡터라이저의 통합은 기술 세트의 사용자 지정 Web API 인터페이스를 사용하여 수행됩니다.
Name | 형식 | Description |
---|---|---|
customWebApiParameters |
사용자 정의 벡터라이저의 속성을 지정합니다. |
|
kind |
string:
custom |
벡터 검색에 사용하도록 구성되는 벡터화 메서드의 종류 이름입니다. |
name |
string |
이 특정 벡터화 메서드와 연결할 이름입니다. |
WordDelimiterTokenFilter
단어를 하위 단어로 분할하고 하위 단어 그룹에서 선택적 변환을 수행합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.
Name | 형식 | Default value | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
토큰 필터의 형식을 지정하는 URI 조각입니다. |
|
catenateAll |
boolean |
False |
모든 하위 단어 부분이 범주화될지 여부를 나타내는 값입니다. 예를 들어 true로 설정된 경우 "Azure-Search-1"은 "AzureSearch1"이 됩니다. 기본값은 false입니다. |
catenateNumbers |
boolean |
False |
숫자 부분의 최대 실행이 범주화될지 여부를 나타내는 값입니다. 예를 들어 true로 설정하면 "1-2"는 "12"가 됩니다. 기본값은 false입니다. |
catenateWords |
boolean |
False |
단어 부분의 최대 실행을 범주화할지 여부를 나타내는 값입니다. 예를 들어 true로 설정하면 "Azure-Search"가 "AzureSearch"가 됩니다. 기본값은 false입니다. |
generateNumberParts |
boolean |
True |
숫자 하위 단어를 생성할지 여부를 나타내는 값입니다. 기본값은 true입니다. |
generateWordParts |
boolean |
True |
파트 단어를 생성할지 여부를 나타내는 값입니다. 설정하면 단어의 일부가 생성됩니다. 예를 들어 "AzureSearch"는 "Azure" "Search"가 됩니다. 기본값은 true입니다. |
name |
string |
토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 포함해야 하며 영숫자 문자로만 시작하고 끝낼 수 있으며 128자로 제한됩니다. |
|
preserveOriginal |
boolean |
False |
원래 단어를 보존하고 하위 단어 목록에 추가할지 여부를 나타내는 값입니다. 기본값은 false입니다. |
protectedWords |
string[] |
구분되지 않도록 보호할 토큰 목록입니다. |
|
splitOnCaseChange |
boolean |
True |
caseChange에서 단어를 분할할지 여부를 나타내는 값입니다. 예를 들어 true로 설정된 경우 "AzureSearch"는 "Azure" "Search"가 됩니다. 기본값은 true입니다. |
splitOnNumerics |
boolean |
True |
숫자로 분할할지 여부를 나타내는 값입니다. 예를 들어 true로 설정된 경우 "Azure1Search"는 "Azure" "1" "Search"가 됩니다. 기본값은 true입니다. |
stemEnglishPossessive |
boolean |
True |
각 하위 단어에 대해 후행 "'s"를 제거할지 여부를 나타내는 값입니다. 기본값은 true입니다. |