@azure/search-documents package

클래스

AzureKeyCredential

기본 키 값 업데이트를 지원하는 정적 키 기반 자격 증명입니다.

GeographyPoint

전역 좌표의 지리적 점을 나타냅니다.

IndexDocumentsBatch

인덱스에 대한 여러 문서를 사용하여 일괄 처리 작업을 수행하는 데 사용되는 클래스입니다.

SearchClient

인덱스의 문서 쿼리 및 추가, 업데이트 및 제거를 포함하여 검색 인덱스에 대한 작업을 수행하는 데 사용되는 클래스입니다.

SearchIndexClient

인덱스, & 동의어를 관리(만들기, 업데이트, 나열/삭제)하는 작업을 수행하는 클래스입니다.

SearchIndexerClient

인덱서, 데이터 원본 & 기술 세트를 관리(만들기, 업데이트, 나열/삭제)하는 작업을 수행하는 클래스입니다.

SearchIndexingBufferedSender

추가, 업데이트 및 제거를 포함하여 검색 인덱스에 대해 버퍼링된 작업을 수행하는 데 사용되는 클래스입니다.

인터페이스

AnalyzeRequest

해당 텍스트를 토큰으로 분리하는 데 사용되는 일부 텍스트 및 분석 구성 요소를 지정합니다.

AnalyzeResult

텍스트에서 분석기를 테스트한 결과입니다.

AnalyzedTokenInfo

분석기에서 반환된 토큰에 대한 정보입니다.

AsciiFoldingTokenFilter

처음 127개의 ASCII 문자("기본 라틴어" 유니코드 블록)에 없는 알파벳, 숫자 및 기호 유니코드 문자를 해당하는 ASCII 등가물로 변환합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

AutocompleteItem

자동 완성 요청의 결과입니다.

AutocompleteRequest

유사 항목 일치 및 기타 자동 완성 쿼리 동작에 대한 매개 변수입니다.

AutocompleteResult

자동 완성 쿼리의 결과입니다.

AzureActiveDirectoryApplicationCredentials

Azure Key Vault에 저장된 암호화 키에 대한 인증된 액세스에 사용되는 검색 서비스에 대해 생성된 등록된 애플리케이션의 자격 증명입니다.

AzureOpenAIEmbeddingSkill

Azure OpenAI 리소스를 사용하여 지정된 텍스트 입력에 대한 벡터 포함을 생성할 수 있습니다.

AzureOpenAIParameters

쿼리 시 벡터화를 위해 Azure Open AI 서비스를 사용하는 데 관련된 매개 변수를 포함합니다.

AzureOpenAIVectorizer

쿼리 시 벡터화를 위해 Azure Open AI 서비스를 사용하는 데 관련된 매개 변수를 포함합니다.

BM25Similarity

Okapi BM25 유사성 알고리즘을 기반으로 하는 순위 함수입니다. BM25는 길이 정규화('b' 매개 변수에 의해 제어됨)와 용어 빈도 포화('k1' 매개 변수로 제어됨)를 포함하는 TF-IDF와 유사한 알고리즘입니다.

BaseCharFilter

문자 필터의 기본 형식입니다.

BaseCognitiveServicesAccount

기술 세트에 연결된 Azure AI 서비스 리소스를 설명하기 위한 기본 형식입니다.

BaseDataChangeDetectionPolicy

데이터 변경 검색 정책의 기본 형식입니다.

BaseDataDeletionDetectionPolicy

데이터 삭제 검색 정책의 기본 형식입니다.

BaseLexicalAnalyzer

분석기의 기본 형식입니다.

BaseLexicalTokenizer

tokenizer의 기본 형식입니다.

BaseScoringFunction

순위 지정 중에 문서 점수를 수정할 수 있는 함수의 기본 형식입니다.

BaseSearchIndexerDataIdentity

데이터 ID에 대한 추상 기본 형식입니다.

BaseSearchIndexerSkill

기술에 대한 기본 형식입니다.

BaseSearchRequestOptions

필터링, 정렬, 패싯, 페이징 및 기타 검색 쿼리 동작에 대한 매개 변수입니다.

BaseTokenFilter

토큰 필터의 기본 형식입니다.

BaseVectorQuery

벡터 및 하이브리드 검색 쿼리에 대한 쿼리 매개 변수입니다.

BaseVectorSearchAlgorithmConfiguration

인덱싱 및/또는 쿼리하는 동안 사용되는 알고리즘과 관련된 구성 옵션을 포함합니다.

BaseVectorSearchCompression

인덱싱 또는 쿼리 중에 사용되는 압축 방법과 관련된 구성 옵션을 포함합니다.

BaseVectorSearchVectorizer

쿼리 시간 동안 사용할 벡터화 메서드에 대한 특정 세부 정보를 포함합니다.

BinaryQuantizationCompression

인덱싱 및 쿼리 중에 사용되는 이진 양자화 압축 방법과 관련된 구성 옵션을 포함합니다.

CjkBigramTokenFilter

표준 토케나이저에서 생성된 CJK 용어의 bigrams를 형성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

ClassicSimilarity

TF-IDF의 Lucene TFIDFSimilarity 구현을 사용하는 레거시 유사성 알고리즘입니다. 이러한 TF-IDF 변형은 정적 문서 길이 정규화뿐만 아니라 검색된 쿼리와 부분적으로만 일치하는 문서를 처벌하는 요인을 조정합니다.

ClassicTokenizer

대부분의 유럽 언어 문서를 처리하는 데 적합한 문법 기반 토큰 변환기입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

CognitiveServicesAccountKey

기술 세트에 연결된 Azure AI 서비스 리소스의 다중 지역 계정 키입니다.

CommonGramTokenFilter

인덱싱하는 동안 자주 발생하는 용어에 대한 bigram을 생성합니다. 단일 용어도 여전히 인덱싱되며 bigrams가 오버레이됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

ComplexField

필드의 이름, 데이터 형식 및 검색 동작을 설명하는 인덱스 정의의 필드를 나타냅니다.

ConditionalSkill

부울 작업이 필요한 시나리오에서 출력에 할당할 데이터를 결정할 수 있도록 하는 기술입니다.

CorsOptions

인덱스에 대한 CORS(원본 간 리소스 공유)를 제어하는 옵션을 정의합니다.

CreateOrUpdateIndexOptions

인덱스 만들기/업데이트 작업에 대한 옵션입니다.

CreateOrUpdateSkillsetOptions

기술 세트 작업 만들기/업데이트 옵션입니다.

CreateOrUpdateSynonymMapOptions

동의어 맵 만들기/업데이트 작업에 대한 옵션입니다.

CreateorUpdateDataSourceConnectionOptions

데이터 원본 만들기/업데이트 작업에 대한 옵션입니다.

CreateorUpdateIndexerOptions

인덱서 만들기/업데이트 작업에 대한 옵션입니다.

CustomAnalyzer

텍스트를 인덱싱 가능/검색 가능한 토큰으로 변환하는 프로세스를 제어할 수 있습니다. 미리 정의된 단일 토케나이저와 하나 이상의 필터로 구성된 사용자 정의 구성입니다. tokenizer는 텍스트를 토큰으로 분리하고 토큰 변환기에서 내보낸 토큰을 수정하기 위한 필터를 담당합니다.

CustomEntity

찾은 일치 항목 및 관련 메타데이터에 대한 정보가 들어 있는 개체입니다.

CustomEntityAlias

루트 엔터티 이름에 대한 대체 맞춤법 또는 동의어를 지정하는 데 사용할 수 있는 복합 개체입니다.

CustomEntityLookupSkill

기술은 사용자 정의 단어 및 구의 사용자 정의 목록에서 텍스트를 찾습니다.

DefaultCognitiveServicesAccount

기술 세트의 기본 Azure AI 서비스 리소스를 나타내는 빈 개체입니다.

DeleteDataSourceConnectionOptions

데이터 원본 삭제 작업에 대한 옵션입니다.

DeleteIndexOptions

인덱스 삭제 작업에 대한 옵션입니다.

DeleteIndexerOptions

인덱서 삭제 작업에 대한 옵션입니다.

DeleteSkillsetOptions

기술 세트 조작을 삭제하기 위한 옵션입니다.

DeleteSynonymMapOptions

동의어 삭제 작업에 대한 옵션입니다.

DictionaryDecompounderTokenFilter

여러 독일어 언어로 찾은 복합 단어를 분해합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

DistanceScoringFunction

지리적 위치에서의 거리에 따라 점수를 높이는 함수를 정의합니다.

DistanceScoringParameters

거리 점수 매기기 함수에 매개 변수 값을 제공합니다.

DocumentExtractionSkill

보강 파이프라인 내의 파일에서 콘텐츠를 추출하는 기술입니다.

EdgeNGramTokenFilter

입력 토큰의 앞이나 뒷면에서 시작하여 지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

EdgeNGramTokenizer

에지의 입력을 지정된 크기의 n-gram으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

ElisionTokenFilter

엘리션을 제거합니다. 예를 들어 "l'avion"(평면)은 "avion"(평면)으로 변환됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

EntityLinkingSkill

Text Analytics API를 사용하여 텍스트에서 연결된 엔터티를 추출합니다.

EntityRecognitionSkill

텍스트 분석 엔터티 인식.

EntityRecognitionSkillV3

Text Analytics API를 사용하여 텍스트에서 다양한 형식의 엔터티를 추출합니다.

ExhaustiveKnnParameters

전체 KNN 알고리즘과 관련된 매개 변수를 포함합니다.

ExtractiveQueryAnswer

자연어로 된 질문으로 표현된 쿼리에 대한 응답으로 반환된 문서의 내용에서 답변 후보를 추출합니다.

ExtractiveQueryCaption

검색 쿼리와 관련된 구절이 포함된 일치하는 문서에서 캡션을 추출합니다.

FacetResult

패싯 쿼리 결과의 단일 버킷입니다. 필드 값이 특정 범위 내에 속하거나 특정 값 또는 간격이 있는 문서 수를 보고합니다.

FieldMapping

데이터 원본의 필드와 인덱스의 대상 필드 간의 매핑을 정의합니다.

FieldMappingFunction

인덱싱하기 전에 데이터 원본에서 값을 변환하는 함수를 나타냅니다.

FreshnessScoringFunction

날짜-시간 필드의 값에 따라 점수를 높이는 함수를 정의합니다.

FreshnessScoringParameters

새로 고침 점수 매기기 함수에 매개 변수 값을 제공합니다.

GetDocumentOptions

단일 문서를 검색하는 옵션입니다.

HighWaterMarkChangeDetectionPolicy

높은 워터 마크 열의 값에 따라 변경 내용을 캡처하는 데이터 변경 검색 정책을 정의합니다.

HnswParameters

hnsw 알고리즘과 관련된 매개 변수를 포함합니다.

ImageAnalysisSkill

이미지 파일을 분석하는 기술입니다. 이미지 콘텐츠에 따라 다양한 시각적 기능 집합을 추출합니다.

IndexDocumentsClient

인덱스 문서 클라이언트

IndexDocumentsOptions

인덱스 일괄 처리 수정 작업에 대한 옵션입니다.

IndexDocumentsResult

인덱싱 요청의 모든 문서에 대한 작업 상태를 포함하는 응답입니다.

IndexerExecutionResult

개별 인덱서 실행의 결과를 나타냅니다.

IndexingParameters

인덱서 실행에 대한 매개 변수를 나타냅니다.

IndexingParametersConfiguration

인덱서별 구성 속성의 사전입니다. 각 이름은 특정 속성의 이름입니다. 각 값은 기본 형식이어야 합니다.

IndexingResult

단일 문서에 대한 인덱싱 작업의 상태입니다.

IndexingSchedule

인덱서 실행 일정을 나타냅니다.

InputFieldMappingEntry

기술에 대한 입력 필드 매핑입니다.

KeepTokenFilter

지정된 단어 목록에 포함된 텍스트로만 토큰을 유지하는 토큰 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

KeyPhraseExtractionSkill

핵심 구 추출에 텍스트 분석을 사용하는 기술입니다.

KeywordMarkerTokenFilter

용어를 키워드로 표시합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

KeywordTokenizer

전체 입력을 단일 토큰으로 내보낸다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

LanguageDetectionSkill

입력 텍스트의 언어를 감지하고 요청에 제출된 모든 문서에 대해 단일 언어 코드를 보고하는 기술입니다. 언어 코드는 분석의 신뢰도를 나타내는 점수와 쌍을 이깁니다.

LengthTokenFilter

너무 길거나 너무 짧은 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

LimitTokenFilter

인덱싱하는 동안 토큰 수를 제한합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

ListSearchResultsPageSettings

검색 결과의 다음 페이지를 검색하기 위한 인수입니다.

LuceneStandardAnalyzer

표준 Apache Lucene 분석기; 표준 토큰라이저, 소문자 필터 및 중지 필터로 구성됩니다.

LuceneStandardTokenizer

유니코드 텍스트 구분 규칙에 따라 텍스트를 중단합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

MagnitudeScoringFunction

숫자 필드의 크기에 따라 점수를 높이는 함수를 정의합니다.

MagnitudeScoringParameters

크기 점수 매기기 함수에 매개 변수 값을 제공합니다.

MappingCharFilter

매핑 옵션으로 정의된 매핑을 적용하는 문자 필터입니다. 일치는 greedy(지정된 포인트에서 가장 긴 패턴 일치)입니다. 대체는 빈 문자열이 될 수 있습니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다.

MergeSkill

두 개 이상의 문자열을 단일 통합 문자열로 병합하는 기술로, 선택적 사용자 정의 구분 기호가 각 구성 요소 부분을 구분합니다.

MicrosoftLanguageStemmingTokenizer

언어별 규칙을 사용하여 텍스트를 나누고 단어를 기본 형식으로 줄입니다.

MicrosoftLanguageTokenizer

언어별 규칙을 사용하여 텍스트를 나눕니다.

NGramTokenFilter

지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

NGramTokenizer

입력을 지정된 크기의 n-gram으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

OcrSkill

이미지 파일에서 텍스트를 추출하는 기술입니다.

OutputFieldMappingEntry

기술에 대한 출력 필드 매핑입니다.

PIIDetectionSkill

Text Analytics API를 사용하여 입력 텍스트에서 개인 정보를 추출하고 마스킹 옵션을 제공합니다.

PathHierarchyTokenizer

경로와 유사한 계층 구조에 대한 토큰 변환기입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

PatternAnalyzer

정규식 패턴을 통해 텍스트를 용어로 유연하게 구분합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다.

PatternCaptureTokenFilter

Java regexes를 사용하여 하나 이상의 패턴으로 각 캡처 그룹에 대해 하나씩 여러 토큰을 내보낸다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

PatternReplaceCharFilter

입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고 대체 패턴을 사용하여 바꿀 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", 패턴 "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다.

PatternReplaceTokenFilter

입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고 대체 패턴을 사용하여 바꿀 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", 패턴 "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

PatternTokenizer

regex 패턴 일치를 사용하여 고유 토큰을 생성하는 Tokenizer입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

PhoneticTokenFilter

윗주 일치에 대한 토큰을 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

QueryAnswerResult

답변은 쿼리와 일치하는 가장 관련성이 큰 문서의 내용에서 추출된 텍스트 구절입니다. 답변은 상위 검색 결과에서 추출됩니다. 답변 후보자가 점수가 매기고 상위 답변이 선택됩니다.

QueryCaptionResult

캡션은 검색 쿼리에 상대적으로 문서에서 가장 대표적인 구절입니다. 문서 요약으로 자주 사용됩니다. 캡션은 semantic형식의 쿼리에 대해서만 반환됩니다.

ResourceCounter

리소스의 사용량 및 할당량을 나타냅니다.

ScalarQuantizationCompression

인덱싱 및 쿼리 중에 사용되는 스칼라 양자화 압축 방법과 관련된 구성 옵션을 포함합니다.

ScalarQuantizationParameters

스칼라 양자화와 관련된 매개 변수를 포함합니다.

ScoringProfile

검색 쿼리의 점수 매기기 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다.

SearchClientOptions

Cognitive Search API 요청을 구성하는 데 사용되는 클라이언트 옵션입니다.

SearchDocumentsPageResult

인덱스에서 검색 페이지 결과를 포함하는 응답입니다.

SearchDocumentsResult

인덱스에서 검색 결과를 포함하는 응답입니다.

SearchDocumentsResultBase

인덱스에서 검색 결과를 포함하는 응답입니다.

SearchIndex

인덱스의 필드 및 검색 동작을 설명하는 검색 인덱스 정의를 나타냅니다.

SearchIndexClientOptions

Cognitive Search API 요청을 구성하는 데 사용되는 클라이언트 옵션입니다.

SearchIndexStatistics

지정된 인덱스에 대한 통계입니다. 통계는 주기적으로 수집되며 항상 -date up-to보장되지 않습니다.

SearchIndexer

인덱서입니다.

SearchIndexerClientOptions

Cognitive Search API 요청을 구성하는 데 사용되는 클라이언트 옵션입니다.

SearchIndexerDataContainer

인덱싱할 엔터티(예: Azure SQL 테이블 또는 CosmosDB 컬렉션)에 대한 정보를 나타냅니다.

SearchIndexerDataNoneIdentity

데이터 원본의 ID 속성을 지웁니다.

SearchIndexerDataSourceConnection

인덱서 구성에 사용할 수 있는 데이터 원본 정의를 나타냅니다.

SearchIndexerDataUserAssignedIdentity

사용할 데이터 원본의 ID를 지정합니다.

SearchIndexerError

항목 또는 문서 수준 인덱싱 오류를 나타냅니다.

SearchIndexerIndexProjection

보조 검색 인덱스에 대한 추가 프로젝션 정의입니다.

SearchIndexerIndexProjectionParameters

인덱스 프로젝션 관련 구성 속성의 사전입니다. 각 이름은 특정 속성의 이름입니다. 각 값은 기본 형식이어야 합니다.

SearchIndexerIndexProjectionSelector

지정된 검색 인덱스로 저장할 데이터에 대한 설명입니다.

SearchIndexerKnowledgeStore

보강된 데이터의 Azure Blob, 테이블 또는 파일에 대한 추가 프로젝션 정의입니다.

SearchIndexerKnowledgeStoreBlobProjectionSelector

구체적인 선택기 간에 속성을 공유하는 추상 클래스입니다.

SearchIndexerKnowledgeStoreFileProjectionSelector

Azure Files에 저장할 데이터에 대한 프로젝션 정의입니다.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Azure Blob에 저장할 데이터에 대한 프로젝션 정의입니다.

SearchIndexerKnowledgeStoreParameters

지식 저장소별 구성 속성의 사전입니다. 각 이름은 특정 속성의 이름입니다. 각 값은 기본 형식이어야 합니다.

SearchIndexerKnowledgeStoreProjection

다양한 프로젝션 선택기에 대한 컨테이너 개체입니다.

SearchIndexerKnowledgeStoreProjectionSelector

구체적인 선택기 간에 속성을 공유하는 추상 클래스입니다.

SearchIndexerKnowledgeStoreTableProjectionSelector

Azure 테이블에 저장할 데이터에 대한 설명입니다.

SearchIndexerLimits
SearchIndexerSkillset

기술 목록입니다.

SearchIndexerStatus

인덱서의 현재 상태 및 실행 기록을 나타냅니다.

SearchIndexerWarning

항목 수준 경고를 나타냅니다.

SearchIndexingBufferedSenderOptions

SearchIndexingBufferedSender에 대한 옵션입니다.

SearchResourceEncryptionKey

Azure Key Vault의 고객 관리형 암호화 키입니다. 만들고 관리하는 키를 사용하여 Azure Cognitive Search에서 미사용 데이터를 암호화하거나 암호 해독할 수 있습니다(예: 인덱스 및 동의어 맵).

SearchServiceStatistics

서비스 통계 가져오기 요청의 응답입니다. 성공하면 서비스 수준 카운터 및 제한이 포함됩니다.

SearchSuggester

인덱스의 필드 그룹에 Suggest API를 적용하는 방법을 정의합니다.

SemanticConfiguration

의미 체계 기능의 컨텍스트에서 사용할 특정 구성을 정의합니다.

SemanticField

의미 체계 구성의 일부로 사용되는 필드입니다.

SemanticPrioritizedFields

의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 제목, 콘텐츠 및 키워드 필드를 설명합니다.

SemanticSearch

의미 체계 기능에 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다.

SemanticSearchOptions

의미 체계 검색 쿼리에 대한 옵션을 정의합니다.

SentimentSkill

텍스트 분석은 0에서 1까지의 범위에서 부동 소수점 값으로 점수가 매깁니다.

SentimentSkillV3

Text Analytics API를 사용하여 구조화되지 않은 텍스트를 평가하고 각 레코드에 대해 문장 및 문서 수준에서 서비스에서 찾은 가장 높은 신뢰도 점수를 기반으로 감정 레이블(예: "부정", "중립" 및 "긍정")을 제공합니다.

ServiceCounters

서비스 수준 리소스 카운터 및 할당량을 나타냅니다.

ServiceLimits

다양한 서비스 수준 제한을 나타냅니다.

ShaperSkill

출력을 재구성하기 위한 기술입니다. 복합 필드(다중 파트 필드라고도 함)를 지원하는 복합 형식을 만듭니다.

ShingleTokenFilter

토큰 조합을 단일 토큰으로 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Similarity

유사성 알고리즘의 기본 형식입니다. 유사성 알고리즘은 쿼리를 문서에 연결하는 점수를 계산하는 데 사용됩니다. 점수가 높을수록 문서가 해당 특정 쿼리와 더 관련성이 높습니다. 이러한 점수는 검색 결과의 순위를 지정하는 데 사용됩니다.

SimpleField

필드의 이름, 데이터 형식 및 검색 동작을 설명하는 인덱스 정의의 필드를 나타냅니다.

SnowballTokenFilter

Snowball에서 생성된 형태소 분석기를 사용하여 단어를 막는 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

SoftDeleteColumnDeletionDetectionPolicy

일시 삭제 전략을 구현하는 데이터 삭제 검색 정책을 정의합니다. 지정된 '일시 삭제' 열의 값에 따라 항목을 삭제해야 하는지 여부를 결정합니다.

SplitSkill

문자열을 텍스트 청크로 분할하는 기술입니다.

SqlIntegratedChangeTrackingPolicy

Azure SQL Database의 통합 변경 내용 추적 기능을 사용하여 변경 내용을 캡처하는 데이터 변경 검색 정책을 정의합니다.

StemmerOverrideTokenFilter

사용자 지정 사전 기반 형태소 분석으로 다른 형태소 분석 필터를 재정의하는 기능을 제공합니다. 사전 형태소 분석된 용어는 키워드로 표시되므로 체인의 형태소 분석기에서 형태소 분석되지 않습니다. 형태소 분석 필터 앞에 배치해야 합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

StemmerTokenFilter

언어별 형태소 분석 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

StopAnalyzer

텍스트를 문자가 아닌 문자로 나눕니다. 소문자 및 중지 단어 토큰 필터를 적용합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다.

StopwordsTokenFilter

토큰 스트림에서 중지 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

SuggestDocumentsResult

인덱스에서의 제안 쿼리 결과를 포함하는 응답입니다.

SuggestRequest

필터링, 정렬, 유사 항목 일치 및 기타 제안 쿼리 동작에 대한 매개 변수입니다.

SynonymMap

동의어 맵 정의를 나타냅니다.

SynonymTokenFilter

토큰 스트림에서 단일 또는 다중 단어 동의어를 찾습니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

TagScoringFunction

지정된 태그 목록과 일치하는 문자열 값을 사용하여 문서의 점수를 높이는 함수를 정의합니다.

TagScoringParameters

태그 점수 매기기 함수에 매개 변수 값을 제공합니다.

TextTranslationSkill

텍스트를 한 언어에서 다른 언어로 번역하는 기술입니다.

TextWeights

일치 항목이 검색 쿼리에서 점수를 높여야 하는 인덱스 필드의 가중치를 정의합니다.

TruncateTokenFilter

용어를 특정 길이로 자립니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

UaxUrlEmailTokenizer

URL 및 전자 메일을 하나의 토큰으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

UniqueTokenFilter

이전 토큰과 동일한 텍스트로 토큰을 필터링합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

VectorSearch

벡터 검색과 관련된 구성 옵션을 포함합니다.

VectorSearchOptions

벡터 검색 쿼리에 대한 옵션을 정의합니다.

VectorSearchProfile

벡터 검색에 사용할 구성의 조합을 정의합니다.

VectorizableTextQuery

벡터화해야 하는 텍스트 값이 제공될 때 벡터 검색에 사용할 쿼리 매개 변수입니다.

VectorizedQuery

원시 벡터 값이 제공될 때 벡터 검색에 사용할 쿼리 매개 변수입니다.

WebApiParameters

사용자 정의 벡터라이저에 연결하기 위한 속성을 지정합니다.

WebApiSkill

Web API 엔드포인트를 호출할 수 있는 기술로, 사용자 지정 코드를 호출하여 기술 세트를 확장할 수 있습니다.

WebApiVectorizer

쿼리 문자열의 벡터 포함을 생성하기 위한 사용자 정의 벡터라이저를 지정합니다. 외부 벡터라이저의 통합은 기술 세트의 사용자 지정 Web API 인터페이스를 사용하여 수행됩니다.

WordDelimiterTokenFilter

단어를 하위 단어로 분할하고 하위 단어 그룹에서 선택적 변환을 수행합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

형식 별칭

AnalyzeTextOptions

텍스트 작업을 분석하기 위한 옵션입니다.

AutocompleteMode

AutocompleteMode에 대한 값을 정의합니다.

AutocompleteOptions

부분 searchText에 대한 완성 텍스트를 검색하는 옵션입니다.

AzureOpenAIModelName

AzureOpenAIModelName에 대한 값을 정의합니다.
KnownAzureOpenAIModelName AzureOpenAIModelName과 교환하여 사용할 수 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

text-embedding-ada-002
text-embedding-3-large
text-embedding-3-small

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

CharFilter에 대한 가능한 사례를 포함합니다.

CharFilterName

CharFilterName에 대한 값을 정의합니다.
charFilterName과 상호 교환하여 사용할 수 <xref:KnownCharFilterName> 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

html_strip: HTML 구문을 제거하려고 시도하는 문자 필터입니다. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html 참조

CjkBigramTokenFilterScripts

CjkBigramTokenFilterScripts의 값을 정의합니다.

CognitiveServicesAccount

CognitiveServicesAccount에 대한 가능한 사례를 포함합니다.

ComplexDataType

ComplexDataType에 대한 값을 정의합니다. 가능한 값은 'Edm.ComplexType', 'Collection(Edm.ComplexType)'입니다.

CountDocumentsOptions

인덱스에서 개수 연산을 수행하기 위한 옵션입니다.

CreateDataSourceConnectionOptions

데이터 원본 만들기 작업에 대한 옵션입니다.

CreateIndexOptions

인덱스 만들기 작업에 대한 옵션입니다.

CreateIndexerOptions

인덱서 만들기 작업에 대한 옵션입니다.

CreateSkillsetOptions

기술 세트 작업을 만들기 위한 옵션입니다.

CreateSynonymMapOptions

동의어 맵 만들기 작업에 대한 옵션입니다.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

DataChangeDetectionPolicy에 대한 가능한 사례를 포함합니다.

DataDeletionDetectionPolicy

DataDeletionDetectionPolicy에 대한 가능한 사례를 포함합니다.

DeleteDocumentsOptions

문서 삭제 작업에 대한 옵션입니다.

EdgeNGramTokenFilterSide

EdgeNGramTokenFilterSide에 대한 값을 정의합니다.

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

전체 벡터 인덱스에 대해 무차별 암호 대입 검색을 수행하는 쿼리 중에 사용되는 전체 KNN 알고리즘과 관련된 구성 옵션을 포함합니다.

ExtractDocumentKey
GetDataSourceConnectionOptions

데이터 원본 가져오기 작업에 대한 옵션입니다.

GetIndexOptions

인덱스 가져오기 작업에 대한 옵션입니다.

GetIndexStatisticsOptions

인덱스 통계 가져오기 작업에 대한 옵션입니다.

GetIndexerOptions

인덱서 가져오기 작업에 대한 옵션입니다.

GetIndexerStatusOptions

인덱서 상태 가져오기 작업에 대한 옵션입니다.

GetServiceStatisticsOptions

서비스 통계 작업을 가져오기 위한 옵션입니다.

GetSkillSetOptions

기술 세트 작업을 가져오기 위한 옵션입니다.

GetSynonymMapsOptions

동의어 가져오기 작업에 대한 옵션입니다.

HnswAlgorithmConfiguration

인덱싱 시간 동안 사용되는 hnsw 근사 근사 인접 알고리즘과 관련된 구성 옵션을 포함합니다.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

IndexActionType에 대한 값을 정의합니다.

IndexDocumentsAction

문서에서 작동하는 인덱스 동작을 나타냅니다.

IndexIterator

Search 서비스에 있는 인덱스를 나열하기 위한 반복기입니다. 반복하는 동안 필요에 따라 요청을 수행합니다. .byPage()를 사용하여 반복당 서버에 한 번의 요청을 수행합니다.

IndexNameIterator

Search 서비스에 있는 인덱스를 나열하기 위한 반복기입니다. 반복하는 동안 필요에 따라 요청을 수행합니다. .byPage()를 사용하여 반복당 서버에 한 번의 요청을 수행합니다.

IndexProjectionMode

IndexProjectionMode에 대한 값을 정의합니다.
KnownIndexProjectionMode IndexProjectionMode와 교환하여 사용할 수 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

skipIndexingParentDocuments: 원본 문서는 인덱서의 대상 인덱스에 쓰는 것에서 건너뜁니다.
포함IndexingParentDocuments: 원본 문서는 인덱서의 대상 인덱스에 기록됩니다. 이것이 기본 패턴입니다.

IndexerExecutionEnvironment
IndexerExecutionStatus

IndexerExecutionStatus에 대한 값을 정의합니다.

IndexerStatus

IndexerStatus에 대한 값을 정의합니다.

KeyPhraseExtractionSkillLanguage
LexicalAnalyzer

분석기에서 가능한 사례를 포함합니다.

LexicalAnalyzerName

LexicalAnalyzerName의 값을 정의합니다.
<xref:KnownLexicalAnalyzerName> LexicalAnalyzerName과 교환하여 사용할 수 있습니다. 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

ar.microsoft: 아랍어용 Microsoft 분석기입니다.
ar.lucene: 아랍어용 Lucene 분석기입니다.
hy.lucene: 아르메니아어용 Lucene 분석기입니다.
bn.microsoft: Bangla용 Microsoft 분석기입니다.
eu.lucene: Basque용 Lucene 분석기입니다.
bg.microsoft: 불가리아어용 Microsoft 분석기입니다.
bg.lucene: 불가리아어용 Lucene 분석기입니다.
ca.microsoft: 카탈로니아어용 Microsoft 분석기입니다.
ca.lucene: 카탈로니아어 Lucene 분석기.
zh-Hans.microsoft: 중국어용 Microsoft 분석기(간체).
zh-Hans.lucene: 중국어용 Lucene 분석기(간체).
zh-Hant.microsoft: 중국어용 Microsoft 분석기(번체).
zh-Hant.lucene: 중국어(번체)용 Lucene 분석기입니다.
hr.microsoft: 크로아티아어용 Microsoft 분석기입니다.
cs.microsoft: 체코용 Microsoft 분석기입니다.
cs.lucene: 체코어용 Lucene 분석기입니다.
da.microsoft: 덴마크어용 Microsoft 분석기입니다.
da.lucene: 덴마크어용 Lucene 분석기입니다.
nl.microsoft: 네덜란드어용 Microsoft 분석기입니다.
nl.lucene: 네덜란드어용 Lucene 분석기입니다.
en.microsoft: 영어용 Microsoft 분석기입니다.
en.lucene: 영어용 Lucene 분석기입니다.
et.microsoft: 에스토니아어용 Microsoft 분석기입니다.
fi.microsoft: 핀란드어용 Microsoft 분석기입니다.
fi.lucene: 핀란드어용 Lucene 분석기입니다.
fr.microsoft: 프랑스어용 Microsoft 분석기입니다.
fr.lucene: 프랑스어용 Lucene 분석기입니다.
gl.lucene: Galician용 Lucene 분석기입니다.
de.microsoft: 독일어용 Microsoft 분석기입니다.
de.lucene: 독일어용 Lucene 분석기입니다.
el.microsoft: 그리스어용 Microsoft 분석기입니다.
el.lucene: 그리스어용 Lucene 분석기입니다.
gu.microsoft: Gujarati용 Microsoft 분석기입니다.
he.microsoft: 히브리어용 Microsoft 분석기입니다.
hi.microsoft: 힌디어용 Microsoft 분석기입니다.
hi.lucene: Lucene analyzer for Hindi.
hu.microsoft: 헝가리어용 Microsoft 분석기입니다.
hu.lucene: 헝가리어용 Lucene 분석기입니다.
is.microsoft: 아이슬란드어용 Microsoft 분석기입니다.
id.microsoft: 인도네시아어용 Microsoft 분석기(Bahasa)입니다.
id.lucene: 인도네시아어용 Lucene 분석기입니다.
ga.lucene: 아일랜드어용 Lucene 분석기입니다.
it.microsoft: 이탈리아어용 Microsoft 분석기입니다.
it.lucene: Lucene analyzer for italian.
ja.microsoft: 일본어용 Microsoft 분석기입니다.
ja.lucene: 일본어용 Lucene 분석기입니다.
kn.microsoft: Kannada용 Microsoft 분석기입니다.
ko.microsoft: 한국어용 Microsoft 분석기입니다.
ko.lucene: 한국어용 Lucene 분석기입니다.
lv.microsoft: 라트비아어용 Microsoft 분석기입니다.
lv.lucene: 라트비아어용 Lucene 분석기입니다.
lt.microsoft: 리투아니아어용 Microsoft 분석기입니다.
ml.microsoft: Malayalam용 Microsoft 분석기입니다.
ms.microsoft: 말레이어용 Microsoft 분석기(라틴어).
mr.microsoft: Marathi용 Microsoft 분석기입니다.
nb.microsoft: 노르웨이어용 Microsoft 분석기(Bokmål).
no.lucene: 노르웨이어용 Lucene 분석기입니다.
fa.lucene: 페르시아어용 Lucene 분석기입니다.
pl.microsoft: 폴란드어용 Microsoft 분석기입니다.
pl.lucene: 폴란드어용 Lucene 분석기입니다.
pt-BR.microsoft: 포르투갈어용 Microsoft 분석기(브라질)입니다.
pt-BR.lucene: 포르투갈어(브라질)용 Lucene 분석기입니다.
pt-PT.microsoft: 포르투갈어용 Microsoft 분석기(포르투갈).
pt-PT.lucene: 포르투갈어(포르투갈)용 Lucene 분석기입니다.
pa.microsoft: 펀자브용 Microsoft 분석기입니다.
ro.microsoft: 루마니아어용 Microsoft 분석기입니다.
ro.lucene: 루마니아어 Lucene 분석기입니다.
ru.microsoft: 러시아어용 Microsoft 분석기입니다.
ru.lucene: 러시아어용 Lucene 분석기입니다.
sr-cyrillic.microsoft: 세르비아어용 Microsoft 분석기(키릴 자모)입니다.
sr-latin.microsoft: 세르비아어용 Microsoft 분석기(라틴어).
sk.microsoft: Slovak용 Microsoft 분석기입니다.
sl.microsoft: 슬로베니아어용 Microsoft 분석기입니다.
es.microsoft: 스페인어용 Microsoft 분석기입니다.
es.lucene: 스페인어용 Lucene 분석기입니다.
sv.microsoft: 스웨덴어용 Microsoft 분석기입니다.
sv.lucene: 스웨덴어용 Lucene 분석기입니다.
ta.microsoft: 타밀어용 Microsoft 분석기입니다.
te.microsoft: Telugu용 Microsoft 분석기입니다.
th.microsoft: 태국어용 Microsoft 분석기입니다.
th.lucene: 태국어용 Lucene 분석기입니다.
tr.microsoft: 터키어용 Microsoft 분석기입니다.
tr.lucene: 터키어용 Lucene 분석기입니다.
uk.microsoft: 우크라이나어용 Microsoft 분석기입니다.
your.microsoft
: Urdu용 Microsoft 분석기입니다.
vi.microsoft: 베트남어용 Microsoft 분석기입니다.
standard.lucene: Standard Lucene 분석기입니다.
standardasciifolding.lucene: Standard ASCII Folding Lucene 분석기입니다. https://video2.skills-academy.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers 참조
키워드: 필드의 전체 콘텐츠를 단일 토큰으로 처리합니다. 이는 우편 번호, ID 및 일부 제품 이름과 같은 데이터에 유용합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html 참조
패턴: 정규식 패턴을 통해 텍스트를 용어로 유연하게 구분합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html 참조
간단한: 텍스트를 문자가 아닌 문자로 나누고 소문자로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html 참조
중지: 텍스트를 문자가 아닌 문자로 나눕니다. 소문자 및 중지 단어 토큰 필터를 적용합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html 참조
공백: 공백 토큰라이저를 사용하는 분석기입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html 참조

LexicalTokenizer

Tokenizer에 대한 가능한 사례를 포함합니다.

LexicalTokenizerName

LexicalTokenizerName의 값을 정의합니다.
lexicalTokenizerName과 교환하여 사용할 수 <xref:KnownLexicalTokenizerName> 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

클래식: 대부분의 유럽 언어 문서를 처리하는 데 적합한 문법 기반 토큰화기입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html 참조
edgeNGram: 에지의 입력을 지정된 크기의 n-gram으로 토큰화합니다. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html 참조
keyword_v2: 전체 입력을 단일 토큰으로 내보낸다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html 참조
문자: 텍스트를 문자가 아닌 문자로 나눕니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html 참조
소문자: 텍스트를 문자가 아닌 문자로 나누고 소문자로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html 참조
microsoft_language_tokenizer: 언어별 규칙을 사용하여 텍스트를 나눕니다.
microsoft_language_stemming_tokenizer: 언어별 규칙을 사용하여 텍스트를 나누고 단어를 기본 형식으로 줄입니다.
nGram: 입력을 지정된 크기의 n-gram으로 토큰화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html 참조
path_hierarchy_v2: 경로와 유사한 계층 구조에 대한 토큰화자입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html 참조
패턴: regex 패턴 일치를 사용하여 고유 토큰을 생성하는 Tokenizer입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html 참조
standard_v2: 표준 Lucene 분석기; 표준 토큰라이저, 소문자 필터 및 중지 필터로 구성됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html 참조
uax_url_email: URL 및 전자 메일을 하나의 토큰으로 토큰화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html 참조
공백: 공백에서 텍스트를 나눕니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html 참조

ListDataSourceConnectionsOptions

목록 데이터 원본 작업에 대한 옵션입니다.

ListIndexersOptions

목록 인덱서 작업에 대한 옵션입니다.

ListIndexesOptions

목록 인덱스 작업에 대한 옵션입니다.

ListSkillsetsOptions

기술 세트 목록 작업에 대한 옵션입니다.

ListSynonymMapsOptions

목록 synonymMaps 작업에 대한 옵션입니다.

MergeDocumentsOptions

문서 병합 작업에 대한 옵션입니다.

MergeOrUploadDocumentsOptions

문서 병합 또는 업로드 작업에 대한 옵션입니다.

MicrosoftStemmingTokenizerLanguage

MicrosoftStemmingTokenizerLanguage에 대한 값을 정의합니다.

MicrosoftTokenizerLanguage

MicrosoftTokenizerLanguage에 대한 값을 정의합니다.

NarrowedModel

선택한 필드만 포함하도록 모델 형식의 범위를 좁혀줍니다.

OcrLineEnding

OcrLineEnding에 대한 값을 정의합니다.
KnownOcrLineEnding OcrLineEnding과 교환하여 사용할 수 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

공백: 선은 단일 공백 문자로 구분됩니다.
캐리지Return: 선은 캐리지 리턴('\r') 문자로 구분됩니다.
lineFeed: 줄은 단일 줄 바꿈('\n') 문자로 구분됩니다.
캐리지ReturnLineFeed: 줄은 캐리지 리턴과 줄 바꿈('\r\n') 문자로 구분됩니다.

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

PhoneticEncoder에 대한 값을 정의합니다.

QueryAnswer

응답을 검색 응답의 일부로 반환할지 여부를 지정하는 값입니다. 이 매개 변수는 쿼리 형식이 '의미 체계'인 경우에만 유효합니다. extractive설정하면 쿼리는 가장 높은 순위의 문서의 주요 구절에서 추출된 답변을 반환합니다.

QueryCaption

캡션을 검색 응답의 일부로 반환할지 여부를 지정하는 값입니다. 이 매개 변수는 쿼리 형식이 '의미 체계'인 경우에만 유효합니다. 설정된 경우 쿼리는 가장 높은 순위의 문서의 주요 구절에서 추출된 캡션을 반환합니다. 캡션이 '추출'인 경우 강조 표시는 기본적으로 사용하도록 설정됩니다. 기본값은 'none'입니다.

QueryType

QueryType에 대한 값을 정의합니다.

RegexFlags
ResetIndexerOptions

인덱서 다시 설정 작업에 대한 옵션입니다.

RunIndexerOptions

인덱서 실행 작업에 대한 옵션입니다.

ScoringFunction

ScoringFunction에 대한 가능한 사례를 포함합니다.

ScoringFunctionAggregation

ScoringFunctionAggregation에 대한 값을 정의합니다.

ScoringFunctionInterpolation

ScoringFunctionInterpolation에 대한 값을 정의합니다.

ScoringStatistics

ScoringStatistics의 값을 정의합니다.

SearchField

필드의 이름, 데이터 형식 및 검색 동작을 설명하는 인덱스 정의의 필드를 나타냅니다.

SearchFieldArray

TModel 형식화되지 않은 개체인 경우 형식화되지 않은 문자열 배열입니다. 그렇지 않으면 슬래시로 구분된 필드인 TModel.

SearchFieldDataType

SearchFieldDataType에 대한 값을 정의합니다.

서비스에서 지원하는 알려진 값:

Edm.String: 필드에 문자열이 포함되어 있음을 나타냅니다.

Edm.Int32: 필드에 부호 있는 32비트 정수가 포함되어 있음을 나타냅니다.

Edm.Int64: 필드에 부호 있는 64비트 정수가 포함되어 있음을 나타냅니다.

Edm.Double: 필드에 IEEE 배정밀도 부동 소수점 번호가 포함되어 있음을 나타냅니다.

Edm.Boolean: 필드에 부울 값(true 또는 false)이 포함되어 있음을 나타냅니다.

Edm.DateTimeOffset: 필드에 표준 시간대 정보를 포함한 날짜/시간 값이 포함되어 있음을 나타냅니다.

Edm.GeographyPoint: 필드에 경도 및 위도 측면에서 지리적 위치가 포함되어 있음을 나타냅니다.

Edm.ComplexType: 필드에 다른 형식의 하위 필드가 있는 하나 이상의 복합 개체가 포함되어 있음을 나타냅니다.

Edm.Single: 필드에 단정밀도 부동 소수점 번호가 포함되어 있음을 나타냅니다. 컬렉션 형식(예: Collection(Edm.Single))의 일부로 사용되는 경우에만 유효합니다.

Edm.Half: 필드에 반정밀도 부동 소수점 번호가 포함되어 있음을 나타냅니다. 컬렉션 형식(예: Collection(Edm.Half))의 일부로 사용할 때만 유효합니다.

Edm.Int16: 필드에 부호 있는 16비트 정수가 포함되어 있음을 나타냅니다. 컬렉션 형식의 일부로 사용되는 경우에만 유효합니다(예: Collection(Edm.Int16)).

Edm.SByte: 필드에 부호 있는 8비트 정수가 포함되어 있음을 나타냅니다. 컬렉션 형식(예: Collection(Edm.SByte))의 일부로 사용되는 경우에만 유효합니다.

Edm.Byte: 필드에 부호 없는 8비트 정수가 포함되어 있음을 나타냅니다. 컬렉션 형식(예: Collection(Edm.Byte))의 일부로 사용되는 경우에만 유효합니다.

SearchIndexerDataIdentity

SearchIndexerDataIdentity에 대한 가능한 사례를 포함합니다.

SearchIndexerDataSourceType
SearchIndexerSkill

기술에 대한 가능한 사례를 포함합니다.

SearchIndexingBufferedSenderDeleteDocumentsOptions

SearchIndexingBufferedSenderDeleteDocuments에 대한 옵션입니다.

SearchIndexingBufferedSenderFlushDocumentsOptions

SearchIndexingBufferedSenderFlushDocuments에 대한 옵션입니다.

SearchIndexingBufferedSenderMergeDocumentsOptions

SearchIndexingBufferedSenderMergeDocuments에 대한 옵션입니다.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

SearchIndexingBufferedSenderMergeOrUploadDocuments에 대한 옵션입니다.

SearchIndexingBufferedSenderUploadDocumentsOptions

SearchIndexingBufferedSenderUploadDocuments에 대한 옵션입니다.

SearchIterator

파티커 쿼리의 검색 결과에 대한 반복기입니다. 반복하는 동안 필요에 따라 요청을 수행합니다. .byPage()를 사용하여 반복당 서버에 한 번의 요청을 수행합니다.

SearchMode

SearchMode에 대한 값을 정의합니다.

SearchOptions

전체 검색 요청을 커밋하는 옵션입니다.

SearchPick

유효한 Cognitive Search OData $select 경로를 사용하여 T 필드를 깊게 선택합니다.

SearchRequestOptions

필터링, 정렬, 패싯, 페이징 및 기타 검색 쿼리 동작에 대한 매개 변수입니다.

SearchRequestQueryTypeOptions
SearchResult

검색 쿼리에서 찾은 문서와 연결된 메타데이터를 포함합니다.

SelectArray

TFields 없는 경우 형식화되지 않은 문자열 배열입니다. 그렇지 않으면 소비 형식의 다른 곳에서 사용할 좁은 Fields[] 형식입니다.

SelectFields

T에 루팅된 필드 트리의 사후 순서 순회를 사용하여 T에 대한 유효한 Cognitive Search OData $select 경로의 합합을 생성합니다.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

유사성에 대한 가능한 사례를 포함합니다.

SnowballTokenFilterLanguage

SnowballTokenFilterLanguage에 대한 값을 정의합니다.

SplitSkillLanguage
StemmerTokenFilterLanguage

StemmerTokenFilterLanguage에 대한 값을 정의합니다.

StopwordsList

StopwordsList에 대한 값을 정의합니다.

SuggestNarrowedModel
SuggestOptions

searchText를 기반으로 제안을 검색하는 옵션입니다.

SuggestResult

제안 쿼리에서 찾은 문서와 관련 메타데이터가 포함된 결과입니다.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

TokenCharacterKind에 대한 값을 정의합니다.

TokenFilter

TokenFilter에 대한 가능한 사례를 포함합니다.

TokenFilterName

TokenFilterName에 대한 값을 정의합니다.
tokenFilterName과 상호 교환하여 사용할 수 <xref:KnownTokenFilterName> 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

arabic_normalization: Orthography를 정규화하기 위해 아랍어 정규화를 적용하는 토큰 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html 참조
아포스트로피: 아포스트로피(아포스트로피 자체 포함) 뒤의 모든 문자를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html 참조
asciifolding: 처음 127개의 ASCII 문자("기본 라틴어" 유니코드 블록)에 없는 알파벳, 숫자 및 기호 유니코드 문자를 해당하는 ASCII 등가물로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html 참조
cjk_bigram: 표준 토케나이저에서 생성된 CJK 용어의 bigrams를 형성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html 참조
cjk_width: CJK 너비 차이를 정규화합니다. 전체폭 ASCII 변형을 해당하는 기본 라틴어로 접고 반자 가타카나 변형을 해당하는 가나로 접습니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html 참조
클래식: 약어에서 영어 소유 및 점을 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html 참조
common_grams: 인덱싱하는 동안 자주 발생하는 용어에 대한 bigrams를 생성합니다. 단일 용어도 여전히 인덱싱되며 bigrams가 오버레이됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html 참조
edgeNGram_v2: 입력 토큰의 앞이나 뒷면에서 시작하여 지정된 크기의 n-gram을 생성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html 참조
엘리전: 엘리션을 제거합니다. 예를 들어 "l'avion"(평면)은 "avion"(평면)으로 변환됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html 참조
german_normalization: German2 snowball 알고리즘의 추론에 따라 독일어 문자를 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html 참조
hindi_normalization: 맞춤법 변형의 일부 차이를 제거하기 위해 힌디어로 텍스트를 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html 참조
indic_normalization: 인도어로 된 텍스트의 유니코드 표현을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html 참조
keyword_repeat: 들어오는 각 토큰을 키워드로 한 번, 키워드가 아닌 토큰으로 두 번 내보낸다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html 참조
kstem: 영어용 고성능 kstem 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html 참조
길이: 너무 길거나 너무 짧은 단어를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html 참조
제한: 인덱싱하는 동안 토큰 수를 제한합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html 참조
소문자: 토큰 텍스트를 소문자로 정규화합니다. https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html 참조
nGram_v2: 지정된 크기의 n-gram을 생성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html 참조
persian_normalization: 페르시아어 정규화를 적용합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html 참조
윗주: 윗주 일치에 대한 토큰을 만듭니다. https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html 참조
porter_stem: Porter 형태소 분석 알고리즘을 사용하여 토큰 스트림을 변환합니다. http://tartarus.org/~martin/PorterStemmer 참조
역방향: 토큰 문자열을 반대로 바꿉니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html 참조
scandinavian_normalization: 교환 가능한 스칸디나비아 문자의 사용을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html 참조
scandinavian_folding: åÅäæÄÆ- a와 öÖøØ->o를>스칸디나비아 문자를 접습니다. 또한 이중 모음 aa, ae, ao, oe 및 oo의 사용을 차별하여 첫 번째 모음만 남깁니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html 참조
대상 포진: 토큰 조합을 단일 토큰으로 만듭니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html 참조
snowball: Snowball에서 생성된 형태소 분석기를 사용하여 단어를 막는 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html 참조
sorani_normalization: Sorani 텍스트의 유니코드 표현을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html 참조
형태소 분석기: 언어별 형태소 분석 필터입니다. https://video2.skills-academy.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters 참조
중지 단어: 토큰 스트림에서 중지 단어를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html 참조
트리밍: 토큰에서 선행 및 후행 공백을 트리밍합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html 참조
자르기 : 용어를 특정 길이로 자립니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html 참조
고유한
: 이전 토큰과 동일한 텍스트로 토큰을 필터링합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html 참조
대문자: 토큰 텍스트를 대문자로 정규화합니다. https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html 참조
word_delimiter: 단어를 하위 단어로 분할하고 하위 단어 그룹에서 선택적 변환을 수행합니다.

UnionToIntersection
UploadDocumentsOptions

문서 업로드 작업에 대한 옵션입니다.

VectorEncodingFormat

VectorEncodingFormat에 대한 값을 정의합니다.
KnownVectorEncodingFormat VectorEncodingFormat과 교환하여 사용할 수 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

packedBit: 더 넓은 데이터 형식으로 압축된 비트를 나타내는 인코딩 형식입니다.

VectorFilterMode
VectorQuery

벡터 및 하이브리드 검색 쿼리에 대한 쿼리 매개 변수입니다.

VectorQueryKind
VectorSearchAlgorithmConfiguration

인덱싱 및/또는 쿼리하는 동안 사용되는 알고리즘과 관련된 구성 옵션을 포함합니다.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

인덱싱 또는 쿼리 중에 사용되는 압축 방법과 관련된 구성 옵션을 포함합니다.

VectorSearchCompressionKind

VectorSearchCompressionKind에 대한 값을 정의합니다.
KnownVectorSearchCompressionKind VectorSearchCompressionKind와 교환하여 사용할 수 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

scalarQuantization: 압축 방법의 형식인 스칼라 양자화입니다. 스칼라 정량화에서 원래 벡터 값은 제한된 정량화된 값 집합을 사용하여 벡터의 각 구성 요소를 불연속화하고 표현하여 더 좁은 형식으로 압축되어 전체 데이터 크기를 줄입니다.
binaryQuantization: 압축 방법의 형식인 이진 양자화입니다. 이진 양자화에서 원래 벡터 값은 이진 값을 사용하여 벡터의 각 구성 요소를 불연속화하고 표시하여 더 좁은 이진 형식으로 압축되어 전체 데이터 크기를 줄입니다.

VectorSearchCompressionTarget

VectorSearchCompressionTarget에 대한 값을 정의합니다.
KnownVectorSearchCompressionTarget VectorSearchCompressionTarget과 교환하여 사용할 수 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

int8

VectorSearchVectorizer

텍스트 벡터 쿼리를 벡터화하는 방법에 대한 구성 옵션을 포함합니다.

VectorSearchVectorizerKind

VectorSearchVectorizerKind에 대한 값을 정의합니다.
KnownVectorSearchVectorizerKind VectorSearchVectorizerKind와 교환하여 사용할 수 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

azureOpenAI: 쿼리 시 Azure OpenAI 리소스를 사용하여 포함을 생성합니다.
customWebApi
: 쿼리 시 사용자 지정 웹 엔드포인트를 사용하여 포함을 생성합니다.

VisualFeature

열거형

KnownAnalyzerNames

AnalyzerName에 대한 값을 정의합니다. https://docs.microsoft.com/rest/api/searchservice/Language-support 참조

KnownAzureOpenAIModelName

AzureOpenAIModelName의 알려진 값은 서비스에서 허용하는.

KnownBlobIndexerDataToExtract

BlobIndexerDataToExtract의 알려진 값은 서비스에서 허용하는.

KnownBlobIndexerImageAction

BlobIndexerImageAction의 알려진 값은 서비스에서 허용하는.

KnownBlobIndexerPDFTextRotationAlgorithm

BlobIndexerPDFTextRotationAlgorithm의 알려진 값은 서비스에서 허용하는.

KnownBlobIndexerParsingMode

BlobIndexerParsingMode의 알려진 값은 서비스에서 허용하는.

KnownCharFilterNames

CharFilterName의 알려진 값은 서비스에서 허용하는.

KnownCustomEntityLookupSkillLanguage

CustomEntityLookupSkillLanguage의 알려진 값은 서비스에서 허용하는.

KnownEntityCategory

EntityCategory의 알려진 값은 서비스에서 허용하는.

KnownEntityRecognitionSkillLanguage

EntityRecognitionSkillLanguage의 알려진 값은 서비스에서 허용하는.

KnownImageAnalysisSkillLanguage

ImageAnalysisSkillLanguage의 알려진 값은 서비스에서 허용하는.

KnownImageDetail

ImageDetail의 알려진 값은 서비스에서 허용하는.

KnownIndexProjectionMode

IndexProjectionMode의 알려진 값은 서비스에서 허용하는.

KnownIndexerExecutionEnvironment

IndexerExecutionEnvironment의 알려진 값은 서비스에서 허용하는.

KnownKeyPhraseExtractionSkillLanguage

KeyPhraseExtractionSkillLanguage의 알려진 값은 서비스에서 허용하는.

KnownOcrLineEnding

OcrLineEnding의 알려진 값은 서비스에서 허용하는.

KnownOcrSkillLanguage

OcrSkillLanguage의 알려진 값은 서비스에서 허용하는.

KnownPIIDetectionSkillMaskingMode

PIIDetectionSkillMaskingMode의 알려진 값은 서비스에서 허용하는.

KnownRegexFlags

RegexFlags의 알려진 값은 서비스에서 허용하는.

KnownSearchAudience

검색 대상 그룹에 대한 알려진 값

KnownSearchFieldDataType

SearchFieldDataType의 알려진 값은 서비스에서 허용하는.

KnownSearchIndexerDataSourceType

SearchIndexerDataSourceType의 알려진 값은 서비스에서 허용하는.

KnownSemanticErrorMode

SemanticErrorMode의 알려진 값은 서비스에서 허용하는.

KnownSemanticErrorReason

SemanticErrorReason의 알려진 값은 서비스에서 허용하는.

KnownSemanticSearchResultsType

SemanticSearchResultsType의 알려진 값은 서비스에서 허용하는.

KnownSentimentSkillLanguage

SentimentSkillLanguage의 알려진 값은 서비스에서 허용하는.

KnownSplitSkillLanguage

SplitSkillLanguage의 알려진 값은 서비스에서 허용하는.

KnownTextSplitMode

TextSplitMode의 알려진 값은 서비스에서 허용하는.

KnownTextTranslationSkillLanguage

TextTranslationSkillLanguage의 알려진 값은 서비스에서 허용하는.

KnownTokenFilterNames

TokenFilterName의 알려진 값은 서비스에서 허용하는.

KnownTokenizerNames

LexicalTokenizerName의 알려진 값은 서비스에서 허용하는.

KnownVectorEncodingFormat

VectorEncodingFormat의 알려진 값은 서비스에서 허용하는.

KnownVectorFilterMode

VectorFilterMode의 알려진 값은 서비스에서 허용하는.

KnownVectorQueryKind

VectorQueryKind의 알려진 값은 서비스에서 허용하는.

KnownVectorSearchAlgorithmKind

VectorSearchAlgorithmKind의 알려진 값은 서비스에서 허용하는.

KnownVectorSearchAlgorithmMetric

VectorSearchAlgorithmMetric의 알려진 값은 서비스에서 허용하는.

KnownVectorSearchCompressionKind

VectorSearchCompressionKind의 알려진 값은 서비스에서 허용하는.

KnownVectorSearchCompressionTarget

VectorSearchCompressionTarget의 알려진 값은 서비스에서 허용하는.

KnownVectorSearchVectorizerKind

VectorSearchVectorizerKind의 알려진 값은 서비스에서 허용하는.

KnownVisualFeature

VisualFeature의 알려진 값은 서비스에서 허용하는.

함수

createSynonymMapFromFile(string, string)

SynonymMap 개체를 만드는 도우미 메서드입니다. NodeJS 전용 메서드입니다.

odata(TemplateStringsArray, unknown[])

문자열 리터럴을 따옴표로 묶는 오류가 발생하지 않도록 odata 필터 식을 이스케이프합니다. 사용 예:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

지원되는 구문에 대한 자세한 내용은 다음을 참조하세요. https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

함수 세부 정보

createSynonymMapFromFile(string, string)

SynonymMap 개체를 만드는 도우미 메서드입니다. NodeJS 전용 메서드입니다.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

매개 변수

name

string

SynonymMap의 이름입니다.

filePath

string

동의어가 포함된 파일의 경로(새 줄로 구분)

반환

Promise<SynonymMap>

SynonymMap 개체

odata(TemplateStringsArray, unknown[])

문자열 리터럴을 따옴표로 묶는 오류가 발생하지 않도록 odata 필터 식을 이스케이프합니다. 사용 예:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

지원되는 구문에 대한 자세한 내용은 다음을 참조하세요. https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

매개 변수

strings

TemplateStringsArray

식에 대한 문자열 배열

values

unknown[]

식에 대한 값 배열

반환

string