你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

@azure/search-documents package

AzureKeyCredential

支持更新基础密钥值的基于静态密钥的凭据。

GeographyPoint

表示全局坐标中的地理点。

IndexDocumentsBatch

用于对索引使用多个文档执行批处理操作的类。

SearchClient

用于对搜索索引执行操作的类,包括查询索引中的文档以及添加、更新和删除它们。

SearchIndexClient

用于执行管理(创建、更新、列出/删除)索引 & 同义词映射的操作的类。

SearchIndexerClient

用于执行管理(创建、更新、列出/删除)索引器、数据源 & 技能集的操作的类。

SearchIndexingBufferedSender

用于对搜索索引执行缓冲操作的类,包括添加、更新和删除它们。

接口

AnalyzeRequest

指定用于将文本分解为标记的一些文本和分析组件。

AnalyzeResult

在文本上测试分析器的结果。

AnalyzedTokenInfo

有关分析器返回的令牌的信息。

AsciiFoldingTokenFilter

如果存在此类等效项,则将前 127 个 ASCII 字符(“基本拉丁语”Unicode 块)中的字母、数字和符号 Unicode 字符转换为其 ASCII 等效项。 此令牌筛选器是使用 Apache Lucene 实现的。

AutocompleteItem

自动完成请求的结果。

AutocompleteRequest

模糊匹配和其他自动完成查询行为的参数。

AutocompleteResult

自动完成查询的结果。

AzureActiveDirectoryApplicationCredentials

为搜索服务创建的已注册应用程序的凭据,用于对 Azure Key Vault 中存储的加密密钥进行身份验证的访问权限。

AzureOpenAIEmbeddingSkill

允许使用 Azure OpenAI 资源为给定文本输入生成矢量嵌入。

AzureOpenAIParameters

包含特定于在查询时使用 Azure Open AI 服务进行矢量化的参数。

AzureOpenAIVectorizer

包含特定于在查询时使用 Azure Open AI 服务进行矢量化的参数。

BM25Similarity

基于 Okapi BM25 相似性算法的排名函数。 BM25 是一种类似于 TF-IDF 的算法,包括长度规范化(由“b”参数控制)以及术语频率饱和(由“k1”参数控制)。

BaseCharFilter

字符筛选器的基类型。

BaseCognitiveServicesAccount

用于描述附加到技能集的任何 Azure AI 服务资源的基类型。

BaseDataChangeDetectionPolicy

数据更改检测策略的基类型。

BaseDataDeletionDetectionPolicy

数据删除检测策略的基类型。

BaseLexicalAnalyzer

分析器的基类型。

BaseLexicalTokenizer

tokenizer 的基类型。

BaseScoringFunction

可在排名期间修改文档分数的函数的基类型。

BaseSearchIndexerDataIdentity

数据标识的抽象基类型。

BaseSearchIndexerSkill

技能的基类型。

BaseSearchRequestOptions

用于筛选、排序、分面、分页和其他搜索查询行为的参数。

BaseTokenFilter

标记筛选器的基类型。

BaseVectorQuery

矢量和混合搜索查询的查询参数。

BaseVectorSearchAlgorithmConfiguration

包含特定于索引编制和/或查询期间使用的算法的配置选项。

BaseVectorSearchCompression

包含特定于索引或查询期间使用的压缩方法的配置选项。

BaseVectorSearchVectorizer

包含查询期间要使用的向量化方法的特定详细信息。

BinaryQuantizationCompression

包含特定于索引和查询期间使用的二进制量化压缩方法的配置选项。

CjkBigramTokenFilter

形成从标准标记器生成的 CJK 术语的 bigram。 此令牌筛选器是使用 Apache Lucene 实现的。

ClassicSimilarity

使用 TF-IDF 的 Lucene TFIDFSimilarity 实现的旧相似性算法。 这种 TF-IDF 变体引入了静态文档长度规范化,以及惩罚仅部分匹配搜索查询的文档的协调因素。

ClassicTokenizer

适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。

CognitiveServicesAccountKey

附加到技能集的 Azure AI 服务资源的多区域帐户密钥。

CommonGramTokenFilter

为索引时经常出现的字词构造 bigrams。 单个字词仍编制索引,并覆盖 bigrams。 此令牌筛选器是使用 Apache Lucene 实现的。

ComplexField

表示索引定义中的字段,该定义描述字段的名称、数据类型和搜索行为。

ConditionalSkill

一种技能,使需要布尔操作的方案能够确定要分配给输出的数据。

CorsOptions

定义用于控制索引的跨域资源共享(CORS)的选项。

CreateOrUpdateIndexOptions

用于创建/更新索引操作的选项。

CreateOrUpdateSkillsetOptions

用于创建/更新技能集操作的选项。

CreateOrUpdateSynonymMapOptions

用于创建/更新同义词映射操作的选项。

CreateorUpdateDataSourceConnectionOptions

用于创建/更新数据源操作的选项。

CreateorUpdateIndexerOptions

用于创建/更新索引器操作的选项。

CustomAnalyzer

允许你控制将文本转换为可索引/可搜索令牌的过程。 它是用户定义的配置,由单个预定义的 tokenizer 和一个或多个筛选器组成。 tokenizer 负责将文本分解为令牌,以及用于修改 tokenizer 发出的令牌的筛选器。

CustomEntity

一个对象,其中包含有关找到的匹配项和相关元数据的信息。

CustomEntityAlias

可用于指定根实体名称的替代拼写或同义词的复杂对象。

CustomEntityLookupSkill

技能从自定义的用户定义字词和短语列表中查找文本。

DefaultCognitiveServicesAccount

一个空对象,表示技能集的默认 Azure AI 服务资源。

DeleteDataSourceConnectionOptions

用于删除数据源操作的选项。

DeleteIndexOptions

用于删除索引操作的选项。

DeleteIndexerOptions

用于删除索引器操作的选项。

DeleteSkillsetOptions

用于删除技能集操作的选项。

DeleteSynonymMapOptions

用于删除同义词映射操作的选项。

DictionaryDecompounderTokenFilter

分解许多德语语言中发现的复合词。 此令牌筛选器是使用 Apache Lucene 实现的。

DistanceScoringFunction

定义基于地理位置距离提升分数的函数。

DistanceScoringParameters

向距离评分函数提供参数值。

DocumentExtractionSkill

从扩充管道中的文件中提取内容的技能。

EdgeNGramTokenFilter

从输入令牌的前面或后面开始,生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。

EdgeNGramTokenizer

将输入从边缘标记为给定大小的 n 元语法。 此 tokenizer 是使用 Apache Lucene 实现的。

ElisionTokenFilter

删除 elisions。 例如,“l'avion”(平面)将转换为“avion”(平面)。 此令牌筛选器是使用 Apache Lucene 实现的。

EntityLinkingSkill

使用文本分析 API 从文本中提取链接的实体。

EntityRecognitionSkill

文本分析实体识别。

EntityRecognitionSkillV3

使用文本分析 API 从文本中提取不同类型的实体。

ExhaustiveKnnParameters

包含特定于详尽 KNN 算法的参数。

ExtractiveQueryAnswer

从以自然语言表示的查询中返回的文档内容中提取答案候选项。

ExtractiveQueryCaption

从匹配的文档中提取标题,其中包含与搜索查询相关的段落。

FacetResult

分面查询结果的单个存储桶。 报告字段值在特定范围内或具有特定值或间隔的文档数。

FieldMapping

定义数据源中的字段与索引中目标字段之间的映射。

FieldMappingFunction

表示在编制索引之前从数据源转换值的函数。

FreshnessScoringFunction

定义一个函数,该函数根据日期时间字段的值提升分数。

FreshnessScoringParameters

为新鲜度评分函数提供参数值。

GetDocumentOptions

用于检索单个文档的选项。

HighWaterMarkChangeDetectionPolicy

定义数据更改检测策略,该策略根据高水印列的值捕获更改。

HnswParameters

包含特定于 hnsw 算法的参数。

ImageAnalysisSkill

分析图像文件的技能。 它基于图像内容提取一组丰富的视觉特征。

IndexDocumentsClient

索引文档客户端

IndexDocumentsOptions

修改索引批处理操作的选项。

IndexDocumentsResult

包含索引请求中所有文档的操作状态的响应。

IndexerExecutionResult

表示单个索引器执行的结果。

IndexingParameters

表示索引器执行的参数。

IndexingParametersConfiguration

特定于索引器的配置属性的字典。 每个名称都是特定属性的名称。 每个值都必须是基元类型。

IndexingResult

单个文档的索引操作的状态。

IndexingSchedule

表示索引器执行的计划。

InputFieldMappingEntry

技能的输入字段映射。

KeepTokenFilter

一个标记筛选器,它只保留包含指定字词列表中的文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。

KeyPhraseExtractionSkill

使用文本分析进行关键短语提取的技能。

KeywordMarkerTokenFilter

将术语标记为关键字。 此令牌筛选器是使用 Apache Lucene 实现的。

KeywordTokenizer

以单个标记的形式发出整个输入。 此 tokenizer 是使用 Apache Lucene 实现的。

LanguageDetectionSkill

一种技能,用于检测输入文本的语言,并报告请求上提交的每个文档的单个语言代码。 语言代码与指示分析置信度分数配对。

LengthTokenFilter

删除太长或太短的字词。 此令牌筛选器是使用 Apache Lucene 实现的。

LimitTokenFilter

在编制索引时限制令牌数。 此令牌筛选器是使用 Apache Lucene 实现的。

ListSearchResultsPageSettings

用于检索搜索结果下一页的参数。

LuceneStandardAnalyzer

标准 Apache Lucene 分析器;由标准 tokenizer、小写筛选器和停止筛选器组成。

LuceneStandardTokenizer

中断 Unicode 文本分段规则后面的文本。 此 tokenizer 是使用 Apache Lucene 实现的。

MagnitudeScoringFunction

定义一个函数,该函数根据数值字段的大小提升分数。

MagnitudeScoringParameters

向数量级评分函数提供参数值。

MappingCharFilter

一个字符筛选器,它应用使用映射选项定义的映射。 匹配是贪婪(给定点获胜时最长的模式匹配)。 允许替换为空字符串。 此字符筛选器是使用 Apache Lucene 实现的。

MergeSkill

用于将两个或多个字符串合并到单个统一字符串的技能,使用可选的用户定义的分隔符分隔每个组件部件。

MicrosoftLanguageStemmingTokenizer

使用特定于语言的规则划分文本,并将单词减少到其基形式。

MicrosoftLanguageTokenizer

使用特定于语言的规则划分文本。

NGramTokenFilter

生成给定大小的 n 元语法。 此令牌筛选器是使用 Apache Lucene 实现的。

NGramTokenizer

将输入标记为给定大小的 n 元语法。 此 tokenizer 是使用 Apache Lucene 实现的。

OcrSkill

从图像文件中提取文本的技能。

OutputFieldMappingEntry

技能的输出字段映射。

PIIDetectionSkill

使用文本分析 API,从输入文本中提取个人信息,并提供屏蔽信息的选项。

PathHierarchyTokenizer

类似路径层次结构的 Tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。

PatternAnalyzer

灵活将文本通过正则表达式模式分隔为字词。 此分析器是使用 Apache Lucene 实现的。

PatternCaptureTokenFilter

使用 Java 正则表达式发出多个令牌 - 一个标记用于一个或多个模式中的每个捕获组。 此令牌筛选器是使用 Apache Lucene 实现的。

PatternReplaceCharFilter

替换输入字符串中的字符的字符筛选器。 它使用正则表达式来标识要保留的字符序列和替换模式来标识要替换的字符。 例如,假设输入文本“aa bb aa bb”,模式“(aa)\s+(bb)”,并替换“$1#$2”,结果将为“aa#bb aa#bb”。 此字符筛选器是使用 Apache Lucene 实现的。

PatternReplaceTokenFilter

替换输入字符串中的字符的字符筛选器。 它使用正则表达式来标识要保留的字符序列和替换模式来标识要替换的字符。 例如,假设输入文本“aa bb aa bb”,模式“(aa)\s+(bb)”,并替换“$1#$2”,结果将为“aa#bb aa#bb”。 此令牌筛选器是使用 Apache Lucene 实现的。

PatternTokenizer

使用正则表达式模式匹配构造不同令牌的 Tokenizer。 此 tokenizer 是使用 Apache Lucene 实现的。

PhoneticTokenFilter

为拼音匹配创建令牌。 此令牌筛选器是使用 Apache Lucene 实现的。

QueryAnswerResult

答案是从与查询匹配的最相关文档的内容中提取的文本段落。 答案是从排名靠前的搜索结果中提取的。 对考生进行评分,并且选择了排名靠前的答案。

QueryCaptionResult

标题是文档相对于搜索查询最具代表性的段落。 它们通常用作文档摘要。 仅返回 semantic类型的查询的标题。

ResourceCounter

表示资源的使用情况和配额。

ScalarQuantizationCompression

包含特定于索引和查询期间使用的标量量化压缩方法的配置选项。

ScalarQuantizationParameters

包含特定于标量量化的参数。

ScoringProfile

定义影响搜索查询中评分的搜索索引的参数。

SearchClientOptions

用于配置认知搜索 API 请求的客户端选项。

SearchDocumentsPageResult

包含索引中的搜索结果的响应。

SearchDocumentsResult

包含索引搜索结果的响应。

SearchDocumentsResultBase

包含索引搜索结果的响应。

SearchIndex

表示搜索索引定义,该定义描述索引的字段和搜索行为。

SearchIndexClientOptions

用于配置认知搜索 API 请求的客户端选项。

SearchIndexStatistics

给定索引的统计信息。 统计信息会定期收集,不保证始终 up-to日期。

SearchIndexer

表示索引器。

SearchIndexerClientOptions

用于配置认知搜索 API 请求的客户端选项。

SearchIndexerDataContainer

表示要编制索引的实体(如 Azure SQL 表或 CosmosDB 集合)的相关信息。

SearchIndexerDataNoneIdentity

清除数据源的标识属性。

SearchIndexerDataSourceConnection

表示可用于配置索引器的数据源定义。

SearchIndexerDataUserAssignedIdentity

指定要使用的数据源的标识。

SearchIndexerError

表示项级或文档级索引错误。

SearchIndexerIndexProjection

对辅助搜索索引的其他投影的定义。

SearchIndexerIndexProjectionParameters

索引投影特定配置属性的字典。 每个名称都是特定属性的名称。 每个值都必须是基元类型。

SearchIndexerIndexProjectionSelector

指定搜索索引中要存储的数据的说明。

SearchIndexerKnowledgeStore

定义扩充数据的 Azure Blob、表或文件的其他投影。

SearchIndexerKnowledgeStoreBlobProjectionSelector

抽象类,用于在具体选择器之间共享属性。

SearchIndexerKnowledgeStoreFileProjectionSelector

要存储在 Azure 文件中的数据的投影定义。

SearchIndexerKnowledgeStoreObjectProjectionSelector

要存储在 Azure Blob 中的数据的投影定义。

SearchIndexerKnowledgeStoreParameters

特定于知识存储的配置属性的字典。 每个名称都是特定属性的名称。 每个值都必须是基元类型。

SearchIndexerKnowledgeStoreProjection

各种投影选择器的容器对象。

SearchIndexerKnowledgeStoreProjectionSelector

抽象类,用于在具体选择器之间共享属性。

SearchIndexerKnowledgeStoreTableProjectionSelector

描述要存储在 Azure 表中的数据。

SearchIndexerLimits
SearchIndexerSkillset

技能列表。

SearchIndexerStatus

表示索引器的当前状态和执行历史记录。

SearchIndexerWarning

表示项级警告。

SearchIndexingBufferedSenderOptions

SearchIndexingBufferedSender 的选项。

SearchResourceEncryptionKey

Azure Key Vault 中的客户管理的加密密钥。 创建和管理的密钥可用于加密或解密 Azure 认知搜索中的数据,例如索引和同义词映射。

SearchServiceStatistics

来自获取服务统计信息请求的响应。 如果成功,则包含服务级别计数器和限制。

SearchSuggester

定义建议 API 应如何应用于索引中的一组字段。

SemanticConfiguration

定义要在语义功能的上下文中使用的特定配置。

SemanticField

用作语义配置的一部分的字段。

SemanticPrioritizedFields

描述要用于语义排名、标题、突出显示和答案的标题、内容和关键字字段。

SemanticSearch

定义影响语义功能的搜索索引的参数。

SemanticSearchOptions

定义语义搜索查询的选项

SentimentSkill

文本分析正负情绪分析,评分为零到 1 范围内的浮点值。

SentimentSkillV3

使用文本分析 API 评估非结构化文本,并为每个记录提供情绪标签(如“负”、“中性”和“正”),具体取决于服务在句子和文档级别找到的最高置信度分数。

ServiceCounters

表示服务级别资源计数器和配额。

ServiceLimits

表示各种服务级别限制。

ShaperSkill

用于重塑输出的技能。 它创建复杂类型以支持复合字段(也称为多部分字段)。

ShingleTokenFilter

将令牌的组合创建为单个令牌。 此令牌筛选器是使用 Apache Lucene 实现的。

Similarity

相似性算法的基类型。 相似性算法用于计算将查询与文档挂钩的分数。 分数越高,文档就越与该特定查询相关。 这些分数用于对搜索结果进行排名。

SimpleField

表示索引定义中的字段,该定义描述字段的名称、数据类型和搜索行为。

SnowballTokenFilter

使用 Snowball 生成的词干分析器词干的筛选器。 此令牌筛选器是使用 Apache Lucene 实现的。

SoftDeleteColumnDeletionDetectionPolicy

定义实现软删除策略的数据删除检测策略。 它确定是否应根据指定的“软删除”列的值删除项。

SplitSkill

将字符串拆分为文本区块的技能。

SqlIntegratedChangeTrackingPolicy

定义使用 Azure SQL 数据库的集成更改跟踪功能捕获更改的数据更改检测策略。

StemmerOverrideTokenFilter

提供使用基于自定义字典的词干分析替代其他词干筛选器的功能。 任何字典词干术语都将标记为关键字,以便它们不会在链中以词干分析器进行词干。 必须放置在任何词干筛选器之前。 此令牌筛选器是使用 Apache Lucene 实现的。

StemmerTokenFilter

特定于语言的词干筛选。 此令牌筛选器是使用 Apache Lucene 实现的。

StopAnalyzer

以非字母分隔文本;应用小写和非索引字标记筛选器。 此分析器是使用 Apache Lucene 实现的。

StopwordsTokenFilter

从令牌流中删除停止字词。 此令牌筛选器是使用 Apache Lucene 实现的。

SuggestDocumentsResult

包含来自索引的建议查询结果的响应。

SuggestRequest

用于筛选、排序、模糊匹配和其他建议查询行为的参数。

SynonymMap

表示同义词映射定义。

SynonymTokenFilter

匹配令牌流中的单个或多单词同义词。 此令牌筛选器是使用 Apache Lucene 实现的。

TagScoringFunction

定义一个函数,该函数使用与给定标记列表匹配的字符串值提升文档的分数。

TagScoringParameters

向标记评分函数提供参数值。

TextTranslationSkill

将文本从一种语言翻译成另一种语言的技能。

TextWeights

定义匹配项应在搜索查询中提升评分的索引字段的权重。

TruncateTokenFilter

将术语截断为特定长度。 此令牌筛选器是使用 Apache Lucene 实现的。

UaxUrlEmailTokenizer

将 URL 和电子邮件作为一个令牌进行标记化。 此 tokenizer 是使用 Apache Lucene 实现的。

UniqueTokenFilter

筛选出与上一个标记相同的文本的标记。 此令牌筛选器是使用 Apache Lucene 实现的。

VectorSearch

包含与矢量搜索相关的配置选项。

VectorSearchOptions

定义矢量搜索查询的选项

VectorSearchProfile

定义要与矢量搜索一起使用的配置的组合。

VectorizableTextQuery

提供需要矢量化的文本值时用于矢量搜索的查询参数。

VectorizedQuery

提供原始向量值时用于矢量搜索的查询参数。

WebApiParameters

指定用于连接到用户定义的向量器的属性。

WebApiSkill

一种可以调用 Web API 终结点的技能,允许你通过调用自定义代码来扩展技能集。

WebApiVectorizer

指定用于生成查询字符串嵌入的矢量的用户定义的向量器。 使用技能集的自定义 Web API 接口实现外部向量器的集成。

WordDelimiterTokenFilter

将单词拆分为子词,对子词组执行可选转换。 此令牌筛选器是使用 Apache Lucene 实现的。

类型别名

AnalyzeTextOptions

用于分析文本操作的选项。

AutocompleteMode

定义 AutocompleteMode 的值。

AutocompleteOptions

用于检索部分 searchText 的完成文本的选项。

AzureOpenAIModelName

定义 AzureOpenAIModelName 的值。
KnownAzureOpenAIModelName 可与 AzureOpenAIModelName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

text-embedding-ada-002
文本嵌入-3 大型
文本嵌入-3 小型

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

包含 CharFilter 的可能情况。

CharFilterName

定义 CharFilterName 的值。
<xref:KnownCharFilterName> 可与 CharFilterName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

html_strip:尝试去除 HTML 构造的字符筛选器。 请参阅 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

定义 CjkBigramTokenFilterScripts 的值。

CognitiveServicesAccount

包含 CognitiveServicesAccount 的可能情况。

ComplexDataType

定义 ComplexDataType 的值。 可能的值包括:“Edm.ComplexType”、“Collection(Edm.ComplexType)”

CountDocumentsOptions

用于对索引执行计数操作的选项。

CreateDataSourceConnectionOptions

用于创建数据源操作的选项。

CreateIndexOptions

用于创建索引操作的选项。

CreateIndexerOptions

用于创建索引器操作的选项。

CreateSkillsetOptions

用于创建技能集操作的选项。

CreateSynonymMapOptions

用于创建同义词映射操作的选项。

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

包含 DataChangeDetectionPolicy 的可能情况。

DataDeletionDetectionPolicy

包含 DataDeletionDetectionPolicy 的可能案例。

DeleteDocumentsOptions

删除文档操作的选项。

EdgeNGramTokenFilterSide

定义 EdgeNGramTokenFilterSide 的值。

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

包含特定于查询期间使用的详尽 KNN 算法的配置选项,该算法将在整个矢量索引中执行暴力搜索。

ExtractDocumentKey
GetDataSourceConnectionOptions

用于获取数据源操作的选项。

GetIndexOptions

用于获取索引操作的选项。

GetIndexStatisticsOptions

用于获取索引统计信息操作的选项。

GetIndexerOptions

用于获取索引器操作的选项。

GetIndexerStatusOptions

获取索引器状态操作的选项。

GetServiceStatisticsOptions

用于获取服务统计信息操作的选项。

GetSkillSetOptions

用于获取技能集操作的选项。

GetSynonymMapsOptions

获取同义词映射操作的选项。

HnswAlgorithmConfiguration

包含特定于在编制索引时使用的 hnsw 近似近邻算法的配置选项。

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

定义 IndexActionType 的值。

IndexDocumentsAction

表示对文档进行操作的索引操作。

IndexIterator

用于列出搜索服务中存在的索引的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage() 对每次迭代的服务器发出一个请求。

IndexNameIterator

用于列出搜索服务中存在的索引的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage() 对每次迭代的服务器发出一个请求。

IndexProjectionMode

定义 IndexProjectionMode 的值。
KnownIndexProjectionMode 可与 IndexProjectionMode 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

skipIndexingParentDocuments:源文档将从写入索引器的目标索引中跳过。
includeIndexingParentDocuments:源文档将写入索引器的目标索引中。 这是默认模式。

IndexerExecutionEnvironment
IndexerExecutionStatus

定义 IndexerExecutionStatus 的值。

IndexerStatus

定义 IndexerStatus 的值。

KeyPhraseExtractionSkillLanguage
LexicalAnalyzer

包含分析器可能的情况。

LexicalAnalyzerName

定义 LexicalAnalyzerName 的值。
<xref:KnownLexicalAnalyzerName> 可与 LexicalAnalyzerName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

ar.microsoft:Microsoft阿拉伯语分析器。
ar.lucene:用于阿拉伯语的 Lucene 分析器。
hy.lucene:亚美尼亚语的 Lucene 分析器。
bn.microsoft:适用于孟加拉语的Microsoft分析器。
eu.lucene: Basque 的 Lucene 分析器。
bg.microsoft:Microsoft保加利亚分析器。
bg.lucene:保加利亚的 Lucene 分析器。
ca.microsoft:适用于加泰罗尼亚语的Microsoft分析器。
ca.lucene:加泰罗尼亚的 Lucene 分析器。
zh-Hans.microsoft:Microsoft中文分析器(简体中文)。
zh-Hans.lucene:Lucene 分析器(简体中文)。
zh-Hant.microsoft:中国(传统)Microsoft分析器。
zh-Hant.lucene:中国(传统)的 Lucene 分析器。
hr.microsoft:适用于克罗地亚的Microsoft分析器。
cs.microsoft:Microsoft适用于捷克的分析器。
cs.lucene:适用于捷克的 Lucene 分析器。
da.microsoft:适用于丹麦语的Microsoft分析器。
da.lucene:丹麦语的 Lucene 分析器。
nl.microsoft:Microsoft用于荷兰的分析器。
nl.lucene:用于荷兰的 Lucene 分析器。
en.microsoft:Microsoft英语分析器。
en.lucene:用于英语的 Lucene 分析器。
et.microsoft:爱沙尼亚Microsoft分析器。
fi.microsoft:Microsoft芬兰分析器。
fi.lucene: 芬兰的 Lucene 分析器。
fr.microsoft:Microsoft法语分析器。
fr.lucene: Lucene 分析器法语。
gl.lucene: Lucene 分析器为加利西亚。
de.microsoft:适用于德语的Microsoft分析器。
de.lucene:用于德语的 Lucene 分析器。
el.microsoft:适用于希腊Microsoft分析器。
el.lucene:用于希腊的 Lucene 分析器。
gu.microsoft:Microsoft适用于古吉拉特的分析器。
he.microsoft:Microsoft希伯来语分析器。
hi.microsoft:Microsoft印地语分析器。
hi.lucene:用于印地语的 Lucene 分析器。
胡.microsoft:适用于匈牙利的Microsoft分析器。
胡.lucene:匈牙利语的 Lucene 分析器。
is.microsoft:适用于冰岛的Microsoft分析器。
id.microsoft:印度尼西亚Microsoft分析器(Bahasa)。
id.lucene:适用于印度尼西亚的 Lucene 分析器。
ga.lucene:适用于爱尔兰的 Lucene 分析器。
it.microsoft:适用于意大利语的Microsoft分析器。
it.lucene: Lucene 分析器,用于意大利语。
ja.microsoft:适用于日语的Microsoft分析器。
ja.lucene:适用于日语的 Lucene 分析器。
kn.microsoft:适用于 Kannada 的 Microsoft 分析器。
ko.microsoft:适用于朝鲜语的Microsoft分析器。
ko.lucene:用于韩国的 Lucene 分析器。
lv.microsoft:拉脱维亚Microsoft分析器。
lv.lucene:拉脱维亚的 Lucene 分析器。
lt.microsoft:立陶宛Microsoft分析器。
ml.microsoft:Microsoft分析器马拉雅拉姆语。
ms.microsoft:Microsoft马来语(拉丁语)分析器。
mr.microsoft:Microsoft用于 Marathi 的分析器。
nb.microsoft:挪威语(Bokmål)Microsoft分析器。
no.lucene:适用于挪威的 Lucene 分析器。
fa.lucene: 波斯语的 Lucene 分析器。
pl.microsoft:Microsoft波兰分析器。
pl.lucene: Lucene 分析器波兰。
pt-BR.microsoft:适用于葡萄牙语(巴西)的Microsoft分析器。
pt-BR.lucene: 葡萄牙语 (巴西) 的 Lucene 分析器。
pt-PT.microsoft:葡萄牙Microsoft分析器。
pt-PT.lucene: 葡萄牙的 Lucene 分析器。
pa.microsoft:Microsoft旁遮普分析器。
ro.microsoft:适用于罗马尼亚语的Microsoft分析器。
ro.lucene: Lucene 分析器罗马尼亚语。
ru.microsoft:适用于俄语的Microsoft分析器。
ru.lucene:用于俄语的 Lucene 分析器。
sr-cyrillic.microsoft:塞尔维亚语(西里尔文)Microsoft分析器。
sr-latin.microsoft:适用于塞尔维亚语(拉丁语)的Microsoft分析器。
sk.microsoft:Microsoft斯洛伐克分析器。
sl.microsoft:Microsoft斯洛文尼亚分析器。
es.microsoft:Microsoft西班牙语分析器。
es.lucene:用于西班牙语的 Lucene 分析器。
sv.microsoft:Microsoft用于瑞典的分析器。
sv.lucene:用于瑞典的 Lucene 分析器。
ta.microsoft:泰米尔语Microsoft分析器。
te.microsoft:Microsoft Telugu 分析器。
th.microsoft:Microsoft泰语分析器。
th.lucene: Lucene 分析器,用于泰国。
tr.microsoft:适用于土耳其的Microsoft分析器。
tr.lucene:用于土耳其的 Lucene 分析器。
uk.microsoft:Microsoft乌克兰分析器。
your.microsoft:用于乌尔都语的Microsoft分析器。
vi.microsoft:适用于越南语的Microsoft分析器。
standard.lucene:标准 Lucene 分析器。
standardasciifolding.lucene:标准 ASCII 折叠 Lucene 分析器。 请参阅 https://video2.skills-academy.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
关键字:将字段的全部内容视为单个标记。 这对于邮政编码、ID 和某些产品名称等数据非常有用。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
模式:灵活将文本通过正则表达式模式分隔为字词。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
简单:将文本除以非字母并将它们转换为小写。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
停止:以非字母分隔文本;应用小写和非索引字标记筛选器。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
空格:使用空格标记器的分析器。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

包含 Tokenizer 的可能情况。

LexicalTokenizerName

定义 LexicalTokenizerName 的值。
<xref:KnownLexicalTokenizerName> 可与 LexicalTokenizerName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

经典:适用于处理大多数欧洲语言文档的基于语法的 tokenizer。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram:将输入从边缘切入给定大小的 n 元语法。 请参阅 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2:以单个令牌的形式发出整个输入。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
字母:以非字母分隔文本。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
小写:将文本除以非字母并将它们转换为小写。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer:使用特定于语言的规则划分文本。
microsoft_language_stemming_tokenizer:使用特定于语言的规则划分文本,并将单词减少到其基本形式。
nGram:将输入切分为给定大小的 n 元语法。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2:用于类似路径的层次结构的 Tokenizer。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
模式:使用正则表达式模式匹配构造不同令牌的 Tokenizer。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2:标准 Lucene 分析器;由标准 tokenizer、小写筛选器和停止筛选器组成。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email:将 URL 和电子邮件作为一个令牌进行标记化。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
空格:在空格处划分文本。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

列表数据源操作的选项。

ListIndexersOptions

列表索引器操作的选项。

ListIndexesOptions

列表索引操作的选项。

ListSkillsetsOptions

列表技能集操作的选项。

ListSynonymMapsOptions

列表 synonymMaps 操作的选项。

MergeDocumentsOptions

合并文档操作的选项。

MergeOrUploadDocumentsOptions

合并或上传文档操作的选项。

MicrosoftStemmingTokenizerLanguage

定义 MicrosoftStemmingTokenizerLanguage 的值。

MicrosoftTokenizerLanguage

定义 MicrosoftTokenizerLanguage 的值。

NarrowedModel

缩小模型类型以仅包含所选字段

OcrLineEnding

定义 OcrLineEnding 的值。
KnownOcrLineEnding 可与 OcrLineEnding 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

空格:行由单个空格字符分隔。
回车:行由回车符(“\r”)字符分隔。
lineFeed:行由单个换行符(“\n”)字符分隔。
carriageReturnLineFeed:行由回车符和换行符(“\r\n”)字符分隔。

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

定义 PhoneticEncoder 的值。

QueryAnswer

一个值,该值指定是否应作为搜索响应的一部分返回答案。 仅当查询类型为“semantic”时,此参数才有效。 如果设置为 extractive,查询将返回从排名最高的文档中的关键段落中提取的答案。

QueryCaption

一个值,该值指定是否应返回标题作为搜索响应的一部分。 仅当查询类型为“semantic”时,此参数才有效。 如果已设置,查询将返回从排名最高的文档中的关键段落中提取的标题。 当标题为“提取”时,默认情况下会启用突出显示。 默认值为“none”。

QueryType

定义 QueryType 的值。

RegexFlags
ResetIndexerOptions

用于重置索引器操作的选项。

RunIndexerOptions

用于运行索引器操作的选项。

ScoringFunction

包含 ScoringFunction 的可能案例。

ScoringFunctionAggregation

定义 ScoringFunctionAggregation 的值。

ScoringFunctionInterpolation

定义 ScoringFunctionInterpolation 的值。

ScoringStatistics

定义 ScoringStatistics 的值。

SearchField

表示索引定义中的字段,该定义描述字段的名称、数据类型和搜索行为。

SearchFieldArray

如果 TModel 为非类型化对象,则为非类型化字符串数组;否则为 TModel的斜杠分隔字段。

SearchFieldDataType

定义 SearchFieldDataType 的值。

服务支持的已知值:

Edm.String:指示字段包含字符串。

Edm.Int32:指示字段包含 32 位带符号整数。

Edm.Int64:指示字段包含 64 位带符号整数。

Edm.Double:指示字段包含 IEEE 双精度浮点数。

Edm.Boolean:指示字段包含布尔值(true 或 false)。

Edm.DateTimeOffset:指示字段包含日期/时间值,包括时区信息。

Edm.GeographyPoint:指示字段在经度和纬度方面包含地理位置。

Edm.ComplexType:指示字段包含一个或多个复杂对象,而该对象又包含其他类型的子字段。

Edm.Single:指示字段包含单精度浮点数。 仅当用作集合类型的一部分(即 Collection(Edm.Single)时才有效。

Edm.Half:指示字段包含半精度浮点数。 仅当用作集合类型的一部分(即 Collection(Edm.Half)时才有效。

Edm.Int16:指示字段包含 16 位带符号整数。 仅当用作集合类型的一部分(即 Collection(Edm.Int16)时才有效。

Edm.SByte:指示字段包含 8 位带符号整数。 仅当用作集合类型的一部分(即 Collection(Edm.SByte)时才有效。

Edm.Byte:指示字段包含 8 位无符号整数。 仅当用作集合类型的一部分(即 Collection(Edm.Byte)时才有效。

SearchIndexerDataIdentity

包含 SearchIndexerDataIdentity 的可能情况。

SearchIndexerDataSourceType
SearchIndexerSkill

包含技能的可能案例。

SearchIndexingBufferedSenderDeleteDocumentsOptions

SearchIndexingBufferedSenderDeleteDocuments 的选项。

SearchIndexingBufferedSenderFlushDocumentsOptions

SearchIndexingBufferedSenderFlushDocuments 的选项。

SearchIndexingBufferedSenderMergeDocumentsOptions

SearchIndexingBufferedSenderMergeDocuments 的选项。

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

SearchIndexingBufferedSenderMergeOrUploadDocuments 的选项。

SearchIndexingBufferedSenderUploadDocumentsOptions

SearchIndexingBufferedSenderUploadDocuments 的选项。

SearchIterator

用于帕特查询搜索结果的迭代器。 将在迭代期间根据需要发出请求。 使用 .byPage() 对每次迭代的服务器发出一个请求。

SearchMode

定义 SearchMode 的值。

SearchOptions

提交完整搜索请求的选项。

SearchPick

使用有效的认知搜索 OData $select路径深入选取 T 字段。

SearchRequestOptions

用于筛选、排序、分面、分页和其他搜索查询行为的参数。

SearchRequestQueryTypeOptions
SearchResult

包含搜索查询找到的文档,以及关联的元数据。

SelectArray

如果 TFields 从不为类型化字符串数组,则为非类型化字符串数组;否则,将使用类型中的其他位置使用的窄 Fields[] 类型。

SelectFields

使用在 T 处根的字段树的后序遍历生成有效的认知搜索 OData $select路径的联合。

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

包含相似性可能的情况。

SnowballTokenFilterLanguage

定义 SnowballTokenFilterLanguage 的值。

SplitSkillLanguage
StemmerTokenFilterLanguage

定义 StemmerTokenFilterLanguage 的值。

StopwordsList

定义 StopwordsList 的值。

SuggestNarrowedModel
SuggestOptions

用于基于 searchText 检索建议的选项。

SuggestResult

包含由建议查询找到的文档的结果,以及关联的元数据。

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

定义 TokenCharacterKind 的值。

TokenFilter

包含 TokenFilter 的可能情况。

TokenFilterName

定义 TokenFilterName 的值。
<xref:KnownTokenFilterName> 可与 TokenFilterName 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

arabic_normalization:应用阿拉伯规范化器规范化的标记筛选器。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
撇号:删除撇号后的所有字符(包括撇号本身)。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding:将前 127 个 ASCII 字符(“基本拉丁语”Unicode 块)中的字母、数字和符号 Unicode 字符转换为其 ASCII 等效项(如果存在此类等效项)。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram:形成从标准标记器生成的 CJK 术语的 bigram。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width:规范化 CJK 宽度差异。 将全形 ASCII 变体折叠为等效的基本拉丁语,将半角片假名变体折叠为等效的假名。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
经典:从首字母缩略词中删除英语拥有者和点。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams:为索引时经常出现的字词构造 bigrams。 单个字词仍编制索引,并覆盖 bigrams。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2:从输入令牌的前面或后面开始生成给定大小的 n 元语法。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: 删除 elisions。 例如,“l'avion”(平面)将转换为“avion”(平面)。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization:根据德国 2 雪球算法的启发法规范德语字符。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization:规范印地语中的文本,以消除拼写变体的一些差异。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization:以印度语言规范化文本的 Unicode 表示形式。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat:发出每个传入令牌两次,一次作为关键字发出,一次作为非关键字发出一次。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem:适用于英语的高性能 kstem 筛选器。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
长度:删除太长或太短的单词。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
限制:在编制索引时限制令牌数。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
小写:将标记文本规范化为小写。 请参阅 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2:生成给定大小的 n 元语法。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization:对波斯语应用规范化。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
拼音:为拼音匹配创建令牌。 请参阅 https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem:使用 Porter 词干算法转换令牌流。 请参阅 http://tartarus.org/~martin/PorterStemmer
反向:反转令牌字符串。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization:规范化使用可互换的斯堪的纳维亚字符。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding:折叠斯堪的纳维亚字符 åÅääÄÄ->a 和 öÖøØ->o. 它还歧视使用双元音 aa, ae, ao, oe 和 oo, 只留下第一个。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
闪亮:将令牌的组合创建为单个令牌。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
雪球:使用 Snowball 生成的词干分析器的词干筛选器。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization:规范化 Sorani 文本的 Unicode 表示形式。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
词干分析器:特定于语言的词干筛选。 请参阅 https://video2.skills-academy.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
非索引字:从令牌流中删除非索引字。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
剪裁:剪裁标记中的前导空格和尾随空格。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
截断:将术语截断为特定长度。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
唯一:筛选出与上一个标记相同的文本的令牌。 请参阅 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
大写:将标记文本规范化为大写。 请参阅 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter:将单词拆分为子词,对子词组执行可选转换。

UnionToIntersection
UploadDocumentsOptions

上传文档操作的选项。

VectorEncodingFormat

定义 VectorEncodingFormat 的值。
KnownVectorEncodingFormat 可与 VectorEncodingFormat 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

packedBit:编码格式,表示打包到更广泛的数据类型中的位。

VectorFilterMode
VectorQuery

矢量和混合搜索查询的查询参数。

VectorQueryKind
VectorSearchAlgorithmConfiguration

包含特定于索引编制和/或查询期间使用的算法的配置选项。

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

包含特定于索引或查询期间使用的压缩方法的配置选项。

VectorSearchCompressionKind

定义 VectorSearchCompressionKind 的值。
KnownVectorSearchCompressionKind 可与 VectorSearchCompressionKind 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

scalarQuantization:Scalar Quantization,一种压缩方法类型。 在标量量子化中,原始向量值通过离散化和表示矢量的每个分量(使用一组量化值)压缩为较窄的类型,从而减少整体数据大小。
binaryQuantization:二进制量化,一种压缩方法类型。 在二进制量化中,原始向量值通过离散化和表示使用二进制值表示矢量的每个组件来压缩为更窄的二进制类型,从而减少整体数据大小。

VectorSearchCompressionTarget

定义 VectorSearchCompressionTarget 的值。
KnownVectorSearchCompressionTarget 可与 VectorSearchCompressionTarget 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

int8

VectorSearchVectorizer

包含有关如何向量化文本矢量查询的配置选项。

VectorSearchVectorizerKind

定义 VectorSearchVectorizerKind 的值。
KnownVectorSearchVectorizerKind 可与 VectorSearchVectorizerKind 互换使用,此枚举包含服务支持的已知值。

服务支持的已知值

azureOpenAI:在查询时使用 Azure OpenAI 资源生成嵌入内容。
customWebApi:在查询时使用自定义 Web 终结点生成嵌入内容。

VisualFeature

枚举

KnownAnalyzerNames

定义 AnalyzerName 的值。 请参阅 https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

AzureOpenAIModelName 服务的已知值。

KnownBlobIndexerDataToExtract

BlobIndexerDataToExtract 服务的已知值。

KnownBlobIndexerImageAction

BlobIndexerImageAction 服务的已知值。

KnownBlobIndexerPDFTextRotationAlgorithm

BlobIndexerPDFTextRotationAlgorithm 服务的已知值。

KnownBlobIndexerParsingMode

BlobIndexerParsingMode 服务的已知值。

KnownCharFilterNames

服务接受的 CharFilterName 的已知值。

KnownCustomEntityLookupSkillLanguage

CustomEntityLookupSkillLanguage 服务的已知值。

KnownEntityCategory

EntityCategory 服务的已知值。

KnownEntityRecognitionSkillLanguage

EntityRecognitionSkillLanguage 服务的已知值。

KnownImageAnalysisSkillLanguage

ImageAnalysisSkillLanguage 服务的已知值。

KnownImageDetail

服务的 ImageDetail 的已知值。

KnownIndexProjectionMode

服务接受的 IndexProjectionMode 的已知值。

KnownIndexerExecutionEnvironment

IndexerExecutionEnvironment 服务的已知值。

KnownKeyPhraseExtractionSkillLanguage

KeyPhraseExtractionSkillLanguage 服务的已知值。

KnownOcrLineEnding

服务的 OcrLineEnding 的已知值。

KnownOcrSkillLanguage

服务的 OcrSkillLanguage 已知值。

KnownPIIDetectionSkillMaskingMode

PIIDetectionSkillMaskingMode 服务的已知值。

KnownRegexFlags

服务接受的 RegexFlags 的已知值

KnownSearchAudience

搜索受众的已知值

KnownSearchFieldDataType

SearchFieldDataType 服务的已知值。

KnownSearchIndexerDataSourceType

SearchIndexerDataSourceType 服务的已知值。

KnownSemanticErrorMode

服务的 SemanticErrorMode 的已知值。

KnownSemanticErrorReason

服务接受的 SemanticErrorReason 的已知值。

KnownSemanticSearchResultsType

SemanticSearchResultsType 的已知值 服务接受的值。

KnownSentimentSkillLanguage

服务接受的 SentimentSkillLanguage 的已知值。

KnownSplitSkillLanguage

SplitSkillLanguage 服务的已知值。

KnownTextSplitMode

服务接受的 TextSplitMode 的已知值。

KnownTextTranslationSkillLanguage

TextTranslationSkillLanguage 服务的已知值。

KnownTokenFilterNames

服务的 TokenFilterName 已知值。

KnownTokenizerNames

LexicalTokenizerName 服务的已知值。

KnownVectorEncodingFormat

VectorEncodingFormat 服务的已知值。

KnownVectorFilterMode

VectorFilterMode 服务的已知值。

KnownVectorQueryKind

服务的 VectorQueryKind 的已知值。

KnownVectorSearchAlgorithmKind

VectorSearchAlgorithmKind 服务的已知值。

KnownVectorSearchAlgorithmMetric

服务的 VectorSearchAlgorithmMetric 的已知值。

KnownVectorSearchCompressionKind

VectorSearchCompressionKind 服务的已知值。

KnownVectorSearchCompressionTarget

VectorSearchCompressionTarget 服务的已知值。

KnownVectorSearchVectorizerKind

VectorSearchVectorizerKind 服务的已知值。

KnownVisualFeature

VisualFeature 服务的已知值。

函数

createSynonymMapFromFile(string, string)

用于创建 SynonymMap 对象的帮助程序方法。 这是仅 NodeJS 方法。

odata(TemplateStringsArray, unknown[])

转义 odata 筛选器表达式,以避免引用字符串文本的错误。 示例用法:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

有关支持的语法的详细信息,请参阅:https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

函数详细信息

createSynonymMapFromFile(string, string)

用于创建 SynonymMap 对象的帮助程序方法。 这是仅 NodeJS 方法。

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

参数

name

string

SynonymMap 的名称。

filePath

string

包含同义词的文件的路径(由新行分隔)

返回

Promise<SynonymMap>

SynonymMap 对象

odata(TemplateStringsArray, unknown[])

转义 odata 筛选器表达式,以避免引用字符串文本的错误。 示例用法:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

有关支持的语法的详细信息,请参阅:https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

参数

strings

TemplateStringsArray

表达式的字符串数组

values

unknown[]

表达式的值数组

返回

string