@azure/search-documents package
クラス
AzureKeyCredential |
基になるキー値の更新をサポートする静的キーベースの資格情報。 |
GeographyPoint |
グローバル座標内の地理的な点を表します。 |
IndexDocumentsBatch |
インデックスに対して複数のドキュメントを含むバッチ操作を実行するために使用されるクラス。 |
SearchClient |
インデックス内のドキュメントのクエリ、追加、更新、削除など、検索インデックスに対する操作を実行するために使用されるクラス。 |
SearchIndexClient |
インデックス、& シノニムマップの管理 (作成、更新、リスト/削除) 操作を実行するクラス。 |
SearchIndexerClient |
インデクサー、データソース、& スキルセットを管理 (作成、更新、リスト/削除) する操作を実行するクラス。 |
SearchIndexingBufferedSender |
検索インデックスに対してバッファー操作 (追加、更新、削除など) を実行するために使用されるクラス。 |
インターフェイス
AnalyzeRequest |
そのテキストをトークンに分割するために使用されるテキストおよび分析コンポーネントをいくつか指定します。 |
AnalyzeResult |
テキストでアナライザーをテストした結果。 |
AnalyzedTokenInfo |
アナライザーによって返されるトークンに関する情報。 |
AsciiFoldingTokenFilter |
最初の 127 個の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
AutocompleteItem |
オートコンプリート要求の結果。 |
AutocompleteRequest |
あいまい一致のパラメーター、およびその他のオートコンプリート クエリの動作。 |
AutocompleteResult |
オートコンプリート クエリの結果。 |
AzureActiveDirectoryApplicationCredentials |
Azure Key Vault に格納されている暗号化キーへの認証済みアクセスに使用される、検索サービス用に作成された登録済みアプリケーションの資格情報。 |
AzureOpenAIEmbeddingSkill |
Azure OpenAI リソースを使用して、特定のテキスト入力のベクター埋め込みを生成できます。 |
AzureOpenAIParameters |
クエリ時のベクター化に Azure Open AI サービスを使用するために固有のパラメーターが含まれています。 |
AzureOpenAIVectorizer |
クエリ時のベクター化に Azure Open AI サービスを使用するために固有のパラメーターが含まれています。 |
BM25Similarity |
Okapi BM25 類似性アルゴリズムに基づくランク付け関数。 BM25 は TF-IDF に似たアルゴリズムであり、長さの正規化 ('b' パラメーターによって制御される) と、用語の頻度の飽和 ('k1' パラメーターによって制御) が含まれます。 |
BaseCharFilter |
文字フィルターの基本型。 |
BaseCognitiveServicesAccount |
スキルセットにアタッチされている Azure AI サービス リソースを記述するための基本型。 |
BaseDataChangeDetectionPolicy |
データ変更検出ポリシーの基本の種類。 |
BaseDataDeletionDetectionPolicy |
データ削除検出ポリシーの基本の種類。 |
BaseLexicalAnalyzer |
アナライザーの基本型。 |
BaseLexicalTokenizer |
トークナイザーの基本型。 |
BaseScoringFunction |
ランク付け中にドキュメント スコアを変更できる関数の基本型。 |
BaseSearchIndexerDataIdentity |
データ ID の抽象基本型。 |
BaseSearchIndexerSkill |
スキルの基本型。 |
BaseSearchRequestOptions |
フィルター処理、並べ替え、ファセット、ページング、およびその他の検索クエリ動作のパラメーター。 |
BaseTokenFilter |
トークン フィルターの基本型。 |
BaseVectorQuery |
ベクター検索クエリとハイブリッド検索クエリのクエリ パラメーター。 |
BaseVectorSearchAlgorithmConfiguration |
インデックス作成やクエリの実行中に使用されるアルゴリズムに固有の構成オプションが含まれています。 |
BaseVectorSearchCompression |
インデックス作成またはクエリ中に使用される圧縮方法に固有の構成オプションが含まれています。 |
BaseVectorSearchVectorizer |
クエリ時に使用するベクター化メソッドの特定の詳細が含まれています。 |
BinaryQuantizationCompression |
インデックス作成およびクエリ中に使用されるバイナリ量子化圧縮方法に固有の構成オプションが含まれています。 |
CjkBigramTokenFilter |
標準トークナイザーから生成される CJK 用語のビグラムを形成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
ClassicSimilarity |
TF-IDF の Lucene TFIDFSimilarity 実装を使用する従来の類似性アルゴリズム。 この TF-IDF のバリエーションでは、静的ドキュメントの長さの正規化と、検索されたクエリの一部にのみ一致するドキュメントに対する影響を受け取る調整要因が導入されています。 |
ClassicTokenizer |
ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
CognitiveServicesAccountKey |
スキルセットにアタッチされている Azure AI サービス リソースのマルチリージョン アカウント キー。 |
CommonGramTokenFilter |
インデックス作成中に頻繁に発生する用語のビグラムを構築します。 単一の用語もインデックスが作成され、バイグラムが重なっています。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
ComplexField |
インデックス定義内のフィールドを表します。フィールドの名前、データ型、および検索動作を表します。 |
ConditionalSkill |
ブール演算を必要とするシナリオで、出力に割り当てるデータを決定できるようにするスキル。 |
CorsOptions |
インデックスのクロスオリジン リソース共有 (CORS) を制御するオプションを定義します。 |
CreateOrUpdateIndexOptions |
インデックスの作成/更新操作のオプション。 |
CreateOrUpdateSkillsetOptions |
スキルセットの作成/更新操作のオプション。 |
CreateOrUpdateSynonymMapOptions |
シノニムマップの作成/更新操作のオプション。 |
CreateorUpdateDataSourceConnectionOptions |
データソースの作成/更新操作のオプション。 |
CreateorUpdateIndexerOptions |
インデクサーの作成/更新操作のオプション。 |
CustomAnalyzer |
テキストをインデックス可能/検索可能なトークンに変換するプロセスを制御できます。 これは、1 つの定義済みのトークナイザーと 1 つ以上のフィルターで構成されるユーザー定義の構成です。 トークナイザーは、テキストをトークンに分割し、トークナイザーによって出力されるトークンを変更するためのフィルターを担当します。 |
CustomEntity |
検出された一致と関連するメタデータに関する情報を含むオブジェクト。 |
CustomEntityAlias |
ルート エンティティ名の代替のスペルまたはシノニムを指定するために使用できる複合オブジェクト。 |
CustomEntityLookupSkill |
スキルは、ユーザー定義の単語と語句のカスタム リストからテキストを検索します。 |
DefaultCognitiveServicesAccount |
スキルセットの既定の Azure AI サービス リソースを表す空のオブジェクト。 |
DeleteDataSourceConnectionOptions |
データソースの削除操作のオプション。 |
DeleteIndexOptions |
インデックスの削除操作のオプション。 |
DeleteIndexerOptions |
インデクサーの削除操作のオプション。 |
DeleteSkillsetOptions |
スキルセットの削除操作のオプション。 |
DeleteSynonymMapOptions |
シノニムマップの削除操作のオプション。 |
DictionaryDecompounderTokenFilter |
多くのゲルマン語で見つかった複合語を分解します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
DistanceScoringFunction |
地理的な場所からの距離に基づいてスコアをブーストする関数を定義します。 |
DistanceScoringParameters |
距離スコアリング関数にパラメーター値を提供します。 |
DocumentExtractionSkill |
エンリッチメント パイプライン内のファイルからコンテンツを抽出するスキル。 |
EdgeNGramTokenFilter |
入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
EdgeNGramTokenizer |
エッジからの入力を特定のサイズの n グラムにトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
ElisionTokenFilter |
エリジオンを削除します。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
EntityLinkingSkill |
Text Analytics API を使用して、リンクされたエンティティをテキストから抽出します。 |
EntityRecognitionSkill |
テキスト分析エンティティの認識。 |
EntityRecognitionSkillV3 |
Text Analytics API を使用して、テキストからさまざまな種類のエンティティを抽出します。 |
ExhaustiveKnnParameters |
完全な KNN アルゴリズムに固有のパラメーターが含まれています。 |
ExtractiveQueryAnswer |
自然言語で質問として表現されたクエリに応答して返されたドキュメントの内容から回答候補を抽出します。 |
ExtractiveQueryCaption |
検索クエリに関連する一節を含む一致するドキュメントからキャプションを抽出します。 |
FacetResult |
ファセット クエリ結果の 1 つのバケット。 フィールド値が特定の範囲内または特定の値または間隔を持つドキュメントの数を報告します。 |
FieldMapping |
データ ソース内のフィールドとインデックス内のターゲット フィールドの間のマッピングを定義します。 |
FieldMappingFunction |
インデックス作成の前にデータ ソースから値を変換する関数を表します。 |
FreshnessScoringFunction |
日時フィールドの値に基づいてスコアをブーストする関数を定義します。 |
FreshnessScoringParameters |
新度スコアリング関数にパラメーター値を提供します。 |
GetDocumentOptions |
1 つのドキュメントを取得するためのオプション。 |
HighWaterMarkChangeDetectionPolicy |
高基準列の値に基づいて変更をキャプチャするデータ変更検出ポリシーを定義します。 |
HnswParameters |
hnsw アルゴリズムに固有のパラメーターを格納します。 |
ImageAnalysisSkill |
画像ファイルを分析するスキル。 画像の内容に基づいて、豊富なビジュアル機能のセットを抽出します。 |
IndexDocumentsClient |
Index Documents クライアント |
IndexDocumentsOptions |
インデックスのバッチ変更操作のオプション。 |
IndexDocumentsResult |
インデックス作成要求内のすべてのドキュメントの操作の状態を含む応答。 |
IndexerExecutionResult |
個々のインデクサー実行の結果を表します。 |
IndexingParameters |
インデクサー実行のパラメーターを表します。 |
IndexingParametersConfiguration |
インデクサー固有の構成プロパティのディクショナリ。 各名前は、特定のプロパティの名前です。 各値はプリミティブ型である必要があります。 |
IndexingResult |
1 つのドキュメントのインデックス作成操作の状態。 |
IndexingSchedule |
インデクサー実行のスケジュールを表します。 |
InputFieldMappingEntry |
スキルの入力フィールド マッピング。 |
KeepTokenFilter |
指定した単語の一覧に含まれるテキストを持つトークンのみを保持するトークン フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
KeyPhraseExtractionSkill |
キー フレーズ抽出にテキスト分析を使用するスキル。 |
KeywordMarkerTokenFilter |
用語をキーワードとしてマークします。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
KeywordTokenizer |
入力全体を 1 つのトークンとして出力します。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
LanguageDetectionSkill |
入力テキストの言語を検出し、要求で送信されたすべてのドキュメントに対して 1 つの言語コードを報告するスキル。 言語コードは、分析の信頼度を示すスコアとペアになっています。 |
LengthTokenFilter |
長すぎる単語または短すぎる単語を削除します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
LimitTokenFilter |
インデックス作成中のトークンの数を制限します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
ListSearchResultsPageSettings |
検索結果の次のページを取得するための引数。 |
LuceneStandardAnalyzer |
Standard Apache Lucene アナライザー。標準トークナイザー、小文字フィルター、および停止フィルターで構成されます。 |
LuceneStandardTokenizer |
Unicode テキストのセグメント化ルールに従ってテキストを区切ります。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
MagnitudeScoringFunction |
数値フィールドの大きさに基づいてスコアをブーストする関数を定義します。 |
MagnitudeScoringParameters |
パラメーター値をマグニチュード スコアリング関数に提供します。 |
MappingCharFilter |
マッピング オプションで定義されたマッピングを適用する文字フィルター。 一致は最長一致です (特定のポイントで最も長いパターン マッチングが優先されます)。 置換は空の文字列にすることができます。 この文字フィルターは、Apache Lucene を使用して実装されます。 |
MergeSkill |
2 つ以上の文字列を 1 つの統合文字列にマージするスキル。オプションのユーザー定義区切り記号で各コンポーネント部分を区切ります。 |
MicrosoftLanguageStemmingTokenizer |
言語固有のルールを使用してテキストを分割し、単語を基本フォームに減らします。 |
MicrosoftLanguageTokenizer |
言語固有のルールを使用してテキストを分割します。 |
NGramTokenFilter |
指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
NGramTokenizer |
指定したサイズの n グラムに入力をトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
OcrSkill |
画像ファイルからテキストを抽出するスキル。 |
OutputFieldMappingEntry |
スキルの出力フィールド マッピング。 |
PIIDetectionSkill |
Text Analytics API を使用して、入力テキストから個人情報を抽出し、それをマスクするオプションを提供します。 |
PathHierarchyTokenizer |
パスに似た階層のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
PatternAnalyzer |
正規表現パターンを使用して、テキストを用語に柔軟に分割します。 このアナライザーは、Apache Lucene を使用して実装されます。 |
PatternCaptureTokenFilter |
Java 正規表現を使用して、1 つ以上のパターンでキャプチャ グループごとに 1 つずつ、複数のトークンを出力します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
PatternReplaceCharFilter |
入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して保持する文字シーケンスを識別し、置換する文字を識別する置換パターンを使用します。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 この文字フィルターは、Apache Lucene を使用して実装されます。 |
PatternReplaceTokenFilter |
入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して保持する文字シーケンスを識別し、置換する文字を識別する置換パターンを使用します。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
PatternTokenizer |
正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
PhoneticTokenFilter |
ふりがなのトークンを作成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
QueryAnswerResult |
回答は、クエリに一致した最も関連性の高いドキュメントの内容から抽出されたテキストの一節です。 回答は上位の検索結果から抽出されます。 回答候補がスコア付けされ、上位の回答が選択されます。 |
QueryCaptionResult |
キャプションは、ドキュメントから検索クエリまでの最も代表的な一節です。 多くの場合、ドキュメントの概要として使用されます。 キャプションは、 |
ResourceCounter |
リソースの使用量とクォータを表します。 |
ScalarQuantizationCompression |
インデックス作成およびクエリ中に使用されるスカラー量子化圧縮方法に固有の構成オプションが含まれています。 |
ScalarQuantizationParameters |
スカラー量子化に固有のパラメーターを格納します。 |
ScoringProfile |
検索クエリのスコア付けに影響を与える検索インデックスのパラメーターを定義します。 |
SearchClientOptions |
Cognitive Search API 要求の構成に使用されるクライアント オプション。 |
SearchDocumentsPageResult |
インデックスからの検索ページの結果を含む応答。 |
SearchDocumentsResult |
インデックスからの検索結果を含む応答。 |
SearchDocumentsResultBase |
インデックスからの検索結果を含む応答。 |
SearchIndex |
インデックスのフィールドと検索動作を記述する検索インデックス定義を表します。 |
SearchIndexClientOptions |
Cognitive Search API 要求の構成に使用されるクライアント オプション。 |
SearchIndexStatistics |
特定のインデックスの統計。 統計は定期的に収集され、常に -date up-toされるとは限りません。 |
SearchIndexer |
インデクサーを表します。 |
SearchIndexerClientOptions |
Cognitive Search API 要求の構成に使用されるクライアント オプション。 |
SearchIndexerDataContainer |
インデックスが作成されるエンティティ (Azure SQL テーブルや CosmosDB コレクションなど) に関する情報を表します。 |
SearchIndexerDataNoneIdentity |
データソースの ID プロパティをクリアします。 |
SearchIndexerDataSourceConnection |
インデクサーの構成に使用できるデータソース定義を表します。 |
SearchIndexerDataUserAssignedIdentity |
使用するデータソースの ID を指定します。 |
SearchIndexerError |
アイテム レベルまたはドキュメント レベルのインデックス作成エラーを表します。 |
SearchIndexerIndexProjection |
セカンダリ検索インデックスへの追加プロジェクションの定義。 |
SearchIndexerIndexProjectionParameters |
インデックス プロジェクション固有の構成プロパティのディクショナリ。 各名前は、特定のプロパティの名前です。 各値はプリミティブ型である必要があります。 |
SearchIndexerIndexProjectionSelector |
指定された検索インデックスに格納するデータの説明。 |
SearchIndexerKnowledgeStore |
エンリッチされたデータの Azure BLOB、テーブル、またはファイルへの追加プロジェクションの定義。 |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
具象セレクター間でプロパティを共有する抽象クラス。 |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Azure Files に格納するデータのプロジェクション定義。 |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Azure BLOB に格納するデータのプロジェクション定義。 |
SearchIndexerKnowledgeStoreParameters |
ナレッジ ストア固有の構成プロパティのディクショナリ。 各名前は、特定のプロパティの名前です。 各値はプリミティブ型である必要があります。 |
SearchIndexerKnowledgeStoreProjection |
さまざまなプロジェクション セレクターのコンテナー オブジェクト。 |
SearchIndexerKnowledgeStoreProjectionSelector |
具象セレクター間でプロパティを共有する抽象クラス。 |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Azure テーブルに格納するデータの説明。 |
SearchIndexerLimits | |
SearchIndexerSkillset |
スキルの一覧。 |
SearchIndexerStatus |
インデクサーの現在の状態と実行履歴を表します。 |
SearchIndexerWarning |
項目レベルの警告を表します。 |
SearchIndexingBufferedSenderOptions |
SearchIndexingBufferedSender のオプション。 |
SearchResourceEncryptionKey |
Azure Key Vault のカスタマー マネージド暗号化キー。 作成および管理するキーは、インデックスやシノニム マップなど、Azure Cognitive Search の保存データを暗号化または復号化するために使用できます。 |
SearchServiceStatistics |
サービス統計情報の取得要求からの応答。 成功した場合は、サービス レベルのカウンターと制限が含まれます。 |
SearchSuggester |
Suggest API をインデックス内のフィールドのグループに適用する方法を定義します。 |
SemanticConfiguration |
セマンティック機能のコンテキストで使用する特定の構成を定義します。 |
SemanticField |
セマンティック構成の一部として使用されるフィールド。 |
SemanticPrioritizedFields |
セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル、コンテンツ、キーワードのフィールドについて説明します。 |
SemanticSearch |
セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。 |
SemanticSearchOptions |
セマンティック検索クエリのオプションを定義します |
SentimentSkill |
テキスト分析の肯定的-否定的なセンチメント分析。0 から 1 の範囲の浮動小数点値としてスコア付けされます。 |
SentimentSkillV3 |
Text Analytics API を使用して、非構造化テキストを評価し、各レコードに対して、文とドキュメント レベルでサービスによって検出された最高の信頼度スコアに基づいてセンチメント ラベル ("負"、"ニュートラル"、"肯定的"など) を提供します。 |
ServiceCounters |
サービス レベルのリソース カウンターとクォータを表します。 |
ServiceLimits |
さまざまなサービス レベルの制限を表します。 |
ShaperSkill |
出力を再整形するためのスキル。 複合フィールド (マルチパート フィールドとも呼ばれます) をサポートする複合型が作成されます。 |
ShingleTokenFilter |
トークンの組み合わせを 1 つのトークンとして作成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
Similarity |
類似性アルゴリズムの基本型。 類似性アルゴリズムは、クエリをドキュメントに関連付けるスコアを計算するために使用されます。 スコアが高いほど、ドキュメントはその特定のクエリに対して関連性が高くなります。 これらのスコアは、検索結果のランク付けに使用されます。 |
SimpleField |
インデックス定義内のフィールドを表します。フィールドの名前、データ型、および検索動作を表します。 |
SnowballTokenFilter |
Snowball で生成されたステマーを使用して単語の語幹を読み上めるフィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
SoftDeleteColumnDeletionDetectionPolicy |
論理的な削除戦略を実装するデータ削除検出ポリシーを定義します。 指定された "論理的な削除" 列の値に基づいて、アイテムを削除するかどうかを決定します。 |
SplitSkill |
文字列をテキストのチャンクに分割するスキル。 |
SqlIntegratedChangeTrackingPolicy |
Azure SQL Database の統合変更追跡機能を使用して変更をキャプチャするデータ変更検出ポリシーを定義します。 |
StemmerOverrideTokenFilter |
ユーザー辞書ベースのステミングを使用して、他のステミング フィルターをオーバーライドする機能を提供します。 辞書で語幹を付けた用語はキーワードとしてマークされるため、チェーンの下にあるステマーで語幹を付けないようにします。 ステミング フィルターの前に配置する必要があります。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
StemmerTokenFilter |
言語固有のステミング フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
StopAnalyzer |
テキストを文字以外で除算します。小文字とストップワードのトークン フィルターを適用します。 このアナライザーは、Apache Lucene を使用して実装されます。 |
StopwordsTokenFilter |
トークン ストリームからストップ ワードを削除します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
SuggestDocumentsResult |
インデックスからの提案クエリ結果を含む応答。 |
SuggestRequest |
フィルター処理、並べ替え、あいまい一致、およびその他の検索候補のクエリ動作のパラメーター。 |
SynonymMap |
シノニム マップ定義を表します。 |
SynonymTokenFilter |
トークン ストリーム内の単一または複数単語のシノニムと一致します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
TagScoringFunction |
特定のタグのリストに一致する文字列値を持つドキュメントのスコアを向上させる関数を定義します。 |
TagScoringParameters |
タグ スコアリング関数にパラメーター値を提供します。 |
TextTranslationSkill |
ある言語から別の言語にテキストを翻訳するスキル。 |
TextWeights |
検索クエリでスコアリングを向上させる必要がある一致するインデックス フィールドの重みを定義します。 |
TruncateTokenFilter |
用語を特定の長さに切り捨てます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
UaxUrlEmailTokenizer |
URL と電子メールを 1 つのトークンとしてトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
UniqueTokenFilter |
前のトークンと同じテキストを持つトークンを除外します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
VectorSearch |
ベクター検索に関連する構成オプションが含まれています。 |
VectorSearchOptions |
ベクター検索クエリのオプションを定義します |
VectorSearchProfile |
ベクター検索で使用する構成の組み合わせを定義します。 |
VectorizableTextQuery |
ベクター化する必要があるテキスト値が指定されている場合にベクター検索に使用するクエリ パラメーター。 |
VectorizedQuery |
生のベクター値が指定されたときにベクター検索に使用するクエリ パラメーター。 |
WebApiParameters |
ユーザー定義ベクターライザーに接続するためのプロパティを指定します。 |
WebApiSkill |
Web API エンドポイントを呼び出すことができるスキル。カスタム コードを呼び出すことでスキルセットを拡張できます。 |
WebApiVectorizer |
クエリ文字列のベクター埋め込みを生成するためのユーザー定義ベクターライザーを指定します。 外部ベクターライザーの統合は、スキルセットのカスタム Web API インターフェイスを使用して実現されます。 |
WordDelimiterTokenFilter |
単語をサブワードに分割し、サブワード グループに対してオプションの変換を実行します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
型エイリアス
AnalyzeTextOptions |
テキスト分析操作のオプション。 |
AutocompleteMode |
AutocompleteMode の値を定義します。 |
AutocompleteOptions |
部分 searchText の入力候補テキストを取得するためのオプション。 |
AzureOpenAIModelName |
AzureOpenAIModelName の値を定義します。 サービスでサポートされている既知の値
text-embedding-ada-002 |
BlobIndexerDataToExtract | |
BlobIndexerImageAction | |
BlobIndexerPDFTextRotationAlgorithm | |
BlobIndexerParsingMode | |
CharFilter |
CharFilter の場合に使用できるケースが含まれます。 |
CharFilterName |
CharFilterName の値を定義します。 サービスでサポートされている既知の値html_strip: HTML コンストラクトを除去しようとする文字フィルター。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html を参照してください |
CjkBigramTokenFilterScripts |
CjkBigramTokenFilterScripts の値を定義します。 |
CognitiveServicesAccount |
CognitiveServicesAccount の可能性のあるケースが含まれています。 |
ComplexDataType |
ComplexDataType の値を定義します。 指定できる値は、'Edm.ComplexType'、'Collection(Edm.ComplexType)' です。 |
CountDocumentsOptions |
インデックスに対してカウント操作を実行するためのオプション。 |
CreateDataSourceConnectionOptions |
データソースの作成操作のオプション。 |
CreateIndexOptions |
インデックス作成操作のオプション。 |
CreateIndexerOptions |
インデクサーの作成操作のオプション。 |
CreateSkillsetOptions |
スキルセット操作を作成するためのオプション。 |
CreateSynonymMapOptions |
シノニムマップの作成操作のオプション。 |
CustomEntityLookupSkillLanguage | |
DataChangeDetectionPolicy |
DataChangeDetectionPolicy で使用できるケースが含まれています。 |
DataDeletionDetectionPolicy |
DataDeletionDetectionPolicy で使用できるケースが含まれています。 |
DeleteDocumentsOptions |
ドキュメントの削除操作のオプション。 |
EdgeNGramTokenFilterSide |
EdgeNGramTokenFilterSide の値を定義します。 |
EntityCategory | |
EntityRecognitionSkillLanguage | |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
クエリ中に使用される完全な KNN アルゴリズムに固有の構成オプションが含まれており、ベクター インデックス全体でブルート フォース検索を実行します。 |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
データソースの取得操作のオプション。 |
GetIndexOptions |
インデックス取得操作のオプション。 |
GetIndexStatisticsOptions |
インデックス統計の取得操作のオプション。 |
GetIndexerOptions |
インデクサーの取得操作のオプション。 |
GetIndexerStatusOptions |
インデクサーの状態の取得操作のオプション。 |
GetServiceStatisticsOptions |
サービス統計の取得操作のオプション。 |
GetSkillSetOptions |
スキルセットの取得操作のオプション。 |
GetSynonymMapsOptions |
シノニムマップの取得操作のオプション。 |
HnswAlgorithmConfiguration |
インデックス作成時に使用される hnsw 近似最近傍アルゴリズムに固有の構成オプションが含まれています。 |
ImageAnalysisSkillLanguage | |
ImageDetail | |
IndexActionType |
IndexActionType の値を定義します。 |
IndexDocumentsAction |
ドキュメントに対して動作するインデックス アクションを表します。 |
IndexIterator |
Search サービスに存在するインデックスを一覧表示するための反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、反復処理ごとにサーバーに 1 つの要求を行います。 |
IndexNameIterator |
Search サービスに存在するインデックスを一覧表示するための反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、反復処理ごとにサーバーに 1 つの要求を行います。 |
IndexProjectionMode |
IndexProjectionMode の値を定義します。 サービスでサポートされている既知の値
skipIndexingParentDocuments: ソース ドキュメントはインデクサーのターゲット インデックスへの書き込みからスキップされます。 |
IndexerExecutionEnvironment | |
IndexerExecutionStatus |
IndexerExecutionStatus の値を定義します。 |
IndexerStatus |
IndexerStatus の値を定義します。 |
KeyPhraseExtractionSkillLanguage | |
LexicalAnalyzer |
アナライザーで使用できるケースが含まれています。 |
LexicalAnalyzerName |
LexicalAnalyzerName の値を定義します。 サービスでサポートされている既知の値
ar.microsoft: アラビア語用 Microsoft アナライザー。 |
LexicalTokenizer |
トークナイザーの可能性のあるケースが含まれています。 |
LexicalTokenizerName |
LexicalTokenizerName の値を定義します。 サービスでサポートされている既知の値
クラシック: ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザーです。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html を参照してください |
ListDataSourceConnectionsOptions |
リスト データ ソース操作のオプション。 |
ListIndexersOptions |
リスト インデクサー操作のオプション。 |
ListIndexesOptions |
リスト インデックス操作のオプション。 |
ListSkillsetsOptions |
リスト スキルセット操作のオプション。 |
ListSynonymMapsOptions |
list synonymMaps 操作のオプション。 |
MergeDocumentsOptions |
ドキュメントの差し込み印刷操作のオプション。 |
MergeOrUploadDocumentsOptions |
ドキュメントのマージまたはアップロード操作のオプション。 |
MicrosoftStemmingTokenizerLanguage |
MicrosoftStemmingTokenizerLanguage の値を定義します。 |
MicrosoftTokenizerLanguage |
MicrosoftTokenizerLanguage の値を定義します。 |
NarrowedModel |
選択したフィールドのみを含むようにモデルの種類を絞り込みます。 |
OcrLineEnding |
OcrLineEnding の値を定義します。 サービスでサポートされている既知の値
スペース: 行は 1 つのスペース文字で区切られます。 |
OcrSkillLanguage | |
PIIDetectionSkillMaskingMode | |
PhoneticEncoder |
PhoneticEncoder の値を定義します。 |
QueryAnswer |
検索応答の一部として回答を返す必要があるかどうかを指定する値。
このパラメーターは、クエリの種類が 'semantic' の場合にのみ有効です。
|
QueryCaption |
キャプションを検索応答の一部として返す必要があるかどうかを指定する値。 このパラメーターは、クエリの種類が 'semantic' の場合にのみ有効です。 設定した場合、クエリは、最もランクの高いドキュメントの主要な通路から抽出されたキャプションを返します。 キャプションが 'extractive' の場合、強調表示は既定で有効になります。 既定値は 'none' です。 |
QueryType |
QueryType の値を定義します。 |
RegexFlags | |
ResetIndexerOptions |
インデクサーのリセット操作のオプション。 |
RunIndexerOptions |
インデクサーの実行操作のオプション。 |
ScoringFunction |
ScoringFunction の可能性のあるケースが含まれています。 |
ScoringFunctionAggregation |
ScoringFunctionAggregation の値を定義します。 |
ScoringFunctionInterpolation |
ScoringFunctionInterpolation の値を定義します。 |
ScoringStatistics |
ScoringStatistics の値を定義します。 |
SearchField |
インデックス定義内のフィールドを表します。フィールドの名前、データ型、および検索動作を表します。 |
SearchFieldArray |
|
SearchFieldDataType |
SearchFieldDataType の値を定義します。 サービスでサポートされている既知の値:Edm.String: フィールドに文字列が含まれていることを示します。 Edm.Int32: フィールドに 32 ビット符号付き整数が含まれていることを示します。 Edm.Int64: フィールドに 64 ビット符号付き整数が含まれていることを示します。 Edm.Double: フィールドに IEEE 倍精度浮動小数点数が含まれていることを示します。 Edm.Boolean: フィールドにブール値 (true または false) が含まれていることを示します。 Edm.DateTimeOffset: フィールドに、タイムゾーン情報を含む日付/時刻値が含まれていることを示します。 Edm.GeographyPoint: フィールドに経度と緯度の観点から geo 位置が含まれていることを示します。 Edm.ComplexType: フィールドに 1 つ以上の複合オブジェクトが含まれていることを示します。このオブジェクトには、他の型のサブフィールドが含まれます。 Edm.Single: フィールドに単精度浮動小数点数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.Single) の一部として使用される場合にのみ有効です。 Edm.Half: フィールドに半精度浮動小数点数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.Half) の一部として使用される場合にのみ有効です。 Edm.Int16: フィールドに 16 ビット符号付き整数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.Int16) の一部として使用される場合にのみ有効です。 Edm.SByte: フィールドに 8 ビット符号付き整数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.SByte) の一部として使用される場合にのみ有効です。 Edm.Byte: フィールドに 8 ビット符号なし整数が含まれていることを示します。 これは、コレクション型 (Collection(Edm.Byte) の一部として使用される場合にのみ有効です。 |
SearchIndexerDataIdentity |
SearchIndexerDataIdentity で使用できるケースが含まれます。 |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Skill の可能性のあるケースが含まれています。 |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
SearchIndexingBufferedSenderDeleteDocuments のオプション。 |
SearchIndexingBufferedSenderFlushDocumentsOptions |
SearchIndexingBufferedSenderFlushDocuments のオプション。 |
SearchIndexingBufferedSenderMergeDocumentsOptions |
SearchIndexingBufferedSenderMergeDocuments のオプション。 |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
SearchIndexingBufferedSenderMergeOrUploadDocuments のオプション。 |
SearchIndexingBufferedSenderUploadDocumentsOptions |
SearchIndexingBufferedSenderUploadDocuments のオプション。 |
SearchIterator |
paticular クエリの検索結果を示す反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、反復処理ごとにサーバーに 1 つの要求を行います。 |
SearchMode |
SearchMode の値を定義します。 |
SearchOptions |
完全な検索要求をコミットするためのオプション。 |
SearchPick |
有効な Cognitive Search OData $select パスを使用して、T のフィールドを深く選択します。 |
SearchRequestOptions |
フィルター処理、並べ替え、ファセット、ページング、およびその他の検索クエリ動作のパラメーター。 |
SearchRequestQueryTypeOptions | |
SearchResult |
検索クエリによって検出されたドキュメントと、関連するメタデータが含まれます。 |
SelectArray |
|
SelectFields |
T にルート化されたフィールド ツリーの後順序トラバーサルを使用して、T の有効な Cognitive Search OData $select パスの和集合を生成します。 |
SemanticErrorMode | |
SemanticErrorReason | |
SemanticSearchResultsType | |
SentimentSkillLanguage | |
SimilarityAlgorithm |
類似性の可能性のあるケースが含まれています。 |
SnowballTokenFilterLanguage |
SnowballTokenFilterLanguage の値を定義します。 |
SplitSkillLanguage | |
StemmerTokenFilterLanguage |
StemmerTokenFilterLanguage の値を定義します。 |
StopwordsList |
StopwordsList の値を定義します。 |
SuggestNarrowedModel | |
SuggestOptions |
searchText に基づいて検索候補を取得するためのオプション。 |
SuggestResult |
提案クエリによって検出されたドキュメントと、関連付けられているメタデータを含む結果。 |
TextSplitMode | |
TextTranslationSkillLanguage | |
TokenCharacterKind |
TokenCharacterKind の値を定義します。 |
TokenFilter |
TokenFilter で使用できるケースが含まれます。 |
TokenFilterName |
TokenFilterName の値を定義します。 サービスでサポートされている既知の値
arabic_normalization: アラビア語のノーマライザーを適用して序数を正規化するトークン フィルター。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html を参照してください |
UnionToIntersection | |
UploadDocumentsOptions |
ドキュメントのアップロード操作のオプション。 |
VectorEncodingFormat |
VectorEncodingFormat の値を定義します。 サービスでサポートされている既知の値packedBit: より広いデータ型にパックされたビットを表すエンコード形式。 |
VectorFilterMode | |
VectorQuery |
ベクター検索クエリとハイブリッド検索クエリのクエリ パラメーター。 |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
インデックス作成やクエリの実行中に使用されるアルゴリズムに固有の構成オプションが含まれています。 |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric | |
VectorSearchCompression |
インデックス作成またはクエリ中に使用される圧縮方法に固有の構成オプションが含まれています。 |
VectorSearchCompressionKind |
VectorSearchCompressionKind の値を定義します。 サービスでサポートされている既知の値
scalarQuantization: スカラー量子化 (圧縮方法の一種)。 スカラー量子化では、元のベクトル値は、量子化された値の小さなセットを使用してベクトルの各コンポーネントを分離して表すことによって、より狭い型に圧縮され、それによって全体的なデータ サイズが小さくなります。 |
VectorSearchCompressionTarget |
VectorSearchCompressionTarget の値を定義します。 サービスでサポートされている既知の値int8 を |
VectorSearchVectorizer |
テキスト ベクター クエリをベクター化する方法に関する構成オプションが含まれています。 |
VectorSearchVectorizerKind |
VectorSearchVectorizerKind の値を定義します。 サービスでサポートされている既知の値
azureOpenAI: クエリ時に Azure OpenAI リソースを使用して埋め込みを生成します。 |
VisualFeature |
列挙型
関数
create |
SynonymMap オブジェクトを作成するヘルパー メソッド。 これは NodeJS のみのメソッドです。 |
odata(Template |
文字列リテラルを引用符で囲むエラーを回避するために、odata フィルター式をエスケープします。 使用例:
サポートされている構文の詳細については、次を参照してください: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
関数の詳細
createSynonymMapFromFile(string, string)
SynonymMap オブジェクトを作成するヘルパー メソッド。 これは NodeJS のみのメソッドです。
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
パラメーター
- name
-
string
SynonymMap の名前。
- filePath
-
string
シノニムを含むファイルのパス (改行で区切ります)
戻り値
Promise<SynonymMap>
SynonymMap オブジェクト
odata(TemplateStringsArray, unknown[])
文字列リテラルを引用符で囲むエラーを回避するために、odata フィルター式をエスケープします。 使用例:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
サポートされている構文の詳細については、次を参照してください: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
パラメーター
- strings
-
TemplateStringsArray
式の文字列の配列
- values
-
unknown[]
式の値の配列
戻り値
string