@azure/search-documents package
Třídy
AzureKeyCredential |
Přihlašovací údaje založené na statickém klíči, které podporují aktualizaci hodnoty základního klíče. |
GeographyPoint |
Představuje geografický bod v globálních souřadnicích. |
IndexDocumentsBatch |
Třída používaná k provádění dávkových operací s více dokumenty indexu. |
SearchClient |
Třída, která slouží k provádění operací s indexem vyhledávání, včetně dotazování dokumentů v indexu a přidávání, aktualizace a odebírání. |
SearchIndexClient |
Třída pro provádění operací pro správu indexů (vytváření, aktualizace, výpis/odstranění) & synonyma. |
SearchIndexerClient |
Třída, která provádí operace pro správu indexerů (vytváření, aktualizace, výpis/odstranění), zdrojů dat & sad dovedností. |
SearchIndexingBufferedSender |
Třída používaná k provádění operací uložených ve vyrovnávací paměti vůči indexu vyhledávání, včetně přidávání, aktualizace a odebírání. |
Rozhraní
AnalyzeRequest |
Určuje některé součásti textu a analýzy, které slouží k rozdělení textu na tokeny. |
AnalyzeResult |
Výsledek testování analyzátoru na textu |
AnalyzedTokenInfo |
Informace o tokenu vráceného analyzátorem |
AsciiFoldingTokenFilter |
Převede abecední, číselné a symbolické znaky Unicode, které nejsou v prvních 127 znaky ASCII (blok "Základní latinka") na jejich ekvivalenty ASCII, pokud takové ekvivalenty existují. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
AutocompleteItem |
Výsledek požadavků automatického dokončování |
AutocompleteRequest |
Parametry pro porovnávání přibližných shod a další chování dotazů automatického dokončování |
AutocompleteResult |
Výsledek dotazu automatického dokončování |
AzureActiveDirectoryApplicationCredentials |
Přihlašovací údaje registrované aplikace vytvořené pro vaši vyhledávací službu, které slouží k ověřenému přístupu k šifrovacím klíčům uloženým ve službě Azure Key Vault. |
AzureOpenAIEmbeddingSkill |
Umožňuje vygenerovat vektorové vkládání pro daný textový vstup pomocí prostředku Azure OpenAI. |
AzureOpenAIParameters |
Obsahuje parametry specifické pro použití služby Azure Open AI pro vektorizaci v době dotazu. |
AzureOpenAIVectorizer |
Obsahuje parametry specifické pro použití služby Azure Open AI pro vektorizaci v době dotazu. |
BM25Similarity |
Funkce řazení založená na algoritmu podobnosti BM25 Okapi. BM25 je algoritmus podobný TF-IDF, který zahrnuje normalizaci délky (řízenou parametrem "b") a také sytost termínů (řízená parametrem "k1"). |
BaseCharFilter |
Základní typ pro filtry znaků. |
BaseCognitiveServicesAccount |
Základní typ pro popis jakéhokoli prostředku služby Azure AI připojeného k sadě dovedností |
BaseDataChangeDetectionPolicy |
Základní typ zásad detekce změn dat |
BaseDataDeletionDetectionPolicy |
Základní typ zásad detekce odstranění dat |
BaseLexicalAnalyzer |
Základní typ pro analyzátory. |
BaseLexicalTokenizer |
Základní typ pro tokenizátory. |
BaseScoringFunction |
Základní typ pro funkce, které mohou upravovat skóre dokumentu během řazení. |
BaseSearchIndexerDataIdentity |
Abstraktní základní typ pro identity dat |
BaseSearchIndexerSkill |
Základní typ dovedností. |
BaseSearchRequestOptions |
Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů |
BaseTokenFilter |
Základní typ pro filtry tokenů. |
BaseVectorQuery |
Parametry dotazu pro vektorové a hybridní vyhledávací dotazy. |
BaseVectorSearchAlgorithmConfiguration |
Obsahuje možnosti konfigurace specifické pro algoritmus použitý při indexování nebo dotazování. |
BaseVectorSearchCompression |
Obsahuje možnosti konfigurace specifické pro metodu komprese použitou při indexování nebo dotazování. |
BaseVectorSearchVectorizer |
Obsahuje konkrétní podrobnosti pro metodu vektorizace, která se má použít během dotazu. |
BinaryQuantizationCompression |
Obsahuje možnosti konfigurace specifické pro metodu komprese binárního kvantování používané při indexování a dotazování. |
CjkBigramTokenFilter |
Tvoří bigramy výrazů CJK, které se generují ze standardního tokenizátoru. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
ClassicSimilarity |
Starší algoritmus podobnosti, který používá implementaci TF-IDF lucene TFIDFSimilarity. Tato varianta TF-IDF představuje normalizaci délky statického dokumentu a také koordinující faktory, které postihují dokumenty, které pouze částečně odpovídají prohledáným dotazům. |
ClassicTokenizer |
Tokenizátor založený na gramatikě, který je vhodný pro zpracování většiny dokumentů evropského jazyka. Tento tokenizátor se implementuje pomocí Apache Lucene. |
CognitiveServicesAccountKey |
Klíč účtu více oblastí prostředku služby Azure AI, který je připojený k sadě dovedností. |
CommonGramTokenFilter |
Při indexování vytvořte bigramy pro často se vyskytující termíny. Jednotlivé termíny jsou stále indexované, s překryvnými bigramy. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
ComplexField |
Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole. |
ConditionalSkill |
Dovednost, která umožňuje scénářům, které vyžadují logickou operaci k určení dat, která se mají přiřadit k výstupu. |
CorsOptions |
Definuje možnosti pro řízení sdílení prostředků mezi zdroji (CORS) pro index. |
CreateOrUpdateIndexOptions |
Možnosti operace vytvoření/aktualizace indexu |
CreateOrUpdateSkillsetOptions |
Možnosti operace vytvoření/aktualizace sady dovedností |
CreateOrUpdateSynonymMapOptions |
Možnosti pro operaci vytvoření nebo aktualizace synonym mapy |
CreateorUpdateDataSourceConnectionOptions |
Možnosti operace vytvoření/aktualizace zdroje dat |
CreateorUpdateIndexerOptions |
Možnosti operace vytvoření/aktualizace indexeru |
CustomAnalyzer |
Umožňuje převzít kontrolu nad procesem převodu textu na indexovatelné nebo prohledávatelné tokeny. Jedná se o uživatelsky definovanou konfiguraci, která se skládá z jednoho předdefinovaného tokenizátoru a jednoho nebo více filtrů. Tokenizátor zodpovídá za dělení textu na tokeny a filtry pro úpravy tokenů vygenerovaných tokenem. |
CustomEntity |
Objekt obsahující informace o nalezených shodách a souvisejících metadatech. |
CustomEntityAlias |
Složitý objekt, který lze použít k určení alternativního pravopisu nebo synonym pro název kořenové entity. |
CustomEntityLookupSkill |
Dovednost hledá text z vlastního seznamu slov a frází definovaných uživatelem. |
DefaultCognitiveServicesAccount |
Prázdný objekt, který představuje výchozí prostředek služby Azure AI pro sadu dovedností. |
DeleteDataSourceConnectionOptions |
Možnosti operace odstranění zdroje dat |
DeleteIndexOptions |
Možnosti operace odstranění indexu |
DeleteIndexerOptions |
Možnosti operace odstranění indexeru |
DeleteSkillsetOptions |
Možnosti pro odstranění operaionu sady dovedností |
DeleteSynonymMapOptions |
Možnosti operace odstranění mapy synonym |
DictionaryDecompounderTokenFilter |
Rozloží složená slova nalezená v mnoha německých jazycích. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
DistanceScoringFunction |
Definuje funkci, která zvyšuje skóre na základě vzdálenosti od zeměpisného umístění. |
DistanceScoringParameters |
Poskytuje hodnoty parametrů funkci bodování vzdálenosti. |
DocumentExtractionSkill |
Dovednost, která extrahuje obsah ze souboru v kanálu rozšiřování. |
EdgeNGramTokenFilter |
Vygeneruje n-gramy dané velikosti počínaje přední nebo zadní částí vstupního tokenu. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
EdgeNGramTokenizer |
Tokenizuje vstup z okraje na n-gramy dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene. |
ElisionTokenFilter |
Odebere elisions. Například "l'avion" (letadlo) bude převedeno na "avion" (letadlo). Tento filtr tokenu se implementuje pomocí Apache Lucene. |
EntityLinkingSkill |
Pomocí rozhraní API pro analýzu textu extrahuje propojené entity z textu. |
EntityRecognitionSkill |
Rozpoznávání entit analýzy textu |
EntityRecognitionSkillV3 |
Pomocí rozhraní API pro analýzu textu extrahuje entity různých typů z textu. |
ExhaustiveKnnParameters |
Obsahuje parametry specifické pro vyčerpávající algoritmus KNN. |
ExtractiveQueryAnswer |
Extrahuje kandidáty odpovědí z obsahu dokumentů vrácených v reakci na dotaz vyjádřený jako otázka v přirozeném jazyce. |
ExtractiveQueryCaption |
Extrahuje titulky z odpovídajících dokumentů, které obsahují pasáže relevantní pro vyhledávací dotaz. |
FacetResult |
Jeden kbelík výsledku fasetového dotazu. Zaznamenává počet dokumentů s hodnotou pole spadající do konkrétní oblasti nebo s konkrétní hodnotou nebo intervalem. |
FieldMapping |
Definuje mapování mezi polem ve zdroji dat a cílovým polem v indexu. |
FieldMappingFunction |
Představuje funkci, která před indexováním transformuje hodnotu ze zdroje dat. |
FreshnessScoringFunction |
Definuje funkci, která zvyšuje skóre na základě hodnoty pole data a času. |
FreshnessScoringParameters |
Poskytuje hodnoty parametrů pro funkci bodování aktuálnosti. |
GetDocumentOptions |
Možnosti pro načtení jednoho dokumentu |
HighWaterMarkChangeDetectionPolicy |
Definuje zásadu detekce změn dat, která zachycuje změny na základě hodnoty sloupce horní značky. |
HnswParameters |
Obsahuje parametry specifické pro algoritmus hnsw. |
ImageAnalysisSkill |
Dovednost, která analyzuje soubory obrázků. Extrahuje bohatou sadu vizuálních funkcí na základě obsahu obrázku. |
IndexDocumentsClient |
Klient indexování dokumentů |
IndexDocumentsOptions |
Možnosti pro úpravu dávkové operace indexu |
IndexDocumentsResult |
Odpověď obsahující stav operací pro všechny dokumenty v požadavku indexování |
IndexerExecutionResult |
Představuje výsledek spuštění jednotlivých indexerů. |
IndexingParameters |
Představuje parametry pro spuštění indexeru. |
IndexingParametersConfiguration |
Slovník vlastností konfigurace specifické pro indexer. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu. |
IndexingResult |
Stav operace indexování pro jeden dokument |
IndexingSchedule |
Představuje plán provádění indexeru. |
InputFieldMappingEntry |
Mapování vstupních polí pro dovednost |
KeepTokenFilter |
Filtr tokenů, který uchovává pouze tokeny s textem obsaženým v zadaném seznamu slov. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
KeyPhraseExtractionSkill |
Dovednost, která používá analýzu textu pro extrakci klíčových frází. |
KeywordMarkerTokenFilter |
Označí termíny jako klíčová slova. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
KeywordTokenizer |
Vygeneruje celý vstup jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene. |
LanguageDetectionSkill |
Dovednost, která rozpozná jazyk vstupního textu a hlásí kód jednoho jazyka pro každý dokument odeslaný na žádost. Kód jazyka je spárovaný se skóre označujícím spolehlivost analýzy. |
LengthTokenFilter |
Odebere slova, která jsou příliš dlouhá nebo příliš krátká. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
LimitTokenFilter |
Omezuje počet tokenů při indexování. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
ListSearchResultsPageSettings |
Argumenty pro načtení další stránky výsledků hledání |
LuceneStandardAnalyzer |
Standardní analyzátor Apache Lucene; Skládá se ze standardního tokenizátoru, filtru malými písmeny a filtru zastavení. |
LuceneStandardTokenizer |
Zalomí text podle pravidel segmentace textu unicode. Tento tokenizátor se implementuje pomocí Apache Lucene. |
MagnitudeScoringFunction |
Definuje funkci, která zvyšuje skóre na základě velikosti číselného pole. |
MagnitudeScoringParameters |
Poskytuje hodnoty parametrů pro funkci bodování velikosti. |
MappingCharFilter |
Filtr znaků, který používá mapování definovaná pomocí možnosti mapování. Porovnávání je greedy (nejdelší porovnávání vzorů v daném bodě vyhrává). Nahrazení může být prázdný řetězec. Tento filtr znaků se implementuje pomocí Apache Lucene. |
MergeSkill |
Dovednost pro sloučení dvou nebo více řetězců do jednoho sjednoceného řetězce s volitelným uživatelem definovaným oddělovačem, který odděluje jednotlivé součásti. |
MicrosoftLanguageStemmingTokenizer |
Rozdělí text pomocí pravidel specifických pro jazyk a zmenšuje slova na jejich základní formuláře. |
MicrosoftLanguageTokenizer |
Rozdělí text pomocí pravidel specifických pro jazyk. |
NGramTokenFilter |
Vygeneruje n-gramy dané velikosti. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
NGramTokenizer |
Tokenizuje vstup na n-gramy dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene. |
OcrSkill |
Dovednost, která extrahuje text ze souborů obrázků. |
OutputFieldMappingEntry |
Mapování výstupních polí pro dovednost |
PIIDetectionSkill |
Pomocí rozhraní API pro analýzu textu extrahuje osobní údaje ze vstupního textu a poskytne vám možnost ho maskovat. |
PathHierarchyTokenizer |
Tokenizátor pro hierarchie podobné cestě. Tento tokenizátor se implementuje pomocí Apache Lucene. |
PatternAnalyzer |
Pružně odděluje text do termínů pomocí vzoru regulárního výrazu. Tento analyzátor se implementuje pomocí Apache Lucene. |
PatternCaptureTokenFilter |
Používá regulární výrazy Java k vygenerování více tokenů – jeden pro každou skupinu zachycení v jednom nebo více vzorech. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
PatternReplaceCharFilter |
Filtr znaků, který nahradí znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků k zachování a nahrazení vzoru pro identifikaci znaků, které se mají nahradit. Například při zadání textu "aa bb aa bb", vzoru "(aa)\s+(bb)" a nahrazení "$1#$2" bude výsledkem "aa#bb aa#bb". Tento filtr znaků se implementuje pomocí Apache Lucene. |
PatternReplaceTokenFilter |
Filtr znaků, který nahradí znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků k zachování a nahrazení vzoru pro identifikaci znaků, které se mají nahradit. Například při zadání textu "aa bb aa bb", vzoru "(aa)\s+(bb)" a nahrazení "$1#$2" bude výsledkem "aa#bb aa#bb". Tento filtr tokenu se implementuje pomocí Apache Lucene. |
PatternTokenizer |
Tokenizátor, který používá porovnávání vzorů regulárních výrazů k vytvoření jedinečných tokenů. Tento tokenizátor se implementuje pomocí Apache Lucene. |
PhoneticTokenFilter |
Vytváření tokenů pro fonetické shody Tento filtr tokenu se implementuje pomocí Apache Lucene. |
QueryAnswerResult |
Odpověď je textový úsek extrahovaný z obsahu nejrelevavantnějších dokumentů, které odpovídají dotazu. Odpovědi se extrahují z nejlepších výsledků hledání. Kandidáti na odpovědi jsou hodnoceni a vyberou se hlavní odpovědi. |
QueryCaptionResult |
Titulky jsou nejvýraznější pasáže z dokumentu relativně do vyhledávacího dotazu. Často se používají jako souhrn dokumentů. Titulky jsou vráceny pouze pro dotazy typu |
ResourceCounter |
Představuje využití a kvótu prostředku. |
ScalarQuantizationCompression |
Obsahuje možnosti konfigurace specifické pro metodu komprese skalární quantizace, která se používá při indexování a dotazování. |
ScalarQuantizationParameters |
Obsahuje parametry specifické pro skalární kvantování. |
ScoringProfile |
Definuje parametry indexu vyhledávání, které ovlivňují bodování ve vyhledávacích dotazech. |
SearchClientOptions |
Možnosti klienta používané ke konfiguraci požadavků rozhraní API kognitivního vyhledávání |
SearchDocumentsPageResult |
Odpověď obsahující výsledky vyhledávací stránky z indexu |
SearchDocumentsResult |
Odpověď obsahující výsledky hledání z indexu |
SearchDocumentsResultBase |
Odpověď obsahující výsledky hledání z indexu |
SearchIndex |
Představuje definici indexu vyhledávání, která popisuje pole a chování vyhledávání indexu. |
SearchIndexClientOptions |
Možnosti klienta používané ke konfiguraci požadavků rozhraní API kognitivního vyhledávání |
SearchIndexStatistics |
Statistika pro daný index Statistiky se shromažďují pravidelně a není zaručeno, že budou vždy up-to-date. |
SearchIndexer |
Představuje indexer. |
SearchIndexerClientOptions |
Možnosti klienta používané ke konfiguraci požadavků rozhraní API kognitivního vyhledávání |
SearchIndexerDataContainer |
Představuje informace o entitě (například tabulce Azure SQL nebo kolekci CosmosDB), která se bude indexovat. |
SearchIndexerDataNoneIdentity |
Vymaže vlastnost identity zdroje dat. |
SearchIndexerDataSourceConnection |
Představuje definici zdroje dat, kterou lze použít ke konfiguraci indexeru. |
SearchIndexerDataUserAssignedIdentity |
Určuje identitu zdroje dat, která se má použít. |
SearchIndexerError |
Představuje chybu indexování na úrovni položky nebo dokumentu. |
SearchIndexerIndexProjection |
Definicedalšíchch |
SearchIndexerIndexProjectionParameters |
Slovník vlastností konfigurace specifické pro projekce indexu. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu. |
SearchIndexerIndexProjectionSelector |
Popis dat uložených v určeném indexu vyhledávání |
SearchIndexerKnowledgeStore |
Definicedalšíchch dat pro azure blob, tabulek nebo souborů |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Abstraktní třída pro sdílení vlastností mezi betonovými selektory |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definice projekce pro data, která se mají ukládat ve službě Azure Files. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definice projekce pro data, která se mají ukládat v objektu blob Azure. |
SearchIndexerKnowledgeStoreParameters |
Slovník vlastností konfigurace specifické pro úložiště znalostí. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu. |
SearchIndexerKnowledgeStoreProjection |
Objekt kontejneru pro různé selektory projekce |
SearchIndexerKnowledgeStoreProjectionSelector |
Abstraktní třída pro sdílení vlastností mezi betonovými selektory |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Popis dat, která se mají ukládat v tabulkách Azure |
SearchIndexerLimits | |
SearchIndexerSkillset |
Seznam dovedností. |
SearchIndexerStatus |
Představuje aktuální stav a historii spuštění indexeru. |
SearchIndexerWarning |
Představuje upozornění na úrovni položky. |
SearchIndexingBufferedSenderOptions |
Možnosti pro SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Šifrovací klíč spravovaný zákazníkem ve službě Azure Key Vault. Klíče, které vytvoříte a spravujete, se dají použít k šifrování nebo dešifrování neaktivních uložených dat ve službě Azure Cognitive Search, jako jsou indexy a mapy synonym. |
SearchServiceStatistics |
Odpověď z žádosti o získání statistiky služby V případě úspěchu zahrnuje čítače a limity na úrovni služby. |
SearchSuggester |
Definuje, jak se má rozhraní API navrhnout na skupinu polí v indexu. |
SemanticConfiguration |
Definuje konkrétní konfiguraci, která se má použít v kontextu sémantických funkcí. |
SemanticField |
Pole, které se používá jako součást sémantické konfigurace. |
SemanticPrioritizedFields |
Popisuje pole nadpisu, obsahu a klíčových slov, která se mají použít pro sémantické řazení, titulky, zvýraznění a odpovědi. |
SemanticSearch |
Definuje parametry indexu vyhledávání, které ovlivňují sémantické schopnosti. |
SemanticSearchOptions |
Definuje možnosti pro sémantické vyhledávací dotazy. |
SentimentSkill |
Analýza textu s pozitivním negativním míněním, vyhodnocená jako hodnota s plovoucí desetinou čárkou v rozsahu od nuly do 1. |
SentimentSkillV3 |
Pomocí rozhraní API pro analýzu textu vyhodnocuje nestrukturovaný text a pro každý záznam poskytuje popisky mínění (například "negativní", "neutrální" a "pozitivní") na základě nejvyššího skóre spolehlivosti zjištěného službou na úrovni věty a dokumentu. |
ServiceCounters |
Představuje čítače a kvóty prostředků na úrovni služby. |
ServiceLimits |
Představuje různé limity na úrovni služby. |
ShaperSkill |
Dovednost pro přetváření výstupů. Vytvoří komplexní typ pro podporu složených polí (označovaných také jako pole s více částmi). |
ShingleTokenFilter |
Vytvoří kombinace tokenů jako jeden token. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Similarity |
Základní typ pro algoritmy podobnosti Algoritmy podobnosti se používají k výpočtu skóre, které sváže dotazy s dokumenty. Čím vyšší je skóre, tím relevantnější dokument je pro daný dotaz. Tato skóre slouží k řazení výsledků hledání. |
SimpleField |
Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole. |
SnowballTokenFilter |
Filtr, který vychází ze slov pomocí vygenerovaného smyšlí snowballu. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Definuje zásadu detekce odstranění dat, která implementuje strategii obnovitelného odstranění. Určuje, zda má být položka odstraněna na základě hodnoty určeného sloupce obnovitelného odstranění. |
SplitSkill |
Dovednost rozdělit řetězec na bloky textu. |
SqlIntegratedChangeTrackingPolicy |
Definuje zásadu detekce změn dat, která zachycuje změny pomocí integrované funkce Change Tracking ve službě Azure SQL Database. |
StemmerOverrideTokenFilter |
Poskytuje možnost přepsat další stemmingové filtry pomocí vlastních slovníkových stemmingů. Všechny termíny založené na slovníku budou označeny jako klíčová slova, aby se nezvolily pomocí stemmerů v řetězci. Musí být umístěny před všemi filtry pro vytváření. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
StemmerTokenFilter |
Filtr pro konkrétní jazyk. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
StopAnalyzer |
Rozdělí text bez písmen; Použije filtry tokenů s malými písmeny a stopword. Tento analyzátor se implementuje pomocí Apache Lucene. |
StopwordsTokenFilter |
Odebere slova ze streamu tokenu. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
SuggestDocumentsResult |
Odpověď obsahující výsledky návrhového dotazu z indexu |
SuggestRequest |
Parametry pro filtrování, řazení, přibližné porovnávání a další návrhy chování dotazů. |
SynonymMap |
Představuje definici mapy synonym. |
SynonymTokenFilter |
Porovná jednoslovné nebo víceslovné synonyma v datovém proudu tokenů. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
TagScoringFunction |
Definuje funkci, která zvyšuje skóre dokumentů s řetězcovými hodnotami odpovídajícími danému seznamu značek. |
TagScoringParameters |
Poskytuje hodnoty parametrů funkci bodování značek. |
TextTranslationSkill |
Dovednost překládat text z jednoho jazyka do druhého. |
TextWeights |
Definuje váhy u polí indexu, u kterých by se mělo zvýšit bodování ve vyhledávacích dotazech. |
TruncateTokenFilter |
Zkracuje termíny na určitou délku. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
UaxUrlEmailTokenizer |
Tokenizuje adresy URL a e-maily jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene. |
UniqueTokenFilter |
Vyfiltruje tokeny se stejným textem jako předchozí token. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
VectorSearch |
Obsahuje možnosti konfigurace související s vektorové vyhledávání. |
VectorSearchOptions |
Definuje možnosti pro dotazy vektorové vyhledávání. |
VectorSearchProfile |
Definuje kombinaci konfigurací, které se mají použít s vektorovým vyhledáváním. |
VectorizableTextQuery |
Parametry dotazu, které se mají použít pro vektorové vyhledávání, pokud je k dispozici textová hodnota, která musí být vektorizována. |
VectorizedQuery |
Parametry dotazu, které se mají použít pro vektorové vyhledávání při zadání nezpracované hodnoty vektoru. |
WebApiParameters |
Určuje vlastnosti pro připojení k vektorizátoru definovanému uživatelem. |
WebApiSkill |
Dovednost, která může volat koncový bod webového rozhraní API, což vám umožní rozšířit sadu dovedností tím, že zavolá váš vlastní kód. |
WebApiVectorizer |
Určuje vektorizátor definovaný uživatelem pro generování vektorového vkládání řetězce dotazu. Integrace externí vektorizátoru se dosahuje pomocí vlastního rozhraní webového rozhraní API sady dovedností. |
WordDelimiterTokenFilter |
Rozdělí slova do dílčích slov a provede volitelné transformace skupin podwordů. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Aliasy typu
AnalyzeTextOptions |
Možnosti pro analýzu textové operace |
AutocompleteMode |
Definuje hodnoty pro AutocompleteMode. |
AutocompleteOptions |
Možnosti pro načtení textu dokončení pro částečný hledaný text |
AzureOpenAIModelName |
Definuje hodnoty pro AzureOpenAIModelName. Známé hodnoty podporované službou
vkládání textu ada-002 |
BlobIndexerDataToExtract | |
BlobIndexerImageAction | |
BlobIndexerPDFTextRotationAlgorithm | |
BlobIndexerParsingMode | |
CharFilter |
Obsahuje možné případy pro CharFilter. |
CharFilterName |
Definuje hodnoty pro CharFilterName. Známé hodnoty podporované službouhtml_strip: Filtr znaků, který se pokusí odstranit konstruktory HTML. Viz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Definuje hodnoty pro CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Obsahuje možné případy pro CognitiveServicesAccount. |
ComplexDataType |
Definuje hodnoty pro ComplexDataType. Mezi možné hodnoty patří: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Možnosti pro provádění operace počítání indexu |
CreateDataSourceConnectionOptions |
Možnosti pro operaci vytvoření zdroje dat |
CreateIndexOptions |
Možnosti pro vytvoření operace indexu |
CreateIndexerOptions |
Možnosti pro vytvoření operace indexeru |
CreateSkillsetOptions |
Možnosti pro vytvoření operace sady dovedností |
CreateSynonymMapOptions |
Možnosti pro operaci vytvoření mapy synonym |
CustomEntityLookupSkillLanguage | |
DataChangeDetectionPolicy |
Obsahuje možné případy pro DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Obsahuje možné případy DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Možnosti operace odstranění dokumentů |
EdgeNGramTokenFilterSide |
Definuje hodnoty pro EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage | |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Obsahuje možnosti konfigurace specifické pro vyčerpávající algoritmus KNN použitý při dotazování, který provede vyhledávání hrubou silou v celém indexu vektoru. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Možnosti pro získání operace zdroje dat |
GetIndexOptions |
Možnosti pro získání operace indexu |
GetIndexStatisticsOptions |
Možnosti pro získání operace statistiky indexu |
GetIndexerOptions |
Možnosti pro získání operace indexeru |
GetIndexerStatusOptions |
Možnosti pro získání operace stavu indexeru |
GetServiceStatisticsOptions |
Možnosti pro získání operace statistiky služby |
GetSkillSetOptions |
Možnosti pro získání operace sady dovedností |
GetSynonymMapsOptions |
Možnosti pro operaci get synonymmaps |
HnswAlgorithmConfiguration |
Obsahuje možnosti konfigurace specifické pro přibližný algoritmus nejbližších sousedů používaný během indexování. |
ImageAnalysisSkillLanguage | |
ImageDetail | |
IndexActionType |
Definuje hodnoty pro IndexActionType. |
IndexDocumentsAction |
Představuje akci indexu, která pracuje s dokumentem. |
IndexIterator |
Iterátor pro výpis indexů, které existují ve vyhledávací službě. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace. |
IndexNameIterator |
Iterátor pro výpis indexů, které existují ve vyhledávací službě. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace. |
IndexProjectionMode |
Definuje hodnoty pro IndexProjectionMode. Známé hodnoty podporované službou
skipIndexingParentDocuments: Zdrojový dokument se přeskočí z zápisu do cílového indexu indexeru. |
IndexerExecutionEnvironment | |
IndexerExecutionStatus |
Definuje hodnoty pro IndexerExecutionStatus. |
IndexerStatus |
Definuje hodnoty pro IndexerStatus. |
KeyPhraseExtractionSkillLanguage | |
LexicalAnalyzer |
Obsahuje možné případy analyzátoru. |
LexicalAnalyzerName |
Definuje hodnoty pro LexicalAnalyzerName. Známé hodnoty podporované službou
ar.microsoft: Microsoft analyzer for Arabic. |
LexicalTokenizer |
Obsahuje možné případy tokenizátoru. |
LexicalTokenizerName |
Definuje hodnoty pro LexicalTokenizerName. Známé hodnoty podporované službou
klasické: tokenizátor založený na gramatikě, který je vhodný pro zpracování většiny dokumentů evropského jazyka. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Možnosti operace zdrojů dat seznamu |
ListIndexersOptions |
Možnosti operace indexerů seznamu |
ListIndexesOptions |
Možnosti operace indexů seznamu |
ListSkillsetsOptions |
Možnosti operace sad dovedností seznamu |
ListSynonymMapsOptions |
Možnosti operace synonymMaps seznamu |
MergeDocumentsOptions |
Možnosti operace sloučení dokumentů |
MergeOrUploadDocumentsOptions |
Možnosti operace sloučení nebo nahrání dokumentů |
MicrosoftStemmingTokenizerLanguage |
Definuje hodnoty pro MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Definuje hodnoty pro MicrosoftTokenizerLanguage. |
NarrowedModel |
Zužuje typ modelu tak, aby zahrnoval pouze vybraná pole. |
OcrLineEnding |
Definuje hodnoty pro OcrLineEnding. Známé hodnoty podporované službou
mezery: Řádky jsou oddělené jedním znakem mezery. |
OcrSkillLanguage | |
PIIDetectionSkillMaskingMode | |
PhoneticEncoder |
Definuje hodnoty pro fonetickýEncoder. |
QueryAnswer |
Hodnota, která určuje, jestli se odpovědi mají vrátit jako součást odpovědi hledání.
Tento parametr je platný pouze v případě, že je typ dotazu "sémantický". Pokud je nastavená hodnota |
QueryCaption |
Hodnota, která určuje, zda mají být titulky vráceny jako součást odpovědi hledání. Tento parametr je platný pouze v případě, že je typ dotazu "sémantický". Pokud je tato možnost nastavená, dotaz vrátí titulky extrahované z klíčových pasáží v nejřadivějších dokumentech. Pokud jsou titulky extrahované, zvýraznění je ve výchozím nastavení povolené. Výchozí hodnota je žádná. |
QueryType |
Definuje hodnoty pro QueryType. |
RegexFlags | |
ResetIndexerOptions |
Možnosti operace resetování indexeru |
RunIndexerOptions |
Možnosti spuštění operace indexeru |
ScoringFunction |
Obsahuje možné případy pro ScoringFunction. |
ScoringFunctionAggregation |
Definuje hodnoty pro ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Definuje hodnoty pro ScoringFunctionInterpolation. |
ScoringStatistics |
Definuje hodnoty pro bodováníStatistics. |
SearchField |
Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole. |
SearchFieldArray |
Pokud |
SearchFieldDataType |
Definuje hodnoty pro SearchFieldDataType. Známé hodnoty podporované službou:Edm.String: Označuje, že pole obsahuje řetězec. Edm.Int32: Označuje, že pole obsahuje 32bitové celé číslo se znaménkem. Edm.Int64: Označuje, že pole obsahuje 64bitové celé číslo se znaménkem. Edm.Double: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s dvojitou přesností IEEE. Edm.Boolean: Označuje, že pole obsahuje logickou hodnotu (true nebo false). Edm.DateTimeOffset: Označuje, že pole obsahuje hodnotu data a času, včetně informací o časovém pásmu. Edm.GeographyPoint: Označuje, že pole obsahuje geografické umístění z hlediska zeměpisné délky a zeměpisné šířky. Edm.ComplexType: Označuje, že pole obsahuje jeden nebo více složitých objektů, které zase mají dílčí pole jiných typů. Edm.Single: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s jednou přesností. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Single). Edm.Half: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s poloviční přesností. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Half). Edm.Int16: Označuje, že pole obsahuje 16bitové celé číslo se znaménkem. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Int16). Edm.SByte: Označuje, že pole obsahuje 8bitové celé číslo se znaménkem. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.SByte). Edm.Byte: Označuje, že pole obsahuje 8bitové celé číslo bez znaménka. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Byte). |
SearchIndexerDataIdentity |
Obsahuje možné případy pro SearchIndexerDataIdentity. |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Obsahuje možné případy dovednosti. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Iterátor pro výsledky hledání patikulárního dotazu. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace. |
SearchMode |
Definuje hodnoty pro SearchMode. |
SearchOptions |
Možnosti potvrzení žádosti o úplné vyhledávání |
SearchPick |
Hluboce vyberte pole T pomocí platných cest OData kognitivního vyhledávání $select. |
SearchRequestOptions |
Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů |
SearchRequestQueryTypeOptions | |
SearchResult |
Obsahuje dokument nalezený vyhledávacím dotazem a přidruženými metadaty. |
SelectArray |
Pokud |
SelectFields |
Vytvoří sjednocení platných cest OData služby Cognitive Search $select pro T pomocí procházení po objednávce stromu polí v kořenovém adresáři T. |
SemanticErrorMode | |
SemanticErrorReason | |
SemanticSearchResultsType | |
SentimentSkillLanguage | |
SimilarityAlgorithm |
Obsahuje možné případy podobnosti. |
SnowballTokenFilterLanguage |
Definuje hodnoty pro SnowballTokenFilterLanguage. |
SplitSkillLanguage | |
StemmerTokenFilterLanguage |
Definuje hodnoty pro StemmerTokenFilterLanguage. |
StopwordsList |
Definuje hodnoty pro StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Možnosti načítání návrhů na základě vyhledávacího textu |
SuggestResult |
Výsledek obsahující dokument nalezený dotazem návrhu a přidruženými metadaty. |
TextSplitMode | |
TextTranslationSkillLanguage | |
TokenCharacterKind |
Definuje hodnoty pro TokenCharacterKind. |
TokenFilter |
Obsahuje možné případy pro TokenFilter. |
TokenFilterName |
Definuje hodnoty pro TokenFilterName. Známé hodnoty podporované službou
arabic_normalization: Filtr tokenů, který použije arabský normalizátor k normalizaci orthografie. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Možnosti operace nahrání dokumentů |
VectorEncodingFormat |
Definuje hodnoty pro VectorEncodingFormat. Známé hodnoty podporované služboupackedBit: Formát kódování představující bity zabalené do širšího datového typu. |
VectorFilterMode | |
VectorQuery |
Parametry dotazu pro vektorové a hybridní vyhledávací dotazy. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Obsahuje možnosti konfigurace specifické pro algoritmus použitý při indexování nebo dotazování. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric | |
VectorSearchCompression |
Obsahuje možnosti konfigurace specifické pro metodu komprese použitou při indexování nebo dotazování. |
VectorSearchCompressionKind |
Definuje hodnoty pro VectorSearchCompressionKind. Známé hodnoty podporované službou
skalarQuantization: Skalární kvantování, typ metody komprese. V skalárním kvantování se původní hodnoty vektorů komprimují na užší typ diskretizací a představují každou komponentu vektoru pomocí snížené množiny kvantovaných hodnot, čímž se zmenší celková velikost dat. |
VectorSearchCompressionTarget |
Definuje hodnoty pro VectorSearchCompressionTarget. Známé hodnoty podporované službouint8 |
VectorSearchVectorizer |
Obsahuje možnosti konfigurace, jak vektorizovat textové vektorové dotazy. |
VectorSearchVectorizerKind |
Definuje hodnoty pro VectorSearchVectorizerKind. Známé hodnoty podporované službou
azureOpenAI: Generování vkládání pomocí prostředku Azure OpenAI v době dotazu |
VisualFeature |
Výčty
Funkce
create |
Pomocná metoda pro vytvoření synonymMap objektu. Jedná se pouze o metodu NodeJS. |
odata(Template |
Uvozuje výraz filtru odata, aby nedocházelo k chybám s řetězcovými literály. Příklad použití:
Další informace o podporované syntaxi najdete v tématu: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Podrobnosti funkce
createSynonymMapFromFile(string, string)
Pomocná metoda pro vytvoření synonymMap objektu. Jedná se pouze o metodu NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parametry
- name
-
string
Název objektu SynonymMap.
- filePath
-
string
Cesta k souboru, který obsahuje synonyma (s hodnocením novými řádky)
Návraty
Promise<SynonymMap>
Objekt SynonymMap
odata(TemplateStringsArray, unknown[])
Uvozuje výraz filtru odata, aby nedocházelo k chybám s řetězcovými literály. Příklad použití:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Další informace o podporované syntaxi najdete v tématu: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parametry
- strings
-
TemplateStringsArray
Pole řetězců pro výraz
- values
-
unknown[]
Pole hodnot pro výraz
Návraty
string