@azure/search-documents package

Třídy

AzureKeyCredential

Přihlašovací údaje založené na statickém klíči, které podporují aktualizaci hodnoty základního klíče.

GeographyPoint

Představuje geografický bod v globálních souřadnicích.

IndexDocumentsBatch

Třída používaná k provádění dávkových operací s více dokumenty indexu.

SearchClient

Třída, která slouží k provádění operací s indexem vyhledávání, včetně dotazování dokumentů v indexu a přidávání, aktualizace a odebírání.

SearchIndexClient

Třída pro provádění operací pro správu indexů (vytváření, aktualizace, výpis/odstranění) & synonyma.

SearchIndexerClient

Třída, která provádí operace pro správu indexerů (vytváření, aktualizace, výpis/odstranění), zdrojů dat & sad dovedností.

SearchIndexingBufferedSender

Třída používaná k provádění operací uložených ve vyrovnávací paměti vůči indexu vyhledávání, včetně přidávání, aktualizace a odebírání.

Rozhraní

AnalyzeRequest

Určuje některé součásti textu a analýzy, které slouží k rozdělení textu na tokeny.

AnalyzeResult

Výsledek testování analyzátoru na textu

AnalyzedTokenInfo

Informace o tokenu vráceného analyzátorem

AsciiFoldingTokenFilter

Převede abecední, číselné a symbolické znaky Unicode, které nejsou v prvních 127 znaky ASCII (blok "Základní latinka") na jejich ekvivalenty ASCII, pokud takové ekvivalenty existují. Tento filtr tokenu se implementuje pomocí Apache Lucene.

AutocompleteItem

Výsledek požadavků automatického dokončování

AutocompleteRequest

Parametry pro porovnávání přibližných shod a další chování dotazů automatického dokončování

AutocompleteResult

Výsledek dotazu automatického dokončování

AzureActiveDirectoryApplicationCredentials

Přihlašovací údaje registrované aplikace vytvořené pro vaši vyhledávací službu, které slouží k ověřenému přístupu k šifrovacím klíčům uloženým ve službě Azure Key Vault.

AzureOpenAIEmbeddingSkill

Umožňuje vygenerovat vektorové vkládání pro daný textový vstup pomocí prostředku Azure OpenAI.

AzureOpenAIParameters

Obsahuje parametry specifické pro použití služby Azure Open AI pro vektorizaci v době dotazu.

AzureOpenAIVectorizer

Obsahuje parametry specifické pro použití služby Azure Open AI pro vektorizaci v době dotazu.

BM25Similarity

Funkce řazení založená na algoritmu podobnosti BM25 Okapi. BM25 je algoritmus podobný TF-IDF, který zahrnuje normalizaci délky (řízenou parametrem "b") a také sytost termínů (řízená parametrem "k1").

BaseCharFilter

Základní typ pro filtry znaků.

BaseCognitiveServicesAccount

Základní typ pro popis jakéhokoli prostředku služby Azure AI připojeného k sadě dovedností

BaseDataChangeDetectionPolicy

Základní typ zásad detekce změn dat

BaseDataDeletionDetectionPolicy

Základní typ zásad detekce odstranění dat

BaseLexicalAnalyzer

Základní typ pro analyzátory.

BaseLexicalTokenizer

Základní typ pro tokenizátory.

BaseScoringFunction

Základní typ pro funkce, které mohou upravovat skóre dokumentu během řazení.

BaseSearchIndexerDataIdentity

Abstraktní základní typ pro identity dat

BaseSearchIndexerSkill

Základní typ dovedností.

BaseSearchRequestOptions

Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů

BaseTokenFilter

Základní typ pro filtry tokenů.

BaseVectorQuery

Parametry dotazu pro vektorové a hybridní vyhledávací dotazy.

BaseVectorSearchAlgorithmConfiguration

Obsahuje možnosti konfigurace specifické pro algoritmus použitý při indexování nebo dotazování.

BaseVectorSearchCompression

Obsahuje možnosti konfigurace specifické pro metodu komprese použitou při indexování nebo dotazování.

BaseVectorSearchVectorizer

Obsahuje konkrétní podrobnosti pro metodu vektorizace, která se má použít během dotazu.

BinaryQuantizationCompression

Obsahuje možnosti konfigurace specifické pro metodu komprese binárního kvantování používané při indexování a dotazování.

CjkBigramTokenFilter

Tvoří bigramy výrazů CJK, které se generují ze standardního tokenizátoru. Tento filtr tokenu se implementuje pomocí Apache Lucene.

ClassicSimilarity

Starší algoritmus podobnosti, který používá implementaci TF-IDF lucene TFIDFSimilarity. Tato varianta TF-IDF představuje normalizaci délky statického dokumentu a také koordinující faktory, které postihují dokumenty, které pouze částečně odpovídají prohledáným dotazům.

ClassicTokenizer

Tokenizátor založený na gramatikě, který je vhodný pro zpracování většiny dokumentů evropského jazyka. Tento tokenizátor se implementuje pomocí Apache Lucene.

CognitiveServicesAccountKey

Klíč účtu více oblastí prostředku služby Azure AI, který je připojený k sadě dovedností.

CommonGramTokenFilter

Při indexování vytvořte bigramy pro často se vyskytující termíny. Jednotlivé termíny jsou stále indexované, s překryvnými bigramy. Tento filtr tokenu se implementuje pomocí Apache Lucene.

ComplexField

Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole.

ConditionalSkill

Dovednost, která umožňuje scénářům, které vyžadují logickou operaci k určení dat, která se mají přiřadit k výstupu.

CorsOptions

Definuje možnosti pro řízení sdílení prostředků mezi zdroji (CORS) pro index.

CreateOrUpdateIndexOptions

Možnosti operace vytvoření/aktualizace indexu

CreateOrUpdateSkillsetOptions

Možnosti operace vytvoření/aktualizace sady dovedností

CreateOrUpdateSynonymMapOptions

Možnosti pro operaci vytvoření nebo aktualizace synonym mapy

CreateorUpdateDataSourceConnectionOptions

Možnosti operace vytvoření/aktualizace zdroje dat

CreateorUpdateIndexerOptions

Možnosti operace vytvoření/aktualizace indexeru

CustomAnalyzer

Umožňuje převzít kontrolu nad procesem převodu textu na indexovatelné nebo prohledávatelné tokeny. Jedná se o uživatelsky definovanou konfiguraci, která se skládá z jednoho předdefinovaného tokenizátoru a jednoho nebo více filtrů. Tokenizátor zodpovídá za dělení textu na tokeny a filtry pro úpravy tokenů vygenerovaných tokenem.

CustomEntity

Objekt obsahující informace o nalezených shodách a souvisejících metadatech.

CustomEntityAlias

Složitý objekt, který lze použít k určení alternativního pravopisu nebo synonym pro název kořenové entity.

CustomEntityLookupSkill

Dovednost hledá text z vlastního seznamu slov a frází definovaných uživatelem.

DefaultCognitiveServicesAccount

Prázdný objekt, který představuje výchozí prostředek služby Azure AI pro sadu dovedností.

DeleteDataSourceConnectionOptions

Možnosti operace odstranění zdroje dat

DeleteIndexOptions

Možnosti operace odstranění indexu

DeleteIndexerOptions

Možnosti operace odstranění indexeru

DeleteSkillsetOptions

Možnosti pro odstranění operaionu sady dovedností

DeleteSynonymMapOptions

Možnosti operace odstranění mapy synonym

DictionaryDecompounderTokenFilter

Rozloží složená slova nalezená v mnoha německých jazycích. Tento filtr tokenu se implementuje pomocí Apache Lucene.

DistanceScoringFunction

Definuje funkci, která zvyšuje skóre na základě vzdálenosti od zeměpisného umístění.

DistanceScoringParameters

Poskytuje hodnoty parametrů funkci bodování vzdálenosti.

DocumentExtractionSkill

Dovednost, která extrahuje obsah ze souboru v kanálu rozšiřování.

EdgeNGramTokenFilter

Vygeneruje n-gramy dané velikosti počínaje přední nebo zadní částí vstupního tokenu. Tento filtr tokenu se implementuje pomocí Apache Lucene.

EdgeNGramTokenizer

Tokenizuje vstup z okraje na n-gramy dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene.

ElisionTokenFilter

Odebere elisions. Například "l'avion" (letadlo) bude převedeno na "avion" (letadlo). Tento filtr tokenu se implementuje pomocí Apache Lucene.

EntityLinkingSkill

Pomocí rozhraní API pro analýzu textu extrahuje propojené entity z textu.

EntityRecognitionSkill

Rozpoznávání entit analýzy textu

EntityRecognitionSkillV3

Pomocí rozhraní API pro analýzu textu extrahuje entity různých typů z textu.

ExhaustiveKnnParameters

Obsahuje parametry specifické pro vyčerpávající algoritmus KNN.

ExtractiveQueryAnswer

Extrahuje kandidáty odpovědí z obsahu dokumentů vrácených v reakci na dotaz vyjádřený jako otázka v přirozeném jazyce.

ExtractiveQueryCaption

Extrahuje titulky z odpovídajících dokumentů, které obsahují pasáže relevantní pro vyhledávací dotaz.

FacetResult

Jeden kbelík výsledku fasetového dotazu. Zaznamenává počet dokumentů s hodnotou pole spadající do konkrétní oblasti nebo s konkrétní hodnotou nebo intervalem.

FieldMapping

Definuje mapování mezi polem ve zdroji dat a cílovým polem v indexu.

FieldMappingFunction

Představuje funkci, která před indexováním transformuje hodnotu ze zdroje dat.

FreshnessScoringFunction

Definuje funkci, která zvyšuje skóre na základě hodnoty pole data a času.

FreshnessScoringParameters

Poskytuje hodnoty parametrů pro funkci bodování aktuálnosti.

GetDocumentOptions

Možnosti pro načtení jednoho dokumentu

HighWaterMarkChangeDetectionPolicy

Definuje zásadu detekce změn dat, která zachycuje změny na základě hodnoty sloupce horní značky.

HnswParameters

Obsahuje parametry specifické pro algoritmus hnsw.

ImageAnalysisSkill

Dovednost, která analyzuje soubory obrázků. Extrahuje bohatou sadu vizuálních funkcí na základě obsahu obrázku.

IndexDocumentsClient

Klient indexování dokumentů

IndexDocumentsOptions

Možnosti pro úpravu dávkové operace indexu

IndexDocumentsResult

Odpověď obsahující stav operací pro všechny dokumenty v požadavku indexování

IndexerExecutionResult

Představuje výsledek spuštění jednotlivých indexerů.

IndexingParameters

Představuje parametry pro spuštění indexeru.

IndexingParametersConfiguration

Slovník vlastností konfigurace specifické pro indexer. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu.

IndexingResult

Stav operace indexování pro jeden dokument

IndexingSchedule

Představuje plán provádění indexeru.

InputFieldMappingEntry

Mapování vstupních polí pro dovednost

KeepTokenFilter

Filtr tokenů, který uchovává pouze tokeny s textem obsaženým v zadaném seznamu slov. Tento filtr tokenu se implementuje pomocí Apache Lucene.

KeyPhraseExtractionSkill

Dovednost, která používá analýzu textu pro extrakci klíčových frází.

KeywordMarkerTokenFilter

Označí termíny jako klíčová slova. Tento filtr tokenu se implementuje pomocí Apache Lucene.

KeywordTokenizer

Vygeneruje celý vstup jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene.

LanguageDetectionSkill

Dovednost, která rozpozná jazyk vstupního textu a hlásí kód jednoho jazyka pro každý dokument odeslaný na žádost. Kód jazyka je spárovaný se skóre označujícím spolehlivost analýzy.

LengthTokenFilter

Odebere slova, která jsou příliš dlouhá nebo příliš krátká. Tento filtr tokenu se implementuje pomocí Apache Lucene.

LimitTokenFilter

Omezuje počet tokenů při indexování. Tento filtr tokenu se implementuje pomocí Apache Lucene.

ListSearchResultsPageSettings

Argumenty pro načtení další stránky výsledků hledání

LuceneStandardAnalyzer

Standardní analyzátor Apache Lucene; Skládá se ze standardního tokenizátoru, filtru malými písmeny a filtru zastavení.

LuceneStandardTokenizer

Zalomí text podle pravidel segmentace textu unicode. Tento tokenizátor se implementuje pomocí Apache Lucene.

MagnitudeScoringFunction

Definuje funkci, která zvyšuje skóre na základě velikosti číselného pole.

MagnitudeScoringParameters

Poskytuje hodnoty parametrů pro funkci bodování velikosti.

MappingCharFilter

Filtr znaků, který používá mapování definovaná pomocí možnosti mapování. Porovnávání je greedy (nejdelší porovnávání vzorů v daném bodě vyhrává). Nahrazení může být prázdný řetězec. Tento filtr znaků se implementuje pomocí Apache Lucene.

MergeSkill

Dovednost pro sloučení dvou nebo více řetězců do jednoho sjednoceného řetězce s volitelným uživatelem definovaným oddělovačem, který odděluje jednotlivé součásti.

MicrosoftLanguageStemmingTokenizer

Rozdělí text pomocí pravidel specifických pro jazyk a zmenšuje slova na jejich základní formuláře.

MicrosoftLanguageTokenizer

Rozdělí text pomocí pravidel specifických pro jazyk.

NGramTokenFilter

Vygeneruje n-gramy dané velikosti. Tento filtr tokenu se implementuje pomocí Apache Lucene.

NGramTokenizer

Tokenizuje vstup na n-gramy dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene.

OcrSkill

Dovednost, která extrahuje text ze souborů obrázků.

OutputFieldMappingEntry

Mapování výstupních polí pro dovednost

PIIDetectionSkill

Pomocí rozhraní API pro analýzu textu extrahuje osobní údaje ze vstupního textu a poskytne vám možnost ho maskovat.

PathHierarchyTokenizer

Tokenizátor pro hierarchie podobné cestě. Tento tokenizátor se implementuje pomocí Apache Lucene.

PatternAnalyzer

Pružně odděluje text do termínů pomocí vzoru regulárního výrazu. Tento analyzátor se implementuje pomocí Apache Lucene.

PatternCaptureTokenFilter

Používá regulární výrazy Java k vygenerování více tokenů – jeden pro každou skupinu zachycení v jednom nebo více vzorech. Tento filtr tokenu se implementuje pomocí Apache Lucene.

PatternReplaceCharFilter

Filtr znaků, který nahradí znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků k zachování a nahrazení vzoru pro identifikaci znaků, které se mají nahradit. Například při zadání textu "aa bb aa bb", vzoru "(aa)\s+(bb)" a nahrazení "$1#$2" bude výsledkem "aa#bb aa#bb". Tento filtr znaků se implementuje pomocí Apache Lucene.

PatternReplaceTokenFilter

Filtr znaků, který nahradí znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků k zachování a nahrazení vzoru pro identifikaci znaků, které se mají nahradit. Například při zadání textu "aa bb aa bb", vzoru "(aa)\s+(bb)" a nahrazení "$1#$2" bude výsledkem "aa#bb aa#bb". Tento filtr tokenu se implementuje pomocí Apache Lucene.

PatternTokenizer

Tokenizátor, který používá porovnávání vzorů regulárních výrazů k vytvoření jedinečných tokenů. Tento tokenizátor se implementuje pomocí Apache Lucene.

PhoneticTokenFilter

Vytváření tokenů pro fonetické shody Tento filtr tokenu se implementuje pomocí Apache Lucene.

QueryAnswerResult

Odpověď je textový úsek extrahovaný z obsahu nejrelevavantnějších dokumentů, které odpovídají dotazu. Odpovědi se extrahují z nejlepších výsledků hledání. Kandidáti na odpovědi jsou hodnoceni a vyberou se hlavní odpovědi.

QueryCaptionResult

Titulky jsou nejvýraznější pasáže z dokumentu relativně do vyhledávacího dotazu. Často se používají jako souhrn dokumentů. Titulky jsou vráceny pouze pro dotazy typu semantic.

ResourceCounter

Představuje využití a kvótu prostředku.

ScalarQuantizationCompression

Obsahuje možnosti konfigurace specifické pro metodu komprese skalární quantizace, která se používá při indexování a dotazování.

ScalarQuantizationParameters

Obsahuje parametry specifické pro skalární kvantování.

ScoringProfile

Definuje parametry indexu vyhledávání, které ovlivňují bodování ve vyhledávacích dotazech.

SearchClientOptions

Možnosti klienta používané ke konfiguraci požadavků rozhraní API kognitivního vyhledávání

SearchDocumentsPageResult

Odpověď obsahující výsledky vyhledávací stránky z indexu

SearchDocumentsResult

Odpověď obsahující výsledky hledání z indexu

SearchDocumentsResultBase

Odpověď obsahující výsledky hledání z indexu

SearchIndex

Představuje definici indexu vyhledávání, která popisuje pole a chování vyhledávání indexu.

SearchIndexClientOptions

Možnosti klienta používané ke konfiguraci požadavků rozhraní API kognitivního vyhledávání

SearchIndexStatistics

Statistika pro daný index Statistiky se shromažďují pravidelně a není zaručeno, že budou vždy up-to-date.

SearchIndexer

Představuje indexer.

SearchIndexerClientOptions

Možnosti klienta používané ke konfiguraci požadavků rozhraní API kognitivního vyhledávání

SearchIndexerDataContainer

Představuje informace o entitě (například tabulce Azure SQL nebo kolekci CosmosDB), která se bude indexovat.

SearchIndexerDataNoneIdentity

Vymaže vlastnost identity zdroje dat.

SearchIndexerDataSourceConnection

Představuje definici zdroje dat, kterou lze použít ke konfiguraci indexeru.

SearchIndexerDataUserAssignedIdentity

Určuje identitu zdroje dat, která se má použít.

SearchIndexerError

Představuje chybu indexování na úrovni položky nebo dokumentu.

SearchIndexerIndexProjection

Definicedalšíchch

SearchIndexerIndexProjectionParameters

Slovník vlastností konfigurace specifické pro projekce indexu. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu.

SearchIndexerIndexProjectionSelector

Popis dat uložených v určeném indexu vyhledávání

SearchIndexerKnowledgeStore

Definicedalšíchch dat pro azure blob, tabulek nebo souborů

SearchIndexerKnowledgeStoreBlobProjectionSelector

Abstraktní třída pro sdílení vlastností mezi betonovými selektory

SearchIndexerKnowledgeStoreFileProjectionSelector

Definice projekce pro data, která se mají ukládat ve službě Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definice projekce pro data, která se mají ukládat v objektu blob Azure.

SearchIndexerKnowledgeStoreParameters

Slovník vlastností konfigurace specifické pro úložiště znalostí. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu.

SearchIndexerKnowledgeStoreProjection

Objekt kontejneru pro různé selektory projekce

SearchIndexerKnowledgeStoreProjectionSelector

Abstraktní třída pro sdílení vlastností mezi betonovými selektory

SearchIndexerKnowledgeStoreTableProjectionSelector

Popis dat, která se mají ukládat v tabulkách Azure

SearchIndexerLimits
SearchIndexerSkillset

Seznam dovedností.

SearchIndexerStatus

Představuje aktuální stav a historii spuštění indexeru.

SearchIndexerWarning

Představuje upozornění na úrovni položky.

SearchIndexingBufferedSenderOptions

Možnosti pro SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Šifrovací klíč spravovaný zákazníkem ve službě Azure Key Vault. Klíče, které vytvoříte a spravujete, se dají použít k šifrování nebo dešifrování neaktivních uložených dat ve službě Azure Cognitive Search, jako jsou indexy a mapy synonym.

SearchServiceStatistics

Odpověď z žádosti o získání statistiky služby V případě úspěchu zahrnuje čítače a limity na úrovni služby.

SearchSuggester

Definuje, jak se má rozhraní API navrhnout na skupinu polí v indexu.

SemanticConfiguration

Definuje konkrétní konfiguraci, která se má použít v kontextu sémantických funkcí.

SemanticField

Pole, které se používá jako součást sémantické konfigurace.

SemanticPrioritizedFields

Popisuje pole nadpisu, obsahu a klíčových slov, která se mají použít pro sémantické řazení, titulky, zvýraznění a odpovědi.

SemanticSearch

Definuje parametry indexu vyhledávání, které ovlivňují sémantické schopnosti.

SemanticSearchOptions

Definuje možnosti pro sémantické vyhledávací dotazy.

SentimentSkill

Analýza textu s pozitivním negativním míněním, vyhodnocená jako hodnota s plovoucí desetinou čárkou v rozsahu od nuly do 1.

SentimentSkillV3

Pomocí rozhraní API pro analýzu textu vyhodnocuje nestrukturovaný text a pro každý záznam poskytuje popisky mínění (například "negativní", "neutrální" a "pozitivní") na základě nejvyššího skóre spolehlivosti zjištěného službou na úrovni věty a dokumentu.

ServiceCounters

Představuje čítače a kvóty prostředků na úrovni služby.

ServiceLimits

Představuje různé limity na úrovni služby.

ShaperSkill

Dovednost pro přetváření výstupů. Vytvoří komplexní typ pro podporu složených polí (označovaných také jako pole s více částmi).

ShingleTokenFilter

Vytvoří kombinace tokenů jako jeden token. Tento filtr tokenu se implementuje pomocí Apache Lucene.

Similarity

Základní typ pro algoritmy podobnosti Algoritmy podobnosti se používají k výpočtu skóre, které sváže dotazy s dokumenty. Čím vyšší je skóre, tím relevantnější dokument je pro daný dotaz. Tato skóre slouží k řazení výsledků hledání.

SimpleField

Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole.

SnowballTokenFilter

Filtr, který vychází ze slov pomocí vygenerovaného smyšlí snowballu. Tento filtr tokenu se implementuje pomocí Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Definuje zásadu detekce odstranění dat, která implementuje strategii obnovitelného odstranění. Určuje, zda má být položka odstraněna na základě hodnoty určeného sloupce obnovitelného odstranění.

SplitSkill

Dovednost rozdělit řetězec na bloky textu.

SqlIntegratedChangeTrackingPolicy

Definuje zásadu detekce změn dat, která zachycuje změny pomocí integrované funkce Change Tracking ve službě Azure SQL Database.

StemmerOverrideTokenFilter

Poskytuje možnost přepsat další stemmingové filtry pomocí vlastních slovníkových stemmingů. Všechny termíny založené na slovníku budou označeny jako klíčová slova, aby se nezvolily pomocí stemmerů v řetězci. Musí být umístěny před všemi filtry pro vytváření. Tento filtr tokenu se implementuje pomocí Apache Lucene.

StemmerTokenFilter

Filtr pro konkrétní jazyk. Tento filtr tokenu se implementuje pomocí Apache Lucene.

StopAnalyzer

Rozdělí text bez písmen; Použije filtry tokenů s malými písmeny a stopword. Tento analyzátor se implementuje pomocí Apache Lucene.

StopwordsTokenFilter

Odebere slova ze streamu tokenu. Tento filtr tokenu se implementuje pomocí Apache Lucene.

SuggestDocumentsResult

Odpověď obsahující výsledky návrhového dotazu z indexu

SuggestRequest

Parametry pro filtrování, řazení, přibližné porovnávání a další návrhy chování dotazů.

SynonymMap

Představuje definici mapy synonym.

SynonymTokenFilter

Porovná jednoslovné nebo víceslovné synonyma v datovém proudu tokenů. Tento filtr tokenu se implementuje pomocí Apache Lucene.

TagScoringFunction

Definuje funkci, která zvyšuje skóre dokumentů s řetězcovými hodnotami odpovídajícími danému seznamu značek.

TagScoringParameters

Poskytuje hodnoty parametrů funkci bodování značek.

TextTranslationSkill

Dovednost překládat text z jednoho jazyka do druhého.

TextWeights

Definuje váhy u polí indexu, u kterých by se mělo zvýšit bodování ve vyhledávacích dotazech.

TruncateTokenFilter

Zkracuje termíny na určitou délku. Tento filtr tokenu se implementuje pomocí Apache Lucene.

UaxUrlEmailTokenizer

Tokenizuje adresy URL a e-maily jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene.

UniqueTokenFilter

Vyfiltruje tokeny se stejným textem jako předchozí token. Tento filtr tokenu se implementuje pomocí Apache Lucene.

VectorSearch

Obsahuje možnosti konfigurace související s vektorové vyhledávání.

VectorSearchOptions

Definuje možnosti pro dotazy vektorové vyhledávání.

VectorSearchProfile

Definuje kombinaci konfigurací, které se mají použít s vektorovým vyhledáváním.

VectorizableTextQuery

Parametry dotazu, které se mají použít pro vektorové vyhledávání, pokud je k dispozici textová hodnota, která musí být vektorizována.

VectorizedQuery

Parametry dotazu, které se mají použít pro vektorové vyhledávání při zadání nezpracované hodnoty vektoru.

WebApiParameters

Určuje vlastnosti pro připojení k vektorizátoru definovanému uživatelem.

WebApiSkill

Dovednost, která může volat koncový bod webového rozhraní API, což vám umožní rozšířit sadu dovedností tím, že zavolá váš vlastní kód.

WebApiVectorizer

Určuje vektorizátor definovaný uživatelem pro generování vektorového vkládání řetězce dotazu. Integrace externí vektorizátoru se dosahuje pomocí vlastního rozhraní webového rozhraní API sady dovedností.

WordDelimiterTokenFilter

Rozdělí slova do dílčích slov a provede volitelné transformace skupin podwordů. Tento filtr tokenu se implementuje pomocí Apache Lucene.

Aliasy typu

AnalyzeTextOptions

Možnosti pro analýzu textové operace

AutocompleteMode

Definuje hodnoty pro AutocompleteMode.

AutocompleteOptions

Možnosti pro načtení textu dokončení pro částečný hledaný text

AzureOpenAIModelName

Definuje hodnoty pro AzureOpenAIModelName.
PoleAzureOpenAIModelName lze použít zaměnitelně s AzureOpenAIModelName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

vkládání textu ada-002
vkládání textu – 3 velké
vkládání textu do 3 malých

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Obsahuje možné případy pro CharFilter.

CharFilterName

Definuje hodnoty pro CharFilterName.
<xref:KnownCharFilterName> lze zaměnitelně s CharFilterName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

html_strip: Filtr znaků, který se pokusí odstranit konstruktory HTML. Viz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Definuje hodnoty pro CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Obsahuje možné případy pro CognitiveServicesAccount.

ComplexDataType

Definuje hodnoty pro ComplexDataType. Mezi možné hodnoty patří: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

CountDocumentsOptions

Možnosti pro provádění operace počítání indexu

CreateDataSourceConnectionOptions

Možnosti pro operaci vytvoření zdroje dat

CreateIndexOptions

Možnosti pro vytvoření operace indexu

CreateIndexerOptions

Možnosti pro vytvoření operace indexeru

CreateSkillsetOptions

Možnosti pro vytvoření operace sady dovedností

CreateSynonymMapOptions

Možnosti pro operaci vytvoření mapy synonym

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Obsahuje možné případy pro DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Obsahuje možné případy DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Možnosti operace odstranění dokumentů

EdgeNGramTokenFilterSide

Definuje hodnoty pro EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Obsahuje možnosti konfigurace specifické pro vyčerpávající algoritmus KNN použitý při dotazování, který provede vyhledávání hrubou silou v celém indexu vektoru.

ExtractDocumentKey
GetDataSourceConnectionOptions

Možnosti pro získání operace zdroje dat

GetIndexOptions

Možnosti pro získání operace indexu

GetIndexStatisticsOptions

Možnosti pro získání operace statistiky indexu

GetIndexerOptions

Možnosti pro získání operace indexeru

GetIndexerStatusOptions

Možnosti pro získání operace stavu indexeru

GetServiceStatisticsOptions

Možnosti pro získání operace statistiky služby

GetSkillSetOptions

Možnosti pro získání operace sady dovedností

GetSynonymMapsOptions

Možnosti pro operaci get synonymmaps

HnswAlgorithmConfiguration

Obsahuje možnosti konfigurace specifické pro přibližný algoritmus nejbližších sousedů používaný během indexování.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Definuje hodnoty pro IndexActionType.

IndexDocumentsAction

Představuje akci indexu, která pracuje s dokumentem.

IndexIterator

Iterátor pro výpis indexů, které existují ve vyhledávací službě. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace.

IndexNameIterator

Iterátor pro výpis indexů, které existují ve vyhledávací službě. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace.

IndexProjectionMode

Definuje hodnoty pro IndexProjectionMode.
PoleIndexProjectionMode lze použít zaměnitelně s IndexProjectionMode, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

skipIndexingParentDocuments: Zdrojový dokument se přeskočí z zápisu do cílového indexu indexeru.
includeIndexingParentDocuments: Zdrojový dokument se zapíše do cílového indexu indexeru. Toto je výchozí vzor.

IndexerExecutionEnvironment
IndexerExecutionStatus

Definuje hodnoty pro IndexerExecutionStatus.

IndexerStatus

Definuje hodnoty pro IndexerStatus.

KeyPhraseExtractionSkillLanguage
LexicalAnalyzer

Obsahuje možné případy analyzátoru.

LexicalAnalyzerName

Definuje hodnoty pro LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> lze zaměnitelně s LexicalAnalyzerName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

ar.microsoft: Microsoft analyzer for Arabic.
ar.lucene: Lucene analyzer for Arabic.
hy.lucene: Lucene analyzer for Armén.
bn.microsoft: Microsoft Analyzer for Bangla.
eu.lucene: Analyzátor Lucene pro baskičtina.
bg.microsoft: Microsoft Analyzer for Bulharština.
bg.lucene: Analyzátor Lucene pro bulharštinu.
ca.microsoft: Microsoft Analyzer pro katalánštinu.
ca.lucene: Analyzátor Lucene pro katalánštinu.
zh-Hans.microsoft: Microsoft Analyzer pro čínštinu (zjednodušená).
zh-Hans.lucene: Analyzátor Lucene pro čínštinu (zjednodušená).
zh-Hant.microsoft: Microsoft Analyzer pro čínštinu (tradiční).
zh-Hant.lucene: Analyzátor Lucene pro čínštinu (tradiční).
hr.microsoft: Microsoft Analyzer pro chorvatštinu.
cs.microsoft: Microsoft analyzer pro češtinu.
cs.lucene: Lucene analyzer pro Češtinu.
da.microsoft: Microsoft Analyzer pro dánštinu.
da.lucene: Lucene analyzer pro dánštinu.
nl.microsoft: Microsoft Analyzer pro holandštinu.
nl.lucene: Analyzátor Lucene pro holandštinu.
en.microsoft: Microsoft Analyzer pro angličtinu.
en.lucene: Lucene analyzer pro angličtinu.
et.microsoft: Microsoft analyzer for Estonian.
fi.microsoft: Microsoft Analyzer pro finštinu.
fi.lucene: Lucene analyzer pro finštinu.
fr.microsoft: Microsoft Analyzer pro francouzštinu.
fr.lucene: Lucene analyzer pro francouzštinu.
gl.lucene: Lucene analyzer for Galician.
de.microsoft: Microsoft Analyzer pro němčinu.
de.lucene: Lucene analyzer pro němčinu.
el.microsoft: Microsoft Analyzer pro řečtinu.
el.lucene: Lucene analyzer for Greek.
gu.microsoft: Microsoft Analyzer for Gujarati.
hebrejštinu: Microsoft Analyzer for Hebrejština.
hi.microsoft: Microsoft Analyzer pro hindštinu.
hi.lucene: Analyzátor Lucene pro hindštinu.
hu.microsoft: Microsoft Analyzer pro maďarštinu.
hu.lucene: Lucene analyzer pro maďarštinu.
is.microsoft: Microsoft Analyzer pro Islandštinu.
id.microsoft: Microsoft analyzer for Indonéština (Bahasa).
id.lucene: Analyzátor Lucene pro indonéštinu.
ga.lucene: Lucene analyzer for Irish.
it.microsoft: Microsoft Analyzer pro italštinu.
it.lucene: Lucene analyzer pro italštinu.
ja.microsoft: Microsoft Analyzer pro japonštinu.
ja.lucene: Analyzátor Lucene pro japonštinu.
kn.microsoft: Microsoft Analyzer for Kannada.
ko.microsoft: Microsoft Analyzer pro korejštinu.
ko.lucene: Analyzátor Lucene pro korejštinu.
lv.microsoft: Microsoft analyzer pro lotyštinu.
lv.lucene: Lucene analyzer pro lotyštinu.
lt.microsoft: Microsoft Analyzer pro litevštinu.
ml.microsoft: Microsoft analyzer pro Malayalam.
ms.microsoft: Microsoft Analyzer for Malay (latinka).
mr.microsoft: Microsoft Analyzer for Marathi.
nb.microsoft: Microsoft analyzer pro norštinu (Bokmål).
no.lucene: Analyzátor Lucene pro norštinu.
fa.lucene: Analyzátor Lucene pro Perštinu.
pl.microsoft: Microsoft Analyzer pro polštinu.
pl.lucene: Analyzátor Lucene pro polštinu.
pt-BR.microsoft: Microsoft Analyzer pro portugalštinu (Brazílie).
pt-BR.lucene: Analyzátor Lucene pro portugalštinu (Brazílie).
pt-PT.microsoft: Microsoft Analyzer pro portugalštinu (Portugalsko).
pt-PT.lucene: Analyzátor Lucene pro portugalštinu (Portugalsko).
pa.microsoft: Microsoft Analyzer for Punjabi.
ro.microsoft: Microsoft Analyzer pro rumunštinu.
ro.lucene: Lucene analyzer pro rumunštinu.
ru.microsoft: Microsoft Analyzer pro ruštinu.
ru.lucene: Lucene analyzer pro ruštinu.
sr-cyrillic.microsoft: Microsoft Analyzer pro srbštinu (cyrilice).
sr-latin.microsoft: Microsoft analyzer pro srbštinu (latinka).
sk.microsoft: Microsoft Analyzer pro slovenštinu.
sl.microsoft: Microsoft Analyzer pro slovinštinu.
es.microsoft: Microsoft Analyzer pro španělštinu.
es.lucene: Lucene analyzer pro španělštinu.
sv.microsoft: Microsoft Analyzer pro švédštinu.
sv.lucene: Lucene analyzer pro švédštinu.
ta.microsoft: Microsoft Analyzer pro Tamil.
te.microsoft: Microsoft Analyzer pro Telugu.
th.microsoft: Microsoft Analyzer for Thai.
th.lucene: Lucene analyzer for Thai.
tr.microsoft: Microsoft Analyzer pro turečtinu.
tr.lucene: Analyzátor Lucene pro turečtinu.
uk.microsoft: Microsoft Analyzer pro ukrajinštinu.
your.microsoft: Microsoft Analyzer for Urdu.
vi.microsoft: Microsoft Analyzer pro vietnamštinu.
standard.lucene: Standardní analyzátor Lucene.
standardasciifolding.lucene: Standard ASCII Folding Lucene analyzer. Viz https://video2.skills-academy.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
klíčové slovo: Považuje celý obsah pole za jediný token. To je užitečné pro data, jako jsou PSČ, ID a některé názvy produktů. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
vzor: Pružně odděluje text do termínů pomocí vzoru regulárního výrazu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
jednoduché: Rozdělí text bez písmen a převede je na malá písmena. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
zastavení: Rozdělí text bez písmen; Použije filtry tokenů s malými písmeny a stopword. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
prázdných znaků: Analyzátor, který používá tokenizátor prázdných znaků. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Obsahuje možné případy tokenizátoru.

LexicalTokenizerName

Definuje hodnoty pro LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> lze použít zaměnitelně s LexicalTokenizerName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

klasické: tokenizátor založený na gramatikě, který je vhodný pro zpracování většiny dokumentů evropského jazyka. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: Tokenizuje vstup od okraje do n gramů dané velikosti. Viz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: Vygeneruje celý vstup jako jeden token. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
písmeno: Rozdělí text bez písmen. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
malá písmena: Rozdělí text bez písmen a převede je na malá písmena. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: Rozdělí text pomocí pravidel specifických pro jazyk.
microsoft_language_stemming_tokenizer: Rozdělí text pomocí pravidel specifických pro jazyk a omezí slova na jejich základní formuláře.
nGram: Tokenizuje vstup na n-gramy dané velikosti. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizátor pro hierarchie podobné cestě. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
vzor: Tokenizer, který používá porovnávání vzorů regulárních výrazů k vytváření jedinečných tokenů. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Standardní analyzátor Lucene; Skládá se ze standardního tokenizátoru, filtru malými písmeny a filtru zastavení. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokenizuje adresy URL a e-maily jako jeden token. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
prázdných znaků: Rozdělí text na prázdné znaky. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Možnosti operace zdrojů dat seznamu

ListIndexersOptions

Možnosti operace indexerů seznamu

ListIndexesOptions

Možnosti operace indexů seznamu

ListSkillsetsOptions

Možnosti operace sad dovedností seznamu

ListSynonymMapsOptions

Možnosti operace synonymMaps seznamu

MergeDocumentsOptions

Možnosti operace sloučení dokumentů

MergeOrUploadDocumentsOptions

Možnosti operace sloučení nebo nahrání dokumentů

MicrosoftStemmingTokenizerLanguage

Definuje hodnoty pro MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Definuje hodnoty pro MicrosoftTokenizerLanguage.

NarrowedModel

Zužuje typ modelu tak, aby zahrnoval pouze vybraná pole.

OcrLineEnding

Definuje hodnoty pro OcrLineEnding.
PoleOcrLineEnding lze použít zaměnitelně s OcrLineEnding, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

mezery: Řádky jsou oddělené jedním znakem mezery.
začátek řádku: Čáry jsou odděleny znakem návratu na začátek řádku ("\r').
lineFeed: Řádky jsou oddělené jedním znakem odřádkování ('\n').
carriageReturnLineFeed: Čáry jsou odděleny znakem návratu na začátek řádku a znakem odřádkování ("\r\n').

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Definuje hodnoty pro fonetickýEncoder.

QueryAnswer

Hodnota, která určuje, jestli se odpovědi mají vrátit jako součást odpovědi hledání. Tento parametr je platný pouze v případě, že je typ dotazu "sémantický". Pokud je nastavená hodnota extractive, dotaz vrátí odpovědi extrahované z klíčových pasáží v nejřadivějších dokumentech.

QueryCaption

Hodnota, která určuje, zda mají být titulky vráceny jako součást odpovědi hledání. Tento parametr je platný pouze v případě, že je typ dotazu "sémantický". Pokud je tato možnost nastavená, dotaz vrátí titulky extrahované z klíčových pasáží v nejřadivějších dokumentech. Pokud jsou titulky extrahované, zvýraznění je ve výchozím nastavení povolené. Výchozí hodnota je žádná.

QueryType

Definuje hodnoty pro QueryType.

RegexFlags
ResetIndexerOptions

Možnosti operace resetování indexeru

RunIndexerOptions

Možnosti spuštění operace indexeru

ScoringFunction

Obsahuje možné případy pro ScoringFunction.

ScoringFunctionAggregation

Definuje hodnoty pro ScoringFunctionAggregation.

ScoringFunctionInterpolation

Definuje hodnoty pro ScoringFunctionInterpolation.

ScoringStatistics

Definuje hodnoty pro bodováníStatistics.

SearchField

Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole.

SearchFieldArray

Pokud TModel je netypový objekt, pole beztypového řetězce V opačném případě pole s lomítkem oddělených poli TModel.

SearchFieldDataType

Definuje hodnoty pro SearchFieldDataType.

Známé hodnoty podporované službou:

Edm.String: Označuje, že pole obsahuje řetězec.

Edm.Int32: Označuje, že pole obsahuje 32bitové celé číslo se znaménkem.

Edm.Int64: Označuje, že pole obsahuje 64bitové celé číslo se znaménkem.

Edm.Double: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s dvojitou přesností IEEE.

Edm.Boolean: Označuje, že pole obsahuje logickou hodnotu (true nebo false).

Edm.DateTimeOffset: Označuje, že pole obsahuje hodnotu data a času, včetně informací o časovém pásmu.

Edm.GeographyPoint: Označuje, že pole obsahuje geografické umístění z hlediska zeměpisné délky a zeměpisné šířky.

Edm.ComplexType: Označuje, že pole obsahuje jeden nebo více složitých objektů, které zase mají dílčí pole jiných typů.

Edm.Single: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s jednou přesností. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Single).

Edm.Half: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s poloviční přesností. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Half).

Edm.Int16: Označuje, že pole obsahuje 16bitové celé číslo se znaménkem. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Int16).

Edm.SByte: Označuje, že pole obsahuje 8bitové celé číslo se znaménkem. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.SByte).

Edm.Byte: Označuje, že pole obsahuje 8bitové celé číslo bez znaménka. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Byte).

SearchIndexerDataIdentity

Obsahuje možné případy pro SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Obsahuje možné případy dovednosti.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Iterátor pro výsledky hledání patikulárního dotazu. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace.

SearchMode

Definuje hodnoty pro SearchMode.

SearchOptions

Možnosti potvrzení žádosti o úplné vyhledávání

SearchPick

Hluboce vyberte pole T pomocí platných cest OData kognitivního vyhledávání $select.

SearchRequestOptions

Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů

SearchRequestQueryTypeOptions
SearchResult

Obsahuje dokument nalezený vyhledávacím dotazem a přidruženými metadaty.

SelectArray

Pokud TFields není nikdy, nezatypované pole řetězců Jinak se zužuje typ Fields[], který se použije jinde v náročném typu.

SelectFields

Vytvoří sjednocení platných cest OData služby Cognitive Search $select pro T pomocí procházení po objednávce stromu polí v kořenovém adresáři T.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

Obsahuje možné případy podobnosti.

SnowballTokenFilterLanguage

Definuje hodnoty pro SnowballTokenFilterLanguage.

SplitSkillLanguage
StemmerTokenFilterLanguage

Definuje hodnoty pro StemmerTokenFilterLanguage.

StopwordsList

Definuje hodnoty pro StopwordsList.

SuggestNarrowedModel
SuggestOptions

Možnosti načítání návrhů na základě vyhledávacího textu

SuggestResult

Výsledek obsahující dokument nalezený dotazem návrhu a přidruženými metadaty.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Definuje hodnoty pro TokenCharacterKind.

TokenFilter

Obsahuje možné případy pro TokenFilter.

TokenFilterName

Definuje hodnoty pro TokenFilterName.
<xref:KnownTokenFilterName> lze zaměnitelně s TokenFilterName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

arabic_normalization: Filtr tokenů, který použije arabský normalizátor k normalizaci orthografie. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrof: Odstraní všechny znaky za apostrofem (včetně samotného apostrofu). Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: Převede abecední, číselné a symbolické znaky Unicode, které nejsou v prvních 127 znaky ASCII (blok "Základní latinka") na jejich ekvivalenty ASCII, pokud takové ekvivalenty existují. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: Forms bigrams of CJK terms that are generated from the standard tokenizer. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: Normalizuje rozdíly šířky CJK. Přeloží varianty ASCII na ekvivalentní základní latinku a varianty Katakana s poloviční šířkou do ekvivalentní Kana. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
klasických: Odebere anglické přivlastňovací a tečky ze zkratek. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: Vytvořte bigramy pro často se vyskytující termíny při indexování. Jednotlivé termíny jsou stále indexované, s překryvnými bigramy. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: Generuje n-gramy dané velikosti počínaje přední nebo zadní částí vstupního tokenu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: Odebere elize. Například "l'avion" (letadlo) bude převedeno na "avion" (letadlo). Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Normalizuje německé znaky podle heuristiky německého snowball algoritmu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: Normalizuje text v hindštině, aby se odebraly některé rozdíly v pravopisných variantách. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: Normalizuje reprezentaci textu unicode v indických jazycích. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: Generuje každý příchozí token dvakrát, jednou jako klíčové slovo a jednou jako jiné než klíčové slovo. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: Vysoce výkonný filtr kstem pro angličtinu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
délka: Odebere slova, která jsou příliš dlouhá nebo příliš krátká. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limit: Omezuje počet tokenů při indexování. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
malá písmena: Normalizuje text tokenu na malá písmena. Viz https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: Generuje n-gramy dané velikosti. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: Použije normalizaci pro Perštinu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonetický: Vytvořte tokeny pro fonetické shody. Viz https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: Používá algoritmus vytváření porterů k transformaci datového proudu tokenu. Viz http://tartarus.org/~martin/PorterStemmer
obrácení: Obrátí řetězec tokenu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: Normalizuje použití zaměnitelných severských znaků. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Složené severské znaky åÅäæÄÆ->a öÖøØ->o. Také diskriminuje použití dvojitých samohlásek aa, ae, ao, oe a oo, ponechání jen první. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle: Vytvoří kombinace tokenů jako jeden token. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
sněhová koule: Filtr, který vychází ze slov pomocí snowballu generovaného stemmeru. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: Normalizuje reprezentaci textu Sorani v kódování Unicode. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmeru: Filtr specifického pro jazyk. Viz https://video2.skills-academy.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
stopwords: Odebere slova stop ze streamu tokenu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
oříznutí: Oříznou počáteční a koncové prázdné znaky z tokenů. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
zkrátit: Zkracuje termíny na určitou délku. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
jedinečných: Vyfiltruje tokeny se stejným textem jako předchozí token. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
velkými písmeny: Normalizuje text tokenu na velká písmena. Viz https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: Rozdělí slova do podsloví a provede volitelné transformace skupin podwordů.

UnionToIntersection
UploadDocumentsOptions

Možnosti operace nahrání dokumentů

VectorEncodingFormat

Definuje hodnoty pro VectorEncodingFormat.
PoleVectorEncodingFormat lze použít zaměnitelně s VectorEncodingFormat, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

packedBit: Formát kódování představující bity zabalené do širšího datového typu.

VectorFilterMode
VectorQuery

Parametry dotazu pro vektorové a hybridní vyhledávací dotazy.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Obsahuje možnosti konfigurace specifické pro algoritmus použitý při indexování nebo dotazování.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Obsahuje možnosti konfigurace specifické pro metodu komprese použitou při indexování nebo dotazování.

VectorSearchCompressionKind

Definuje hodnoty pro VectorSearchCompressionKind.
PoleVectorSearchCompressionKind lze použít zaměnitelně s VectorSearchCompressionKind, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

skalarQuantization: Skalární kvantování, typ metody komprese. V skalárním kvantování se původní hodnoty vektorů komprimují na užší typ diskretizací a představují každou komponentu vektoru pomocí snížené množiny kvantovaných hodnot, čímž se zmenší celková velikost dat.
binaryQuantization: Binary Quantization, typ metody komprese. V binárním kvantování se hodnoty původních vektorů komprimují na užší binární typ diskretizací a představující každou komponentu vektoru pomocí binárních hodnot, čímž se zmenší celková velikost dat.

VectorSearchCompressionTarget

Definuje hodnoty pro VectorSearchCompressionTarget.
PoleVectorSearchCompressionTarget lze použít zaměnitelně s VectorSearchCompressionTarget, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

int8

VectorSearchVectorizer

Obsahuje možnosti konfigurace, jak vektorizovat textové vektorové dotazy.

VectorSearchVectorizerKind

Definuje hodnoty pro VectorSearchVectorizerKind.
PoleVectorSearchVectorizerKind lze použít zaměnitelně s VectorSearchVectorizerKind, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

azureOpenAI: Generování vkládání pomocí prostředku Azure OpenAI v době dotazu
customWebApi: Generování vkládání pomocí vlastního webového koncového bodu v době dotazu

VisualFeature

Výčty

KnownAnalyzerNames

Definuje hodnoty pro AnalyzerName. Viz https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Známé hodnoty AzureOpenAIModelName, které služba přijímá.

KnownBlobIndexerDataToExtract

Známé hodnoty BlobIndexerDataToExtract, které služba přijímá.

KnownBlobIndexerImageAction

Známé hodnoty BlobIndexerImageAction, které služba přijímá.

KnownBlobIndexerPDFTextRotationAlgorithm

Známé hodnoty BlobIndexerPDFTextRotationAlgorithm, které služba přijímá.

KnownBlobIndexerParsingMode

Známé hodnoty BlobIndexerParsingMode, které služba přijímá.

KnownCharFilterNames

Známé hodnoty CharFilterName, které služba přijímá.

KnownCustomEntityLookupSkillLanguage

Známé hodnoty CustomEntityLookupSkillLanguage, které služba přijímá.

KnownEntityCategory

Známé hodnoty EntityCategory, které služba přijímá.

KnownEntityRecognitionSkillLanguage

Známé hodnoty EntityRecognitionSkillLanguage, které služba přijímá.

KnownImageAnalysisSkillLanguage

Známé hodnoty ImageAnalysisSkillLanguage, které služba přijímá.

KnownImageDetail

Známé hodnoty ImageDetail, které služba přijímá.

KnownIndexProjectionMode

Známé hodnoty IndexProjectionMode, které služba přijímá.

KnownIndexerExecutionEnvironment

Známé hodnoty IndexerExecutionEnvironment, které služba přijímá.

KnownKeyPhraseExtractionSkillLanguage

Známé hodnoty KeyPhraseExtractionSkillLanguage, které služba přijímá.

KnownOcrLineEnding

Známé hodnoty OcrLineEnding, které služba přijímá.

KnownOcrSkillLanguage

Známé hodnoty OcrSkillLanguage, které služba přijímá.

KnownPIIDetectionSkillMaskingMode

Známé hodnoty PIIDetectionSkillMaskingMode, které služba přijímá.

KnownRegexFlags

Známé hodnoty RegexFlags, které služba přijímá.

KnownSearchAudience

Známé hodnoty pro cílovou skupinu vyhledávání

KnownSearchFieldDataType

Známé hodnoty SearchFieldDataType, které služba přijímá.

KnownSearchIndexerDataSourceType

Známé hodnoty SearchIndexerDataSourceType, které služba přijímá.

KnownSemanticErrorMode

Známé hodnoty SemanticErrorMode, které služba přijímá.

KnownSemanticErrorReason

Známé hodnoty SemanticErrorReason, které služba přijímá.

KnownSemanticSearchResultsType

Známé hodnoty SemanticSearchResultsType, které služba přijímá.

KnownSentimentSkillLanguage

Známé hodnoty SentimentSkillLanguage, které služba přijímá.

KnownSplitSkillLanguage

Známé hodnoty SplitSkillLanguage, které služba přijímá.

KnownTextSplitMode

Známé hodnoty TextSplitMode, které služba přijímá.

KnownTextTranslationSkillLanguage

Známé hodnoty TextTranslationSkillLanguage, které služba přijímá.

KnownTokenFilterNames

Známé hodnoty TokenFilterName, které služba přijímá.

KnownTokenizerNames

Známé hodnoty LexicalTokenizerName, které služba přijímá.

KnownVectorEncodingFormat

Známé hodnoty VectorEncodingFormat, které služba přijímá.

KnownVectorFilterMode

Známé hodnoty VectorFilterMode, které služba přijímá.

KnownVectorQueryKind

Známé hodnoty VectorQueryKind, které služba přijímá.

KnownVectorSearchAlgorithmKind

Známé hodnoty VectorSearchAlgorithmKind, které služba přijímá.

KnownVectorSearchAlgorithmMetric

Známé hodnoty VectorSearchAlgorithmMetric, které služba přijímá.

KnownVectorSearchCompressionKind

Známé hodnoty VectorSearchCompressionKind, které služba přijímá.

KnownVectorSearchCompressionTarget

Známé hodnoty VectorSearchCompressionTarget, které služba přijímá.

KnownVectorSearchVectorizerKind

Známé hodnoty VectorSearchVectorizerKind, které služba přijímá.

KnownVisualFeature

Známé hodnoty visualFeature, které služba přijímá.

Funkce

createSynonymMapFromFile(string, string)

Pomocná metoda pro vytvoření synonymMap objektu. Jedná se pouze o metodu NodeJS.

odata(TemplateStringsArray, unknown[])

Uvozuje výraz filtru odata, aby nedocházelo k chybám s řetězcovými literály. Příklad použití:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Další informace o podporované syntaxi najdete v tématu: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Podrobnosti funkce

createSynonymMapFromFile(string, string)

Pomocná metoda pro vytvoření synonymMap objektu. Jedná se pouze o metodu NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parametry

name

string

Název objektu SynonymMap.

filePath

string

Cesta k souboru, který obsahuje synonyma (s hodnocením novými řádky)

Návraty

Promise<SynonymMap>

Objekt SynonymMap

odata(TemplateStringsArray, unknown[])

Uvozuje výraz filtru odata, aby nedocházelo k chybám s řetězcovými literály. Příklad použití:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Další informace o podporované syntaxi najdete v tématu: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parametry

strings

TemplateStringsArray

Pole řetězců pro výraz

values

unknown[]

Pole hodnot pro výraz

Návraty

string