@azure/search-documents package
Klasser
AzureKeyCredential |
En statisk nyckelbaserad autentiseringsuppgift som stöder uppdatering av det underliggande nyckelvärdet. |
GeographyPoint |
Representerar en geografisk punkt i globala koordinater. |
IndexDocumentsBatch |
Klass som används för att utföra batchåtgärder med flera dokument till indexet. |
SearchClient |
Klass som används för att utföra åtgärder mot ett sökindex, inklusive att fråga dokument i indexet samt lägga till, uppdatera och ta bort dem. |
SearchIndexClient |
Klass för att utföra åtgärder för att hantera (skapa, uppdatera, lista/ta bort) index, & synonymmappar. |
SearchIndexerClient |
Klass för att utföra åtgärder för att hantera (skapa, uppdatera, lista/ta bort) indexerare, datakällor & kompetensuppsättningar. |
SearchIndexingBufferedSender |
Klass som används för att utföra buffrade åtgärder mot ett sökindex, inklusive att lägga till, uppdatera och ta bort dem. |
Gränssnitt
AnalyzeRequest |
Anger vissa text- och analyskomponenter som används för att dela upp texten i token. |
AnalyzeResult |
Resultatet av att testa en analysator på text. |
AnalyzedTokenInfo |
Information om en token som returneras av en analysator. |
AsciiFoldingTokenFilter |
Konverterar alfabetiska, numeriska och symboliska Unicode-tecken som inte finns i de första 127 ASCII-tecknen (unicode-blocket basic latin) till deras ASCII-motsvarigheter, om sådana motsvarigheter finns. Det här tokenfiltret implementeras med Apache Lucene. |
AutocompleteItem |
Resultatet av autocomplete-begäranden. |
AutocompleteRequest |
Parametrar för fuzzy-matchning och andra funktionssätt för automatisk komplettering av frågor. |
AutocompleteResult |
Resultatet av frågan Komplettera automatiskt. |
AzureActiveDirectoryApplicationCredentials |
Autentiseringsuppgifter för ett registrerat program som skapats för din söktjänst och som används för autentiserad åtkomst till krypteringsnycklarna som lagras i Azure Key Vault. |
AzureOpenAIEmbeddingSkill |
Gör att du kan generera en vektorinbäddning för en viss textinmatning med hjälp av Azure OpenAI-resursen. |
AzureOpenAIParameters |
Innehåller de parametrar som är specifika för användning av en Azure Open AI-tjänst för vektorisering vid frågetillfället. |
AzureOpenAIVectorizer |
Innehåller de parametrar som är specifika för användning av en Azure Open AI-tjänst för vektorisering vid frågetillfället. |
BM25Similarity |
Rankningsfunktion baserat på Okapi BM25-likhetsalgoritmen. BM25 är en TF-IDF-liknande algoritm som innehåller längdnormalisering (styrs av parametern "b" samt termfrekvensmättnad (styrs av parametern k1). |
BaseCharFilter |
Bastyp för teckenfilter. |
BaseCognitiveServicesAccount |
Bastyp för att beskriva alla Azure AI-tjänstresurser som är kopplade till en kompetensuppsättning. |
BaseDataChangeDetectionPolicy |
Bastyp för principer för identifiering av dataändringar. |
BaseDataDeletionDetectionPolicy |
Bastyp för principer för identifiering av databorttagning. |
BaseLexicalAnalyzer |
Bastyp för analysverktyg. |
BaseLexicalTokenizer |
Bastyp för tokenizers. |
BaseScoringFunction |
Bastyp för funktioner som kan ändra dokumentpoäng under rangordning. |
BaseSearchIndexerDataIdentity |
Abstrakt bastyp för dataidentiteter. |
BaseSearchIndexerSkill |
Bastyp för färdigheter. |
BaseSearchRequestOptions |
Parametrar för filtrering, sortering, fasettering, växling och andra sökfrågebeteenden. |
BaseTokenFilter |
Bastyp för tokenfilter. |
BaseVectorQuery |
Frågeparametrarna för vektor- och hybridsökfrågor. |
BaseVectorSearchAlgorithmConfiguration |
Innehåller konfigurationsalternativ som är specifika för den algoritm som används vid indexering och/eller frågekörning. |
BaseVectorSearchCompression |
Innehåller konfigurationsalternativ som är specifika för komprimeringsmetoden som används vid indexering eller frågor. |
BaseVectorSearchVectorizer |
Innehåller specifik information om en vektoriseringsmetod som ska användas under frågetiden. |
BinaryQuantizationCompression |
Innehåller konfigurationsalternativ som är specifika för den binära kvantiseringskomprimeringsmetod som används vid indexering och frågor. |
CjkBigramTokenFilter |
Bildar bigrams av CJK-termer som genereras från standardtokeniseraren. Det här tokenfiltret implementeras med Apache Lucene. |
ClassicSimilarity |
Äldre likhetsalgoritm som använder Lucene TFIDFSimilarity-implementeringen av TF-IDF. Den här varianten av TF-IDF introducerar normalisering av statisk dokumentlängd samt koordineringsfaktorer som straffar dokument som endast delvis matchar de sökta frågorna. |
ClassicTokenizer |
Grammatikbaserad tokenizer som är lämplig för bearbetning av de flesta europeiska dokument. Den här tokenizern implementeras med Apache Lucene. |
CognitiveServicesAccountKey |
Kontonyckeln för flera regioner för en Azure AI-tjänstresurs som är kopplad till en kompetensuppsättning. |
CommonGramTokenFilter |
Skapa bigrams för ofta förekommande termer vid indexering. Enkla termer indexeras också, med bigrams överlagrade. Det här tokenfiltret implementeras med Apache Lucene. |
ComplexField |
Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält. |
ConditionalSkill |
En färdighet som möjliggör scenarier som kräver en boolesk åtgärd för att fastställa vilka data som ska tilldelas till utdata. |
CorsOptions |
Definierar alternativ för att styra resursdelning mellan ursprung (CORS) för ett index. |
CreateOrUpdateIndexOptions |
Alternativ för att skapa/uppdatera indexåtgärden. |
CreateOrUpdateSkillsetOptions |
Alternativ för att skapa/uppdatera kompetensuppsättningsåtgärd. |
CreateOrUpdateSynonymMapOptions |
Alternativ för att skapa/uppdatera synonymmappsåtgärden. |
CreateorUpdateDataSourceConnectionOptions |
Alternativ för att skapa/uppdatera datakällan. |
CreateorUpdateIndexerOptions |
Alternativ för att skapa/uppdatera indexeraren. |
CustomAnalyzer |
Gör att du kan ta kontroll över processen att konvertera text till indexerbara/sökbara token. Det är en användardefinierad konfiguration som består av en enda fördefinierad tokenizer och ett eller flera filter. Tokenizern ansvarar för att dela upp text i token och filter för att ändra token som genereras av tokenizern. |
CustomEntity |
Ett objekt som innehåller information om matchningar som hittades och relaterade metadata. |
CustomEntityAlias |
Ett komplext objekt som kan användas för att ange alternativa stavningar eller synonymer till rotentitetens namn. |
CustomEntityLookupSkill |
En färdighet söker efter text från en anpassad, användardefinierad lista med ord och fraser. |
DefaultCognitiveServicesAccount |
Ett tomt objekt som representerar standardresursen för Azure AI-tjänsten för en kompetensuppsättning. |
DeleteDataSourceConnectionOptions |
Alternativ för att ta bort datakällan. |
DeleteIndexOptions |
Alternativ för att ta bort indexåtgärd. |
DeleteIndexerOptions |
Alternativ för att ta bort indexerarens åtgärd. |
DeleteSkillsetOptions |
Alternativ för att ta bort kompetensuppsättningsoperion. |
DeleteSynonymMapOptions |
Alternativ för att ta bort synonymmappsåtgärden. |
DictionaryDecompounderTokenFilter |
Sönderdelas sammansatta ord som finns på många germanska språk. Det här tokenfiltret implementeras med Apache Lucene. |
DistanceScoringFunction |
Definierar en funktion som ökar poängen baserat på avståndet från en geografisk plats. |
DistanceScoringParameters |
Ger parametervärden till en funktion för avståndsbedömning. |
DocumentExtractionSkill |
En färdighet som extraherar innehåll från en fil i berikningspipelinen. |
EdgeNGramTokenFilter |
Genererar n-gram av de angivna storlekarna med början framifrån eller på baksidan av en indatatoken. Det här tokenfiltret implementeras med Apache Lucene. |
EdgeNGramTokenizer |
Tokeniserar indata från en kant till n-gram av de angivna storlekarna. Den här tokenizern implementeras med Apache Lucene. |
ElisionTokenFilter |
Tar bort elisions. Till exempel konverteras "l'avion" (planet) till "avion" (plan). Det här tokenfiltret implementeras med Apache Lucene. |
EntityLinkingSkill |
Med hjälp av API:et för textanalys extraheras länkade entiteter från text. |
EntityRecognitionSkill |
Entitetsigenkänning för textanalys. |
EntityRecognitionSkillV3 |
Med hjälp av API:et för textanalys extraheras entiteter av olika typer från text. |
ExhaustiveKnnParameters |
Innehåller parametrarna som är specifika för en fullständig KNN-algoritm. |
ExtractiveQueryAnswer |
Extraherar svarskandidater från innehållet i de dokument som returneras som svar på en fråga som uttrycks som en fråga på naturligt språk. |
ExtractiveQueryCaption |
Extraherar undertexter från matchande dokument som innehåller avsnitt som är relevanta för sökfrågan. |
FacetResult |
En bucket med ett facet-frågeresultat. Rapporterar antalet dokument med ett fältvärde som faller inom ett visst intervall eller har ett visst värde eller intervall. |
FieldMapping |
Definierar en mappning mellan ett fält i en datakälla och ett målfält i ett index. |
FieldMappingFunction |
Representerar en funktion som omvandlar ett värde från en datakälla före indexering. |
FreshnessScoringFunction |
Definierar en funktion som ökar poängen baserat på värdet för ett datum-tid-fält. |
FreshnessScoringParameters |
Ger parametervärden till en funktion för färskhetsbedömning. |
GetDocumentOptions |
Alternativ för att hämta ett enskilt dokument. |
HighWaterMarkChangeDetectionPolicy |
Definierar en princip för identifiering av dataändringar som samlar in ändringar baserat på värdet för en högvattenmärkeskolumn. |
HnswParameters |
Innehåller de parametrar som är specifika för hnsw-algoritmen. |
ImageAnalysisSkill |
En färdighet som analyserar bildfiler. Den extraherar en omfattande uppsättning visuella funktioner baserat på bildinnehållet. |
IndexDocumentsClient |
Indexdokumentklient |
IndexDocumentsOptions |
Alternativ för att ändra indexbatchåtgärden. |
IndexDocumentsResult |
Svar som innehåller status för åtgärder för alla dokument i indexeringsbegäran. |
IndexerExecutionResult |
Representerar resultatet av en enskild indexerarekörning. |
IndexingParameters |
Representerar parametrar för indexeringskörning. |
IndexingParametersConfiguration |
En ordlista med indexerarspecifika konfigurationsegenskaper. Varje namn är namnet på en specifik egenskap. Varje värde måste vara av en primitiv typ. |
IndexingResult |
Status för en indexeringsåtgärd för ett enskilt dokument. |
IndexingSchedule |
Representerar ett schema för indexeringskörning. |
InputFieldMappingEntry |
Mappning av indatafält för en färdighet. |
KeepTokenFilter |
Ett tokenfilter som bara behåller token med text i en angiven lista med ord. Det här tokenfiltret implementeras med Apache Lucene. |
KeyPhraseExtractionSkill |
En färdighet som använder textanalys för extrahering av nyckelfraser. |
KeywordMarkerTokenFilter |
Markerar termer som nyckelord. Det här tokenfiltret implementeras med Apache Lucene. |
KeywordTokenizer |
Genererar hela indata som en enda token. Den här tokenizern implementeras med Apache Lucene. |
LanguageDetectionSkill |
En färdighet som identifierar språket för indatatext och rapporterar en enda språkkod för varje dokument som skickas på begäran. Språkkoden paras ihop med en poäng som anger analysens förtroende. |
LengthTokenFilter |
Tar bort ord som är för långa eller för korta. Det här tokenfiltret implementeras med Apache Lucene. |
LimitTokenFilter |
Begränsar antalet token vid indexering. Det här tokenfiltret implementeras med Apache Lucene. |
ListSearchResultsPageSettings |
Argument för att hämta nästa sida med sökresultat. |
LuceneStandardAnalyzer |
Apache Lucene-analysverktyg av standardstandard; Består av standardtokeniseraren, gemener och stoppfilter. |
LuceneStandardTokenizer |
Bryter text efter Unicode-reglerna för textsegmentering. Den här tokenizern implementeras med Apache Lucene. |
MagnitudeScoringFunction |
Definierar en funktion som ökar poängen baserat på storleken på ett numeriskt fält. |
MagnitudeScoringParameters |
Ger parametervärden till en bedömningsfunktion för magnituden. |
MappingCharFilter |
Ett teckenfilter som tillämpar mappningar som definierats med alternativet mappningar. Matchningen är girig (längst mönstermatchning vid en given poäng vinner). Ersättning tillåts vara den tomma strängen. Det här teckenfiltret implementeras med Apache Lucene. |
MergeSkill |
En färdighet för att sammanfoga två eller flera strängar i en enda enhetlig sträng, med en valfri användardefinierad avgränsare som avgränsar varje komponentdel. |
MicrosoftLanguageStemmingTokenizer |
Delar upp text med hjälp av språkspecifika regler och reducerar ord till deras basformulär. |
MicrosoftLanguageTokenizer |
Delar upp text med hjälp av språkspecifika regler. |
NGramTokenFilter |
Genererar n-gram av de angivna storlekarna. Det här tokenfiltret implementeras med Apache Lucene. |
NGramTokenizer |
Tokeniserar indata till n-gram av de angivna storlekarna. Den här tokenizern implementeras med Apache Lucene. |
OcrSkill |
En färdighet som extraherar text från bildfiler. |
OutputFieldMappingEntry |
Mappning av utdatafält för en färdighet. |
PIIDetectionSkill |
Med hjälp av API:et för textanalys extraherar du personlig information från en indatatext och ger dig möjlighet att maskera den. |
PathHierarchyTokenizer |
Tokenizer för sökvägsliknande hierarkier. Den här tokenizern implementeras med Apache Lucene. |
PatternAnalyzer |
Flexibelt separerar text i termer via ett reguljärt uttrycksmönster. Den här analysatorn implementeras med Apache Lucene. |
PatternCaptureTokenFilter |
Använder Java-regexer för att generera flera token – en för varje insamlingsgrupp i ett eller flera mönster. Det här tokenfiltret implementeras med Apache Lucene. |
PatternReplaceCharFilter |
Ett teckenfilter som ersätter tecken i indatasträngen. Det använder ett reguljärt uttryck för att identifiera teckensekvenser som ska bevaras och ett ersättningsmönster för att identifiera tecken som ska ersättas. Om du till exempel får indatatexten "aa bb aa bb", mönstret "(aa)\s+(bb)" och ersättningen "$1#$2" blir resultatet "aa#bb aa#bb". Det här teckenfiltret implementeras med Apache Lucene. |
PatternReplaceTokenFilter |
Ett teckenfilter som ersätter tecken i indatasträngen. Det använder ett reguljärt uttryck för att identifiera teckensekvenser som ska bevaras och ett ersättningsmönster för att identifiera tecken som ska ersättas. Om du till exempel får indatatexten "aa bb aa bb", mönstret "(aa)\s+(bb)" och ersättningen "$1#$2" blir resultatet "aa#bb aa#bb". Det här tokenfiltret implementeras med Apache Lucene. |
PatternTokenizer |
Tokenizer som använder regex-mönstermatchning för att konstruera distinkta token. Den här tokenizern implementeras med Apache Lucene. |
PhoneticTokenFilter |
Skapa token för fonetiska matchningar. Det här tokenfiltret implementeras med Apache Lucene. |
QueryAnswerResult |
Ett svar är ett textavsnitt som extraherats från innehållet i de mest relevanta dokument som matchade frågan. Svaren extraheras från de bästa sökresultaten. Svarskandidaterna poängsätts och de vanligaste svaren väljs. |
QueryCaptionResult |
Bildtexter är de mest representativa avsnitten från dokumentet relativt till sökfrågan. De används ofta som dokumentsammanfattning. Undertexter returneras endast för frågor av typen |
ResourceCounter |
Representerar en resurs användning och kvot. |
ScalarQuantizationCompression |
Innehåller konfigurationsalternativ som är specifika för den skalära kvantiseringskomprimeringsmetod som används vid indexering och frågor. |
ScalarQuantizationParameters |
Innehåller de parametrar som är specifika för Scalar Quantization. |
ScoringProfile |
Definierar parametrar för ett sökindex som påverkar bedömning i sökfrågor. |
SearchClientOptions |
Klientalternativ som används för att konfigurera API-begäranden för kognitiv sökning. |
SearchDocumentsPageResult |
Svar som innehåller sökresultat från ett index. |
SearchDocumentsResult |
Svar som innehåller sökresultat från ett index. |
SearchDocumentsResultBase |
Svar som innehåller sökresultat från ett index. |
SearchIndex |
Representerar en sökindexdefinition som beskriver fälten och sökbeteendet för ett index. |
SearchIndexClientOptions |
Klientalternativ som används för att konfigurera API-begäranden för kognitiv sökning. |
SearchIndexStatistics |
Statistik för ett visst index. Statistik samlas in regelbundet och garanteras inte alltid vara up-to-date. |
SearchIndexer |
Representerar en indexerare. |
SearchIndexerClientOptions |
Klientalternativ som används för att konfigurera API-begäranden för kognitiv sökning. |
SearchIndexerDataContainer |
Representerar information om entiteten (till exempel Azure SQL-tabellen eller CosmosDB-samlingen) som ska indexeras. |
SearchIndexerDataNoneIdentity |
Rensar identitetsegenskapen för en datakälla. |
SearchIndexerDataSourceConnection |
Representerar en datakälladefinition som kan användas för att konfigurera en indexerare. |
SearchIndexerDataUserAssignedIdentity |
Anger identiteten för en datakälla som ska användas. |
SearchIndexerError |
Representerar ett indexeringsfel på objekt- eller dokumentnivå. |
SearchIndexerIndexProjection |
Definition av ytterligare projektioner för sekundära sökindex. |
SearchIndexerIndexProjectionParameters |
En ordlista med indexprojektionsspecifika konfigurationsegenskaper. Varje namn är namnet på en specifik egenskap. Varje värde måste vara av en primitiv typ. |
SearchIndexerIndexProjectionSelector |
Beskrivning av vilka data som ska lagras i det avsedda sökindexet. |
SearchIndexerKnowledgeStore |
Definition av ytterligare projektioner för azure blob, tabell eller filer för berikade data. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Abstrakt klass för att dela egenskaper mellan betongväljare. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Projektionsdefinition för vilka data som ska lagras i Azure Files. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Projektionsdefinition för vilka data som ska lagras i Azure Blob. |
SearchIndexerKnowledgeStoreParameters |
En ordlista med kunskapslagerspecifika konfigurationsegenskaper. Varje namn är namnet på en specifik egenskap. Varje värde måste vara av en primitiv typ. |
SearchIndexerKnowledgeStoreProjection |
Containerobjekt för olika projektionsväljare. |
SearchIndexerKnowledgeStoreProjectionSelector |
Abstrakt klass för att dela egenskaper mellan betongväljare. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Beskrivning av vilka data som ska lagras i Azure-tabeller. |
SearchIndexerLimits | |
SearchIndexerSkillset |
En lista över färdigheter. |
SearchIndexerStatus |
Representerar den aktuella statusen och körningshistoriken för en indexerare. |
SearchIndexerWarning |
Representerar en varning på objektnivå. |
SearchIndexingBufferedSenderOptions |
Alternativ för SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
En kundhanterad krypteringsnyckel i Azure Key Vault. Nycklar som du skapar och hanterar kan användas för att kryptera eller dekryptera vilande data i Azure Cognitive Search, till exempel index och synonymkartor. |
SearchServiceStatistics |
Svar från en begäran om hämta tjänststatistik. Om det lyckas innehåller den räknare och gränser på servicenivå. |
SearchSuggester |
Definierar hur Api för förslag ska tillämpas på en grupp fält i indexet. |
SemanticConfiguration |
Definierar en specifik konfiguration som ska användas i samband med semantiska funktioner. |
SemanticField |
Ett fält som används som en del av den semantiska konfigurationen. |
SemanticPrioritizedFields |
Beskriver fälten rubrik, innehåll och nyckelord som ska användas för semantisk rangordning, undertexter, markeringar och svar. |
SemanticSearch |
Definierar parametrar för ett sökindex som påverkar semantiska funktioner. |
SemanticSearchOptions |
Definierar alternativ för semantiska sökfrågor |
SentimentSkill |
Textanalys positiv-negativ attitydanalys, poängsatt som ett flyttalvärde i intervallet noll till 1. |
SentimentSkillV3 |
Med hjälp av API:et för textanalys utvärderas ostrukturerad text och för varje post tillhandahåller sentimentetiketter (till exempel "negativa", "neutrala" och "positiva") baserat på den högsta konfidenspoängen som hittats av tjänsten på menings- och dokumentnivå. |
ServiceCounters |
Representerar resursräknare och kvoter på tjänstnivå. |
ServiceLimits |
Representerar olika gränser på tjänstnivå. |
ShaperSkill |
En färdighet för att omforma utdata. Den skapar en komplex typ för att stödja sammansatta fält (även kallade flerdelsfält). |
ShingleTokenFilter |
Skapar kombinationer av token som en enda token. Det här tokenfiltret implementeras med Apache Lucene. |
Similarity |
Bastyp för likhetsalgoritmer. Likhetsalgoritmer används för att beräkna poäng som kopplar frågor till dokument. Ju högre poäng, desto mer relevant är dokumentet för den specifika frågan. Dessa poäng används för att rangordna sökresultaten. |
SimpleField |
Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält. |
SnowballTokenFilter |
Ett filter som stjälkar ord med hjälp av en Snowball-genererad stemmer. Det här tokenfiltret implementeras med Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Definierar en princip för identifiering av databorttagning som implementerar en strategi för mjuk borttagning. Den avgör om ett objekt ska tas bort baserat på värdet för en angiven kolumn för mjuk borttagning. |
SplitSkill |
En färdighet att dela upp en sträng i textsegment. |
SqlIntegratedChangeTrackingPolicy |
Definierar en princip för identifiering av dataändringar som samlar in ändringar med funktionen Integrerad ändringsspårning i Azure SQL Database. |
StemmerOverrideTokenFilter |
Ger möjlighet att åsidosätta andra härdningsfilter med anpassad ordlistebaserad härdning. Ordlisteskaftade termer markeras som nyckelord så att de inte kommer att stoppas med stemmers längre ned i kedjan. Måste placeras före eventuella härdningsfilter. Det här tokenfiltret implementeras med Apache Lucene. |
StemmerTokenFilter |
Språkspecifikt härdningsfilter. Det här tokenfiltret implementeras med Apache Lucene. |
StopAnalyzer |
Delar upp text med icke-bokstäver; Tillämpar filter för gemener och stoppordstoken. Den här analysatorn implementeras med Apache Lucene. |
StopwordsTokenFilter |
Tar bort stoppord från en tokenström. Det här tokenfiltret implementeras med Apache Lucene. |
SuggestDocumentsResult |
Svar som innehåller förslag på frågeresultat från ett index. |
SuggestRequest |
Parametrar för filtrering, sortering, fuzzy-matchning och andra förslag på frågebeteenden. |
SynonymMap |
Representerar en synonymmappningsdefinition. |
SynonymTokenFilter |
Matchar synonymer med en eller flera ord i en tokenström. Det här tokenfiltret implementeras med Apache Lucene. |
TagScoringFunction |
Definierar en funktion som ökar antalet dokument med strängvärden som matchar en viss lista med taggar. |
TagScoringParameters |
Ger parametervärden till en taggbedömningsfunktion. |
TextTranslationSkill |
En färdighet att översätta text från ett språk till ett annat. |
TextWeights |
Definierar vikter för indexfält för vilka matchningar ska öka poängsättningen i sökfrågor. |
TruncateTokenFilter |
Trunkerar termerna till en viss längd. Det här tokenfiltret implementeras med Apache Lucene. |
UaxUrlEmailTokenizer |
Tokeniserar URL:er och e-postmeddelanden som en token. Den här tokenizern implementeras med Apache Lucene. |
UniqueTokenFilter |
Filtrerar bort token med samma text som föregående token. Det här tokenfiltret implementeras med Apache Lucene. |
VectorSearch |
Innehåller konfigurationsalternativ som rör vektorsökning. |
VectorSearchOptions |
Definierar alternativ för vektorsökningsfrågor |
VectorSearchProfile |
Definierar en kombination av konfigurationer som ska användas med vektorsökning. |
VectorizableTextQuery |
Frågeparametrarna som ska användas för vektorsökning när ett textvärde som måste vektoriseras tillhandahålls. |
VectorizedQuery |
Frågeparametrarna som ska användas för vektorsökning när ett raw-vektorvärde anges. |
WebApiParameters |
Anger egenskaperna för att ansluta till en användardefinierad vektoriserare. |
WebApiSkill |
En färdighet som kan anropa en webb-API-slutpunkt, så att du kan utöka en kompetensuppsättning genom att låta den anropa din anpassade kod. |
WebApiVectorizer |
Anger en användardefinierad vektoriserare för att generera vektorbäddning av en frågesträng. Integrering av en extern vektoriserare uppnås med hjälp av det anpassade webb-API-gränssnittet för en kompetensuppsättning. |
WordDelimiterTokenFilter |
Delar upp ord i underord och utför valfria transformeringar i underordsgrupper. Det här tokenfiltret implementeras med Apache Lucene. |
Typalias
AnalyzeTextOptions |
Alternativ för att analysera textåtgärd. |
AutocompleteMode |
Definierar värden för AutocompleteMode. |
AutocompleteOptions |
Alternativ för att hämta slutförandetext för en partiell searchText. |
AzureOpenAIModelName |
Definierar värden för AzureOpenAIModelName. Kända värden som stöds av tjänsten
text-embedding-ada-002 |
BlobIndexerDataToExtract | |
BlobIndexerImageAction | |
BlobIndexerPDFTextRotationAlgorithm | |
BlobIndexerParsingMode | |
CharFilter |
Innehåller möjliga fall för CharFilter. |
CharFilterName |
Definierar värden för CharFilterName. Kända värden som stöds av tjänstenhtml_strip: Ett teckenfilter som försöker ta bort HTML-konstruktioner. Se https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Definierar värden för CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Innehåller möjliga fall för CognitiveServicesAccount. |
ComplexDataType |
Definierar värden för ComplexDataType. Möjliga värden är: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Alternativ för att utföra count-åtgärden för indexet. |
CreateDataSourceConnectionOptions |
Alternativ för att skapa datakällan. |
CreateIndexOptions |
Alternativ för att skapa indexåtgärd. |
CreateIndexerOptions |
Alternativ för att skapa indexerare. |
CreateSkillsetOptions |
Alternativ för att skapa kompetensuppsättningsåtgärd. |
CreateSynonymMapOptions |
Alternativ för att skapa synonymmappsåtgärd. |
CustomEntityLookupSkillLanguage | |
DataChangeDetectionPolicy |
Innehåller möjliga fall för DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Innehåller möjliga fall för DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Alternativ för åtgärden ta bort dokument. |
EdgeNGramTokenFilterSide |
Definierar värden för EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage | |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Innehåller konfigurationsalternativ som är specifika för den fullständiga KNN-algoritmen som används vid frågor, som utför brute-force-sökning i hela vektorindexet. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Alternativ för att hämta datakällan. |
GetIndexOptions |
Alternativ för att hämta indexåtgärd. |
GetIndexStatisticsOptions |
Alternativ för att hämta indexstatistikåtgärden. |
GetIndexerOptions |
Alternativ för att hämta indexerarens åtgärd. |
GetIndexerStatusOptions |
Alternativ för att hämta indexerarens statusåtgärd. |
GetServiceStatisticsOptions |
Alternativ för att hämta tjänstens statistikåtgärd. |
GetSkillSetOptions |
Alternativ för att hämta kompetensuppsättningsåtgärd. |
GetSynonymMapsOptions |
Alternativ för att hämta synonymkartor. |
HnswAlgorithmConfiguration |
Innehåller konfigurationsalternativ som är specifika för den ungefärliga algoritmen för närmaste grannar som används under indexeringstiden. |
ImageAnalysisSkillLanguage | |
ImageDetail | |
IndexActionType |
Definierar värden för IndexActionType. |
IndexDocumentsAction |
Representerar en indexåtgärd som fungerar i ett dokument. |
IndexIterator |
En iterator för att lista de index som finns i söktjänsten. Kommer att göra begäranden efter behov under iterationen. Använd .byPage() för att göra en begäran till servern per iteration. |
IndexNameIterator |
En iterator för att lista de index som finns i söktjänsten. Kommer att göra begäranden efter behov under iterationen. Använd .byPage() för att göra en begäran till servern per iteration. |
IndexProjectionMode |
Definierar värden för IndexProjectionMode. Kända värden som stöds av tjänsten
skipIndexingParentDocuments: Källdokumentet hoppas över från att skriva till indexerarens målindex. |
IndexerExecutionEnvironment | |
IndexerExecutionStatus |
Definierar värden för IndexerExecutionStatus. |
IndexerStatus |
Definierar värden för IndexerStatus. |
KeyPhraseExtractionSkillLanguage | |
LexicalAnalyzer |
Innehåller möjliga fall för Analyzer. |
LexicalAnalyzerName |
Definierar värden för LexicalAnalyzerName. Kända värden som stöds av tjänsten
ar.microsoft: Microsoft Analyzer for Arabic. |
LexicalTokenizer |
Innehåller möjliga fall för Tokenizer. |
LexicalTokenizerName |
Definierar värden för LexicalTokenizerName. Kända värden som stöds av tjänsten
klassiska: Grammatikbaserad tokenizer som är lämplig för bearbetning av de flesta europeiska dokument. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Alternativ för en liståtgärd för datakällor. |
ListIndexersOptions |
Alternativ för en listindexeringsåtgärd. |
ListIndexesOptions |
Alternativ för en listindexåtgärd. |
ListSkillsetsOptions |
Alternativ för en liståtgärd för kompetensuppsättningar. |
ListSynonymMapsOptions |
Alternativ för en list synonymMaps-åtgärd. |
MergeDocumentsOptions |
Alternativ för åtgärden sammanfoga dokument. |
MergeOrUploadDocumentsOptions |
Alternativ för åtgärden koppla eller ladda upp dokument. |
MicrosoftStemmingTokenizerLanguage |
Definierar värden för MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Definierar värden för MicrosoftTokenizerLanguage. |
NarrowedModel |
Begränsar modelltypen så att den endast innehåller de markerade fälten |
OcrLineEnding |
Definierar värden för OcrLineEnding. Kända värden som stöds av tjänsten
blanksteg: Linjer avgränsas med ett enda blankstegstecken. |
OcrSkillLanguage | |
PIIDetectionSkillMaskingMode | |
PhoneticEncoder |
Definierar värden för PhoneticEncoder. |
QueryAnswer |
Ett värde som anger om svar ska returneras som en del av söksvaret.
Den här parametern är endast giltig om frågetypen är "semantisk". Om värdet är inställt på |
QueryCaption |
Ett värde som anger om undertexter ska returneras som en del av söksvaret. Den här parametern är endast giltig om frågetypen är "semantisk". Om den anges returnerar frågan undertexter som extraherats från nyckelpassagen i de högst rankade dokumenten. När Undertexter är "extraherande" aktiveras markering som standard. Standardvärdet är "none". |
QueryType |
Definierar värden för QueryType. |
RegexFlags | |
ResetIndexerOptions |
Alternativ för återställning av indexerare. |
RunIndexerOptions |
Alternativ för att köra indexeraren. |
ScoringFunction |
Innehåller möjliga fall för ScoringFunction. |
ScoringFunctionAggregation |
Definierar värden för ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Definierar värden för ScoringFunctionInterpolation. |
ScoringStatistics |
Definierar värden för ScoringStatistics. |
SearchField |
Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält. |
SearchFieldArray |
Om |
SearchFieldDataType |
Definierar värden för SearchFieldDataType. Kända värden som stöds av tjänsten:Edm.String: Anger att ett fält innehåller en sträng. Edm.Int32: Anger att ett fält innehåller ett 32-bitars signerat heltal. Edm.Int64: Anger att ett fält innehåller ett 64-bitars signerat heltal. Edm.Double: Anger att ett fält innehåller ett flyttal med dubbel precision i IEEE. Edm.Boolean: Anger att ett fält innehåller ett booleskt värde (sant eller falskt). Edm.DateTimeOffset: Anger att ett fält innehåller ett datum-/tidsvärde, inklusive tidszonsinformation. Edm.GeographyPoint: Anger att ett fält innehåller en geo-plats när det gäller longitud och latitud. Edm.ComplexType: Anger att ett fält innehåller ett eller flera komplexa objekt som i sin tur har underfält av andra typer. Edm.Single: Anger att ett fält innehåller ett flyttal med enkel precision. Detta är endast giltigt när det används som en del av en samlingstyp, t.ex. Collection(Edm.Single). Edm.Half: Anger att ett fält innehåller ett flyttal med halv precision. Detta är endast giltigt när det används som en del av en samlingstyp, t.ex. Collection(Edm.Half). Edm.Int16: Anger att ett fält innehåller ett 16-bitars signerat heltal. Detta är endast giltigt när det används som en del av en samlingstyp, dvs. Collection(Edm.Int16). Edm.SByte: Anger att ett fält innehåller ett 8-bitars signerat heltal. Detta är endast giltigt när det används som en del av en samlingstyp, t.ex. Collection(Edm.SByte). Edm.Byte: Anger att ett fält innehåller ett 8-bitars heltal utan tecken. Detta är endast giltigt när det används som en del av en samlingstyp, t.ex. Collection(Edm.Byte). |
SearchIndexerDataIdentity |
Innehåller möjliga fall för SearchIndexerDataIdentity. |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Innehåller möjliga fall för Kompetens. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Alternativ för SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Alternativ för SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Alternativ för SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Alternativ för SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Alternativ för SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
En iterator för sökresultat för en patikulär fråga. Kommer att göra begäranden efter behov under iterationen. Använd .byPage() för att göra en begäran till servern per iteration. |
SearchMode |
Definierar värden för SearchMode. |
SearchOptions |
Alternativ för att genomföra en fullständig sökbegäran. |
SearchPick |
Välj fält i T djupt med hjälp av giltiga OData för kognitiv sökning $select sökvägar. |
SearchRequestOptions |
Parametrar för filtrering, sortering, fasettering, växling och andra sökfrågebeteenden. |
SearchRequestQueryTypeOptions | |
SearchResult |
Innehåller ett dokument som hittas av en sökfråga, plus associerade metadata. |
SelectArray |
Om |
SelectFields |
Skapar en union av giltiga Cognitive Search OData-$select sökvägar för T med hjälp av en postordnings bläddering av fältträdet som är rotat på T. |
SemanticErrorMode | |
SemanticErrorReason | |
SemanticSearchResultsType | |
SentimentSkillLanguage | |
SimilarityAlgorithm |
Innehåller möjliga fall för likhet. |
SnowballTokenFilterLanguage |
Definierar värden för SnowballTokenFilterLanguage. |
SplitSkillLanguage | |
StemmerTokenFilterLanguage |
Definierar värden för StemmerTokenFilterLanguage. |
StopwordsList |
Definierar värden för StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Alternativ för att hämta förslag baserat på searchText. |
SuggestResult |
Ett resultat som innehåller ett dokument som hittas av en förslagsfråga, plus associerade metadata. |
TextSplitMode | |
TextTranslationSkillLanguage | |
TokenCharacterKind |
Definierar värden för TokenCharacterKind. |
TokenFilter |
Innehåller möjliga fall för TokenFilter. |
TokenFilterName |
Definierar värden för TokenFilterName. Kända värden som stöds av tjänsten
arabic_normalization: Ett tokenfilter som tillämpar den arabiska normaliseraren för att normalisera ortografin. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Alternativ för åtgärden ladda upp dokument. |
VectorEncodingFormat |
Definierar värden för VectorEncodingFormat. Kända värden som stöds av tjänstenpackedBit: Kodningsformat som representerar bitar som är packade i en bredare datatyp. |
VectorFilterMode | |
VectorQuery |
Frågeparametrarna för vektor- och hybridsökfrågor. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Innehåller konfigurationsalternativ som är specifika för den algoritm som används vid indexering och/eller frågekörning. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric | |
VectorSearchCompression |
Innehåller konfigurationsalternativ som är specifika för komprimeringsmetoden som används vid indexering eller frågor. |
VectorSearchCompressionKind |
Definierar värden för VectorSearchCompressionKind. Kända värden som stöds av tjänsten
scalarQuantization: Scalar Quantization, en typ av komprimeringsmetod. I skalär kvantisering komprimeras de ursprungliga vektorvärdena till en smalare typ genom att diskretisera och representera varje komponent i en vektor med hjälp av en reducerad uppsättning kvantiserade värden, vilket minskar den totala datastorleken. |
VectorSearchCompressionTarget |
Definierar värden för VectorSearchCompressionTarget. Kända värden som stöds av tjänstenint8 |
VectorSearchVectorizer |
Innehåller konfigurationsalternativ för hur du vektoriserar textvektorfrågor. |
VectorSearchVectorizerKind |
Definierar värden för VectorSearchVectorizerKind. Kända värden som stöds av tjänsten
azureOpenAI: Generera inbäddningar med hjälp av en Azure OpenAI-resurs vid frågetillfället. |
VisualFeature |
Uppräkningar
Funktioner
create |
Hjälpmetod för att skapa ett SynonymMap-objekt. Det här är en nodeJS-metod. |
odata(Template |
Undflyr ett odatafilteruttryck för att undvika fel med att citera strängliteraler. Exempel på användning:
Mer information om syntax som stöds finns i: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Funktionsinformation
createSynonymMapFromFile(string, string)
Hjälpmetod för att skapa ett SynonymMap-objekt. Det här är en nodeJS-metod.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parametrar
- name
-
string
Namnet på SynonymMap.
- filePath
-
string
Sökvägen till filen som innehåller synonymerna (uppdelade efter nya rader)
Returer
Promise<SynonymMap>
SynonymMap-objekt
odata(TemplateStringsArray, unknown[])
Undflyr ett odatafilteruttryck för att undvika fel med att citera strängliteraler. Exempel på användning:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Mer information om syntax som stöds finns i: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parametrar
- strings
-
TemplateStringsArray
Matris med strängar för uttrycket
- values
-
unknown[]
Matris med värden för uttrycket
Returer
string