@azure/search-documents package

Klasser

AzureKeyCredential

En statisk nyckelbaserad autentiseringsuppgift som stöder uppdatering av det underliggande nyckelvärdet.

GeographyPoint

Representerar en geografisk punkt i globala koordinater.

IndexDocumentsBatch

Klass som används för att utföra batchåtgärder med flera dokument till indexet.

SearchClient

Klass som används för att utföra åtgärder mot ett sökindex, inklusive att fråga dokument i indexet samt lägga till, uppdatera och ta bort dem.

SearchIndexClient

Klass för att utföra åtgärder för att hantera (skapa, uppdatera, lista/ta bort) index, & synonymmappar.

SearchIndexerClient

Klass för att utföra åtgärder för att hantera (skapa, uppdatera, lista/ta bort) indexerare, datakällor & kompetensuppsättningar.

SearchIndexingBufferedSender

Klass som används för att utföra buffrade åtgärder mot ett sökindex, inklusive att lägga till, uppdatera och ta bort dem.

Gränssnitt

AnalyzeRequest

Anger vissa text- och analyskomponenter som används för att dela upp texten i token.

AnalyzeResult

Resultatet av att testa en analysator på text.

AnalyzedTokenInfo

Information om en token som returneras av en analysator.

AsciiFoldingTokenFilter

Konverterar alfabetiska, numeriska och symboliska Unicode-tecken som inte finns i de första 127 ASCII-tecknen (unicode-blocket basic latin) till deras ASCII-motsvarigheter, om sådana motsvarigheter finns. Det här tokenfiltret implementeras med Apache Lucene.

AutocompleteItem

Resultatet av autocomplete-begäranden.

AutocompleteRequest

Parametrar för fuzzy-matchning och andra funktionssätt för automatisk komplettering av frågor.

AutocompleteResult

Resultatet av frågan Komplettera automatiskt.

AzureActiveDirectoryApplicationCredentials

Autentiseringsuppgifter för ett registrerat program som skapats för din söktjänst och som används för autentiserad åtkomst till krypteringsnycklarna som lagras i Azure Key Vault.

AzureOpenAIEmbeddingSkill

Gör att du kan generera en vektorinbäddning för en viss textinmatning med hjälp av Azure OpenAI-resursen.

AzureOpenAIParameters

Innehåller de parametrar som är specifika för användning av en Azure Open AI-tjänst för vektorisering vid frågetillfället.

AzureOpenAIVectorizer

Innehåller de parametrar som är specifika för användning av en Azure Open AI-tjänst för vektorisering vid frågetillfället.

BM25Similarity

Rankningsfunktion baserat på Okapi BM25-likhetsalgoritmen. BM25 är en TF-IDF-liknande algoritm som innehåller längdnormalisering (styrs av parametern "b" samt termfrekvensmättnad (styrs av parametern k1).

BaseCharFilter

Bastyp för teckenfilter.

BaseCognitiveServicesAccount

Bastyp för att beskriva alla Azure AI-tjänstresurser som är kopplade till en kompetensuppsättning.

BaseDataChangeDetectionPolicy

Bastyp för principer för identifiering av dataändringar.

BaseDataDeletionDetectionPolicy

Bastyp för principer för identifiering av databorttagning.

BaseLexicalAnalyzer

Bastyp för analysverktyg.

BaseLexicalTokenizer

Bastyp för tokenizers.

BaseScoringFunction

Bastyp för funktioner som kan ändra dokumentpoäng under rangordning.

BaseSearchIndexerDataIdentity

Abstrakt bastyp för dataidentiteter.

BaseSearchIndexerSkill

Bastyp för färdigheter.

BaseSearchRequestOptions

Parametrar för filtrering, sortering, fasettering, växling och andra sökfrågebeteenden.

BaseTokenFilter

Bastyp för tokenfilter.

BaseVectorQuery

Frågeparametrarna för vektor- och hybridsökfrågor.

BaseVectorSearchAlgorithmConfiguration

Innehåller konfigurationsalternativ som är specifika för den algoritm som används vid indexering och/eller frågekörning.

BaseVectorSearchCompression

Innehåller konfigurationsalternativ som är specifika för komprimeringsmetoden som används vid indexering eller frågor.

BaseVectorSearchVectorizer

Innehåller specifik information om en vektoriseringsmetod som ska användas under frågetiden.

BinaryQuantizationCompression

Innehåller konfigurationsalternativ som är specifika för den binära kvantiseringskomprimeringsmetod som används vid indexering och frågor.

CjkBigramTokenFilter

Bildar bigrams av CJK-termer som genereras från standardtokeniseraren. Det här tokenfiltret implementeras med Apache Lucene.

ClassicSimilarity

Äldre likhetsalgoritm som använder Lucene TFIDFSimilarity-implementeringen av TF-IDF. Den här varianten av TF-IDF introducerar normalisering av statisk dokumentlängd samt koordineringsfaktorer som straffar dokument som endast delvis matchar de sökta frågorna.

ClassicTokenizer

Grammatikbaserad tokenizer som är lämplig för bearbetning av de flesta europeiska dokument. Den här tokenizern implementeras med Apache Lucene.

CognitiveServicesAccountKey

Kontonyckeln för flera regioner för en Azure AI-tjänstresurs som är kopplad till en kompetensuppsättning.

CommonGramTokenFilter

Skapa bigrams för ofta förekommande termer vid indexering. Enkla termer indexeras också, med bigrams överlagrade. Det här tokenfiltret implementeras med Apache Lucene.

ComplexField

Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält.

ConditionalSkill

En färdighet som möjliggör scenarier som kräver en boolesk åtgärd för att fastställa vilka data som ska tilldelas till utdata.

CorsOptions

Definierar alternativ för att styra resursdelning mellan ursprung (CORS) för ett index.

CreateOrUpdateIndexOptions

Alternativ för att skapa/uppdatera indexåtgärden.

CreateOrUpdateSkillsetOptions

Alternativ för att skapa/uppdatera kompetensuppsättningsåtgärd.

CreateOrUpdateSynonymMapOptions

Alternativ för att skapa/uppdatera synonymmappsåtgärden.

CreateorUpdateDataSourceConnectionOptions

Alternativ för att skapa/uppdatera datakällan.

CreateorUpdateIndexerOptions

Alternativ för att skapa/uppdatera indexeraren.

CustomAnalyzer

Gör att du kan ta kontroll över processen att konvertera text till indexerbara/sökbara token. Det är en användardefinierad konfiguration som består av en enda fördefinierad tokenizer och ett eller flera filter. Tokenizern ansvarar för att dela upp text i token och filter för att ändra token som genereras av tokenizern.

CustomEntity

Ett objekt som innehåller information om matchningar som hittades och relaterade metadata.

CustomEntityAlias

Ett komplext objekt som kan användas för att ange alternativa stavningar eller synonymer till rotentitetens namn.

CustomEntityLookupSkill

En färdighet söker efter text från en anpassad, användardefinierad lista med ord och fraser.

DefaultCognitiveServicesAccount

Ett tomt objekt som representerar standardresursen för Azure AI-tjänsten för en kompetensuppsättning.

DeleteDataSourceConnectionOptions

Alternativ för att ta bort datakällan.

DeleteIndexOptions

Alternativ för att ta bort indexåtgärd.

DeleteIndexerOptions

Alternativ för att ta bort indexerarens åtgärd.

DeleteSkillsetOptions

Alternativ för att ta bort kompetensuppsättningsoperion.

DeleteSynonymMapOptions

Alternativ för att ta bort synonymmappsåtgärden.

DictionaryDecompounderTokenFilter

Sönderdelas sammansatta ord som finns på många germanska språk. Det här tokenfiltret implementeras med Apache Lucene.

DistanceScoringFunction

Definierar en funktion som ökar poängen baserat på avståndet från en geografisk plats.

DistanceScoringParameters

Ger parametervärden till en funktion för avståndsbedömning.

DocumentExtractionSkill

En färdighet som extraherar innehåll från en fil i berikningspipelinen.

EdgeNGramTokenFilter

Genererar n-gram av de angivna storlekarna med början framifrån eller på baksidan av en indatatoken. Det här tokenfiltret implementeras med Apache Lucene.

EdgeNGramTokenizer

Tokeniserar indata från en kant till n-gram av de angivna storlekarna. Den här tokenizern implementeras med Apache Lucene.

ElisionTokenFilter

Tar bort elisions. Till exempel konverteras "l'avion" (planet) till "avion" (plan). Det här tokenfiltret implementeras med Apache Lucene.

EntityLinkingSkill

Med hjälp av API:et för textanalys extraheras länkade entiteter från text.

EntityRecognitionSkill

Entitetsigenkänning för textanalys.

EntityRecognitionSkillV3

Med hjälp av API:et för textanalys extraheras entiteter av olika typer från text.

ExhaustiveKnnParameters

Innehåller parametrarna som är specifika för en fullständig KNN-algoritm.

ExtractiveQueryAnswer

Extraherar svarskandidater från innehållet i de dokument som returneras som svar på en fråga som uttrycks som en fråga på naturligt språk.

ExtractiveQueryCaption

Extraherar undertexter från matchande dokument som innehåller avsnitt som är relevanta för sökfrågan.

FacetResult

En bucket med ett facet-frågeresultat. Rapporterar antalet dokument med ett fältvärde som faller inom ett visst intervall eller har ett visst värde eller intervall.

FieldMapping

Definierar en mappning mellan ett fält i en datakälla och ett målfält i ett index.

FieldMappingFunction

Representerar en funktion som omvandlar ett värde från en datakälla före indexering.

FreshnessScoringFunction

Definierar en funktion som ökar poängen baserat på värdet för ett datum-tid-fält.

FreshnessScoringParameters

Ger parametervärden till en funktion för färskhetsbedömning.

GetDocumentOptions

Alternativ för att hämta ett enskilt dokument.

HighWaterMarkChangeDetectionPolicy

Definierar en princip för identifiering av dataändringar som samlar in ändringar baserat på värdet för en högvattenmärkeskolumn.

HnswParameters

Innehåller de parametrar som är specifika för hnsw-algoritmen.

ImageAnalysisSkill

En färdighet som analyserar bildfiler. Den extraherar en omfattande uppsättning visuella funktioner baserat på bildinnehållet.

IndexDocumentsClient

Indexdokumentklient

IndexDocumentsOptions

Alternativ för att ändra indexbatchåtgärden.

IndexDocumentsResult

Svar som innehåller status för åtgärder för alla dokument i indexeringsbegäran.

IndexerExecutionResult

Representerar resultatet av en enskild indexerarekörning.

IndexingParameters

Representerar parametrar för indexeringskörning.

IndexingParametersConfiguration

En ordlista med indexerarspecifika konfigurationsegenskaper. Varje namn är namnet på en specifik egenskap. Varje värde måste vara av en primitiv typ.

IndexingResult

Status för en indexeringsåtgärd för ett enskilt dokument.

IndexingSchedule

Representerar ett schema för indexeringskörning.

InputFieldMappingEntry

Mappning av indatafält för en färdighet.

KeepTokenFilter

Ett tokenfilter som bara behåller token med text i en angiven lista med ord. Det här tokenfiltret implementeras med Apache Lucene.

KeyPhraseExtractionSkill

En färdighet som använder textanalys för extrahering av nyckelfraser.

KeywordMarkerTokenFilter

Markerar termer som nyckelord. Det här tokenfiltret implementeras med Apache Lucene.

KeywordTokenizer

Genererar hela indata som en enda token. Den här tokenizern implementeras med Apache Lucene.

LanguageDetectionSkill

En färdighet som identifierar språket för indatatext och rapporterar en enda språkkod för varje dokument som skickas på begäran. Språkkoden paras ihop med en poäng som anger analysens förtroende.

LengthTokenFilter

Tar bort ord som är för långa eller för korta. Det här tokenfiltret implementeras med Apache Lucene.

LimitTokenFilter

Begränsar antalet token vid indexering. Det här tokenfiltret implementeras med Apache Lucene.

ListSearchResultsPageSettings

Argument för att hämta nästa sida med sökresultat.

LuceneStandardAnalyzer

Apache Lucene-analysverktyg av standardstandard; Består av standardtokeniseraren, gemener och stoppfilter.

LuceneStandardTokenizer

Bryter text efter Unicode-reglerna för textsegmentering. Den här tokenizern implementeras med Apache Lucene.

MagnitudeScoringFunction

Definierar en funktion som ökar poängen baserat på storleken på ett numeriskt fält.

MagnitudeScoringParameters

Ger parametervärden till en bedömningsfunktion för magnituden.

MappingCharFilter

Ett teckenfilter som tillämpar mappningar som definierats med alternativet mappningar. Matchningen är girig (längst mönstermatchning vid en given poäng vinner). Ersättning tillåts vara den tomma strängen. Det här teckenfiltret implementeras med Apache Lucene.

MergeSkill

En färdighet för att sammanfoga två eller flera strängar i en enda enhetlig sträng, med en valfri användardefinierad avgränsare som avgränsar varje komponentdel.

MicrosoftLanguageStemmingTokenizer

Delar upp text med hjälp av språkspecifika regler och reducerar ord till deras basformulär.

MicrosoftLanguageTokenizer

Delar upp text med hjälp av språkspecifika regler.

NGramTokenFilter

Genererar n-gram av de angivna storlekarna. Det här tokenfiltret implementeras med Apache Lucene.

NGramTokenizer

Tokeniserar indata till n-gram av de angivna storlekarna. Den här tokenizern implementeras med Apache Lucene.

OcrSkill

En färdighet som extraherar text från bildfiler.

OutputFieldMappingEntry

Mappning av utdatafält för en färdighet.

PIIDetectionSkill

Med hjälp av API:et för textanalys extraherar du personlig information från en indatatext och ger dig möjlighet att maskera den.

PathHierarchyTokenizer

Tokenizer för sökvägsliknande hierarkier. Den här tokenizern implementeras med Apache Lucene.

PatternAnalyzer

Flexibelt separerar text i termer via ett reguljärt uttrycksmönster. Den här analysatorn implementeras med Apache Lucene.

PatternCaptureTokenFilter

Använder Java-regexer för att generera flera token – en för varje insamlingsgrupp i ett eller flera mönster. Det här tokenfiltret implementeras med Apache Lucene.

PatternReplaceCharFilter

Ett teckenfilter som ersätter tecken i indatasträngen. Det använder ett reguljärt uttryck för att identifiera teckensekvenser som ska bevaras och ett ersättningsmönster för att identifiera tecken som ska ersättas. Om du till exempel får indatatexten "aa bb aa bb", mönstret "(aa)\s+(bb)" och ersättningen "$1#$2" blir resultatet "aa#bb aa#bb". Det här teckenfiltret implementeras med Apache Lucene.

PatternReplaceTokenFilter

Ett teckenfilter som ersätter tecken i indatasträngen. Det använder ett reguljärt uttryck för att identifiera teckensekvenser som ska bevaras och ett ersättningsmönster för att identifiera tecken som ska ersättas. Om du till exempel får indatatexten "aa bb aa bb", mönstret "(aa)\s+(bb)" och ersättningen "$1#$2" blir resultatet "aa#bb aa#bb". Det här tokenfiltret implementeras med Apache Lucene.

PatternTokenizer

Tokenizer som använder regex-mönstermatchning för att konstruera distinkta token. Den här tokenizern implementeras med Apache Lucene.

PhoneticTokenFilter

Skapa token för fonetiska matchningar. Det här tokenfiltret implementeras med Apache Lucene.

QueryAnswerResult

Ett svar är ett textavsnitt som extraherats från innehållet i de mest relevanta dokument som matchade frågan. Svaren extraheras från de bästa sökresultaten. Svarskandidaterna poängsätts och de vanligaste svaren väljs.

QueryCaptionResult

Bildtexter är de mest representativa avsnitten från dokumentet relativt till sökfrågan. De används ofta som dokumentsammanfattning. Undertexter returneras endast för frågor av typen semantic.

ResourceCounter

Representerar en resurs användning och kvot.

ScalarQuantizationCompression

Innehåller konfigurationsalternativ som är specifika för den skalära kvantiseringskomprimeringsmetod som används vid indexering och frågor.

ScalarQuantizationParameters

Innehåller de parametrar som är specifika för Scalar Quantization.

ScoringProfile

Definierar parametrar för ett sökindex som påverkar bedömning i sökfrågor.

SearchClientOptions

Klientalternativ som används för att konfigurera API-begäranden för kognitiv sökning.

SearchDocumentsPageResult

Svar som innehåller sökresultat från ett index.

SearchDocumentsResult

Svar som innehåller sökresultat från ett index.

SearchDocumentsResultBase

Svar som innehåller sökresultat från ett index.

SearchIndex

Representerar en sökindexdefinition som beskriver fälten och sökbeteendet för ett index.

SearchIndexClientOptions

Klientalternativ som används för att konfigurera API-begäranden för kognitiv sökning.

SearchIndexStatistics

Statistik för ett visst index. Statistik samlas in regelbundet och garanteras inte alltid vara up-to-date.

SearchIndexer

Representerar en indexerare.

SearchIndexerClientOptions

Klientalternativ som används för att konfigurera API-begäranden för kognitiv sökning.

SearchIndexerDataContainer

Representerar information om entiteten (till exempel Azure SQL-tabellen eller CosmosDB-samlingen) som ska indexeras.

SearchIndexerDataNoneIdentity

Rensar identitetsegenskapen för en datakälla.

SearchIndexerDataSourceConnection

Representerar en datakälladefinition som kan användas för att konfigurera en indexerare.

SearchIndexerDataUserAssignedIdentity

Anger identiteten för en datakälla som ska användas.

SearchIndexerError

Representerar ett indexeringsfel på objekt- eller dokumentnivå.

SearchIndexerIndexProjection

Definition av ytterligare projektioner för sekundära sökindex.

SearchIndexerIndexProjectionParameters

En ordlista med indexprojektionsspecifika konfigurationsegenskaper. Varje namn är namnet på en specifik egenskap. Varje värde måste vara av en primitiv typ.

SearchIndexerIndexProjectionSelector

Beskrivning av vilka data som ska lagras i det avsedda sökindexet.

SearchIndexerKnowledgeStore

Definition av ytterligare projektioner för azure blob, tabell eller filer för berikade data.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Abstrakt klass för att dela egenskaper mellan betongväljare.

SearchIndexerKnowledgeStoreFileProjectionSelector

Projektionsdefinition för vilka data som ska lagras i Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Projektionsdefinition för vilka data som ska lagras i Azure Blob.

SearchIndexerKnowledgeStoreParameters

En ordlista med kunskapslagerspecifika konfigurationsegenskaper. Varje namn är namnet på en specifik egenskap. Varje värde måste vara av en primitiv typ.

SearchIndexerKnowledgeStoreProjection

Containerobjekt för olika projektionsväljare.

SearchIndexerKnowledgeStoreProjectionSelector

Abstrakt klass för att dela egenskaper mellan betongväljare.

SearchIndexerKnowledgeStoreTableProjectionSelector

Beskrivning av vilka data som ska lagras i Azure-tabeller.

SearchIndexerLimits
SearchIndexerSkillset

En lista över färdigheter.

SearchIndexerStatus

Representerar den aktuella statusen och körningshistoriken för en indexerare.

SearchIndexerWarning

Representerar en varning på objektnivå.

SearchIndexingBufferedSenderOptions

Alternativ för SearchIndexingBufferedSender.

SearchResourceEncryptionKey

En kundhanterad krypteringsnyckel i Azure Key Vault. Nycklar som du skapar och hanterar kan användas för att kryptera eller dekryptera vilande data i Azure Cognitive Search, till exempel index och synonymkartor.

SearchServiceStatistics

Svar från en begäran om hämta tjänststatistik. Om det lyckas innehåller den räknare och gränser på servicenivå.

SearchSuggester

Definierar hur Api för förslag ska tillämpas på en grupp fält i indexet.

SemanticConfiguration

Definierar en specifik konfiguration som ska användas i samband med semantiska funktioner.

SemanticField

Ett fält som används som en del av den semantiska konfigurationen.

SemanticPrioritizedFields

Beskriver fälten rubrik, innehåll och nyckelord som ska användas för semantisk rangordning, undertexter, markeringar och svar.

SemanticSearch

Definierar parametrar för ett sökindex som påverkar semantiska funktioner.

SemanticSearchOptions

Definierar alternativ för semantiska sökfrågor

SentimentSkill

Textanalys positiv-negativ attitydanalys, poängsatt som ett flyttalvärde i intervallet noll till 1.

SentimentSkillV3

Med hjälp av API:et för textanalys utvärderas ostrukturerad text och för varje post tillhandahåller sentimentetiketter (till exempel "negativa", "neutrala" och "positiva") baserat på den högsta konfidenspoängen som hittats av tjänsten på menings- och dokumentnivå.

ServiceCounters

Representerar resursräknare och kvoter på tjänstnivå.

ServiceLimits

Representerar olika gränser på tjänstnivå.

ShaperSkill

En färdighet för att omforma utdata. Den skapar en komplex typ för att stödja sammansatta fält (även kallade flerdelsfält).

ShingleTokenFilter

Skapar kombinationer av token som en enda token. Det här tokenfiltret implementeras med Apache Lucene.

Similarity

Bastyp för likhetsalgoritmer. Likhetsalgoritmer används för att beräkna poäng som kopplar frågor till dokument. Ju högre poäng, desto mer relevant är dokumentet för den specifika frågan. Dessa poäng används för att rangordna sökresultaten.

SimpleField

Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält.

SnowballTokenFilter

Ett filter som stjälkar ord med hjälp av en Snowball-genererad stemmer. Det här tokenfiltret implementeras med Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Definierar en princip för identifiering av databorttagning som implementerar en strategi för mjuk borttagning. Den avgör om ett objekt ska tas bort baserat på värdet för en angiven kolumn för mjuk borttagning.

SplitSkill

En färdighet att dela upp en sträng i textsegment.

SqlIntegratedChangeTrackingPolicy

Definierar en princip för identifiering av dataändringar som samlar in ändringar med funktionen Integrerad ändringsspårning i Azure SQL Database.

StemmerOverrideTokenFilter

Ger möjlighet att åsidosätta andra härdningsfilter med anpassad ordlistebaserad härdning. Ordlisteskaftade termer markeras som nyckelord så att de inte kommer att stoppas med stemmers längre ned i kedjan. Måste placeras före eventuella härdningsfilter. Det här tokenfiltret implementeras med Apache Lucene.

StemmerTokenFilter

Språkspecifikt härdningsfilter. Det här tokenfiltret implementeras med Apache Lucene.

StopAnalyzer

Delar upp text med icke-bokstäver; Tillämpar filter för gemener och stoppordstoken. Den här analysatorn implementeras med Apache Lucene.

StopwordsTokenFilter

Tar bort stoppord från en tokenström. Det här tokenfiltret implementeras med Apache Lucene.

SuggestDocumentsResult

Svar som innehåller förslag på frågeresultat från ett index.

SuggestRequest

Parametrar för filtrering, sortering, fuzzy-matchning och andra förslag på frågebeteenden.

SynonymMap

Representerar en synonymmappningsdefinition.

SynonymTokenFilter

Matchar synonymer med en eller flera ord i en tokenström. Det här tokenfiltret implementeras med Apache Lucene.

TagScoringFunction

Definierar en funktion som ökar antalet dokument med strängvärden som matchar en viss lista med taggar.

TagScoringParameters

Ger parametervärden till en taggbedömningsfunktion.

TextTranslationSkill

En färdighet att översätta text från ett språk till ett annat.

TextWeights

Definierar vikter för indexfält för vilka matchningar ska öka poängsättningen i sökfrågor.

TruncateTokenFilter

Trunkerar termerna till en viss längd. Det här tokenfiltret implementeras med Apache Lucene.

UaxUrlEmailTokenizer

Tokeniserar URL:er och e-postmeddelanden som en token. Den här tokenizern implementeras med Apache Lucene.

UniqueTokenFilter

Filtrerar bort token med samma text som föregående token. Det här tokenfiltret implementeras med Apache Lucene.

VectorSearch

Innehåller konfigurationsalternativ som rör vektorsökning.

VectorSearchOptions

Definierar alternativ för vektorsökningsfrågor

VectorSearchProfile

Definierar en kombination av konfigurationer som ska användas med vektorsökning.

VectorizableTextQuery

Frågeparametrarna som ska användas för vektorsökning när ett textvärde som måste vektoriseras tillhandahålls.

VectorizedQuery

Frågeparametrarna som ska användas för vektorsökning när ett raw-vektorvärde anges.

WebApiParameters

Anger egenskaperna för att ansluta till en användardefinierad vektoriserare.

WebApiSkill

En färdighet som kan anropa en webb-API-slutpunkt, så att du kan utöka en kompetensuppsättning genom att låta den anropa din anpassade kod.

WebApiVectorizer

Anger en användardefinierad vektoriserare för att generera vektorbäddning av en frågesträng. Integrering av en extern vektoriserare uppnås med hjälp av det anpassade webb-API-gränssnittet för en kompetensuppsättning.

WordDelimiterTokenFilter

Delar upp ord i underord och utför valfria transformeringar i underordsgrupper. Det här tokenfiltret implementeras med Apache Lucene.

Typalias

AnalyzeTextOptions

Alternativ för att analysera textåtgärd.

AutocompleteMode

Definierar värden för AutocompleteMode.

AutocompleteOptions

Alternativ för att hämta slutförandetext för en partiell searchText.

AzureOpenAIModelName

Definierar värden för AzureOpenAIModelName.
KnownAzureOpenAIModelName kan användas utbytbart med AzureOpenAIModelName innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

text-embedding-ada-002
text-embedding-3-large
text-embedding-3-small

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Innehåller möjliga fall för CharFilter.

CharFilterName

Definierar värden för CharFilterName.
<xref:KnownCharFilterName> kan användas utbytbart med CharFilterName innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

html_strip: Ett teckenfilter som försöker ta bort HTML-konstruktioner. Se https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Definierar värden för CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Innehåller möjliga fall för CognitiveServicesAccount.

ComplexDataType

Definierar värden för ComplexDataType. Möjliga värden är: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

CountDocumentsOptions

Alternativ för att utföra count-åtgärden för indexet.

CreateDataSourceConnectionOptions

Alternativ för att skapa datakällan.

CreateIndexOptions

Alternativ för att skapa indexåtgärd.

CreateIndexerOptions

Alternativ för att skapa indexerare.

CreateSkillsetOptions

Alternativ för att skapa kompetensuppsättningsåtgärd.

CreateSynonymMapOptions

Alternativ för att skapa synonymmappsåtgärd.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Innehåller möjliga fall för DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Innehåller möjliga fall för DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Alternativ för åtgärden ta bort dokument.

EdgeNGramTokenFilterSide

Definierar värden för EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Innehåller konfigurationsalternativ som är specifika för den fullständiga KNN-algoritmen som används vid frågor, som utför brute-force-sökning i hela vektorindexet.

ExtractDocumentKey
GetDataSourceConnectionOptions

Alternativ för att hämta datakällan.

GetIndexOptions

Alternativ för att hämta indexåtgärd.

GetIndexStatisticsOptions

Alternativ för att hämta indexstatistikåtgärden.

GetIndexerOptions

Alternativ för att hämta indexerarens åtgärd.

GetIndexerStatusOptions

Alternativ för att hämta indexerarens statusåtgärd.

GetServiceStatisticsOptions

Alternativ för att hämta tjänstens statistikåtgärd.

GetSkillSetOptions

Alternativ för att hämta kompetensuppsättningsåtgärd.

GetSynonymMapsOptions

Alternativ för att hämta synonymkartor.

HnswAlgorithmConfiguration

Innehåller konfigurationsalternativ som är specifika för den ungefärliga algoritmen för närmaste grannar som används under indexeringstiden.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Definierar värden för IndexActionType.

IndexDocumentsAction

Representerar en indexåtgärd som fungerar i ett dokument.

IndexIterator

En iterator för att lista de index som finns i söktjänsten. Kommer att göra begäranden efter behov under iterationen. Använd .byPage() för att göra en begäran till servern per iteration.

IndexNameIterator

En iterator för att lista de index som finns i söktjänsten. Kommer att göra begäranden efter behov under iterationen. Använd .byPage() för att göra en begäran till servern per iteration.

IndexProjectionMode

Definierar värden för IndexProjectionMode.
KnownIndexProjectionMode kan användas utbytbart med IndexProjectionMode innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

skipIndexingParentDocuments: Källdokumentet hoppas över från att skriva till indexerarens målindex.
includeIndexingParentDocuments: Källdokumentet skrivs till indexerarens målindex. Det här är standardmönstret.

IndexerExecutionEnvironment
IndexerExecutionStatus

Definierar värden för IndexerExecutionStatus.

IndexerStatus

Definierar värden för IndexerStatus.

KeyPhraseExtractionSkillLanguage
LexicalAnalyzer

Innehåller möjliga fall för Analyzer.

LexicalAnalyzerName

Definierar värden för LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> kan användas utbytbart med LexicalAnalyzerName innehåller den här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

ar.microsoft: Microsoft Analyzer for Arabic.
ar.lucene: Lucene analyzer för arabiska.
hy.lucene: Lucene analyzer for Armenian.
bn.microsoft: Microsoft analyzer for Bangla.
eu.lucene: Lucene analyzer för baskiska.
bg.microsoft: Microsoft analyzer for Bulgarian.
bg.lucene: Lucene analyzer för bulgariska.
ca.microsoft: Microsoft analyzer for Catalan.
ca.lucene: Lucene analyzer for Catalan.
zh-Hans.microsoft: Microsoft analyzer for Chinese (Förenklad).
zh-Hans.lucene: Lucene analyzer for Chinese (Simplified).
zh-Hant.microsoft: Microsoft analyzer for Chinese (Traditionell).
zh-Hant.lucene: Lucene analyzer för kinesiska (traditionell).
hr.microsoft: Microsoft analyzer for Croatian.
cs.microsoft: Microsoft analyzer for Czech.
cs.lucene: Lucene analyzer for Czech.
da.microsoft: Microsoft analyzer for Danish.
da.lucene: Lucene analyzer för danska.
nl.microsoft: Microsoft analyzer for Dutch.
nl.lucene: Lucene analyzer for Dutch.
en.microsoft: Microsoft analyzer for English.
en.lucene: Lucene analyzer för engelska.
et.microsoft: Microsoft analyzer for Estniska.
fi.microsoft: Microsoft analyzer for Finnish.
fi.lucene: Lucene analyzer för finska.
fr.microsoft: Microsoft analyzer for French.
fr.lucene: Lucene analyzer för franska.
gl.lucene: Lucene analyzer for Galician.
de.microsoft: Microsoft analyzer for German.
de.lucene: Lucene analyzer för tysk.
el.microsoft: Microsoft analyzer for Greek.
el.lucene: Lucene analyzer för grekiska.
gu.microsoft: Microsoft analyzer for Gujarati.
he.microsoft: Microsoft analyzer for Hebrew.
hi.microsoft: Microsoft analyzer for Hindi.
hi.lucene: Lucene analyzer for Hindi.
hu.microsoft: Microsoft analyzer for Hungarian.
hu.lucene: Lucene analyzer för ungerska.
is.microsoft: Microsoft analyzer for Icelandic.
id.microsoft: Microsoft analyzer for Indonesian (Bahasa).
id.lucene: Lucene analyzer för indonesiska.
ga.lucene: Lucene analyzer för irländare.
it.microsoft: Microsoft analyzer for Italian.
it.lucene: Lucene analyzer för italienska.
ja.microsoft: Microsoft analyzer för japanska.
ja.lucene: Lucene analyzer för japanska.
kn.microsoft: Microsoft analyzer for Kannada.
ko.microsoft: Microsoft analyzer for Korean.
ko.lucene: Lucene analyzer för koreanska.
lv.microsoft: Microsoft analyzer for Lettiska.
lv.lucene: Lucene analyzer för lettiska.
lt.microsoft: Microsoft analyzer for Lithuanian.
ml.microsoft: Microsoft analyzer for Malayalam.
ms.microsoft: Microsoft analyzer for Malay (Latin).
mr.microsoft: Microsoft analyzer for Marathi.
nb.microsoft: Microsoft analyzer for Norwegian (Bokmål).
no.lucene: Lucene analyzer för norska.
fa.lucene: Lucene analyzer for Persian.
pl.microsoft: Microsoft analyzer for Polish.
pl.lucene: Lucene analyzer för polska.
pt-BR.microsoft: Microsoft analyzer for Portuguese (Brasilien).
pt-BR.lucene: Lucene analyzer for Portuguese (Brasilien).
pt-PT.microsoft: Microsoft analyzer for Portuguese (Portugal).
pt-PT.lucene: Lucene analyzer for Portuguese (Portugal).
pa.microsoft: Microsoft analyzer for Punjabi.
ro.microsoft: Microsoft analyzer for Romanian.
ro.lucene: Lucene analyzer för rumänska.
ru.microsoft: Microsoft analyzer for Russian.
ru.lucene: Lucene analyzer för ryss.
sr-cyrillic.microsoft: Microsoft analyzer for Serbiska (kyrillisk).
sr-latin.microsoft: Microsoft analyzer for Serbiska (latinsk).
sk.microsoft: Microsoft analyzer for Slovak.
sl.microsoft: Microsoft analyzer for Slovenian.
es.microsoft: Microsoft analyzer for Spanish.
es.lucene: Lucene analyzer för spanska.
sv.microsoft: Microsoft analyzer for Swedish.
sv.lucene: Lucene analyzer for Swedish.
ta.microsoft: Microsoft analyzer for Tamil.
te.microsoft: Microsoft analyzer for Telugu.
th.microsoft: Microsoft analyzer for Thai.
th.lucene: Lucene analyzer for Thai.
tr.microsoft: Microsoft analyzer for Turkish.
tr.lucene: Lucene analyzer for Turkish.
uk.microsoft: Microsoft analyzer for Ukrainska.
your.microsoft: Microsoft analyzer for Urdu.
vi.microsoft: Microsoft Analyzer for Vietnamese.
standard.lucene: Standard Lucene analyzer.
standardasciifolding.lucene: Standard ASCII Folding Lucene analyzer. Se https://video2.skills-academy.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
nyckelord: Behandlar hela innehållet i ett fält som en enda token. Detta är användbart för data som postnummer, ID och vissa produktnamn. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
mönster: Flexibelt separerar text i termer via ett reguljärt uttrycksmönster. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
enkel: Delar upp text med icke-bokstäver och konverterar dem till gemener. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stoppa: Delar upp text med icke-bokstäver; Tillämpar filter för gemener och stoppordstoken. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
: En analysator som använder blankstegstokeniseraren. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Innehåller möjliga fall för Tokenizer.

LexicalTokenizerName

Definierar värden för LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> kan användas omväxlande med LexicalTokenizerName innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

klassiska: Grammatikbaserad tokenizer som är lämplig för bearbetning av de flesta europeiska dokument. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: Tokeniserar indata från en kant till n-gram av angiven storlek. Se https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: Genererar hela indata som en enda token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
bokstaven: Delar upp text med icke-bokstäver. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
gemener: Delar upp text med icke-bokstäver och konverterar dem till gemener. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: Delar upp text med hjälp av språkspecifika regler.
microsoft_language_stemming_tokenizer: Delar upp text med hjälp av språkspecifika regler och reducerar ord till deras basformulär.
nGram: Tokeniserar indata till n-gram av de angivna storlekarna. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer för sökvägsliknande hierarkier. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
mönster: Tokenizer som använder regex-mönstermatchning för att skapa distinkta token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Standard Lucene analyzer; Består av standardtokeniseraren, gemener och stoppfilter. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokeniserar URL:er och e-postmeddelanden som en token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
blanksteg: Delar upp text på tomt utrymme. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Alternativ för en liståtgärd för datakällor.

ListIndexersOptions

Alternativ för en listindexeringsåtgärd.

ListIndexesOptions

Alternativ för en listindexåtgärd.

ListSkillsetsOptions

Alternativ för en liståtgärd för kompetensuppsättningar.

ListSynonymMapsOptions

Alternativ för en list synonymMaps-åtgärd.

MergeDocumentsOptions

Alternativ för åtgärden sammanfoga dokument.

MergeOrUploadDocumentsOptions

Alternativ för åtgärden koppla eller ladda upp dokument.

MicrosoftStemmingTokenizerLanguage

Definierar värden för MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Definierar värden för MicrosoftTokenizerLanguage.

NarrowedModel

Begränsar modelltypen så att den endast innehåller de markerade fälten

OcrLineEnding

Definierar värden för OcrLineEnding.
KnownOcrLineEnding- kan användas omväxlande med OcrLineEnding innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

blanksteg: Linjer avgränsas med ett enda blankstegstecken.
carriageReturn: Linjer avgränsas med ett vagnreturtecken (\r).
lineFeed: Linjer avgränsas med ett enda radmatningstecken (\n).
carriageReturnLineFeed: Linjer avgränsas med en vagnretur och ett radmatningstecken (\r\n).

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Definierar värden för PhoneticEncoder.

QueryAnswer

Ett värde som anger om svar ska returneras som en del av söksvaret. Den här parametern är endast giltig om frågetypen är "semantisk". Om värdet är inställt på extractivereturnerar frågan svar som extraherats från nyckelavsnitt i de högst rankade dokumenten.

QueryCaption

Ett värde som anger om undertexter ska returneras som en del av söksvaret. Den här parametern är endast giltig om frågetypen är "semantisk". Om den anges returnerar frågan undertexter som extraherats från nyckelpassagen i de högst rankade dokumenten. När Undertexter är "extraherande" aktiveras markering som standard. Standardvärdet är "none".

QueryType

Definierar värden för QueryType.

RegexFlags
ResetIndexerOptions

Alternativ för återställning av indexerare.

RunIndexerOptions

Alternativ för att köra indexeraren.

ScoringFunction

Innehåller möjliga fall för ScoringFunction.

ScoringFunctionAggregation

Definierar värden för ScoringFunctionAggregation.

ScoringFunctionInterpolation

Definierar värden för ScoringFunctionInterpolation.

ScoringStatistics

Definierar värden för ScoringStatistics.

SearchField

Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält.

SearchFieldArray

Om TModel är ett otypat objekt, en otypad strängmatris Annars är de snedstrecksavgränsade fälten i TModel.

SearchFieldDataType

Definierar värden för SearchFieldDataType.

Kända värden som stöds av tjänsten:

Edm.String: Anger att ett fält innehåller en sträng.

Edm.Int32: Anger att ett fält innehåller ett 32-bitars signerat heltal.

Edm.Int64: Anger att ett fält innehåller ett 64-bitars signerat heltal.

Edm.Double: Anger att ett fält innehåller ett flyttal med dubbel precision i IEEE.

Edm.Boolean: Anger att ett fält innehåller ett booleskt värde (sant eller falskt).

Edm.DateTimeOffset: Anger att ett fält innehåller ett datum-/tidsvärde, inklusive tidszonsinformation.

Edm.GeographyPoint: Anger att ett fält innehåller en geo-plats när det gäller longitud och latitud.

Edm.ComplexType: Anger att ett fält innehåller ett eller flera komplexa objekt som i sin tur har underfält av andra typer.

Edm.Single: Anger att ett fält innehåller ett flyttal med enkel precision. Detta är endast giltigt när det används som en del av en samlingstyp, t.ex. Collection(Edm.Single).

Edm.Half: Anger att ett fält innehåller ett flyttal med halv precision. Detta är endast giltigt när det används som en del av en samlingstyp, t.ex. Collection(Edm.Half).

Edm.Int16: Anger att ett fält innehåller ett 16-bitars signerat heltal. Detta är endast giltigt när det används som en del av en samlingstyp, dvs. Collection(Edm.Int16).

Edm.SByte: Anger att ett fält innehåller ett 8-bitars signerat heltal. Detta är endast giltigt när det används som en del av en samlingstyp, t.ex. Collection(Edm.SByte).

Edm.Byte: Anger att ett fält innehåller ett 8-bitars heltal utan tecken. Detta är endast giltigt när det används som en del av en samlingstyp, t.ex. Collection(Edm.Byte).

SearchIndexerDataIdentity

Innehåller möjliga fall för SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Innehåller möjliga fall för Kompetens.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Alternativ för SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Alternativ för SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Alternativ för SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Alternativ för SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Alternativ för SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

En iterator för sökresultat för en patikulär fråga. Kommer att göra begäranden efter behov under iterationen. Använd .byPage() för att göra en begäran till servern per iteration.

SearchMode

Definierar värden för SearchMode.

SearchOptions

Alternativ för att genomföra en fullständig sökbegäran.

SearchPick

Välj fält i T djupt med hjälp av giltiga OData för kognitiv sökning $select sökvägar.

SearchRequestOptions

Parametrar för filtrering, sortering, fasettering, växling och andra sökfrågebeteenden.

SearchRequestQueryTypeOptions
SearchResult

Innehåller ett dokument som hittas av en sökfråga, plus associerade metadata.

SelectArray

Om TFields aldrig är en icke-typad strängmatris annars en begränsad Fields[] typ som ska användas någon annanstans i användningstypen.

SelectFields

Skapar en union av giltiga Cognitive Search OData-$select sökvägar för T med hjälp av en postordnings bläddering av fältträdet som är rotat på T.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

Innehåller möjliga fall för likhet.

SnowballTokenFilterLanguage

Definierar värden för SnowballTokenFilterLanguage.

SplitSkillLanguage
StemmerTokenFilterLanguage

Definierar värden för StemmerTokenFilterLanguage.

StopwordsList

Definierar värden för StopwordsList.

SuggestNarrowedModel
SuggestOptions

Alternativ för att hämta förslag baserat på searchText.

SuggestResult

Ett resultat som innehåller ett dokument som hittas av en förslagsfråga, plus associerade metadata.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Definierar värden för TokenCharacterKind.

TokenFilter

Innehåller möjliga fall för TokenFilter.

TokenFilterName

Definierar värden för TokenFilterName.
<xref:KnownTokenFilterName> kan användas omväxlande med TokenFilterName innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

arabic_normalization: Ett tokenfilter som tillämpar den arabiska normaliseraren för att normalisera ortografin. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrohe: Tar bort alla tecken efter en apostrohe (inklusive själva apostrofen). Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: Konverterar alfabetiska, numeriska och symboliska Unicode-tecken som inte finns i de första 127 ASCII-tecknen (unicode-blocket "Basic Latin" till deras ASCII-motsvarigheter, om sådana motsvarigheter finns. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: Bildar bigrams av CJK-termer som genereras från standardtokeniseraren. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: Normaliserar skillnader i CJK-bredd. Viker fullwidth ASCII-varianter till motsvarande grundläggande latinska och katakanavarianter med halv bredd i motsvarande Kana. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
klassiska: Tar bort engelska possessiva och punkter från förkortningar. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: Skapa bigrams för ofta förekommande termer vid indexering. Enkla termer indexeras också, med bigrams överlagrade. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: Genererar n-gram av de angivna storlekarna med början framifrån eller på baksidan av en indatatoken. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: Tar bort elisions. Till exempel konverteras "l'avion" (planet) till "avion" (plan). Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Normaliserar tyska tecken enligt heuristicsen av den german2 snowballalgoritmen. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: Normaliserar text på hindi för att ta bort vissa skillnader i stavningsvariationer. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: Normaliserar Unicode-representationen av text på indiska språk. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: Genererar varje inkommande token två gånger, en gång som nyckelord och en gång som icke-nyckelord. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: Ett högpresterande kstem-filter för engelska. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
längd: Tar bort ord som är för långa eller för korta. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
gräns: Begränsar antalet token vid indexering. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
gemener: Normaliserar tokentext till gemener. Se https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: Genererar n-gram av de angivna storlekarna. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: Tillämpar normalisering för persiska. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonetisk: Skapa token för fonetiska matchningar. Se https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: Använder Porter-algoritmen för att transformera tokenströmmen. Se http://tartarus.org/~martin/PorterStemmer
omvänd: Backar tokensträngen. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: Normaliserar användningen av de utbytbara skandinaviska tecknen. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Viker skandinaviska karaktärer åÅäæÄÆ->a och öÖøØ->o. Det diskriminerar också användningen av dubbla vokaler aa, ae, ao, oe och oo, vilket bara lämnar den första. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
bältros: Skapar kombinationer av token som en enda token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
snowball: Ett filter som stjälkar ord med hjälp av en Snowball-genererad stemmer. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: Normaliserar Unicode-representationen av Sorani-text. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: Språkspecifikt härdningsfilter. Se https://video2.skills-academy.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
stoppord: Tar bort stoppord från en tokenström. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
trimma: Trimmar inledande och avslutande blanksteg från token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
trunkera: Trunkerar termerna till en viss längd. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unika: Filtrerar ut token med samma text som föregående token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
versaler: Normaliserar tokentext till versaler. Se https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: Delar upp ord i underord och utför valfria transformeringar i underordsgrupper.

UnionToIntersection
UploadDocumentsOptions

Alternativ för åtgärden ladda upp dokument.

VectorEncodingFormat

Definierar värden för VectorEncodingFormat.
KnownVectorEncodingFormat kan användas utbytbart med VectorEncodingFormat innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

packedBit: Kodningsformat som representerar bitar som är packade i en bredare datatyp.

VectorFilterMode
VectorQuery

Frågeparametrarna för vektor- och hybridsökfrågor.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Innehåller konfigurationsalternativ som är specifika för den algoritm som används vid indexering och/eller frågekörning.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Innehåller konfigurationsalternativ som är specifika för komprimeringsmetoden som används vid indexering eller frågor.

VectorSearchCompressionKind

Definierar värden för VectorSearchCompressionKind.
KnownVectorSearchCompressionKind kan användas utbytbart med VectorSearchCompressionKind innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

scalarQuantization: Scalar Quantization, en typ av komprimeringsmetod. I skalär kvantisering komprimeras de ursprungliga vektorvärdena till en smalare typ genom att diskretisera och representera varje komponent i en vektor med hjälp av en reducerad uppsättning kvantiserade värden, vilket minskar den totala datastorleken.
binaryQuantization: Binary Quantization, en typ av komprimeringsmetod. I binär kvantisering komprimeras de ursprungliga vektorvärdena till den smalare binära typen genom att diskretisera och representera varje komponent i en vektor med binära värden, vilket minskar den totala datastorleken.

VectorSearchCompressionTarget

Definierar värden för VectorSearchCompressionTarget.
KnownVectorSearchCompressionTarget kan användas utbytbart med VectorSearchCompressionTarget innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

int8

VectorSearchVectorizer

Innehåller konfigurationsalternativ för hur du vektoriserar textvektorfrågor.

VectorSearchVectorizerKind

Definierar värden för VectorSearchVectorizerKind.
KnownVectorSearchVectorizerKind kan användas utbytbart med VectorSearchVectorizerKind innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

azureOpenAI: Generera inbäddningar med hjälp av en Azure OpenAI-resurs vid frågetillfället.
customWebApi: Generera inbäddningar med hjälp av en anpassad webbslutpunkt vid frågetillfället.

VisualFeature

Uppräkningar

KnownAnalyzerNames

Definierar värden för AnalyzerName. Se https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Kända värden för AzureOpenAIModelName som tjänsten accepterar.

KnownBlobIndexerDataToExtract

Kända värden för BlobIndexerDataToExtract som tjänsten accepterar.

KnownBlobIndexerImageAction

Kända värden för BlobIndexerImageAction som tjänsten accepterar.

KnownBlobIndexerPDFTextRotationAlgorithm

Kända värden för BlobIndexerPDFTextRotationAlgorithm som tjänsten accepterar.

KnownBlobIndexerParsingMode

Kända värden för BlobIndexerParsingMode som tjänsten accepterar.

KnownCharFilterNames

Kända värden för CharFilterName som tjänsten accepterar.

KnownCustomEntityLookupSkillLanguage

Kända värden för CustomEntityLookupSkillLanguage som tjänsten accepterar.

KnownEntityCategory

Kända värden för EntityCategory som tjänsten accepterar.

KnownEntityRecognitionSkillLanguage

Kända värden för EntityRecognitionSkillLanguage som tjänsten accepterar.

KnownImageAnalysisSkillLanguage

Kända värden för ImageAnalysisSkillLanguage som tjänsten accepterar.

KnownImageDetail

Kända värden för ImageDetail som tjänsten accepterar.

KnownIndexProjectionMode

Kända värden för IndexProjectionMode som tjänsten accepterar.

KnownIndexerExecutionEnvironment

Kända värden för IndexerExecutionEnvironment som tjänsten accepterar.

KnownKeyPhraseExtractionSkillLanguage

Kända värden för KeyPhraseExtractionSkillLanguage som tjänsten accepterar.

KnownOcrLineEnding

Kända värden för OcrLineEnding som tjänsten accepterar.

KnownOcrSkillLanguage

Kända värden för OcrSkillLanguage som tjänsten accepterar.

KnownPIIDetectionSkillMaskingMode

Kända värden för PIIDetectionSkillMaskingMode som tjänsten accepterar.

KnownRegexFlags

Kända värden för RegexFlags som tjänsten accepterar.

KnownSearchAudience

Kända värden för sökmålgrupp

KnownSearchFieldDataType

Kända värden för SearchFieldDataType som tjänsten accepterar.

KnownSearchIndexerDataSourceType

Kända värden för SearchIndexerDataSourceType som tjänsten accepterar.

KnownSemanticErrorMode

Kända värden för SemanticErrorMode som tjänsten accepterar.

KnownSemanticErrorReason

Kända värden för SemanticErrorReason som tjänsten accepterar.

KnownSemanticSearchResultsType

Kända värden för SemanticSearchResultsType som tjänsten accepterar.

KnownSentimentSkillLanguage

Kända värden för SentimentSkillLanguage som tjänsten accepterar.

KnownSplitSkillLanguage

Kända värden för SplitSkillLanguage som tjänsten accepterar.

KnownTextSplitMode

Kända värden för TextSplitMode som tjänsten accepterar.

KnownTextTranslationSkillLanguage

Kända värden för TextTranslationSkillLanguage som tjänsten accepterar.

KnownTokenFilterNames

Kända värden för TokenFilterName som tjänsten accepterar.

KnownTokenizerNames

Kända värden för LexicalTokenizerName som tjänsten accepterar.

KnownVectorEncodingFormat

Kända värden för VectorEncodingFormat som tjänsten accepterar.

KnownVectorFilterMode

Kända värden för VectorFilterMode som tjänsten accepterar.

KnownVectorQueryKind

Kända värden för VectorQueryKind som tjänsten accepterar.

KnownVectorSearchAlgorithmKind

Kända värden för VectorSearchAlgorithmKind som tjänsten accepterar.

KnownVectorSearchAlgorithmMetric

Kända värden för VectorSearchAlgorithmMetric som tjänsten accepterar.

KnownVectorSearchCompressionKind

Kända värden för VectorSearchCompressionKind som tjänsten accepterar.

KnownVectorSearchCompressionTarget

Kända värden för VectorSearchCompressionTarget som tjänsten accepterar.

KnownVectorSearchVectorizerKind

Kända värden för VectorSearchVectorizerKind som tjänsten accepterar.

KnownVisualFeature

Kända värden för VisualFeature som tjänsten accepterar.

Funktioner

createSynonymMapFromFile(string, string)

Hjälpmetod för att skapa ett SynonymMap-objekt. Det här är en nodeJS-metod.

odata(TemplateStringsArray, unknown[])

Undflyr ett odatafilteruttryck för att undvika fel med att citera strängliteraler. Exempel på användning:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Mer information om syntax som stöds finns i: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Funktionsinformation

createSynonymMapFromFile(string, string)

Hjälpmetod för att skapa ett SynonymMap-objekt. Det här är en nodeJS-metod.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parametrar

name

string

Namnet på SynonymMap.

filePath

string

Sökvägen till filen som innehåller synonymerna (uppdelade efter nya rader)

Returer

Promise<SynonymMap>

SynonymMap-objekt

odata(TemplateStringsArray, unknown[])

Undflyr ett odatafilteruttryck för att undvika fel med att citera strängliteraler. Exempel på användning:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Mer information om syntax som stöds finns i: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parametrar

strings

TemplateStringsArray

Matris med strängar för uttrycket

values

unknown[]

Matris med värden för uttrycket

Returer

string