Microsoft.Azure.Search.Models Namespace
Importante
Algumas informações se referem a produtos de pré-lançamento que podem ser substancialmente modificados antes do lançamento. A Microsoft não oferece garantias, expressas ou implícitas, das informações aqui fornecidas.
Classes
AccessCondition |
Parâmetros adicionais para um conjunto de operações. |
Analyzer |
Classe base abstrata para analisadores. |
AnalyzeRequest |
Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens. |
AnalyzeResult |
O resultado de testar um analisador no texto. |
AnalyzerName.AsString |
Os nomes de todos os analisadores como cadeias de caracteres simples. |
AsciiFoldingTokenFilter |
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico" em seus equivalentes ASCII, se esses equivalentes existirem. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
AutocompleteItem |
O resultado das solicitações de preenchimento automático. |
AutocompleteParameters |
Parâmetros adicionais para a operação AutocompleteGet. |
AutocompleteResult |
O resultado da consulta de preenchimento automático. |
CharFilter |
Classe base abstrata para filtros de caracteres. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
CjkBigramTokenFilter |
Forma bigramas de termos CJK que são gerados a partir do StandardTokenizer. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html |
ClassicTokenizer |
Tokenizer baseado em gramática que é adequado para processar a maioria dos documentos de idioma europeu. Esse tokenizer é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
CognitiveServices |
Classe base abstrata para descrever qualquer recurso de serviço cognitivo anexado ao conjunto de habilidades. |
CognitiveServicesByKey |
Um recurso de serviço cognitivo provisionado com uma chave anexada a um conjunto de habilidades. |
CommonGramTokenFilter |
Construa bigramas para termos que ocorrem com frequência durante a indexação. Termos únicos ainda são indexados também, com bigramas sobrepostos. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html |
ConditionalSkill |
Uma habilidade que permite cenários que exigem uma operação booliana para determinar os dados a serem atribuídos a uma saída. https://docs.microsoft.com/azure/search/cognitive-search-skill-conditional |
CorsOptions |
Define opções para controlar o CORS (Compartilhamento de Recursos entre Origens) para um índice. https://docs.microsoft.com/rest/api/searchservice/Create-Index |
CustomAnalyzer |
Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizador predefinido e um ou mais filtros. O tokenizer é responsável por dividir o texto em tokens e os filtros para modificar tokens emitidos pelo tokenizer. |
DataChangeDetectionPolicy |
Classe base abstrata para políticas de detecção de alteração de dados. |
DataContainer |
Representa informações sobre a entidade (como SQL do Azure tabela ou coleção DocumentDb) que serão indexadas. |
DataDeletionDetectionPolicy |
Classe base abstrata para políticas de detecção de exclusão de dados. |
DataSource |
Representa uma definição de fonte de dados, que pode ser usada para configurar um indexador. |
DataSourceCredentials |
Representa as credenciais que podem ser usadas para se conectar a uma fonte de dados. |
DataSourceListResult |
Resposta de uma solicitação Listar Fontes de Dados. Se for bem-sucedido, ele incluirá as definições completas de todas as fontes de dados. |
DataType.AsString |
Os nomes de todos os tipos de dados como cadeias de caracteres simples. |
DataTypeExtensions |
Define métodos de extensão para |
DefaultCognitiveServices |
Um objeto vazio que representa o recurso de serviço cognitivo padrão para um conjunto de habilidades. |
DictionaryDecompounderTokenFilter |
Decompõe palavras compostas encontradas em muitos idiomas germânicos. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/compound/DictionaryCompoundWordTokenFilter.html |
DistanceScoringFunction |
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
DistanceScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de distância. |
Document |
Representa um documento como um recipiente de propriedades. Isso é útil para cenários em que o esquema de índice só é conhecido em tempo de execução. |
DocumentIndexResult |
Resposta que contém o status de operações para todos os documentos na solicitação de indexação. |
DocumentSearchResult<T> |
Resposta que contém os resultados da pesquisa de um índice. |
DocumentSuggestResult<T> |
Resposta que contém os resultados da consulta de sugestão de um índice. |
EdgeNGramTokenFilter |
Gera n-gramas dos tamanhos fornecidos a partir da frente ou da parte traseira de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html |
EdgeNGramTokenFilterV2 |
Gera n-gramas dos tamanhos fornecidos a partir da frente ou da parte traseira de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html |
EdgeNGramTokenizer |
Tokeniza a entrada de uma borda em n-gramas dos tamanhos fornecidos. Esse tokenizer é implementado usando o Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html |
ElisionTokenFilter |
Remove elisões. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html |
EntityRecognitionSkill |
Reconhecimento de entidade de análise de texto. https://docs.microsoft.com/azure/search/cognitive-search-skill-entity-recognition |
FacetResult |
Um único bucket de um resultado de consulta de faceta. Relata o número de documentos com um valor de campo que está dentro de um intervalo específico ou com um determinado valor ou intervalo. |
Field |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. https://docs.microsoft.com/rest/api/searchservice/Create-Index |
FieldMapping |
Define um mapeamento entre um campo em uma fonte de dados e um campo de destino em um índice. https://docs.microsoft.com/azure/search/search-indexer-field-mappings |
FieldMappingFunction |
Representa uma função que transforma um valor de uma fonte de dados antes da indexação. https://docs.microsoft.com/azure/search/search-indexer-field-mappings |
FreshnessScoringFunction |
Define uma função que aumenta as pontuações com base no valor de um campo de data e hora. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
FreshnessScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de atualização. |
HighWaterMarkChangeDetectionPolicy |
Define uma política de detecção de alteração de dados que captura alterações com base no valor de uma coluna de marca d'água alta. |
ImageAnalysisSkill |
Uma habilidade que analisa arquivos de imagem. Ele extrai um conjunto avançado de recursos visuais com base no conteúdo da imagem. https://docs.microsoft.com/azure/search/cognitive-search-skill-image-analysis |
Index |
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice. |
IndexAction |
Fornece métodos de fábrica para criar uma ação de índice que opera em um documento. |
IndexAction<T> |
Representa uma ação de índice que opera em um documento. |
IndexBatch |
Fornece métodos de fábrica para criar um lote de operações de gravação de documento a serem enviadas para o índice de pesquisa. |
IndexBatch<T> |
Contém um lote de ações de gravação de documento a serem enviadas para o índice. |
Indexer |
Representa um indexador. https://docs.microsoft.com/rest/api/searchservice/Indexer-operations |
IndexerExecutionInfo |
Representa o histórico de execução e do status atual de um indexador. |
IndexerExecutionResult |
Representa o resultado de uma execução individual do indexador. |
IndexerLimits | |
IndexerListResult |
Resposta de uma solicitação Listar Indexadores. Se tiver êxito, ele incluirá as definições completas de todos os indexadores. |
IndexGetStatisticsResult |
Estatísticas para um determinado índice. As estatísticas são coletadas periodicamente e não têm garantia de estar sempre atualizadas. |
IndexingParameters |
Representa os parâmetros de execução do indexador. |
IndexingParametersExtensions |
Define métodos de extensão para a classe IndexingParameters. |
IndexingResult |
Status de uma operação de indexação para um único documento. |
IndexingSchedule |
Representa uma agenda para a execução do indexador. |
IndexListResult |
Resposta de uma solicitação De índices de lista. Se tiver êxito, ele incluirá as definições completas de todos os índices. |
InputFieldMappingEntry |
Mapeamento de campo de entrada para uma habilidade. |
ItemError |
Representa um erro de indexação no nível do item ou documento. |
ItemWarning |
Representa um aviso no nível do item. |
KeepTokenFilter |
Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeepWordFilter.html |
KeyPhraseExtractionSkill |
Uma habilidade que usa a análise de texto para extração de frases-chave. https://docs.microsoft.com/azure/search/cognitive-search-skill-keyphrases |
KeywordMarkerTokenFilter |
Marca termos como palavras-chave. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordMarkerFilter.html |
KeywordTokenizer |
Emite a entrada inteira como um único token. Esse criador de tokens é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html |
KeywordTokenizerV2 |
Emite a entrada inteira como um único token. Esse criador de tokens é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html |
LanguageDetectionSkill |
Uma habilidade que detecta o idioma do texto de entrada e relata um único código de idioma para cada documento enviado na solicitação. O código de idioma é emparelhado com uma pontuação que indica a confiança da análise. https://docs.microsoft.com/azure/search/cognitive-search-skill-language-detection |
LengthTokenFilter |
Remove palavras muito longas ou muito curtas. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html |
LimitTokenFilter |
Limita o número de tokens durante a indexação. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html |
MagnitudeScoringFunction |
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
MagnitudeScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de magnitude. |
MappingCharFilter |
Um filtro de caracteres que aplica mapeamentos definidos com a opção de mapeamentos. A correspondência é gananciosa (a correspondência de padrões mais longa em um determinado ponto vence). A substituição é permitida como a cadeia de caracteres vazia. Esse filtro de caractere é implementado usando o Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/MappingCharFilter.html |
MergeSkill |
Uma habilidade para mesclar duas ou mais cadeias de caracteres em uma única cadeia de caracteres unificada, com um delimitador opcional definido pelo usuário separando cada parte do componente. https://docs.microsoft.com/azure/search/cognitive-search-skill-textmerger |
MicrosoftLanguageStemmingTokenizer |
Divide o texto usando regras específicas de idioma e reduz palavras para seus formulários base. |
MicrosoftLanguageTokenizer |
Divide o texto usando regras específicas de idioma. |
NamedEntityRecognitionSkill |
Análise de texto chamada reconhecimento de entidade. Essa habilidade foi preterida em favor de EntityRecognitionSkillhttps://docs.microsoft.com/azure/search/cognitive-search-skill-named-entity-recognition |
NGramTokenFilter |
Gera n-gramas de determinados tamanhos. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html |
NGramTokenFilterV2 |
Gera n-gramas de determinados tamanhos. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html |
NGramTokenizer |
Cria tokens de entrada em n-gramas de determinados tamanhos. Esse criador de tokens é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html |
OcrSkill |
Uma habilidade que extrai texto de arquivos de imagem. https://docs.microsoft.com/azure/search/cognitive-search-skill-ocr |
OutputFieldMappingEntry |
Mapeamento de campo de saída para uma habilidade. https://docs.microsoft.com/rest/api/searchservice/naming-rules |
PathHierarchyTokenizer |
Criador de token para hierarquias de caminho. Esse criador de tokens é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html |
PathHierarchyTokenizerV2 |
Criador de token para hierarquias de caminho. Esse criador de tokens é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html |
PatternAnalyzer |
Separa texto em termos de forma flexível por meio de um padrão de expressão regular. Esse analisador é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
PatternCaptureTokenFilter |
Usa regexes Java para emitir vários tokens – um para cada grupo de captura em um ou mais padrões. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternCaptureGroupTokenFilter.html |
PatternReplaceCharFilter |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres para substituir. Por exemplo, considerando o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de caractere é implementado usando o Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceCharFilter.html |
PatternReplaceTokenFilter |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres para substituir. Por exemplo, considerando o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceFilter.html |
PatternTokenizer |
Criador de token que usa a correspondência de padrões regex para construir tokens distintos. Esse criador de tokens é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html |
PhoneticTokenFilter |
Crie tokens para correspondências fonéticas. Esse filtro de token é implementado usando o Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html |
RangeFacetResult<T> |
Um único bucket de um resultado de consulta de faceta de intervalo que relata o número de documentos com um valor de campo que está dentro de um intervalo específico. |
ResourceCounter |
Representa o uso e a cota de um recurso. |
ScoringFunction |
Classe base abstrata para funções que podem modificar as pontuações do documento durante a classificação. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
ScoringParameter |
Representa um valor de parâmetro a ser usado em funções de pontuação (por exemplo, referencePointParameter). |
ScoringProfile |
Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
SearchContinuationToken |
Encapsula o estado necessário para continuar buscando os resultados da pesquisa. Isso é necessário quando Azure Cognitive Search não pode atender a uma solicitação de pesquisa com uma única resposta. |
SearchParameters |
Parâmetros para filtragem, classificação, faceta, paginação e outros comportamentos de consulta de pesquisa. |
SearchRequestOptions |
Parâmetros adicionais para um conjunto de operações. |
SearchResult<T> |
Contém um documento encontrado por uma consulta de pesquisa, além de metadados associados. |
SentimentSkill |
Análise de sentimento positivo-negativo da análise de texto, pontuada como um valor de ponto flutuante em um intervalo de zero a 1. https://docs.microsoft.com/azure/search/cognitive-search-skill-sentiment |
SerializePropertyNamesAsCamelCaseAttribute |
Indica que as propriedades públicas de um tipo de modelo devem ser serializadas como maiúsculas e minúsculas para corresponder aos nomes de campo de um índice de pesquisa. |
ServiceCounters |
Representa cotas e contadores de recursos no nível do serviço. |
ServiceLimits |
Representa vários limites de nível de serviço. |
ServiceStatistics |
Resposta de uma solicitação obter estatísticas de serviço. Se tiver êxito, ele inclui contadores e limites de nível de serviço. |
ShaperSkill |
Uma habilidade para remodelar as saídas. Ele cria um tipo complexo para dar suporte a campos compostos (também conhecidos como campos de várias partes). https://docs.microsoft.com/azure/search/cognitive-search-skill-shaper |
ShingleTokenFilter |
Cria combinações de tokens como um único token. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html |
Skill |
Classe base abstrata para habilidades. https://docs.microsoft.com/azure/search/cognitive-search-predefined-skills |
Skillset |
Uma lista de habilidades. https://docs.microsoft.com/azure/search/cognitive-search-tutorial-blob |
SkillsetListResult |
Resposta de uma solicitação de conjunto de habilidades de lista. Se tiver êxito, ele incluirá as definições completas de todos os conjuntos de habilidades. |
SnowballTokenFilter |
Um filtro que deriva palavras usando um lematizador gerado por Bola de Neve. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html |
SoftDeleteColumnDeletionDetectionPolicy |
Define uma política de detecção de exclusão de dados que implementa uma estratégia de exclusão reversível. Ele determina se um item deve ser excluído com base no valor de uma coluna "exclusão temporária" designada. |
SplitSkill |
Uma habilidade para dividir uma cadeia de caracteres em partes de texto. https://docs.microsoft.com/azure/search/cognitive-search-skill-textsplit |
SqlIntegratedChangeTrackingPolicy |
Define uma política de detecção de alteração de dados que captura alterações usando o recurso Controle de Alterações Integrado do Banco de Dados SQL do Azure. |
StandardAnalyzer |
Analisador Standard do Apache Lucene; Composto pelo tokenizer padrão, filtro em minúsculas e filtro de parada. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardAnalyzer.html |
StandardTokenizer |
Quebra o texto seguindo as regras de Segmentação de Texto Unicode. Esse criador de tokens é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html |
StandardTokenizerV2 |
Quebra o texto seguindo as regras de Segmentação de Texto Unicode. Esse criador de tokens é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html |
StemmerOverrideTokenFilter |
Fornece a capacidade de substituir outros filtros de lematização por lematização personalizada baseada em dicionário. Quaisquer termos com lematização de dicionário serão marcados como palavras-chave para que não sejam decorrentes de lematizadores na cadeia. Deve ser colocado antes de qualquer filtro de lematização. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html |
StemmerTokenFilter |
Filtro de lematização específico da linguagem. Esse filtro de token é implementado usando o Apache Lucene. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters |
StopAnalyzer |
Divide o texto em não letras; Aplica os filtros de token de letras minúsculas e palavras irrelevantes. Esse analisador é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
StopwordsTokenFilter |
Remove palavras irrelevantes de um fluxo de tokens. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html |
Suggester |
Define como a API de Sugestão deve se aplicar a um grupo de campos no índice. |
SuggestParameters |
Parâmetros para filtragem, classificação, correspondência difusa e outros comportamentos de consulta de sugestões. |
SuggestResult<T> |
Um resultado que contém um documento encontrado por uma consulta de sugestão, além de metadados associados. |
SynonymMap |
Representa uma definição de mapa de sinônimos. |
SynonymMapListResult |
Resposta de uma solicitação List SynonymMaps. Se tiver êxito, ele incluirá as definições completas de todos os mapas de sinônimos. |
SynonymTokenFilter |
Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/synonym/SynonymFilter.html |
TagScoringFunction |
Define uma função que aumenta as pontuações de documentos com valores de cadeia de caracteres que correspondem a uma determinada lista de marcas. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
TagScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de marca. |
TextTranslationSkill |
Uma habilidade para traduzir texto de um idioma para outro. https://docs.microsoft.com/azure/search/cognitive-search-skill-text-translation |
TextWeights |
Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa. |
TokenFilter |
Classe base abstrata para filtros de token. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
TokenInfo |
Informações sobre um token retornado por um analisador. |
Tokenizer |
Classe base abstrata para criadores de token. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
TruncateTokenFilter |
Trunca os termos para um comprimento específico. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html |
UaxUrlEmailTokenizer |
Cria tokens de urls e emails como um único token. Esse criador de tokens é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html |
UniqueTokenFilter |
Filtra os tokens com o mesmo texto como o token anterior. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html |
ValueFacetResult<T> |
Um único bucket de um resultado de consulta de faceta simples ou de intervalo que relata o número de documentos com um campo caindo dentro de um intervalo específico ou tendo um valor específico. |
WebApiSkill |
Uma habilidade que pode chamar um ponto de extremidade da API Web, permitindo que você estenda um conjunto de habilidades fazendo com que ele chame seu código personalizado. https://docs.microsoft.com/azure/search/cognitive-search-custom-skill-web-api |
WordDelimiterTokenFilter |
Divide as palavras em subpalavras e realiza transformações opcionais em grupos de subpalavras. Esse filtro de token é implementado usando o Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/WordDelimiterFilter.html |
Estruturas
AnalyzerName |
Define os nomes de todos os analisadores de texto compatíveis com Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Language-support |
BlobExtractionMode |
Define quais partes de um blob serão indexadas pelo indexador de armazenamento de blobs. https://docs.microsoft.com/azure/search/search-howto-indexing-azure-blob-storage |
CharFilterName |
Define os nomes de todos os filtros de caracteres compatíveis com Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
DataSourceType |
Define o tipo de uma fonte de dados. |
DataType |
Define o tipo de dados de um campo em um índice de pesquisa. |
NamedEntityRecognitionSkillLanguage |
Define o formato dos códigos de idioma compatíveis com NamedEntityRecognitionSkill. |
RegexFlags |
Define sinalizadores que podem ser combinados para controlar como as expressões regulares são usadas no analisador de padrões e no criador de tokens de padrão. http://docs.oracle.com/javase/6/docs/api/java/util/regex/Pattern.html#field_summary |
TokenFilterName |
Define os nomes de todos os filtros de token compatíveis com Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
TokenizerName |
Define os nomes de todos os tokenizers compatíveis com Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
Interfaces
IResourceWithETag |
As classes de modelo que implementam essa interface representam recursos que são persistidos com uma versão ETag no servidor. |
Enumerações
AutocompleteMode |
Define valores para AutocompleteMode. |
CjkBigramTokenFilterScripts |
Define valores para CjkBigramTokenFilterScripts. |
EdgeNGramTokenFilterSide |
Define valores para EdgeNGramTokenFilterSide. |
EntityCategory |
Define valores para EntityCategory. |
EntityRecognitionSkillLanguage |
Define valores para EntityRecognitionSkillLanguage. |
FacetType |
Especifica o tipo de resultado de uma consulta de faceta. |
ImageAnalysisSkillLanguage |
Define valores para ImageAnalysisSkillLanguage. |
ImageDetail |
Define valores para ImageDetail. |
IndexActionType |
Define valores para IndexActionType. |
IndexerExecutionStatus |
Define valores para IndexerExecutionStatus. |
IndexerStatus |
Define valores para IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Define valores para KeyPhraseExtractionSkillLanguage. |
MicrosoftStemmingTokenizerLanguage |
Define valores para MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Define valores para MicrosoftTokenizerLanguage. |
NamedEntityCategory |
Define valores para NamedEntityCategory. Isso foi preterido, use EntityCategory em vez disso |
OcrSkillLanguage |
Define valores para OcrSkillLanguage. |
PhoneticEncoder |
Define valores para PhoneticEncoder. |
QueryType |
Define valores para QueryType. |
ScoringFunctionAggregation |
Define valores para ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Define valores para ScoringFunctionInterpolation. |
SearchMode |
Define valores para SearchMode. |
SentimentSkillLanguage |
Define valores para SentimentSkillLanguage. |
SnowballTokenFilterLanguage |
Define valores para SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Define valores para SplitSkillLanguage. |
StemmerTokenFilterLanguage |
Define valores para StemmerTokenFilterLanguage. |
StopwordsList |
Define valores para StopwordsList. |
TextExtractionAlgorithm |
Define valores para TextExtractionAlgorithm. |
TextSplitMode |
Define valores para TextSplitMode. |
TextTranslationSkillLanguage |
Define valores para TextTranslationSkillLanguage. |
TokenCharacterKind |
Define valores para TokenCharacterKind. |
VisualFeature |
Define valores para VisualFeature. |
Azure SDK for .NET