Microsoft.Azure.Search.Models Espacio de nombres
Importante
Parte de la información hace referencia a la versión preliminar del producto, que puede haberse modificado sustancialmente antes de lanzar la versión definitiva. Microsoft no otorga ninguna garantía, explícita o implícita, con respecto a la información proporcionada aquí.
Clases
AccessCondition |
Parámetros adicionales para un conjunto de operaciones. |
Analyzer |
Clase base abstracta para analizadores. |
AnalyzeRequest |
Especifica algunos componentes de texto y análisis que se usan para dividir ese texto en tokens. |
AnalyzeResult |
Resultado de la prueba de un analizador en texto. |
AnalyzerName.AsString |
Los nombres de todos los analizadores como cadenas sin formato. |
AsciiFoldingTokenFilter |
Convierte caracteres alfabéticos, numéricos y simbólicos Unicode que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Basic Latin" ) en sus equivalentes ASCII, si existen dichos equivalentes. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
AutocompleteItem |
Resultado de las solicitudes de Autocompletar. |
AutocompleteParameters |
Parámetros adicionales para la operación AutocompleteGet. |
AutocompleteResult |
Resultado de la consulta Autocompletar. |
CharFilter |
Clase base abstracta para filtros de caracteres. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
CjkBigramTokenFilter |
Forma bigramas de términos CJK que se generan a partir de StandardTokenizer. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html |
ClassicTokenizer |
Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
CognitiveServices |
Clase base abstracta para describir cualquier recurso de Cognitive Services asociado al conjunto de aptitudes. |
CognitiveServicesByKey |
Un recurso de Cognitive Services aprovisionado con una clave que está asociada a un conjunto de aptitudes. |
CommonGramTokenFilter |
Construye bigramas para términos que se repiten con frecuencia durante la indexación. Los términos individuales también se indexan, con los bigramas superpuestos. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html |
ConditionalSkill |
Aptitud que permite escenarios que requieren una operación booleana para determinar los datos que se van a asignar a una salida. https://docs.microsoft.com/azure/search/cognitive-search-skill-conditional |
CorsOptions |
Define las opciones para controlar el uso compartido de recursos entre orígenes (CORS) para un índice. https://docs.microsoft.com/rest/api/searchservice/Create-Index |
CustomAnalyzer |
Permite tomar el control sobre el proceso de conversión de texto en tokens indexables o buscables. Se trata de una configuración definida por el usuario que consta de un único tokenizador predefinido y uno o varios filtros. El tokenizador es responsable de dividir el texto en tokens y de los filtros para modificar los tokens emitidos por el tokenizador. |
DataChangeDetectionPolicy |
Clase base abstracta para las directivas de detección de cambios de datos. |
DataContainer |
Representa información sobre la entidad (como Azure SQL tabla o colección DocumentDb) que se indexará. |
DataDeletionDetectionPolicy |
Clase base abstracta para las directivas de detección de eliminación de datos. |
DataSource |
Representa una definición de origen de datos, que se puede usar para configurar un indexador. |
DataSourceCredentials |
Representa las credenciales que pueden usarse para conectarse a un origen de datos. |
DataSourceListResult |
Respuesta de una solicitud List Datasources. Si se ejecuta correctamente, incluye las definiciones completas de todos los orígenes de datos. |
DataType.AsString |
Nombres de todos los tipos de datos como cadenas sin formato. |
DataTypeExtensions |
Define métodos de extensión para |
DefaultCognitiveServices |
Objeto vacío que representa el recurso predeterminado de Cognitive Services para un conjunto de aptitudes. |
DictionaryDecompounderTokenFilter |
Descompone las palabras compuestas que se encuentran en muchas lenguas germánicas. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/compound/DictionaryCompoundWordTokenFilter.html |
DistanceScoringFunction |
Define una función que aumenta las puntuaciones en función de la distancia desde una ubicación geográfica. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
DistanceScoringParameters |
Proporciona valores de parámetro a una función de puntuación de distancia. |
Document |
Representa un documento como contenedor de propiedades. Esto resulta útil en escenarios en los que el esquema de índice solo se conoce en tiempo de ejecución. |
DocumentIndexResult |
Respuesta que contiene el estado de las operaciones de todos los documentos de la solicitud de indexación. |
DocumentSearchResult<T> |
Respuesta que contiene los resultados de búsqueda de un índice. |
DocumentSuggestResult<T> |
Respuesta que contiene los resultados de la consulta de sugerencias de un índice. |
EdgeNGramTokenFilter |
Genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html |
EdgeNGramTokenFilterV2 |
Genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html |
EdgeNGramTokenizer |
Tokeniza la entrada de un borde en n-gramas de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html |
ElisionTokenFilter |
Quita las elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html |
EntityRecognitionSkill |
Reconocimiento de entidades de Text Analytics. https://docs.microsoft.com/azure/search/cognitive-search-skill-entity-recognition |
FacetResult |
Un único cubo de un resultado de consulta de faceta. Notifica el número de documentos con un valor de campo que se encuentra dentro de un intervalo determinado o que tiene un valor o intervalo determinado. |
Field |
Representa un campo de una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo. https://docs.microsoft.com/rest/api/searchservice/Create-Index |
FieldMapping |
Define una asignación entre un campo de un origen de datos y un campo de destino en un índice. https://docs.microsoft.com/azure/search/search-indexer-field-mappings |
FieldMappingFunction |
Representa una función que transforma un valor de un origen de datos antes de la indexación. https://docs.microsoft.com/azure/search/search-indexer-field-mappings |
FreshnessScoringFunction |
Define una función que aumenta las puntuaciones en función del valor de un campo de fecha y hora. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
FreshnessScoringParameters |
Proporciona valores de parámetro a una función de puntuación de actualización. |
HighWaterMarkChangeDetectionPolicy |
Define una directiva de detección de cambios de datos que captura los cambios en función del valor de una columna de marca de agua alta. |
ImageAnalysisSkill |
Aptitud que analiza los archivos de imagen. Extrae un amplio conjunto de características visuales basadas en el contenido de la imagen. https://docs.microsoft.com/azure/search/cognitive-search-skill-image-analysis |
Index |
Representa una definición de índice de búsqueda, que describe los campos y el comportamiento de búsqueda de un índice. |
IndexAction |
Proporciona métodos de fábrica para crear una acción de índice que funciona en un documento. |
IndexAction<T> |
Representa una acción de índice que funciona en un documento. |
IndexBatch |
Proporciona métodos de fábrica para crear un lote de operaciones de escritura de documentos que se van a enviar al índice de búsqueda. |
IndexBatch<T> |
Contiene un lote de acciones de escritura de documentos que se van a enviar al índice. |
Indexer |
Representa un indexador. https://docs.microsoft.com/rest/api/searchservice/Indexer-operations |
IndexerExecutionInfo |
Representa el historial de ejecución y el estado actual de un indizador. |
IndexerExecutionResult |
Representa el resultado de una ejecución de indizador individual. |
IndexerLimits | |
IndexerListResult |
Respuesta de una solicitud List Indexers. Si se ejecuta correctamente, incluye las definiciones completas de todos los indexadores. |
IndexGetStatisticsResult |
Estadísticas de un índice determinado. Las estadísticas se recopilan periódicamente y no se garantiza que siempre estén actualizadas. |
IndexingParameters |
Representa los parámetros para la ejecución del indizador. |
IndexingParametersExtensions |
Define métodos de extensión para la clase IndexingParameters. |
IndexingResult |
Estado de una operación de indexación para un único documento. |
IndexingSchedule |
Representa una programación para la ejecución del indizador. |
IndexListResult |
Respuesta de una solicitud de índices de lista. Si se ejecuta correctamente, incluye las definiciones completas de todos los índices. |
InputFieldMappingEntry |
Asignación de campos de entrada para una aptitud. |
ItemError |
Representa un error de indización de nivel de elemento o documento. |
ItemWarning |
Representa una advertencia de nivel de elemento. |
KeepTokenFilter |
Filtro de token que solo mantiene los tokens con texto contenido en una lista especificada de palabras. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeepWordFilter.html |
KeyPhraseExtractionSkill |
Una aptitud que usa text analytics para la extracción de frases clave. https://docs.microsoft.com/azure/search/cognitive-search-skill-keyphrases |
KeywordMarkerTokenFilter |
Marca los términos como palabras clave. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordMarkerFilter.html |
KeywordTokenizer |
Emite la entrada completa como un solo token. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html |
KeywordTokenizerV2 |
Emite la entrada completa como un solo token. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html |
LanguageDetectionSkill |
Una aptitud que detecta el idioma del texto de entrada e informa de un único código de idioma para cada documento enviado en la solicitud. El código de idioma se empareja con una puntuación que indica la confianza del análisis. https://docs.microsoft.com/azure/search/cognitive-search-skill-language-detection |
LengthTokenFilter |
Quita las palabras que son demasiado largas o demasiado cortas. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html |
LimitTokenFilter |
Limita el número de tokens durante la indexación. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html |
MagnitudeScoringFunction |
Define una función que aumenta las puntuaciones en función de la magnitud de un campo numérico. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
MagnitudeScoringParameters |
Proporciona valores de parámetro a una función de puntuación de magnitud. |
MappingCharFilter |
Filtro de caracteres que aplica asignaciones definidas con la opción asignaciones. La coincidencia es ambiciosa (la mayor coincidencia de patrones en un momento dado gana). Se permite que la sustitución sea una cadena vacía. Este filtro de caracteres se implementa mediante Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/MappingCharFilter.html |
MergeSkill |
Una aptitud para combinar dos o más cadenas en una sola cadena unificada, con un delimitador opcional definido por el usuario que separa cada parte de componente. https://docs.microsoft.com/azure/search/cognitive-search-skill-textmerger |
MicrosoftLanguageStemmingTokenizer |
Divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formas base. |
MicrosoftLanguageTokenizer |
Divide el texto mediante reglas específicas del idioma. |
NamedEntityRecognitionSkill |
Text Analytics denominado reconocimiento de entidades. Esta aptitud está en desuso en favor de EntityRecognitionSkillhttps://docs.microsoft.com/azure/search/cognitive-search-skill-named-entity-recognition |
NGramTokenFilter |
Genera n-gramas de los tamaños dados. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html |
NGramTokenFilterV2 |
Genera n-gramas de los tamaños dados. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html |
NGramTokenizer |
Tokeniza la entrada en n-gramas de tamaños dados. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html |
OcrSkill |
Una aptitud que extrae texto de los archivos de imagen. https://docs.microsoft.com/azure/search/cognitive-search-skill-ocr |
OutputFieldMappingEntry |
Asignación de campos de salida para una aptitud. https://docs.microsoft.com/rest/api/searchservice/naming-rules |
PathHierarchyTokenizer |
Tokenizador para las jerarquías parecidas a rutas de acceso. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html |
PathHierarchyTokenizerV2 |
Tokenizador para las jerarquías parecidas a rutas de acceso. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html |
PatternAnalyzer |
Separa el texto de manera flexible en términos a través de un patrón de expresión regular. Este analizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
PatternCaptureTokenFilter |
Usa expresiones regulares de Java para emitir varios tokens: uno para cada grupo de capturas en uno o varios patrones. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternCaptureGroupTokenFilter.html |
PatternReplaceCharFilter |
Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar las secuencias de caracteres que se desean conservar y un patrón de reemplazo para identificar los caracteres que se desean reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb aa#bb". Este filtro de caracteres se implementa mediante Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceCharFilter.html |
PatternReplaceTokenFilter |
Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar las secuencias de caracteres que se desean conservar y un patrón de reemplazo para identificar los caracteres que se desean reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb aa#bb". Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceFilter.html |
PatternTokenizer |
Tokenizador que usa la coincidencia de patrones regex para construir tokens distintos. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html |
PhoneticTokenFilter |
Crea tokens para coincidencias fonéticas. Este filtro de token se implementa mediante Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html |
RangeFacetResult<T> |
Un único cubo de un resultado de consulta de faceta de intervalo que informa del número de documentos con un valor de campo que se encuentra dentro de un intervalo determinado. |
ResourceCounter |
Representa el uso y la cuota de un recurso. |
ScoringFunction |
Clase base abstracta para funciones que pueden modificar las puntuaciones de documentos durante la clasificación. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
ScoringParameter |
Representa un valor de parámetro que se va a usar en las funciones de puntuación (por ejemplo, referencePointParameter). |
ScoringProfile |
Define parámetros para un índice de búsqueda que influye en la puntuación en las consultas de búsqueda. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
SearchContinuationToken |
Encapsula el estado necesario para continuar capturando los resultados de búsqueda. Esto es necesario cuando Azure Cognitive Search no puede cumplir una solicitud de búsqueda con una única respuesta. |
SearchParameters |
Parámetros para filtrar, ordenar, facetar, paginar y otros comportamientos de consulta de búsqueda. |
SearchRequestOptions |
Parámetros adicionales para un conjunto de operaciones. |
SearchResult<T> |
Contiene un documento encontrado por una consulta de búsqueda, además de metadatos asociados. |
SentimentSkill |
Análisis de opiniones positivas negativas de Text Analytics, puntuadas como un valor de punto flotante en un intervalo de cero a 1. https://docs.microsoft.com/azure/search/cognitive-search-skill-sentiment |
SerializePropertyNamesAsCamelCaseAttribute |
Indica que las propiedades públicas de un tipo de modelo se deben serializar como mayúsculas y minúsculas para que coincidan con los nombres de campo de un índice de búsqueda. |
ServiceCounters |
Representa los contadores y cuotas de recursos de nivel de servicio. |
ServiceLimits |
Representa varios límites de nivel de servicio. |
ServiceStatistics |
Respuesta de una solicitud de obtención de estadísticas de servicio. Si se ejecuta correctamente, incluye contadores y límites de nivel de servicio. |
ShaperSkill |
Una aptitud para cambiar la forma de las salidas. Crea un tipo complejo para admitir campos compuestos (también conocidos como campos de varias partes). https://docs.microsoft.com/azure/search/cognitive-search-skill-shaper |
ShingleTokenFilter |
Crea combinaciones de tokens como un solo token. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html |
Skill |
Clase base abstracta para aptitudes. https://docs.microsoft.com/azure/search/cognitive-search-predefined-skills |
Skillset |
Lista de aptitudes. https://docs.microsoft.com/azure/search/cognitive-search-tutorial-blob |
SkillsetListResult |
Respuesta de una solicitud de conjunto de aptitudes de lista. Si se ejecuta correctamente, incluye las definiciones completas de todos los conjuntos de aptitudes. |
SnowballTokenFilter |
Filtro que deriva palabras mediante un lematizador generado por Snowball. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html |
SoftDeleteColumnDeletionDetectionPolicy |
Define una directiva de detección de eliminación de datos que implementa una estrategia de eliminación temporal. Determina si se debe eliminar un elemento en función del valor de una columna designada "eliminación temporal". |
SplitSkill |
Una aptitud para dividir una cadena en fragmentos de texto. https://docs.microsoft.com/azure/search/cognitive-search-skill-textsplit |
SqlIntegratedChangeTrackingPolicy |
Define una directiva de detección de cambios de datos que captura los cambios mediante la característica Change Tracking integrada de Azure SQL Database. |
StandardAnalyzer |
Analizador estándar de Apache Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardAnalyzer.html |
StandardTokenizer |
Divide el texto siguiendo las reglas de segmentación de texto Unicode. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html |
StandardTokenizerV2 |
Divide el texto siguiendo las reglas de segmentación de texto Unicode. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html |
StemmerOverrideTokenFilter |
Proporciona la capacidad de invalidar otros filtros de lematización con lematización personalizada basada en diccionarios. Los términos con lematización del diccionario se marcarán como palabras clave para que no se lematice con lematizadores hacia abajo en la cadena. Se debe colocar antes de los filtros de lematización. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html |
StemmerTokenFilter |
Filtro de lematización específico del idioma. Este filtro de token se implementa mediante Apache Lucene. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters |
StopAnalyzer |
Divide el texto en letras no letras; Aplica los filtros de token en minúsculas y de palabra irrelevante. Este analizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
StopwordsTokenFilter |
Quita las palabras irrelevantes de una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html |
Suggester |
Define cómo se debe aplicar suggest API a un grupo de campos del índice. |
SuggestParameters |
Parámetros para filtrar, ordenar, coincidencia aproximada y otros comportamientos de consulta de sugerencias. |
SuggestResult<T> |
Resultado que contiene un documento encontrado por una consulta de sugerencia, además de metadatos asociados. |
SynonymMap |
Representa una definición de mapa de sinónimos. |
SynonymMapListResult |
Respuesta de una solicitud SynonymMaps de lista. Si se ejecuta correctamente, incluye las definiciones completas de todos los mapas de sinónimos. |
SynonymTokenFilter |
Coincide con sinónimos de una o varias palabras en una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/synonym/SynonymFilter.html |
TagScoringFunction |
Define una función que aumenta las puntuaciones de documentos con valores de cadena que coinciden con una lista determinada de etiquetas. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
TagScoringParameters |
Proporciona valores de parámetro a una función de puntuación de etiquetas. |
TextTranslationSkill |
Aptitud para traducir texto de un idioma a otro. https://docs.microsoft.com/azure/search/cognitive-search-skill-text-translation |
TextWeights |
Define las ponderaciones en los campos de índice para los que las coincidencias deben aumentar la puntuación en las consultas de búsqueda. |
TokenFilter |
Clase base abstracta para filtros de token. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
TokenInfo |
Información sobre un token devuelto por un analizador. |
Tokenizer |
Clase base abstracta para tokenizadores. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
TruncateTokenFilter |
Trunca los términos a una longitud específica. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html |
UaxUrlEmailTokenizer |
Tokeniza las direcciones URL y los correos electrónicos como un token. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html |
UniqueTokenFilter |
Filtra los tokens con el mismo texto que el token anterior. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html |
ValueFacetResult<T> |
Un único cubo de un resultado de consulta de faceta simple o de intervalo que informa del número de documentos con un campo que se encuentra dentro de un intervalo determinado o que tiene un valor específico. |
WebApiSkill |
Aptitud que puede llamar a un punto de conexión de API web, lo que le permite ampliar un conjunto de aptitudes haciendo que llame al código personalizado. https://docs.microsoft.com/azure/search/cognitive-search-custom-skill-web-api |
WordDelimiterTokenFilter |
Divide palabras en subpalabras y realiza transformaciones opcionales en los grupos de subpalabras. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/WordDelimiterFilter.html |
Estructuras
AnalyzerName |
Define los nombres de todos los analizadores de texto admitidos por Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Language-support |
BlobExtractionMode |
Define qué partes de un blob se indexarán mediante el indexador de Blob Storage. https://docs.microsoft.com/azure/search/search-howto-indexing-azure-blob-storage |
CharFilterName |
Define los nombres de todos los filtros de caracteres admitidos por Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
DataSourceType |
Define el tipo de un origen de datos. |
DataType |
Define el tipo de datos de un campo en un índice de búsqueda. |
NamedEntityRecognitionSkillLanguage |
Define el formato de los códigos de idioma admitidos namedEntityRecognitionSkill. |
RegexFlags |
Define marcas que se pueden combinar para controlar cómo se usan las expresiones regulares en el analizador de patrones y el tokenizador de patrones. http://docs.oracle.com/javase/6/docs/api/java/util/regex/Pattern.html#field_summary |
TokenFilterName |
Define los nombres de todos los filtros de token admitidos por Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
TokenizerName |
Define los nombres de todos los tokenizadores admitidos por Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
Interfaces
IResourceWithETag |
Las clases de modelo que implementan esta interfaz representan los recursos que se conservan con una versión de ETag en el servidor. |
Enumeraciones
AutocompleteMode |
Define valores para AutocompleteMode. |
CjkBigramTokenFilterScripts |
Define valores para CjkBigramTokenFilterScripts. |
EdgeNGramTokenFilterSide |
Define valores para EdgeNGramTokenFilterSide. |
EntityCategory |
Define valores para EntityCategory. |
EntityRecognitionSkillLanguage |
Define valores para EntityRecognitionSkillLanguage. |
FacetType |
Especifica el tipo de resultado de una consulta de faceta. |
ImageAnalysisSkillLanguage |
Define valores para ImageAnalysisSkillLanguage. |
ImageDetail |
Define valores para ImageDetail. |
IndexActionType |
Define valores para IndexActionType. |
IndexerExecutionStatus |
Define valores para IndexerExecutionStatus. |
IndexerStatus |
Define valores para IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Define los valores de KeyPhraseExtractionSkillLanguage. |
MicrosoftStemmingTokenizerLanguage |
Define los valores de MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Define los valores de MicrosoftTokenizerLanguage. |
NamedEntityCategory |
Define los valores de NamedEntityCategory. Esto está en desuso, use EntityCategory en su lugar. |
OcrSkillLanguage |
Define valores para OcrSkillLanguage. |
PhoneticEncoder |
Define valores para PhoneticEncoder. |
QueryType |
Define los valores de QueryType. |
ScoringFunctionAggregation |
Define los valores de ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Define los valores de ScoringFunctionInterpolation. |
SearchMode |
Define valores para SearchMode. |
SentimentSkillLanguage |
Define los valores de SentimentSkillLanguage. |
SnowballTokenFilterLanguage |
Define los valores de SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Define valores para SplitSkillLanguage. |
StemmerTokenFilterLanguage |
Define valores para StemmerTokenFilterLanguage. |
StopwordsList |
Define valores para StopwordsList. |
TextExtractionAlgorithm |
Define valores para TextExtractionAlgorithm. |
TextSplitMode |
Define valores para TextSplitMode. |
TextTranslationSkillLanguage |
Define valores para TextTranslationSkillLanguage. |
TokenCharacterKind |
Define valores para TokenCharacterKind. |
VisualFeature |
Define valores para VisualFeature. |
Azure SDK for .NET