LexicalTokenizerName type

LexicalTokenizerName değerlerini tanımlar.
<xref:KnownLexicalTokenizerName> LexicalTokenizerName ile birbirinin yerine kullanılabilir, bu sabit listesi hizmetin desteklediği bilinen değerleri içerir.

Hizmet tarafından desteklenen bilinen değerler

klasik: Çoğu Avrupa dilindeki belgenin işlenmesi için uygun olan dil bilgisi tabanlı belirteç oluşturucu. Bkz. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: Bir kenardan gelen girişi verilen boyutların n gramı olarak belirteçleştirir. Bkz. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: Girişin tamamını tek bir belirteç olarak yayar. Bkz. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
letter: Metni harf olmayanlara böler. Bkz. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
küçük harf: Metni harf olmayanlara böler ve küçük harfe dönüştürür. Bkz. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: Dile özgü kuralları kullanarak metni böler.
microsoft_language_stemming_tokenizer: Dile özgü kuralları kullanarak metni böler ve sözcükleri temel formlarına küçültür.
nGram: Girişi verilen boyutların n gramı olarak belirteçleştirir. Bkz. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Yol benzeri hiyerarşiler için belirteç oluşturucu. Bkz. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
pattern: Farklı belirteçler oluşturmak için regex desen eşleştirmesi kullanan belirteç oluşturucu. Bkz. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Standart Lucene çözümleyicisi; Standart belirteç oluşturucu, küçük harfli filtre ve durdurma filtresinden oluşur. Bkz. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: URL'leri ve e-postaları tek bir belirteç olarak belirteçler. Bkz. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
boşluk: Metni boşlukta böler. Bkz. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

type LexicalTokenizerName = string