KnownTokenizerNames enum

서비스에서 허용하는 LexicalTokenizerName 의 알려진 값입니다.

필드

Classic

대부분의 유럽 언어 문서를 처리하는 데 적합한 문법 기반 토큰라이저입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html을 참조하십시오.

EdgeNGram

에지의 입력을 지정된 크기의 n-그램으로 토큰화합니다. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html을 참조하십시오.

Keyword

전체 입력을 단일 토큰으로 내보냅니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html을 참조하십시오.

Letter

비문자에서 텍스트를 나눕니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html을 참조하십시오.

Lowercase

비문자에서 텍스트를 나눈 후 소문자로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html을 참조하십시오.

MicrosoftLanguageStemmingTokenizer

언어별 규칙을 사용하여 텍스트를 구분하고, 단어를 기본 형식으로 줄입니다.

MicrosoftLanguageTokenizer

언어별 규칙을 사용하여 텍스트를 구분합니다.

NGram

입력을 지정된 크기의 n-gram으로 토큰화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html을 참조하십시오.

PathHierarchy

경로와 같은 계층 구조의 토크나이저입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html을 참조하십시오.

Pattern

정규식 패턴 일치를 사용하여 고유 토큰을 생성하는 토큰화기입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html를 참조하세요.

Standard

표준 Lucene 분석기; 표준 토큰라이저, 소문자 필터 및 중지 필터로 구성됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html을 참조하십시오.

UaxUrlEmail

URL과 이메일을 하나의 토큰으로 토큰화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html을 참조하십시오.

Whitespace

공백에서 텍스트를 나눕니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html을 참조하십시오.