NGramTokenizer Klasse

Definition

Tokenisiert die Eingabe in N-Gramme einer festgelegten Größe. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

public class NGramTokenizer : Azure.Search.Documents.Indexes.Models.LexicalTokenizer
type NGramTokenizer = class
    inherit LexicalTokenizer
Public Class NGramTokenizer
Inherits LexicalTokenizer
Vererbung
NGramTokenizer

Konstruktoren

NGramTokenizer(String)

Initialisiert eine neue instance von NGramTokenizer.

Eigenschaften

MaxGram

Die maximale Länge von n Gramm. Standard ist 2. Der Höchstwert ist 300.

MinGram

Die mindeste n-Gramm-Länge. Der Standardwert ist 1. Der Höchstwert ist 300. Muss kleiner als der Wert von maxGram sein.

Name

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

(Geerbt von LexicalTokenizer)
TokenChars

Zeichenklassen, die in den Token beibehalten werden sollen.

Gilt für: