ClassicTokenizer interface

Grammatikbaserad tokeniserare som är lämplig för bearbetning av de flesta europeiska dokument. Den här tokeniseraren implementeras med Apache Lucene.

Extends

Egenskaper

maxTokenLength

Maximal tokenlängd. Standardvärdet är 255. Token som är längre än den maximala längden delas. Den maximala tokenlängden som kan användas är 300 tecken.

odatatype

Polymorfisk diskriminering, som anger de olika typerna som det här objektet kan vara

Ärvda egenskaper

name

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

Egenskapsinformation

maxTokenLength

Maximal tokenlängd. Standardvärdet är 255. Token som är längre än den maximala längden delas. Den maximala tokenlängden som kan användas är 300 tecken.

maxTokenLength?: number

Egenskapsvärde

number

odatatype

Polymorfisk diskriminering, som anger de olika typerna som det här objektet kan vara

odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"

Egenskapsvärde

"#Microsoft.Azure.Search.ClassicTokenizer"

Information om ärvda egenskaper

name

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

name: string

Egenskapsvärde

string

Ärvd frånBaseLexicalTokenizer.name