KeywordTokenizer interface
Genererar hela indata som en enda token. Denna tokenizer implementeras med Apache Lucene.
Egenskaper
max |
Maximal tokenlängd. Standardvärdet är 256. Token som är längre än den maximala längden delas upp. Den maximala tokenlängden som kan användas är 300 tecken. Standardvärde: 256. |
name | Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken. |
odatatype | Polymorfdiskriminator |
Egenskapsinformation
maxTokenLength
Maximal tokenlängd. Standardvärdet är 256. Token som är längre än den maximala längden delas upp. Den maximala tokenlängden som kan användas är 300 tecken. Standardvärde: 256.
maxTokenLength?: number
Egenskapsvärde
number
name
Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.
name: string
Egenskapsvärde
string
odatatype
Polymorfdiskriminator
odatatype: "#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"
Egenskapsvärde
"#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"