原因是未知字段token_chars。这可能是由于Elasticsearch版本与您使用的客户端版本不匹配。token_chars字段是NGramTokenFilter的一部分,客户端应该能够识别,如果不能识别,可能是您使用的客户端版本不支持该字段,或者客户端存在bug。检查客户端的兼容性。https://www.elastic.co/guide/en/elasticsearch/client/java-rest/current/java-rest-high-compatibility....
token_chars所接受以下的形式: 例子: Whitespace Tokenizer whitespace类型的分词将文本通过空格进行分词。 Pattern Tokenizer 一个pattern类型的分词可以利用正则表达式进行分词。 IMPORTANT: 正则表达式应该和 token separators相匹配, 而不是 tokens 它们本身. 使用elasticsearch 不同语言的API 接口时,不必care字符转译问题。
原因是未知字段token_chars。这可能是由于Elasticsearch版本与您使用的客户端版本不匹配。
Lucene does not support terms that are more than 32766 bytes, and Java chars can be at most 3 bytes so maybe a limit around 10000 would be a good start. 👍 2 cbuescher removed the discuss label Sep 15, 2017 cbuescher added a commit to cbuescher/elasticsearch that referenced this ...