当我尝试将一些文档索引到elasticsearch时,我得到了一个“巨大的术语”异常;抛出错误的字段使用“标准”分析器,据我所知,它应该是在255处加盖术语并将它们分解为标记。那个过程有什么我想念的吗?如果没有,哪些信息可以帮助解决问题;示例错误:
java.lang.IllegalArgumentException:Document在field =“raw_content”中包含至少一个巨大的术语(其UTF8编码长于最大长度32766),所有这些都被跳过。请更正分析仪以不生成此类条款。第一个巨大术语的前缀是:'[60,33,68,79,67,84,89,80,69,32,104,116,109,108,32,80,85,66,76,73 ,67,32,34,45,47,47,87,51,67,47] ......',原始消息:字节长度最多为32766;得到42807
“raw_content”的映射是:
"raw_content" : {
"type" : "string",
"analyzer" : "standard"
},