我有这个映射:
"post": {
"model": "Post",
"properties": {
"id": {
"type": "integer"
},
"title": {
"type": "string",
"analyzer": "custom_analyzer",
"boost": 5
},
"description": {
"type": "string",
"analyzer": "custom_analyzer",
"boost": 4
},
"condition": {
"type": "integer",
"index": "not_analyzed"
},
"categories": {
"type": "string",
"index": "not_analyzed"
},
"seller": {
"type": "nested",
"properties": {
"id": {
"type": "integer",
"index": "not_analyzed"
},
"username": {
"type": "string",
"analyzer": "custom_analyzer",
"boost": 1
},
"firstName": {
"type": "string",
"analyzer": "custom_analyzer",
"boost": 3
},
"lastName": {
"type": "string",
"analyzer": "custom_analyzer",
"boost": 2
}
}
},
"marketPrice": {
"type": "float",
"index": "not_analyzed"
},
"currentPrice": {
"type": "float",
"index": "not_analyzed"
},
"discount": {
"type": "float",
"index": "not_analyzed"
},
"commentsCount": {
"type": "integer",
"index": "not_analyzed"
},
"likesCount": {
"type": "integer",
"index": "not_analyzed"
},
"featured": {
"type": "boolean",
"index": "not_analyzed"
},
"bumped": {
"type": "boolean",
"index": "not_analyzed"
},
"created": {
"type": "date",
"index": "not_analyzed"
},
"modified": {
"type": "date",
"index": "not_analyzed"
}
}
}
这个查询:
GET /develop/_search?search_type=dfs_query_then_fetch
{
"query": {
"filtered" : {
"query": {
"bool": {
"must": [
{ "match": { "title": "post" }}
]
}
},
"filter": {
"bool": {
"must": [
{"term": {
"featured": 0
}},
{
"nested": {
"path": "seller",
"filter": {
"bool": {
"must": [
{ "term": { "seller.firstName": "Test 3" } }
]
}
},
"_cache" : true
}}
]
}
}
}
},
"sort": [
{
"_score":{
"order": "desc"
}
},{
"created": {
"order": "desc"
}
}
],
"track_scores": true
}
我等了25个结果,因为我有25个帖子索引。但我得到一个空集。如果我删除嵌套的过滤器所有工作就好了。我希望能够过滤嵌套对象
在我的设置中,我有:
"analyzer": {
"custom_analyzer": {
"type": "custom",
"tokenizer": "nGram",
"filter": [
"stopwords",
"asciifolding",
"lowercase",
"snowball",
"english_stemmer",
"english_possessive_stemmer",
"worddelimiter"
]
},
"custom_search_analyzer": {
"type": "custom",
"tokenizer": "standard",
"filter": [
"stopwords",
"asciifolding",
"lowercase",
"snowball",
"english_stemmer",
"english_possessive_stemmer",
"worddelimiter"
]
}
}
我在这里失踪了什么。
由于
答案 0 :(得分:3)
简短版本:尝试此操作(更新端点和索引名称后):
curl -XPOST "http://localhost:9200/my_index/_search?search_type=dfs_query_then_fetch" -d'
{
"query": {
"filtered": {
"query": {
"bool": {
"must": [
{
"match": {
"title": "post"
}
}
]
}
},
"filter": {
"bool": {
"must": [
{
"nested": {
"path": "seller",
"filter": {
"bool": {
"must": [
{
"terms": {
"seller.firstName": [
"test",
"3"
],
"execution": "and"
}
}
]
}
}
}
}
]
}
}
}
}
}'
它适用于我,设置的简化版本。我会在一段时间内发布一个带有更长解释的编辑。
编辑:长版:
您的查询存在的问题是分析器与查询中的term
过滤器结合使用。您的分析器正在将firstName
字段的文本分成标记;因此"Test 3"
成为令牌"test"
和"3"
。当您使用{ "term": { "seller.firstName": "Test 3" } }
所说的内容时,请查找其中"seller.firstName"
的某个令牌为"Test 3"
的文档,并且没有任何文档是的(实际上,不能按照分析仪的设置方式给出)。您可以在该字段上使用"index": "not_analyzed"
,然后您的查询就可以使用,或者您可以使用我上面显示的terms
过滤器。这是我到达那里的方式:
我从您在评论中链接到的索引定义开始,并将其简化为一点,以使其更具可读性并仍然保持基本问题:
curl -XDELETE "http://localhost:9200/my_index"
curl -XPUT "http://localhost:9200/my_index" -d'
{
"settings": {
"number_of_shards": 1,
"number_of_replicas": 0,
"analysis": {
"filter": {
"snowball": { "type": "snowball", "language": "English" },
"english_stemmer": { "type": "stemmer", "language": "english" },
"english_possessive_stemmer": { "type": "stemmer", "language": "possessive_english" },
"stopwords": { "type": "stop", "stopwords": [ "_english_" ] },
"worddelimiter": { "type": "word_delimiter" }
},
"tokenizer": {
"nGram": { "type": "nGram", "min_gram": 3, "max_gram": 20 }
},
"analyzer": {
"custom_analyzer": {
"type": "custom",
"tokenizer": "nGram",
"filter": [
"stopwords",
"asciifolding",
"lowercase",
"snowball",
"english_stemmer",
"english_possessive_stemmer",
"worddelimiter"
]
},
"custom_search_analyzer": {
"type": "custom",
"tokenizer": "standard",
"filter": [
"stopwords",
"asciifolding",
"lowercase",
"snowball",
"english_stemmer",
"english_possessive_stemmer",
"worddelimiter"
]
}
}
}
},
"mappings": {
"posts": {
"properties": {
"title": {
"type": "string",
"analyzer": "custom_analyzer",
"boost": 5
},
"seller": {
"type": "nested",
"properties": {
"firstName": {
"type": "string",
"analyzer": "custom_analyzer",
"boost": 3
}
}
}
}
}
}
}'
然后我添加了一些测试文档:
curl -XPUT "http://localhost:9200/my_index/posts/1" -d'
{"title": "post", "seller": {"firstName":"Test 1"}}'
curl -XPUT "http://localhost:9200/my_index/posts/2" -d'
{"title": "post", "seller": {"firstName":"Test 2"}}'
curl -XPUT "http://localhost:9200/my_index/posts/3" -d'
{"title": "post", "seller": {"firstName":"Test 3"}}'
然后运行查询的简化版本,基本结构仍然完整,但使用terms
过滤器而不是term
过滤器:
curl -XPOST "http://localhost:9200/my_index/_search?search_type=dfs_query_then_fetch" -d'
{
"query": {
"filtered": {
"query": {
"bool": {
"must": [
{
"match": {
"title": "post"
}
}
]
}
},
"filter": {
"bool": {
"must": [
{
"nested": {
"path": "seller",
"filter": {
"bool": {
"must": [
{
"terms": {
"seller.firstName": [
"test",
"3"
],
"execution": "and"
}
}
]
}
}
}
}
]
}
}
}
}
}'
...
{
"took": 5,
"timed_out": false,
"_shards": {
"total": 1,
"successful": 1,
"failed": 0
},
"hits": {
"total": 1,
"max_score": 6.085842,
"hits": [
{
"_index": "my_index",
"_type": "posts",
"_id": "3",
"_score": 6.085842,
"_source": {
"title": "post",
"seller": {
"firstName": "Test 3"
}
}
}
]
}
}
似乎回归了你想要的东西。
以下是我使用的代码:
http://sense.qbox.io/gist/041dd929106d27ea606f48ce1f86076c52faec91