.subAggregation(AggregationBuilders.topHits("hits").sort(排序字段).size(5)) .subAggregation(AggregationBuilders.sum(自己命名的聚合统计的名称).field(聚合字段));returnsearchSourceBuilder.query().aggregation(areaCodeAgg).size(0).toString(); } 如下所示: publicstaticStringgetTopHitsDSL(){SearchSourceBu...
TopHitsAggregationBuildertopHitsAggregation=AggregationBuilders.topHits(topHitsAggName).size(1); topHitsAggregation.sort(getAuthorSortBuilder(SortOrder.DESC)); topHitsAggregation.sort(getTopicLikeSortBuilder(SortOrder.DESC)); topHitsAggregation.sort(getTopicLikeSortBuilder(SortOrder.DESC)); 这里经过tophit...
top_hits 的操作是在第一个 aggs 聚合操作条件下,进行再次聚合。 比如我们想要获取各个 age 的数据中,按照 balance 字段进行倒序排序的前三个,我们可以如下操作: GET /bank/_search { "size": 0, "aggs": { "top_ages": { "terms": { "field": "age", "size": 30 }, "aggs": { "top_balance...
2.2,top_hits 示例 # 指定 size,不同岗位中,年纪最大的3个员工的信息 POST employees/_search { "size": 0, "aggs":{ "old_employee":{ # 聚合名称 "top_hits":{ # top_hits 分桶 "size":3, "sort":[ # 根据 age 倒序排序,选前 3 个 {"age":{"order":"desc"}} ] } } } } 1. 2...
"top_tags": { "terms": { //terms 分桶,后面会有讲解 "field": "type", "size": 3 }, "aggs": { "top_sales_hits": { "top_hits": { "sort": [ //对每个桶中的文档按照 date 字段降序,默认情况下按照查询分数进行排序 { "date": { ...
使用ES对中文文章进行分词,并进行词频统计排序 前言:首先有这样一个需求,需要统计一篇10000字的文章,需要统计里面哪些词出现的频率比较高,这里面比较重要的是如何对文章中的一段话进行分词,例如“北京是×××的首都”,“北京”,“×××”,“中华”,“华人”,“人民”,“共和国”,“首都”这些是一个词,需要...
TOP 1:top_hits POST /sales/_search?size=0 { "aggs": { "top_tags": { "terms": { "field": "type", "size": 3 }, "aggs": { "top_sales_hits": { "top_hits": { "sort": [ { "date": { "order": "desc" } } ], "_source": { "includes": [ "date", "price" ] ...
一组数据,先按照parentOrderId分组,再求每个组中的最大时间orderCreateDate,再按照每个组中求出的最大时间,进行排序倒序排序,最后,将这些分组,进行分页。要求,返回分页后的索引中的所有的数据。 需要使用topHitsAgg实现,topHits推荐使用source的返回数据。返回数据大的时候,是最好用的。之前使用了docvalueFields,这个...
基于之前SQL语句生成的ES进行测试 # 测试GET novel_author_countsort/_search{"size" : 0,"aggs": {"author": {"terms": {"field": "author","size": 10,"order": {"countTotal": "DESC"}},"aggs": {"countTotal": {"sum": {"field": "clickcount"}},"top": {"top_hits": {"size": ...