关于搜索elasticsearch的数据条数大于10000的坑 max_result_window的两种设置方式

当用elasticsearch进行深度分页查询时的size-from大于10000的时候,就会报错“”,

官方推荐是scroll查询返回结果是无序的不满足业务需求,所以还是通过设置最大返回结果数来达到我们的目的

然后我们可以通过以下方法设置:

第一种:curl -XPUT http://127.0.0.1:9200/_settings -d ‘{ "index" : { "max_result_window" : 100000000}}‘

第二种:在config/elasticsearch.yml文件中的最后加上index.max_result_window: 100000000,但是这种方法要注意在最前面加上空格

原文地址:https://www.cnblogs.com/snake23/p/9469584.html

时间: 2024-10-13 17:24:09

关于搜索elasticsearch的数据条数大于10000的坑 max_result_window的两种设置方式的相关文章

Oracle 查询库中所有表名、字段名、字段名说明,查询表的数据条数、表名、中文表名、

查询所有表名:select t.table_name from user_tables t;查询所有字段名:select t.column_name from user_col_comments t;查询指定表的所有字段名:select t.column_name from user_col_comments t where t.table_name = 'BIZ_DICT_XB';查询指定表的所有字段名和字段说明:select t.column_name, t.column_name from

一句SQL按照某个字段数值拆分出对应的数据条数,借助数据库常量表【master..spt_values】实现

简介:master..spt_values,数据行拆分简单小技巧 SELECT ProjGUID , CostGUID , SUM(FtAmount) AS FtAmount , BeginMonth , EndMonth , ( EndMonth - BeginMonth ) + 1 AS RowCountNum FROM cb_Loan2Cost WHERE LoanGUID = '6D88EB2B-18FA-4A4A-9ADB-9873B0F14381' GROUP BY ProjGUID

jquery通过ajax获取数据,控制显示的数据条数

效果图: 现在我们可以先看它的json数据,如图所示:                然后可以对应我们的代码进行理解. jquery通过ajax获取数据,并通过窗口大小控制显示的数据条数,以及可以根据需求隐掉列数据. <!doctype html> <html> <head> <meta charset="utf-8"> <title>无标题文档</title> <style> html,body {

Android ListView的适配器 Adapter 中GetView方法调用次数大于数据条数的问题

情况描述: 今天在写数据展示的时候,用了ListView,在它的适配器当中,发现getview方法执行的次数是数据条目的N倍(我这边显示的是4倍,这个倍数值不知道会不会变化),这显然是不科学的! 查阅资料,发现是ListView的布局问题.我把 android:layout_height="wrap_content"高度设置成了wrap_content.而wrap_content值使得ListView没有取到实际的高度,他还要根据计算才能确定,而每一次计算应该会触发listview的渲

关于各个数据库中限制取出数据条数的简餐操作

今天去面试之后,面试的小哥给了个比较简单的问题,但是自己没有答上来. 问题: SQL SERVER中如何限制取出数据的条数: 1. Oracle中的操作是:rownumber关键字限制: SELECT * FROM tbl_name ROWNUMBER num 2. Mysql中的限制条数是: SELECT * FROM tbl_name LIMIT num; 3. SQL SERVER 中操作是: SELECT * FROM tbl_name TOP num;

大数据的两种处理方式

大数据的处理方式有两种:基于内存的流式处理和基于硬盘的存储处理. 流式处理就好象是在经过的数据面前建一道水闸.数据流过这里,经过闸门的时候,就进行筛选过滤,分析出有价值的内容,然后丢弃,以后也不再使用. 存储处理则是建一个储水池.数据先放进入储水池存起来,需要的时候,再进到储水池里,在里面筛选分析,找到那些有价值的内容.这个过程中,因为水还在储水池里,没放掉,所以可以供下次继续使用. 存储模式的数据处理是可以重复的,用完再用,反复使用.但是因为硬盘本身的机械特性问题,导致它处理速度慢,速率不高.

Python 金融数据可视化(两列数据的提取//分别画//双坐标轴//双图//两种不同的图)

import matplotlib as mpl import numpy as np import matplotlib.pyplot as plt np.random.seed(2000) y = np.random.standard_normal((20,2)) # print(y) ''' 不同的求和 print(y.cumsum()) print(y.sum(axis=0)) print(y.cumsum(axis=0)) ''' # 绘图 plt.figure(figsize=(7,

oracle删除表数据的两种的方式

转自:https://blog.csdn.net/qq_37840993/article/details/82490787 平时写sql中我们都会用到删除语句,而平时删除表数据的时候我们经常会用到两种方式: 在oracle中,truncate.delete都可以删除表数据,具体的区别以及sql语法如下: truncate table [表名]; delete from [表名]; delete与truncate的区别:delete:会产生rollback,如果删除大数据量的表速度会很慢,而且同时

1.11-1.12 Sqoop导入数据时两种增量方式导入及direct

一.增量数据的导入 1.两种方式 ## query 有一个唯一标识符,通常这个表都有一个字段,类似于插入时间createtime where createtime => 20150924000000000 and createtime < 20150925000000000 ##sqoop参数 Incremental import arguments: --check-column <column> Source column to check for incremental ch