老师 这个问题是es压力太大了么 两千万条数据左右,spark批量插入es ,es索引5个主分片,2个副分片。 有什么优化措施么 还是要将每次插入的数据量减少些
加分片,超时时间设置长点
尝试一下关闭索引同步,写完再打开
在es里关闭索引同步,副本也可以先关掉,程序写完再打开。
@犀牛 好的犀牛大哥,我试一下
@犀牛 我用了个笨方法,每批插入的数据减少了些,就好多了,我在调下参数
`单行代码`
关注海汼部落技术社区