V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
itskingname
V2EX  ›  问与答

Python 操作 elasticsearch 如何实现 bulk 写入时,如何实现超时就写入?

  •  
  •   itskingname · 2019-10-21 11:07:46 +08:00 · 1070 次点击
    这是一个创建于 1670 天前的主题,其中的信息可能已经有所发展或是发生改变。

    在使用 Python 操作 Elasticsearch 的第三方库 elasticsearch-py 时,我使用 helpers.bluk 来批量更新数据,代码如下:

    data = DataGenerator()
    helpers.bulk(es, data, index='xxx')
    

    其中,DataGenerator()返回一个生成器,对它进行迭代,每次返回一条数据。

    在默认情况下,bulk 每凑够 500 条数据就更新一次。但有时候,数据获取得比较慢,凑够 500 条需要几十分钟。所以我希望实现:

    1. 在 1 分钟内,只要凑够 500 条数据就写入到 ES
    2. 即使没有凑够 500 条,每分钟也写入 ES

    大家有什么好的设计方案吗?

    2 条回复    2019-10-21 13:17:07 +08:00
    laimailai
        1
    laimailai  
       2019-10-21 12:57:09 +08:00
    参考 es java 的 bulkprocessor
    itskingname
        2
    itskingname  
    OP
       2019-10-21 13:17:07 +08:00
    @laimailai 感谢
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   901 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 21:46 · PVG 05:46 · LAX 14:46 · JFK 17:46
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.