V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python Sites
PyPI - Python Package Index
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
akmonde
V2EX  ›  Python

关于 celery 强制 kill 中断后, flower 里丢失的任务仍然 STARTED

  •  
  •   akmonde · 2019-05-08 21:08:14 +08:00 · 2508 次点击
    这是一个创建于 1808 天前的主题,其中的信息可能已经有所发展或是发生改变。

    RT,我这边在测 celery 的意外容错的强健性的时候,我在每个 worker 强行执行了类似下面的命令:

    ps -ef |grep 'worker' | grep -v grep|cut -c 9-16 | xargs kill -9
    

    然后再将我手里的三个 worker 重启:

    celery -A hellscan worker -E -l INFO -n xxx.%h --concurrency=2
    

    在我的配置文件里,以前设置过:

    TASK_REJECT_ON_WORKER_LOST = True
    CELERY_ACKS_LATE = True
    

    按理说是支持这种重启后,会继续加载运行任务的。结果我发现在日志里,worker 并没有失败或者结束。 在 flower 里查看,那几个中断的任务一直处于 STARTED 状态,强行 terminate 也没用。

    而且似乎占用了我取得任务的名额,我这里设置--concurrency=2,按理说总共算起来,一共可以同时执行六个任务,flower 里显示的任务里 active 的也没有他们。

    丢失了那三个任务,似乎现在只能同时执行三个任务了,

    不知道大佬们有没有解决办法?除了重启 flower 以外,我猜这样任务丢失的可能会更多。

    2 条回复    2019-05-09 12:52:35 +08:00
    jesnridy
        1
    jesnridy  
       2019-05-09 11:12:56 +08:00
    flower 读得是 redis 的数据
    akmonde
        2
    akmonde  
    OP
       2019-05-09 12:52:35 +08:00
    @jesnridy 不过我以前试过先清空 redis,flower 还是能看见数据的,说明有其他方式缓存。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   1095 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 31ms · UTC 23:15 · PVG 07:15 · LAX 16:15 · JFK 19:15
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.