scrapy 如何控制多个 spider 运行?

2017-12-16 23:43:41 +08:00
 supervipcard
有 30 个网址,用一个 scrapy 来做,每个网址写成一个 spider。之后监控一个 redis 队列,从中不断取值,根据不同的值运行相应的 spider。请问这个如何实现?
主要是从 redis 得到值之后如何运行相应的 spider ?或者有好点的方案吗?
3145 次点击
所在节点    Python
5 条回复
xhinliang
2017-12-16 23:50:32 +08:00
用 Scrapyd 啊,调度方面可以看下 Scrapy-redis
golmic
2017-12-17 00:14:37 +08:00
加群 t.me/datapy 问,代码在电脑上,明天记得的话给你贴上来。不过需要提醒我一下。
hcnhcn012
2017-12-17 00:51:40 +08:00
马克,一模一样的调度需求,有好东西了告诉我下
azh7138m
2017-12-17 01:46:25 +08:00
Scrapy-redis 其实可以满足需求
zhijiansha
2017-12-17 12:25:43 +08:00
马克,目前用的自定义命令,运行全部的 spider

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/415369

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX