如何一键启动并监控多个 Python +requests 爬虫

2019-06-11 20:40:09 +08:00
 Hiyokunotori

我知道 scrapy 可以使用 scrapyd 来监控 可是我有很多 requests 写的爬虫该如何监控呢? 我目前的做法是在 pycharm 里一个个去运行程序 然后在 run 栏里会出来多个标签可以监控输出 或者是打开多个 cmd 每个里面 python xxxx 但是这样当电脑重启再来启动多个爬虫很麻烦 有没有好的方法或者 pycharm 现成的设置能让我配置好所有爬虫程序后一键启动并且分成多个标签让我来监控程序的输出呢?

2379 次点击
所在节点    Python
11 条回复
ModerRAS
2019-06-11 21:37:11 +08:00
你可以直接写一个调用其他爬虫 main 函数的脚本,然后直接输出控制台就好了
genius2k
2019-06-12 04:22:25 +08:00
logger
Luxurious
2019-06-12 09:16:32 +08:00
把 requests 爬虫分下类, 放到一个文件夹, 另外写一个脚本来管理这些文件夹下的爬虫
fakeman
2019-06-12 09:45:11 +08:00
用 supervisor 即可
rocketman13
2019-06-12 10:47:46 +08:00
脚本就可以一键启动,日志管理就可以监控输出
lowman
2019-06-12 11:25:48 +08:00
进程管理工具
tikazyq
2019-06-12 12:08:06 +08:00
这个需求太符合 Crawlab 了! Crawlab 是分布式爬虫管理平台,非常适合爬虫任务调度、任务监控、数据分析。欢迎来试用

Github: https://github.com/tikazyq/crawlab
huaerxiela6
2019-06-12 12:29:01 +08:00
进程管理工具
Hiyokunotori
2019-07-18 10:28:28 +08:00
@fakeman win 的话使用什么呢。。
fakeman
2019-07-18 13:36:03 +08:00
Hiyokunotori
2019-08-05 15:12:49 +08:00
@fakeman 十分感谢

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/572938

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX