如果将 scrapy 的错误日志直接存入到 mysql 中?

2014-10-08 11:25:44 +08:00
 pc10201
scrapy可以将日志存到一个文件当中,不过好像不太方便分析,因为有许多错误原因是相同的,然后反复往里面写,看起来比较累,我想直接写到数据库中方便分析一些

我试了一下,在pipelines.py中直接写数据库语言好像不起作用
开发环境是win7,python最新版32位,scrapy最新版
3864 次点击
所在节点    Python
2 条回复
Codist
2014-10-08 13:40:26 +08:00
没有碰见过直接入库的日志模块,日志入库一般是写脚本扫描日志文件吧,日志文件分析蛮方便的。不知道在win下是什么感受。这种需求重新实现scrapy的log模块么。
Melodic
2014-10-31 11:51:18 +08:00
可以考虑自己写个Middleware来处理,log也在middleware中记录

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/137544

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX