爬虫:内存溢出问题,使用 scrapy 框架

2018-04-05 12:13:42 +08:00
 Mrkon

这是一些截图

我还自己写了个日志文件,储存抓取过的网址,每次都会读写此文件,内存溢出与这个有关系吗?

v 友们,帮忙看看

3223 次点击
所在节点    Python
5 条回复
gabon
2018-04-05 15:49:32 +08:00
类似 java 堆 dump,分析内存可破。原来写爬虫用的 java 遇到过几次 oom,用 visualVM 和 memory analyzer 定位解决。Python 应该也有类似的工具吧
Mrkon
2018-04-05 17:09:40 +08:00
@gabon 上面截图就是一部分分析吧,我是看官方文档怎么解释的,不过接下来该怎么做啊。求指教
wzwwzw
2018-04-05 18:11:17 +08:00
每次关闭这个文件了吗?
Mrkon
2018-04-05 18:38:34 +08:00
@wzwwzw 用了 with open(....) as f:上下文管理器的
bbbb
2018-04-08 10:43:24 +08:00
楼主找到原因了么?我也遇到内存溢出了,机器还好内存大,用了快 11g 被杀了。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/444463

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX