最近爬虫总是 Segmentation fault,何解?

2016-07-21 15:41:38 +08:00
 JianBingXia

这个 Segmentation fault 出现在多线程爬取内容的时候

1.现在的逻辑是把列表的 url 都取下来放 mysql,status 字段为 0

2.内容爬虫从 mysql 每次取 1000 条 url 放 redis 队列(这是一个 while ,里面是第 3 步)

3.起 5 个线程,每个线程都是一个 while True 循环,从队列取 url,获取内容之后mysql通过此条id将status置1,取到为 null 再重复 2 的取 1000 条(第 2 步的循环).

(这里好像第二次取 1000 条的时候,启的 5 个线程是新的,默认 name 和前 5 个不同,原来的 5 个线程不用手动关闭?因为我没找到方法结束子线程.是不是我操作的不对?)

4.setDaemon(True)了,join 了

昨天查了下设置了如下两个 ulimit -c unlimited|ulimit unlimited 不顶用

求大神帮解

2190 次点击
所在节点    Python
0 条回复

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/293961

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX