如何让 scrapy_redis 对起始 url 不去重

2019-04-01 15:35:35 +08:00
 luanguang

多个起始 url 的时候,跑着突然 ip 被 ban 了,然后重新尝试该 url,因为爬取过会被记录,所以要设置dont_filter=true让起始 url 默认不去重。
但是 scrapy_redis 起始就是我推到 redis 队列里面的 url,怎么对这些 url 设置不去重呢?

1583 次点击
所在节点    Python
4 条回复
15399905591
2019-04-02 15:36:05 +08:00
你再 start_requests 方法里面推送不就好了么。
xiushenbuhuihui
2019-06-14 11:20:15 +08:00
@luanguang 您好,我把我的问题给你详细描述一下,请您帮我解决一下。
xiushenbuhuihui
2019-06-14 11:20:44 +08:00
@luanguang 用的是 crawlspider 爬取乐融商城全部的网站源代码
xiushenbuhuihui
2019-06-14 11:21:26 +08:00
@luanguang 但是爬取到 这一页面时,

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/550861

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX