scrapy 报错这种的如何处理

2019-01-16 16:49:29 +08:00
 Ewig

019-01-16 16:41:53 [zhipin][scrapy.downloadermiddlewares.retry] DEBUG: Retrying <GET https://www.zhipin.com/gongsi/df71dd0040fd77d21nN-2tS4EQ~~.html> (failed 1 times): User timeout caused connection failure: Getting https://www.zhipin.com/gongsi/df71dd0040fd77d21nN-2tS4EQ~~.html took longer than 180.0 seconds..

3461 次点击
所在节点    Python
6 条回复
zarte
2019-01-16 16:52:49 +08:00
重点:User timeout caused connection failure took longer than 180.0 seconds..
浏览器访问下网站是不是挂了。
pockry
2019-01-16 17:22:12 +08:00
应该是被识别出是爬虫,然后送上超时大礼包。
Ewig
2019-01-16 18:10:26 +08:00
@zarte 没有挂,可以打开
Ewig
2019-01-16 18:11:12 +08:00
@pockry scrapy 报这种的能否重新请求
pockry
2019-01-16 18:20:43 +08:00
@Ewig 你要重写爬虫啊,UA 池、IP 代理都搞一下,延时设置下,要是还不行就上 selenium+chromedriver,肯定你能看到的都能爬。
Ewig
2019-01-18 23:20:45 +08:00
@pockry 我 scrapy 不用 selenium 效率太低了你说的这些都搞了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/527642

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX