分享一个豆瓣电影/豆瓣读书 Scarpy 爬虫,实现封面下载+元数据抓取+评论入库

2016-09-12 07:55:32 +08:00
 ooh

思路:因为豆瓣的 subject_id 是非连续的而且数量很大,穷举的话看上去不科学,但是豆瓣推荐系统做得还不错,适合用 CrawlSpider 来爬 流程: subject spider 爬取对应 subject_id -> meta spider 获取元数据和下载封面图片 -> comment spider 获取评论信息

源码地址

从最初的 urllib + re 到 Requests + BeautifulSoup 再到 Scrapy ,豆瓣依然是最佳实验场地,代码是很久前写的我改了一下运行良好,人真的很奇怪,以前我总想知道别人服务器上面跑的代码到底长什么样,自己写了呢又老是让它吃灰,不如分享出来,希望能帮助一下初学或者想学 Scrapy 的同学了解一下数据匹配,校验,图片管道的使用

2829 次点击
所在节点    分享创造
9 条回复
zhy0216
2016-09-12 08:40:09 +08:00
触发了 douban 的反爬虫机制会有什么措施么?
zhy0216
2016-09-12 08:44:20 +08:00
另外好像豆瓣读书 subject_id 是连续的吧??
prefere
2016-09-12 08:46:41 +08:00
豆瓣,我招谁惹谁了? dog
ooh
2016-09-12 08:57:44 +08:00
@zhy0216 我没触发过,我遇到过的情况就是豆瓣好像有种认证机制,它发现是异常访问会 302 给你一个链接或者一个带有 js 跳转的页面, curl 访问一下对应链接就正常了, subject_id 并不连续,你修改大数位上面的数字就会发现
zhy0216
2016-09-12 09:29:12 +08:00
@ooh 好像是验证码 不过豆瓣的验证码应该好破; 不过正常来讲用代理池来做好些

然后可能是部分连续 https://book.douban.com/subject/1000001/ 这是第一本书
可能后面改机制了就不连续了
ma125125t
2016-09-12 10:20:35 +08:00
@prefere 豆瓣不是标准的爬虫练手网站吗?
robinlovemaggie
2016-09-12 11:20:06 +08:00
已被滚屏滚晕中😵……
inmyfree
2016-09-12 13:53:39 +08:00
步骤目录写错了,

cd movie/book

应该是 cd book/book
ooh
2016-09-12 14:36:25 +08:00
@zhy0216 感觉豆瓣也没有刻意的去 ban 爬虫,不触发反爬虫机制当然最好,不过一般情况我会选择先去找其它域下面是不是也有相同机制,比较验证码和代理池也是麻烦的😭


@inmyfree 额,其实是 cd movie 或者 cd book ,我分成两个项目写的,虽然两个项目有部分代码是重复的,但我感觉分开写好像要快一点清楚一点😆

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/305558

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX