Python +mysql 简易爬虫给新浪大 V 微博和文章做备份

2018-07-02 23:42:17 +08:00
 hubqin

写了个爬虫定期抓取新浪指定用户的微博和文章,以防哪天失联了还能看备份。 GitHub: https://github.com/HubQin/sinaCrawlerV

各文件功能:

使用:

4071 次点击
所在节点    Python
9 条回复
Sanko
2018-07-02 23:45:48 +08:00
支持
把微博热搜也抓一下,就能看出来哪些是用钱买的空降热搜了
ACool
2018-07-02 23:53:08 +08:00
我最近也写了一个微博的爬虫,并且对微博用户信息进行了分析 https://github.com/starFalll/Spider
Macuilxochitl
2018-07-03 00:02:08 +08:00
mark,正好想备份下自己微博
winsky
2018-07-03 00:15:58 +08:00
以前也搞过一个类似的项目,跑的很稳定,多线程抓取
hubqin
2018-07-03 09:21:08 +08:00
@Sanko 多谢支持!可以试一下。
JohnChiu
2018-07-14 20:59:41 +08:00
弱弱地问一下,在哪里指定抓取哪个用户呢?在 config.pypost.py 中都没看出来~
hubqin
2018-07-16 14:12:31 +08:00
@JohnChiu 详细说明已添加到附言,请查看。
JohnChiu
2018-07-16 20:23:37 +08:00
@hubqin #7 感谢!希望以后能爬取微博中的图片~
hubqin
2018-07-16 21:18:51 +08:00
@JohnChiu 计划把图片的 url 保存下来

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/467626

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX