通过 robots.txt 的 sitemap 来抓取一个网站当天新产生的 URL 很方便

2019-01-10 15:40:14 +08:00
 bighead22

有的网站有 sitemap 文件,本就是给百度这类爬虫看的,会把当天新产生的 URL 和最近更新的 URL 放在 sitemap 文件里,这样就不用整过遍历网站,节约单宽,尤其是大型网站有上千万,过亿页面这类网站,通过抓取 sitemap 来发现新增 URL 比较有效。 就像这篇文章说的一样: https://www.yuanrenxue.com/crawler/crawler-tricks-3.html

1336 次点击
所在节点    Python
1 条回复
bighead22
2019-01-10 16:10:03 +08:00
这算不算是个骚操作?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/525719

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX