将某美剧网站所有下载链接保存下来了,需要自取

2016-05-10 15:33:30 +08:00
 jiezhi

最近在追《疑犯追踪》,发现在美剧网站上一个一个复制链接下载到网盘很是繁琐,索性写了个脚本直接将下载链接以 csv 格式保存下来以便批量下载。

既然都动手了,那就干脆再将网站上所有美剧的下载链接爬了下来以备不时之需,大概 380 个页面,当然这些只适合追老剧。

如果有需要可以直接下载我抓下来的:(点击去下载

脚本也放Github

5444 次点击
所在节点    分享创造
16 条回复
Hansee
2016-05-10 15:59:01 +08:00
Tks!
slixurd
2016-05-10 16:02:52 +08:00
我都是直接写 js ,然后扔到控制台跑一下
不过如果有好几季就得手动跑好几次
copy($($("body").find("a")).map(function(){if(/magnet/.test($(this).attr("href")))return ($(this).attr("href"))}).get().join("\n"))
jiezhi
2016-05-10 16:06:34 +08:00
@slixurd 原理都一样啦,哪怕在网页源码里直接用正则也可以,但每次还得去手写一遍,干脆直接都抓下来再说了(:
realpg
2016-05-10 16:28:04 +08:00
为啥我看 POI 之前你不搞这个……
strwei
2016-05-10 16:28:39 +08:00
右键,本页所有磁力链接用迅雷下载
jiezhi
2016-05-10 16:30:46 +08:00
@strwei 我是用妖妖舞网盘看的
jiezhi
2016-05-10 16:31:31 +08:00
@realpg 你要看其他的美剧还有机会的
mahone3297
2016-05-10 16:38:42 +08:00
这么说,我之前也写了个。。。这个站是还可以
https://github.com/mahone3297/hades/tree/master/src/python/scrapy/cn163
mahone3297
2016-05-10 16:39:50 +08:00
lz ,你的代码只是一个页面,要爬所有数据,还需要再写个脚本
jiezhi
2016-05-10 16:42:51 +08:00
@mahone3297 我的那个页面应该是网站可追溯的第一篇帖子了,所以抓取完后再递归抓取其下一页即可,该网站没有死链的话。
4679kun
2016-05-10 16:57:11 +08:00
一行 shell 命令

curl -s "http://cn163.net/archives/58/" | sed 's/ /\n/g' | sed 's/>/\n/g' | sed 's/</\n/g' | grep "ed2k" | sed 's/\"//g' | sed 's/href=//g' | sed 's/data-ke-src=//g' | uniq | grep "HDrip"
jiezhi
2016-05-10 17:00:59 +08:00
@4679kun 你这还得加上对迅雷和磁力链接的支持😊
4679kun
2016-05-10 17:04:33 +08:00
@jiezhi 把命令中的 ed2k 替换成 magnet 不就行了
gamecreating
2016-05-10 18:00:26 +08:00
CN163 ...这博客不错
ziyuan
2016-05-10 21:10:56 +08:00
CN163 ...这博客不错+1
MozzieCN
2016-05-11 10:30:55 +08:00
CN163 ...这博客不错+1

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/277629

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX