求问一个 w 开头的工具,可以把网站整体下载下来并保持目录结构

2019-07-04 13:02:14 +08:00
 Ginson

最近买了一个网站,想换一下服务器并且在原域名上装一个新站点。但是要求保持原来的页面(除首页外)都能正常访问。我想的方案是把原来站点的页面都保存为静态文件。

我记得有个 w 开头的工具可以实现整站下载并且保持目录结构,但是忘记名字了,有谁记得不?

2131 次点击
所在节点    问与答
8 条回复
ragnaroks
2019-07-04 13:05:25 +08:00
wget?
flynaj
2019-07-04 13:17:45 +08:00
看什么网站全部静态可以用 wget,你买的网站没有源码后台么
hteen
2019-07-04 13:39:28 +08:00
Website eXtractor
SurfOffline
SiteSucker
HTTrack
WebCopy
linvaux
2019-07-04 13:40:43 +08:00
wget -p -r -nk -E 目标网站
Ginson
2019-07-04 14:10:18 +08:00
我记得是 Windows 下的一个软件,除了页面源码,相关的资源如 css,图片也都会下载到本地,并且按网站的目录结构保存,比如有张图片是 a.com/b/c.jpg ,这个软件会在本地创建一个 b 文件夹,里面存着 c 图片。

@flynaj 原网站后台是 dedecms,我不想用。
loading
2019-07-04 14:17:40 +08:00
webzip
flynaj
2019-07-04 18:20:47 +08:00
@Ginson #5 在 dedecms 后台导出数据就行了。
cozof
2019-07-05 13:02:36 +08:00
Windows 下的话 teleport pro 能满足你的要求。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/579955

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX