折腾 NAS 丢失大量珍贵数据后有感

2020-08-20 11:45:36 +08:00
 hotsun168

背景

  1. 第一版 NAS 已用 5 年,为占美无风扇工控机、一块 WD60EFRX 、优越者 Y-3359R 进行 DIY,稳定时千兆可跑满。

  2. 为了顺便当做远程桌面,没有使用黑群晖或 Linux,使用了 Win7 系统。Samba 服务经常无故卡死,遇到网络无法连接、0x00000000XX 等类似错误或“服务器存储空间不足无法处理此命令”等错误无数次,每次基本都需要重启。花了无数时间来解决这些问题,无果。一直在忍受,后续甚至写了脚本做定时重启。

  3. 第二版(在用)为群晖 DS920+、一块 WD140EMFZ,以及上面的 6T,买之前提前了解了很久 RAID5 是否安全,后选择 SHR 。

灾难

  1. 因计划把 6T 和 14T 硬盘都放入群晖,但硬盘插入群晖会被格式化,所以 14T 硬盘到货当天,用外接硬盘座接入 14T 硬盘,在 Win7 下进行 6T 到 14T 文件全量复制,期间报错无数,推测可能是 6T 磁盘长时间运行导致文件分配表错误。搜索相关资料提示 chkdsk 修复 NTFS 分区。

  2. [重点] chkdsk 完毕后,6T 硬盘中大量资料丢失(超过 80%),其中包括各种重要文件,尝试 DiskGenius 修复未果(不光是无法找回文件分配表,而且连 RAW 数据都无法找回)。

  3. 不幸中的万幸,其中少部分文件在各个网盘有备份,另一部分几年前有刻盘备份,但其中一些珍贵的资料再也无法找回(包括结婚视频、小孩照片、老光盘 ISO 等个人产生文件,与老游戏、各种收藏的视频等网络下载资源)。

  4. 花费几天时间在各种平台搜索网络下载资源,因年份久远,几乎全部失效,近似于无法找回。

现状与未来

  1. 计划在过一段时间之后再买一块 14T,尽可能避开同批次,2 块盘开 SHR 。

  2. 每隔一段时间继续买 14T,加到 4 块,开 SHR2 。

教训与体会

  1. 任何情况下大量数据复制尽可能先备份,或者使用专门的工具进行,谨慎进行 chkdsk 等硬盘修复措施。不要因为是程序员身份就各种放心大胆地操作,稍有不慎就会产生非常严重的后果。

  2. 脑子要清楚,选择方案要合理可行。其实可以选择先把 6T 使用 Ghost 备份一份到 14T 硬盘,再进行数据复制,反正空间足够。

  3. 重要资料放在 NAS 一定要开 RAID,硬盘少就用 RAID1,硬盘多可考虑 RAID5 、RAID6 或者群晖的 SHR 或 SHR2,其中尽可能选择允许 2 块盘故障时可恢复的方案。同时使用多份备份,网盘、冷备、刻盘等。

  4. 网络下载资料可考虑使用脚本生成 ed2k 链接,文件丢失后可以重新下载,或使用网盘快速离线。

  5. 从 2015 年第一版 NAS 到今年买群晖中间的 5 年里,硬盘柜里一直只有一块硬盘,最开始选择的 5 盘位硬盘柜产生了严重的浪费。感慨自己想得太多,有美好的愿望但却一直没有落实,又感叹运气太好,这 5 年中唯一的一块硬盘居然没坏。

  6. 第一版 NAS 使用的这 5 年中,是人生大事接连不断的几年,根本存不下钱,更别提这种大额投入了。所以钱真的可以解决绝大部分问题。如果有钱,最开始我就买群晖并放满硬盘,开各种灾备,就可以避免这种大量数据搬运,数据丢失的概率会大大降低。

  7. 只有栽跟头才能让人积累经验,只有疼痛才能让记忆更深。不舍得投入成本保护数据,还是因为数据对你不够重要。

40153 次点击
所在节点    程序员
154 条回复
limbo0
2020-08-20 19:01:35 +08:00
云端存一分
suley
2020-08-20 19:08:15 +08:00
@ryd994 我看了下网上有个人测试 ZFS,RAIDZ1 综合的读写性能是最好的。而且也能有一块盘的冗余量。
cwbsw
2020-08-20 19:33:19 +08:00
这是硬盘转接盒的锅吧。
Greatshu
2020-08-20 20:08:46 +08:00
不想被勒索软件毁掉数据,就按照「 3-2-1 原则」来备份文件: https://sspai.com/post/39591

我是 NAS 一份,离线的硬盘一份,两个稳定的网盘各一份。
77alex
2020-08-20 20:22:28 +08:00
raid5 在坏一块盘的情况下,重建数据会接连 引发后续其他 硬盘的损坏....
所以当时考虑再三,还是用了 raid1..毕竟数据无价
ArJun
2020-08-20 20:45:18 +08:00
你们都存了什么宝藏,看好多都是几十 T 的存储,个人有这么多的数据量嘛··,就算放岛国片也不至于这么多吧··
tfykimi
2020-08-20 21:07:11 +08:00
@ArJun 估计蓝光影片比较多,这玩意是真的超级占用空间。
fffang
2020-08-20 21:22:44 +08:00
hhhhhh 所以我选择百度网盘
lixon166
2020-08-20 21:28:42 +08:00
所以至少要买 3 个 NAS 分布式备份才安全
ipixeloldc
2020-08-20 21:35:41 +08:00
重建分区表我一般是 DG,恢复数据我一直是 R-Studio,都在 PE 下操作,救了我的数据无数次了。虽然有一次翻车了……我没在 PE 下操作,因为手贱直接彻底删除,又用了段时间硬盘跑其他东西,然后突然又想找回....结果 R-Studio 没完全修复那个压缩包,然后就没然后了,也懒得重找了,反正 BD 版早有了,只是怀恋那个未知字幕组的字幕而已……哎
henryshen233
2020-08-20 21:36:07 +08:00
你最重要的数据居然只存一份,这是最关键的问题
wowodavid
2020-08-20 21:40:35 +08:00
群晖 raid 还不如不 raid,安全性更差,拔了都读不出。
我现在的办法,底层用 esxi,直通硬盘给一个手熟好打理的系统,比如 debian 、centos,然后 raid1,然后 iscsi ; esxi 再搭一个群晖,iscsi 映射上面那个硬盘做存储。这样操作,只要即使出事了,硬盘插到其他的 debian 也能读取恢复。
群晖搭软 raid,一出事其他电脑都读不出来,更麻烦。
Junn
2020-08-20 22:06:53 +08:00
NAS+云盘+少折腾。
重要数据多处备份(一般没多少)
任何一处备份都不能百分百信任会一直完好!!! raid 没啥用。
volvo007
2020-08-20 22:09:50 +08:00
群晖 raid 真的又慢又折腾……
整个小机器(比如 A300 )挂个 linux 跑会不会稳一点

个人感觉,民用级别的稳定性很难和企业级匹敌,所以不如减少中间的环节,管理越简单越直接越好
xi_lin
2020-08-20 22:33:05 +08:00
现在全盘互倒还用 ghost 吗? dd 能用么。。
laminux29
2020-08-20 22:45:40 +08:00
理论上来说,数据存储,要做完美,需要处理很多问题。比如备份,冗余,整个存取环节的每一个操作的数据正确性、存取性能等问题,越要处理地好,成本越高。

数据存储产品,从家用的几百块,到工业级的十万百万千万,都有对应的解决方案。

价格差这么大,解决方案的区别在哪?区别在于对于上述问题的解决程度。

我觉得,对于经济水平一般的人来说,以下两种方案,虽然仍然有风险,但是比较实际,可操作性较高:

1.自己电脑上保存一份,然后用 rar 打包、切片、压缩、加密、加入恢复记录后,在百度网盘上再存一份。每年只要花几百元的成本。

2.在移动硬盘 或 外接 USB 机械硬盘 或 大容量 U 盘 或 自己的 nas 上存一份,电脑上存一份。每月对数据进行一次增量的校验,每半年对所有数据进行一次全量检查。

这两种方案对于大部分人来说,都差不多了。再深入下去,就开始走入企业级存储的范畴,成本就急剧上升。不做这一行,没必要花这个钱。
laminux29
2020-08-20 22:46:53 +08:00
另外题主遇到的问题,我很多年前遇到过一次。

那时,内存条已经有坏块,然后我又对大量数据做 c.h.k.d.s.k,结果一整个磁盘的珍贵数据全没了。
Tink
2020-08-20 22:58:39 +08:00
你用 win7 复制这么多数据本身就是灾难
geniussoft
2020-08-20 23:02:49 +08:00
尽量使用 raid6,定期做数据清理,会校验所有盘的数据,并发现坏块。

重要的数据要多重备份。

群晖使用的是很标准的软 raid,电脑当然也能读得出来(而且,实在不行也完全可以在虚拟机里跑黑裙读)。
群晖的 raid 性能不差,差的是一些人的机器配置而已。
ftu
2020-08-20 23:21:46 +08:00
心疼楼主

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/699891

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX