威联通 ZFS 出现损坏

2023-04-27 02:35:55 +08:00
 mikewang

威联通的 ZFS 看起来并不是 OpenZFS ,用起来有点奇怪。 zpool status,发现报错。手动 scrub 了一次,问题依旧。

# zpool status -xv
  pool: zpool1
 state: ONLINE
status: One or more devices has experienced an error resulting in data
	corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
	entire pool from backup.
   see: http://illumos.org/msg/ZFS-8000-8A
  scan: scrub repaired 0 in 0 days 00:16:51 with 1 errors on Thu Apr 27 02:11:14 2023
 prune: never
 renew: none requested
config:

	NAME                                        STATE     READ WRITE CKSUM
	zpool1                                      ONLINE       0     0     1
	  qzfs/enc_0/disk_0x6_[序列号]_3            ONLINE       0     0     0
	  qzfs/enc_0/disk_0x7_[序列号]_3            ONLINE       0     0     2

errors: Permanent errors have been detected in the following files:

        zpool1/$SHADOW:<0x1> (180:1:0:1458175)

同样的,在 zpool2 中也存在:

errors: Permanent errors have been detected in the following files:

        zpool2/$SHADOW:<0x1> (180:1:0:21594879)

zpool1 和 zpool2 是两个完全不同的阵列构成,磁盘间无关联。

问题来了:

尝试了 zfs clear zpool1,并不能解决这个问题。奇怪。

1734 次点击
所在节点    NAS
2 条回复
mikewang
2023-04-27 02:57:48 +08:00
我怀疑这可能是一个普遍的问题。
Google 了一下,也有人在 reddit 上问过,不过没有结论。
威联通 QuTS 系统的用户可以 ssh 进去,zpool status -xv 一下看看是不是都有这个玩意。
mikewang
2023-04-28 03:08:10 +08:00
查询了好一会,找到了消除 error 的方法:
zpool scrub zpool1
执行后直接取消当前 scrub 操作:
zpool scrub -s zpool1
这个时候查看状态,错误应该已经清零:
zpool status -v
再完整 scrub 一次,如果没有出现错误,那么代表 error 确实已经解决并消除:
zpool scrub zpool1

其实出现 error ,并不意味着当前 ZFS 上一定有文件出现问题,这个是历史记录一样的信息。

以上是记录的最终解决方法。如果 QNAP 用户遇到了同样的问题,搜到了本帖,希望上述方法能有所帮助。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/935782

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX