3×6T 机械硬盘,预存储数据为 11T, Raid0 好还是 Raid5 好?

2018-07-11 11:09:16 +08:00
 Reign

静态存储和应用逻辑 MySQL、Redis、ES 都集中在这一台服务器上了,所以既要大硬盘,又要高读写,3 块 6T 的硬盘做 Raid,Raid0 好还是 Raid5 好?

Raid0 对硬盘损坏零容忍,3 块硬盘出错一块就完了,但是机械硬盘感觉没那么容易坏吧?(估计是我见识太短?)

另外 3 块机械盘做 raid0 读写性能是否可以和一块中规中矩的 SSD 差不多了?

9714 次点击
所在节点    程序员
107 条回复
a7a2
2018-07-11 11:14:50 +08:00
3 块机械盘做 raid0 也不及 一块中规中矩的 SSD

建议组建 Raid5,那点速度真心无用
julyclyde
2018-07-11 11:19:38 +08:00
raid0 是找死的选择
Reign
2018-07-11 11:22:38 +08:00
@julyclyde 我目前还真倾向于 raid0。。。。。。纠结了一下先来 v2 征求一下意见
20015jjw
2018-07-11 11:48:03 +08:00
6x6T raid 10 吧 没 ssd 贵 但是肯定远没有 ssd 快
honeycomb
2018-07-11 11:51:16 +08:00
@Reign 老样子,三盘 raid0 的故障率大致依赖于三块盘任意一块出故障的概率,比双盘组 raid0 还要高了“单盘与双盘 raid 故障率之比”的倍数

所以 raid5,或者加一块盘搞 raid10
514146235
2018-07-11 11:58:54 +08:00
想要速度肯定要换 ssd,用了 ssd 你的代码都可以少优化很多。
11T 应该不是都是热数据吧。

如果都是热数据,那当我没说。
honeycomb
2018-07-11 12:10:04 +08:00
@Reign
比如按年故障率 3%(小概率)来算,单盘就是 3%,双盘 raid0 就是 6%(近似),三盘 raid0 就是 9%(近似)。

如果是 raid5,那么可以承受一块盘丢失,那么就是 0.26%(下限),实际要考虑数据恢复过程中剩下两款盘因为负载高而再次出现掉盘的问题。
mortal
2018-07-11 12:13:53 +08:00
RAID 5 据说也不大可靠。恢复数据能慢死个人还失败率高
mrzx
2018-07-11 12:56:03 +08:00
只有 3 块,不然 4 块可以组 raid10,速度上有保证,冗余上也有保证。

你觉得数据重要,不能丢失,那就组 raid5.

你觉得数据可以允许丢失,追求性能,那就 raid0.
powergx
2018-07-11 13:38:02 +08:00
raid 1
mm163
2018-07-11 13:49:26 +08:00
加一块然后 Raid10。
relaxchen
2018-07-11 13:56:42 +08:00
首先排除 RAID0,其中一块坏了阵列就 GG 了
relaxchen
2018-07-11 13:58:06 +08:00
@relaxchen
没打完就发出去了,,,
然后 3 盘 RAID5,算上写惩罚,写入性能还不如单盘,所以建议是再加一块小容量(具体容里看你 11TB 数据中的热数据量)做阵列的缓存
mhycy
2018-07-11 14:14:19 +08:00
硬卡,开缓存
跑 R6 性能还是不错的
太烂的卡除外。。。

利益相关:有个基于 LSI 9286CV-8eCC 的 5*3T 的 RAID6 阵列
Eleutherios
2018-07-11 14:19:23 +08:00
正确做法是 RAID6/RAIDZ2,用于冷数据存储
likuku
2018-07-11 15:00:16 +08:00
再加一块硬盘,RAID10 是最基本的。

"但是机械硬盘感觉没那么容易坏吧?(估计是我见识太短?)"

呵呵... 去年我这全新一套群晖+WD 红盘,不到 2 周,2 块盘 1 周内先后坏掉。
xuhaoyangx
2018-07-11 15:03:47 +08:00
@likuku #15 群辉真心坏盘几率高
likuku
2018-07-11 15:03:51 +08:00
就算组 RAID0,机械硬盘一堆,这些也只能满足持续读写时的带宽需求,
数据库这种对高 IOPS 需求 /seek 低延迟 需求,依然受制于机械硬盘本身低下的“随机读写 /磁头巡道时间",
SSD 在这种用途上,性能超出太多了
kokutou
2018-07-11 15:03:59 +08:00
3 个 6t 是一起在同一家同时买的?

那组 raid5 也有可能一起挂掉。
kokutou
2018-07-11 15:04:52 +08:00
@likuku #16
群晖坏盘率很高。。。应该是电源太垃圾。

红盘本身也是挂掉的几率很高。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/469838

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX