60TB 容量的云端存储机,如何有效控制成本?做 Raid5 可靠吗?

2020-09-28 09:53:08 +08:00
 flypei
大约需要容量 60TB,总读写速度不低于 4000MB/S,日常使用 写>读

准备购入一台 R740XD,可以上 24 块 2.5 寸的硬盘,带 H730P 阵列卡

如果用 3.84TB INTEL 企业级 SSD * 24 块,做 Raid10 阵列,速度勉强达标,但实际可使用容量只有 46TB 左右

如果做 Raid5 可以节省很多硬盘,企业级硬盘不容易坏,组 Raid5 或 Raid50 可靠吗?

还有一种就是用 MLC 耐用 SSD 做缓存盘+SAS 盘?

没搞过这种大型存储机器,有点方 又怕买错,也不知道读写能力可否达到要求

请问各位硬件大佬有什么好的方案吗?
3001 次点击
所在节点    硬件
27 条回复
zanzhz1101
2020-09-28 09:58:18 +08:00
RAID 5 + Spare ?
JeromeCui
2020-09-28 10:00:58 +08:00
为啥不用 minio 这种?
flypei
2020-09-28 10:03:00 +08:00
@JeromeCui 除了存储以外,还需要跑应用的。
CallMeReznov
2020-09-28 10:03:04 +08:00
Raid5 的问题在于,你想它不会坏的情况下,它是一定会炸给你好看的.
就算是可重建的情况,重建速度慢到爆炸.

另外还有一个平均故障率的问题,如果你是一批硬盘,一旦一块硬盘在这个故障区间瞬间,很可能就在短时间内就会坏第二块,第三块.


现在对象存储的解决方案有很多高可用的软件解决方案.
CEPH 可以用 SSD 加速或者直接 SSD 落盘.
ungrown
2020-09-28 10:03:04 +08:00
任何 raid 都比不上 zfs
wanguorui123
2020-09-28 10:04:19 +08:00
推荐:
RAID 1 、6 、10 、100
FreeNAS
flypei
2020-09-28 10:06:17 +08:00
@CallMeReznov 本来就追求高可用,重建需要付出的时间成本太高了。

不知道阿里云 OSS 这类产品使用的是什么方案?还有 ECS 云硬盘之类的
Reficul
2020-09-28 10:25:15 +08:00
ZFS 的内存 60Tb 的话,我记得推荐要上 60G 的内存。默认 FreeNAS 配置无论你插了多少内存,ZFS 默认占一半。
eastern
2020-09-28 10:26:54 +08:00
24 块盘重建好像要不少时间,我记得有个网站可以计算 raid5 的重建时间的,可以找来参照一下
reus
2020-09-28 10:55:26 +08:00
@ungrown zfs 也是靠 raid 的
FS1P7dJz
2020-09-28 10:59:06 +08:00
ZFS 有巡检
可以防止硬盘硬件错误导致 RAID 失效
不过软件方案一般都要求上 ECC 内存
geniussoft
2020-09-28 11:10:41 +08:00
1. 你的阵列卡恐怕会是瓶颈吧。

2. 上强大的处理器,软 Raid 吧。

3. 说重建慢的基本都是新手。全固态,处理器够强,重建几小时的事。

4. 反正和磁盘成本比起来,主机成本反而不算什么。考虑一下群晖 FS6400 ?( W/R:7000/4700 )至少省心。

5. 考虑一下 Raid6-0 ?(你将会获得 20 / 24 = 83.3%的容量,和较好的安全性)
建立在总写入量不会超过硬盘设计的情况下,否则,你将需要定期更换硬盘。

6. 如果采用机械硬盘,为了稳定地达到你的目标速度,你可能需要 35 块以上的 3.5 寸硬盘 ......

7. 我见过很多鄙视商用解决方案(如群晖),自己搞的。
然而,他们共同的特点是,经常理论上很美好,实际上却各种出问题,最后测速还远不如人家。
除非,你确认自己有非常丰富的经验。

8. 相信你也知道的,UPS 是必须要搞的。
ziseyinzi
2020-09-28 12:00:28 +08:00
如果很重要,还是建议找商用解决方案,如果你要自己搞,TrusNAS ( Raid-Z )
sampeng
2020-09-28 12:38:38 +08:00
raid5 ?死给你看的时候你哭都没地儿哭…
raid5 丢失过几十 t 数据
raid5 几 T 数据重建跑了 2 天…因为业务部门要用

两个自己经历的例子感受一下
最低限度 raid6
shadowyw
2020-09-28 16:48:14 +08:00
RAID5 最好别用 RAID6+spare 起步, zfs 或者 ceph 更好
594duck
2020-09-29 10:11:03 +08:00
@geniussoft 软 raid,以他的读写速度和磁盘容量的软 raid ?

你要不问问搞 ceph 的人推荐不推荐吧。

我是不推荐软 raid
594duck
2020-09-29 10:12:34 +08:00
你这要求还是买专业存储吧。

买不起 netapp emc 可以买华为存储。

别乱折腾死都不知道怎么死(半年内跑路的可以)
geniussoft
2020-09-29 11:20:14 +08:00
@594duck 事实上,性能要求最高的 Raid,几乎都是软 Raid 吧。

不要认为 Raid 卡有什么特别的,无非是给 CPU 降低点压力而已。
这种存储节点很可能任务只有阵列 SMB iSCSI,也不需要节省 CPU 。
xlibve
2020-09-29 14:04:31 +08:00
一般这么大容量都是直接用 HBA (直通)卡吧,做 z2 感觉比较好,普通阵列卡带不起这么多固态如果没记错 H730P 应该支持非阵列直通,但是毕竟不是纯直通卡不知道会不会带宽不够被限速。如果一定要做阵列,这么大高写入 io 建议是 Riad50 或者 raid 50 加热备。60 写入还是有点慢。单纯 5 太不安全了。其实全闪同步挺快了。我们之前上了 2 批大概各有 10 多台 HPE 的 380Gen10 配合 p840ar 阵列卡 用 intel S4510 1.92T*24 和 sansung 883 1.92t *24 一半做 ceph 一半做 50 ,到现在用了 1 年多点 883 坏了有 3 块还是 4 块 ,4510 坏了 1 块。发现都是做阵列 50 上挂的。但是同步还是挺快的,大概中午休息换盘,下班前就同步完了。
ungrown
2020-09-29 15:45:59 +08:00
@reus #10 raid 能和 zraid 相提并论吗?
就因为有四个相同的字母?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/711140

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX