ceph 的几个问题 wal、db、pg_num

42 天前
 shiyuu
有 3 台服务器磁盘都是:
4 块 3.2T NVME 硬盘
24 块 8T SATA 硬盘

做 ceph 集群,有几个参数不太理解,想把所有的 SATA 都加入 ceph ,副本数是 3
1 、创建 OSD 的时候可以选择 NVME 硬盘存放 wal 和 db ,这个 wal 和 db 的大小我应该分配多少?比如每个服务器我都拿其中一块 3.2T 的 NVME 来分区,分别用来存全部 osd 的 wal 和 db

2 、创建 pools 的时候还有个 pg_num 参数,这个 pg 数值的大小又怎么确定?
528 次点击
所在节点    服务器
3 条回复
zizon
41 天前
3 台 24 块 sata 就当你要起 72 个 osd 呗.
pg_num 就 72 的倍数吧,至少数字上可以尽可能做到每个 osd 的 pg 数量均匀(straw hash).

非要 wal 分开的话,那你得把 4 块 nvme 做个 lvm 分成 24 个 lv 给 24 个 osd 用吧(per nonde).
reference: https://docs.ceph.com/en/quincy/rados/configuration/bluestore-config-ref/
shiyuu
41 天前
@zizon 懂了,还有个问题,可不可以把 nvme 和 sata 全都做成 osd ,能不能 nvme 的做一个 pools 、sata 做一个 pools ,这样分开
zizon
40 天前
@shiyuu 可以.
你在建立 pool 的时候其实是可以指定把 pg 放置到哪一些目标 osd 的(pool 指定 crush rule).

相关文档.https://docs.ceph.com/en/latest/rados/operations/crush-map/

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1031024

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX