MongoDB 数据量大备份方法?

2019-07-30 23:10:18 +08:00
 salamanderMH

问题

现在搭的是 MongoDB 的副本集,我之前一直用 mongodump 备份的,但是现在一台机器上磁盘大小有 500 多 G 了,不知道大家是怎么备份的

14247 次点击
所在节点    MongoDB
9 条回复
UglyOrange
2019-07-31 02:42:05 +08:00
做一个延时节点(比如延时半天)当备份. 或者停一个节点物理拷文件..
dingyaguang117
2019-07-31 07:00:22 +08:00
1LZ 正解, 主从或者复制集, 性能也提高 LOL
mikeguan
2019-07-31 07:58:37 +08:00
oplog 可以设大点,避免停机追不上
luozic
2019-07-31 08:05:10 +08:00
主从,从从库上做增量备份,定期(每天,每星期)做一次全量备份
asilin
2019-07-31 09:21:41 +08:00
500 多 GB 还行吧,之前我们在 UCloud 云主机备份过三个复制组、共 2TB 的数据。

不过我们是根据业务层面的数据插入时间来检索备份的,小时级别共 3 个月的数据,大概一天就备份完了,可以作为参考。
sujin190
2019-07-31 10:02:41 +08:00
@luozic #4 MongoDB 的增量备份怎么做?

MongoDB 的副本集可以添加备份节点的吧,我感觉最快的应该是添加一个备份节点,然后关停复制或者 sync 了吧,或许更快的应该的是不是直接停机,如果 UCloud 的话可以直接数据方舟创建一个备份时间点来的更快啊,不知道阿里云腾讯云之类的有么有相同服务
salamanderMH
2019-07-31 10:10:21 +08:00
@mikeguan 我的 oplog 大小是 38243.64MB,是不是有点小?
luozic
2019-08-02 17:46:18 +08:00
Google 一下 monogodb 增量备份
lenmore
2019-08-07 15:03:44 +08:00
如果磁盘是 LVM,可以用 LVM 的快照功能做物理备份。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/587679

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX