Redis 有什么好的“增量更新”备份方案吗?

2023-02-21 23:37:05 +08:00
 LeeReamond

目前是主要业务都没在关系型数据库里而是放到 redis 上了,虽然用这么长时间没用出过啥问题但是总感觉缓存这东西还是不太稳,想搞个定期备份。

全量数据 100G 左右,目前 1 主 1 从读写分离,想要实现的效果比如每天 12 点把所有内存里的数据 dump 到第三方机器的文件上这样。虽然数据量不大全量备份也没啥问题,但是全量还是很慢的,最好还是能增量,但是不知道有没有什么好办法,比如追踪 aof 日志这种方式,如果每天 12 点把一天的读写记录全都溯源一遍那感觉也挺慢的啊。。。

810 次点击
所在节点    程序员
4 条回复
dreamramon
2023-02-22 08:39:37 +08:00
一直都是集群,开了 adb 了,好多年,也没出过啥事。。。
8355
2023-02-22 09:29:01 +08:00
RDB
arloor
2023-02-22 14:16:11 +08:00
主从复制的 psync2 就是类似 AOF 的方式,你可以伪装成一个 slave 节点来收
https://mp.weixin.qq.com/s/ROQofjE5WwdAltazQ5p0QQ
https://www.arloor.com/posts/redis/use-redis-replicate-to-do-remote-sync/
OldCarMan
2023-02-22 15:09:28 +08:00
阿里云好像有一个 DTS ,但好像是收费的;

另外一款工具:redis-port 好像是开源的。可以看看这个: https://www.tencentcloud.com/zh/document/product/239/31940
本地增量备份用:redis-dump 命令。
备份到其他实例用:redis-sync 命令

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/918085

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX