关于高频读写 mysql 数据库的设计

2019-12-31 12:59:56 +08:00
 wsldl123292

有一个需求,是从 kafka 读取数据入 mysql,数据要保证实时性,要及时入库和查询, 现在是的数据量大概每天 30 万,基本是每秒 4 条的频率 现在的问题是在写入的同时再去查库,会导致查询变慢,有什么好的方案吗?

由于硬件限制,只有台 8g 的机器,没有办法分布式多节点

6101 次点击
所在节点    MySQL
29 条回复
wangyzj
2019-12-31 14:20:33 +08:00
这个配置,每天 30w,如果你不是一次读这么多的话应该足以
zunceng
2019-12-31 14:30:25 +08:00
有硬件限制 不建议搞什么主从了 可以做一些索引的优化

就像 @encro 提到的用 snowflake ( int64 ) 做主键 不要用 string
wsldl123292
2019-12-31 14:30:49 +08:00
@wangyzj 就是每次读一天的,当然是分页
fancy111
2019-12-31 14:57:09 +08:00
我有台 1H2G 的机器也想这么做。。。
aloyuu
2019-12-31 15:11:57 +08:00
内存临时存储数据,宕机时,内存数据如何挽救?
wysnylc
2019-12-31 16:02:48 +08:00
让你客户去屎吧
wangyzj
2019-12-31 16:19:29 +08:00
@wsldl123292 spa 全读出来然后前端分页?
luozic
2019-12-31 16:47:07 +08:00
读取的是啥内容?
jimrok
2019-12-31 18:25:05 +08:00
分表,因为更新的时候,会加锁限制读到脏数据,分表可以避免不相关的加锁,同时索引更新会更快。或者你允许客户脏读。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/633870

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX