几千列数据高速插入数据库设计

2019-06-27 22:54:41 +08:00
 neroanelli

近期有一个项目,需要大量数据的高速存储。希望大家能提供一些思路。 要求: 1、数据的采集速度是 10ms 一次; 2、每次采集的数据大概有 4000 列,数据类型为双精度浮点。 我们现在使用的是 MySQL5.8,windows 平台。

6410 次点击
所在节点    MySQL
28 条回复
ziding
2019-06-28 11:19:44 +08:00
@neroanelli 你这个需求,上 timescaledb,分析起来方便
leorealman
2019-06-28 11:40:50 +08:00
建议上时序数据库推荐 InfluxDB,10ms 写一次数据点,1 小时就是 360000
shawshi
2019-06-28 12:11:28 +08:00
kafka + elasticsearch
iexplorer
2019-06-28 12:34:57 +08:00
上消息队列
Asice
2019-06-28 12:53:37 +08:00
4000 列,这表设计就有问题
插入没有马上查询的需求,直接队列就行了
dt2vba
2019-06-28 13:18:23 +08:00
我用 goroutine 和 go-nsq,一个小时轻松插入百万条数据。很稳定。当然表的字段只有 11 个。
swulling
2019-06-28 13:47:43 +08:00
这个用时序数据库
shiny
2019-06-28 16:41:33 +08:00
反正只运行几个小时,也不需要实时读取,只需要后期导出。所以只要保证写入速度就可以。
硬件上确定下写入 io 不是瓶颈就无问题,时序数据库对这种场景优化较好。
如果真的无法突破 io 瓶颈,还有别的办法,简单的就是写入内存,再慢慢刷入 db ;复杂的可以是多台机器承担写入压力。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/578148

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX