接口接收稿件数据批量入库,接口和数据库(类似 hbase)之间用什么做中转比较好

2021-06-08 19:09:02 +08:00
 toarya

目前有个需求是提供一个稿件的入库接口,然后入到一个闭源的类似 hbase 的数据库中,由于某些原因,接口和入库过程要解耦,所以需要中转一下,一种方案是接口端把 json 写入文件,logstash 读取,然后 output 输出到一个 http 接口,然后入库。另一种是接口把稿件数据扔到 kafka 里,然后接口端拉数据入库。

总体量大概一天 1~2w 篇,不算大,但是字段比较多,正文会大一点。领导要求尽量保证数据不丢失。 感觉走 logstash,如果 output 对应的接口挂掉,容易大量重试,比较麻烦。然后走消息队列,感觉作为消息体似乎有点大,而且不知道会不会被撑爆导致里面数据丢失(做持久化可解决?)

想求教一下,哪种方案合适一点,或者说有啥更合适的方案更好。

谢谢诸位。

1284 次点击
所在节点    Java
3 条回复
VonemSnake
2021-06-09 09:55:10 +08:00
kafka
dayeye2006199
2021-06-09 15:02:59 +08:00
消息队列
SnailTest
2021-06-11 13:34:32 +08:00
消息队列分批收

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/782238

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX