团队日志要存几年,怎么找一个便宜又能查的地方?

60 天前
 linhrdom

我们这边每天都会落几十 GB 日志,埋点+调试都有。 想法比较简单:

之前看过对象存储 + Presto(Trino) 这套,但有点懒得自己搭建和维护,感觉太折腾。 大家平时是怎么搞的?有没有省心点的办法?

8892 次点击
所在节点    数据库
97 条回复
DLOG
59 天前
filebeat -> kafka -> (ck -> S3)
才几十个 G ,随便玩
spritecn
59 天前
@DLOG kafka 可以去掉的.. filebeat 走 bluk api 塞 ck
maximdx
59 天前
这得上数仓吧,我们公司用 pinot 或者 clickhouse
HappyAndSmile
59 天前
ClickHouse 按天分区,简单,不用那么折腾
luciankaltz
59 天前
可以考虑 GreptimeDB ,和常见的日志存储在官网都有对比文章。写了一大堆 v2 不让我发,麻了
利益相关
yingqi1
59 天前
我也推荐 duckdb+云存储方案, 文件压缩率也是第一梯队,duckdb 也可以, 然后 duckdb 安装极其简单,使用也简单,查询速度丝毫不弱。
deplives
59 天前
@linhrdom #7 一天几十 G 一年就差不多得 17T 日志,又想冷数据大容量存储存储,又想热数据随时调用,又想不花钱,又想不麻烦。讲真,寿命这个数据不重要,你们干脆自己买个几块企业硬盘吧。够用了。
qweruiop
59 天前
楼上的各位佬,最近有个内部文档,看介绍 duckdb 可以直接挂在 cloudflare r2/s3 来实现全文搜索?不知道,是否有简单的例子,或者 demo 。。。
tudou1514
59 天前
直接物理存,买硬盘,做好报警,满了就换
pinylin
59 天前
vector -> clickhouse -> S3
vector -> quickwit-> S3

我觉得 都行
Maboroshii
59 天前
补充一下我之前说的文件方案:
保存到支持透明压缩的文件系统里,比如 btrfs ,不仅支持快照,也支持方便的备份
然后文件是可以天然支持根据日期分区的
最后,直接用 warp 等 ai 终端帮你查找想要的内容,都不用自己拼 grep 或写脚本分析了
guyueyiren
59 天前
@ETiV #20 感觉是邪修,从未想过如此办法,哈哈
tianshiyeben
59 天前
lichon
59 天前
signoz clickhouse 存储 支持 S3 fallback
RicardoY
58 天前
没有审计需求留一年干嘛,一个月足够了(大多数是 7 天)
nicoljiang
58 天前
@linhrdom #69 兄弟是会做推广的。
z12cryoto
57 天前
可以试试 web3.storage

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1154038

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX