请教一下大神们,日志是怎么处理的?

2017 年 12 月 8 日
 deweixu

我们之前对日志的处理是,每天会有一个定时任务处理头一天的日志,会选择一个关键的日志入库,然后可以下载,导出成 excel 之类的,但是随着日志数据量的巨增,发现入库不是一个好的选择,大神们是怎么弄的呢?

3616 次点击
所在节点    程序员
8 条回复
duskx
2017 年 12 月 8 日
ELK
cls1991
2017 年 12 月 8 日
elk
deweixu
2017 年 12 月 8 日
@957204459 Elasticsearch 是不是还要把从 logstash 得到的数据存储起来?
zen9073
2017 年 12 月 8 日
@deweixu
logstash 收集 log,发送到 elasticsearch 存储,然后通过 kibana 处理展示,
roricon
2017 年 12 月 8 日
在 logstash parse log file 的时候加 filter 可以过滤掉你不关心的 log entries
iugo
2017 年 12 月 8 日
之前想过用 Kafka + 自定义处理, 但前一段将日志移入某云. 然后只针对严重的错误进行提醒.
qqmishi
2017 年 12 月 9 日
或者试试 loggly 这种日志服务
MoliOOO
2017 年 12 月 9 日
试试 Graylog

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/413065

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX