请教下关于用 Flume+kafka+Spark 实现实时监控错误日志报警的功能

2019-04-23 11:05:23 +08:00
 KOSKERS

大家好,请教下关于用 Flume+kafka+Spark 实现实时监控错误日志报警的功能。 目前 Flume 和 Kafka 的相关功能已经通了。但是 spark 没什么使用经验。 看网上教程是要自己写 Scala 脚本然后打成 jar 包给 Spark 执行。

我想用 spark 实现检测 kafka 的数据流,如果发现 error 字样,就发送邮件。 请问各位大佬有没有相关脚本或者教程的地址可以参考的?

谢谢大家。

5603 次点击
所在节点    Scala
4 条回复
kex0916
2019-04-23 13:54:19 +08:00
KOSKERS
2019-04-23 14:56:01 +08:00
@kex0916 谢谢。我去看看
bantao
2019-04-23 17:03:04 +08:00
flume 和 spark streaming 都可以消费 kafka 的消息数据,你的场景不复杂,不需要用 sparkstreaming 了,建议写个 flume 的拦截器比较简单的 https://www.jianshu.com/p/1b083f67aacc。
KOSKERS
2019-04-23 23:00:09 +08:00
@bantao 你好。我的目的是监控脚本如果发现有 error。就发送邮件。我本来的想法是 flume 收集,然后 shell 查看日志发送邮件的。但是老板说这样功能太重。我网上看了看貌似都是说用 spark 做的

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/557814

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX