(讨论帖) spark on yarn 这样的资源分配情况有没有问题

2018-12-14 15:44:44 +08:00
 scalaer

先上配置 hadoop 集群(1 个 master8 核 12g, 3 个节点 4 核 8g)

计算方式:

最后得出提交一个 spark 任务 指定的 executor 数量为 2, 每个 executor 占用核数为 1, 每个 executor 的内存为 3.5g


疑惑的两个点:

  1. 理论上每一个任务都能够在一个节点上面跑, 申请的 executor 不会跨节点了.
  2. 任务执行的快慢与 executor 数量有没有关系(正比?)。

原谅我目前没有那么多的资源做测试, 请各位大佬指教指教.

941 次点击
所在节点    程序员
0 条回复

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/517594

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX