命令行工具用好了,在一定数据量下,不一定比 Hadoop 慢

2015-01-18 17:20:18 +08:00
 Livid
http://aadrake.com/command-line-tools-can-be-235x-faster-than-your-hadoop-cluster.html
5434 次点击
所在节点    Hadoop
21 条回复
bombless
2015-01-18 17:30:12 +08:00
xargs 大法好,退 Java 保平安。
liprais
2015-01-18 17:35:17 +08:00
"Hopefully this has illustrated some points about using and abusing tools like Hadoop for data processing tasks that can better be accomplished on a single machine with simple shell commands and tools. If you have a huge amount of data or really need distributed processing, then tools like Hadoop may be required, but more often than not these days I see Hadoop used where a traditional relational database or other solutions would be far better in terms of performance, cost of implementation, and ongoing maintenance."
说的太好了....
damngood
2015-01-18 17:36:24 +08:00
还可以出一个 数据库 版本的
est
2015-01-18 17:38:12 +08:00
> Since the data volume was only about 1.75GB containing around 2 million chess games

数据不比单机内存大就不要上hadoop啥的了。mmap啥的完爆所有工具。
invite
2015-01-18 18:04:17 +08:00
hadoop ? 云计算那个? 这个本来就有它应用的局限性.
hahastudio
2015-01-18 18:14:21 +08:00
本来的,hadoop 启动起来就要花些时间,map 和 combine 也可以看成是“无意义”的时间消耗
我觉得主要还是在于大数据被炒得很火,不管有没有那么多的数据都想耍一耍,提高逼格
可你的数据一台机器就能放得下,为什么要用 hadoop 呢= =
sivacohan
2015-01-18 18:28:52 +08:00
任何一本讲并行计算的书都会提到一点。
开销。
指因算法并行化而相对串行算法产生的额外时间,空间。
实际工程很多人都把开销自动忽略了。
zhicheng
2015-01-18 18:43:05 +08:00
可是这样就木有办法装逼了呀。
glogo
2015-01-18 18:56:58 +08:00
霸气!!!
ob
2015-01-18 19:04:01 +08:00
@bombless
这回复,让哥有一种深深的罪恶感。。
nbndco
2015-01-18 19:19:32 +08:00
醉了,1.75G还要用hadoop……
s51431980
2015-01-18 21:44:27 +08:00
不要单看数据大小,1G的图关系数据和1G的时间序列处理难度完全不一样,有些人既然不是这个领域就不要暴露自己的无知了
adjusted
2015-01-18 21:47:06 +08:00
想起以前看过的“your data is not that big”
binux
2015-01-18 21:53:02 +08:00
1.75G,12秒。。。别闹
9hills
2015-01-18 22:35:38 +08:00
看了下,作者意识到数据是流式的,所以没用Hadoop
monkeylyf
2015-01-19 01:30:46 +08:00
1.75gb用hadoop确实overkill了 尤其是这种仅仅是最简单的mapreduce
235xfaster这种数字拿出来不怕被人打脸吗
yuankui
2015-01-19 09:23:11 +08:00
当数据量到达 TB,PB级时再说吧。。
hadoop本来就不是用来处理GB级数据的。。
liprais
2015-01-19 12:32:40 +08:00
oneoo
2015-01-19 13:21:17 +08:00
抛个题:UPYUN.com 的CDN系统有超过1000+台服务器的访问日志,总量800GB~1TB压缩内容,里面包含有10w个域名的URL,业务需要把这些日志按域名切分好,以提供给客户下载,另外再附加一个统计分析业务,分top1000 URL,top1000 referer, top1000 useragent, top1000 文件大小。

你觉得:
这是大数据吗?
需要Hadoop等分布式处理吗?
这个处理集群大概要多少台物理机?
有更好的方式吗?
zhimingcc
2015-01-19 14:35:44 +08:00
因为问题多样性,技术也应该多样性,不应该只用一种技术解决不同的问题,软件工程师们应该有更灵活的方案,不应该重复用一套轮子。。。。
问题是,对各种技术理解深刻的软件工程师多么?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/163242

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX