1000 万行文本数据如何做筛选?

2018-04-15 15:51:42 +08:00
 unboy
txt 数据,只做最简单的筛选,之前只有几十万行,一直在用 excel 虽然卡一点也处理的过来。这次突增到 1000 万行了,数据 900MB 左右,excel 肯定不行了,导入到 access2016 里,虽然导入很快,但是一点筛选就卡住,cpu 占用倒是只有 50%,像这种情况还有其他更简便的筛选方法吗?谢谢
3023 次点击
所在节点    问与答
12 条回复
linap
2018-04-15 16:03:44 +08:00
mysql
msg7086
2018-04-15 16:55:27 +08:00
难道不是 grep ? 900M 简单过滤,10 秒钟足够了吧。
dobelee
2018-04-15 17:28:48 +08:00
文本最简单最快的 grep 了。结构化的另说。excel 就不好了。
kiwi95
2018-04-15 17:30:38 +08:00
行数据,grep, awk, sed 一套下来基本能搞定
liucudliucud
2018-04-15 17:47:30 +08:00
传到集群上用任务搞,9 亿行都没问题
ynyounuo
2018-04-15 18:25:22 +08:00
用 ripgrep 4.4 亿行用简单正则筛选只用 21 秒

wc -l < OpenSubtitles2018.raw.en
441450449

rg -n -i '.*way.*to.*explore.*' OpenSubtitles2018.raw.en 12.95s user 7.14s system 97% cpu 21.308 total
clino
2018-04-15 18:36:05 +08:00
unqlite 可以试试
qinrui
2018-04-15 21:21:03 +08:00
awk
locktionc
2018-04-15 22:25:32 +08:00
你如果能把样本数据,你需要筛选的内容都提供一下,大家会给你更多办法。
qwertyegg
2018-04-15 23:30:23 +08:00
这不是大数据 101 的题目嘛?拆成 10 份分开弄,然后合并结果
wqzjk393
2018-04-16 00:25:05 +08:00
1,数据库,用 where 筛选。2,用 pandas 的 read_csv 函数,dataframe 什么不能干?………实际上我们工作接触几千万行数据,是用 hive 数据库的。其实吧,我个人觉得,只要不死机,卡就卡吧…
Howlaind
2018-04-16 00:48:55 +08:00
the_silver_searcher

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/446997

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX