1 亿条数据如何使用 Pandas 去重?

2016-09-07 15:14:44 +08:00
 zmrenwu
总数据量大概有 20G ,内存只有 8G ,无法一次载入内存。
查了下 pandas 的 read_csv 方法可以分块地读入数据,同时 DataFrame 对象有一个 unique 方法可以去重。但是好像只能对每一块已载入内存的数据去重,如何整体去重呢?
18924 次点击
所在节点    Python
41 条回复
9hills
2016-09-08 20:52:12 +08:00
@zmrenwu 可以试试 disk-based hash ,把 hash 表放到磁盘中。不过性能我没测试

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/304568

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX