30M 左右的 parquet 文件, 转成 pandas 的 dataframe 存 mysql, 直接耗完 6 个 g 的内存?

2019-01-18 14:36:23 +08:00
 scalaer

python 代码

from pyarrow import parquet as pq


fs = s3fs.S3FileSystem(...)

path = ['s3a://.....']

r = pq.ParquetDataset(_path, filesystem=fs)
df = r.read().to_pandas()
df.to_sql(....)

相关的日志

Jan 18 14:18:33  kernel: Out of memory: Kill process 3342 (python3) score 842 or sacrifice child
Jan 18 14:18:33  kernel: Killed process 3342 (python3) total-vm:7950428kB, anon-rss:6945048kB, file-rss:0kB, shmem-rss:0kB
1312 次点击
所在节点    Python
1 条回复
scalaer
2019-01-18 14:49:24 +08:00
漏了点处理
df['_time'] = df['time'].apply(lambda x: parse(x[:11] + " " + x[12:]).strftime("%Y-%m-%d %H:%M:%S"))
df['bytes'] = df['request_size'] + df['response_size']
df['bytes'] = df['bytes'].astype(int)

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/528300

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX