关于大量数据导出到 excel 或 csv 实现方案

2019-08-15 11:40:41 +08:00
 imherer

最近有个需求,需要将 PostgreSQL 里的数据导出到 excel 里(或者 csv ),可能出现的情况有 3 种:

现在问题是如果导出的数据太大的话会 OOM,如何解决呢?

现在想预估一个安全行数,在导出的行数达到安全行数后就保存这个 excel,然后再从数据库读取再追加到这个 excel 里。疑问是再次向这个文件里追加数据的时候这个文件里之前已有的数据会载到内存里来吗?

有做过的前辈分享下经验吗?

语言:go

公司内部项目,所以用户量很少,基本上就几个人使用

7753 次点击
所在节点    程序员
46 条回复
jalena
2019-08-16 16:17:27 +08:00
不是又个命令是 copy 嘛,可以直接输出到文件
cmonkey
2019-08-16 16:20:38 +08:00
是时候让公司那几个人学习 PostgreSQL 了,给他们开 read 权限
imherer
2019-08-16 16:24:24 +08:00
@cmonkey 😂😅
imherer
2019-08-16 16:24:40 +08:00
@jalena 嗯,目前就是这样实现的
yogogo
2019-08-16 16:51:21 +08:00
先导出到服务器,再把文件下载
shangfabao
2019-08-16 16:51:24 +08:00
用 postgresql 自带命令执行不好么??

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/592061

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX