Python 快速进行大量序列化的最佳选择是什么? Pickle? json?

2021-01-13 03:34:00 +08:00
 black11black

如题,现有一需求,需要夸空间、时间地共享内存状态,意思是多进程互相调用,且比如在今天有可能调用历史上某一次执行结果的状态。

想了想,似乎还是序列化以后存数据库里最好。

需要序列化的数据假定为长度十万的数组,内部只存字符串和浮点数两种数据,在这种情况下,Python 序列化最快的方案是什么呢?

除了使用 cpython 解释器,其他协议等等均不限,不与前端通信,仅在后端之间交换。除了量特别大(比如每天要进行一千万次序列化与反序列化)

1842 次点击
所在节点    问与答
18 条回复
helloworld000
2021-01-13 07:19:49 +08:00
SD10
2021-01-13 08:42:57 +08:00
100 多 QPS 很高了
sunhk25
2021-01-13 08:49:37 +08:00
从数据库拿出来再到反序列化会花掉不少时间,直接存数据库呗
black11black
2021-01-13 08:53:27 +08:00
@sunhk25 你有 py 对象要入库,无论如何还是得序列化和反序列化啊
Wincer
2021-01-13 08:55:47 +08:00
pickle 在 3.8 版本比 json 快很多
sunhk25
2021-01-13 09:11:33 +08:00
@black11black 不是简单的数据库查询和计算而是需要整个对象的话,那还是 pickle 。
php8
2021-01-13 09:18:29 +08:00
读写量级: 10M * 100K * 100,100TB 每天
IO 速率: 100TB / 86400,1.2GB 每秒

10G 网卡带宽打满,不优化设计?
xchaoinfo
2021-01-13 09:49:09 +08:00
我之前做过低频次百万级别数据的序列化,用的 pickle,是 pandas 处理后的数据。
序列化直接存储文件,数据库记录文件位置和一些属性信息。
black11black
2021-01-13 10:10:34 +08:00
@php8 不是很理解这个算式,10M*100k 以后为什么要乘 100 呢,10M*100k 才 1T,没感觉有什么问题
GoLand
2021-01-13 10:52:29 +08:00
用 protobuf 的序列化,还能跨语言。pickle 不能跨语言吧?
seven123
2021-01-13 11:05:36 +08:00
我用 msgpack
php8
2021-01-13 11:56:14 +08:00
@black11black 浮点数 8 字节,字符串平均几十字节,按 100 字节做估算
tmackan
2021-01-13 15:22:23 +08:00
@seven123 只支持 py
tmackan
2021-01-13 15:25:46 +08:00
可以参考下 https://github.com/jvanasco/dogpile_backend_redis_advanced
这里有有个测试数据
tmackan
2021-01-13 15:27:21 +08:00
跨语言的话,还是用 json 吧一般,pickcle 不跨语言,之前研究过 dogpile 的缓存框架,默认是 pickle 。。。
ruanimal
2021-01-13 16:06:22 +08:00
msgpack 试试看
tabris17
2021-01-13 16:25:36 +08:00
encode 是 cPickle 快,decode 是 msgpack 快,看应用场景了
lizytalk
2021-01-13 16:29:51 +08:00
pickle 快。json 可读性强,而且大部分语言都支持。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/744388

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX