jininij
2016-08-09 01:57:55 +08:00
我也有这个问题。现在也一直没有好的解决办法。
Google Photos 虽然说了会压缩图片,但实际测试了发现 10M 的 png 和 100M 的 mp4 也没被压缩,下载回来 hash 都没变。各种网盘纷纷倒下,所以那段时间我把我很多资料都转成了图片存到 google 相册里了。
现在网页版会校验文件 hash 了,所以重复上传会直接成功。
google photos 刚推出的时候,我试过这种方式:在谷歌云端硬盘设置里,开启显示谷歌相册目录,文件先传到国内的静态文件存储(比如阿里云的 cos 和顽兔)因为在国内,所以很快。然后写个 google 脚本,用 GAE ,下载这些图片,再传到谷歌云端硬盘 google photos 文件夹。但这样传过去的文件是占用容量的,在谷歌相册的设置里,选择“一键压缩所有图片”,可以将这些占用谷歌存储容量的图片压缩。
虽然网盘都倒了,但现在很多国内 sass 都提供静态文件存储,而且都有 10G 到 100G 不等的免费份额,最赞的是 sdk 都给你提供好了。如果图片内容很正常,也可以先传到国内的各种相册,再取出直链给 google 脚本,当然也可以直接分析出接口。 GAE 每天流量限制是 10G ,可以创建十个应用,也就是每天可以传 50G 的东西, google script curl 有大小限制,但图片 5M 应该够了。
为什么不直接分析谷歌相册的上传协议呢?我试了,但很抱歉。。。
你看,几乎没有什么成本。但是,时间值钱啊。去年差不多这个时候,我做了这个东西,把大文件切割成 4M 一个,然后转成 png ,再传到 GooglePhotos 。然后就留下了坑,现在还不知道怎么取回。
干嘛不买个移动硬盘来存。