git 有没有什么好的方法可以抓超过 10G 的 code

2016-11-09 13:08:37 +08:00
 nealwx

前提:公司的代码托管在 xp-dev 上,主分支大概 10G 多

国内直接抓的话速度在 20~30k/s

使用代理( ss )抓的话,速度能到 2~3M/s 。

但问题是, 每次透过 ss 进行 git clone 的时候,代码大概抓了 3G 多的时候,就会提示

Write failed : Broken pipe
fatal: The remote end hung up unexpectedly
.....

然后就结束了,什么都没有抓下来

请问:有没有什么好一点的方法可以相对快速的将代码抓回本地,谢谢。

4484 次点击
所在节点    git
34 条回复
kmahyyg
2016-11-09 13:19:21 +08:00
先抓到 vps 再拖回来
sobigfish
2016-11-09 13:28:06 +08:00
10G 多...
完全无法想象,不能分 submodule 么?
jamesxu
2016-11-09 13:34:28 +08:00
压缩拷回来
wohenyingyu02
2016-11-09 13:37:33 +08:00
--depth=1 ?
lhbc
2016-11-09 13:38:07 +08:00
git clone
tar Jcf source.tar.xz source
nealwx
2016-11-09 13:38:37 +08:00
@wohenyingyu02 试过,还是抓不下来
nealwx
2016-11-09 13:41:10 +08:00
@jamesxu 可是没有操作权限
akira
2016-11-09 13:42:38 +08:00
临时租个近一点的 vps ,把代码克隆下来以后压缩慢慢拉回来
wsy2220
2016-11-09 13:42:47 +08:00
git bundle
pagxir
2016-11-09 13:44:41 +08:00
1 你需要的是一个稳定的网络,把代码同步完然后 git bundle create 。。。。。
2 试试每次只 fetch 少量的 commit 。 git fetch origin commit 这么操作。
iCyMind
2016-11-09 13:50:49 +08:00
不要把思路局限在 git 上, 试试别的什么 Resilio sync 之类的
iminto
2016-11-09 13:51:26 +08:00
试试其他版本控制系统
gky99
2016-11-09 13:54:49 +08:00
ss 不适合你的需求,搭个 vpn 吧。
走 ipv6 会更好
tinyproxy
2016-11-09 14:02:57 +08:00
这么肥的仓库,最快的方式不是让你同事打包.git 文件夹拷贝给你么?
如果你是远程工作或者你在的 site 只有你一个人干这个活当我没说。。。
misaka19000
2016-11-09 14:38:31 +08:00
找个在外国的人帮忙抓取一下然后打包发给你
Tink
2016-11-09 14:44:43 +08:00
是在 github 上吗? 是的话我还是建议直接下载 zip,能续传
winglight2016
2016-11-09 17:06:25 +08:00
可以压缩 git 库的呀, github 都有这功能
haozibi
2016-11-09 19:01:42 +08:00
fetch 好像支持断点续传,没试过这么大的仓库
bramblex
2016-11-09 19:31:10 +08:00
6666

肯定绝大多数都不是代码,而是二进制文件。 /w\
Chrisplus
2016-11-09 20:11:50 +08:00
直接抓
git clone
然后,回家睡觉

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/319229

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX