centos 7
1-2G 内存 clone 直接导致内存溢出, remote out of memery
4G 内存, 4G SWAP git pull 也都跑满了。。。
git-merge 内存占用最多
clone & pull 后 内存也一直满着不释放。。。
大家遇到这种情况都是怎么解决的呢?
|  |      1wayslog      2016-12-04 03:29:30 +08:00 via Android gitlab 服务器?换成 gogs 吧…我用着挺好用的 | 
|  |      2zddhub      2016-12-04 07:31:04 +08:00 via iPhone Git 只跟踪源码就好,大文件用 git lfs | 
|  |      3elgoog1970      2016-12-04 09:53:48 +08:00 换硬件 | 
|  |      49hills      2016-12-04 10:27:53 +08:00 via iPhone 好几 G 的代码……里面都是什么 | 
|  |      5shoaly      2016-12-04 10:33:15 +08:00 问一下 你们数据量有多大, 之前用 git 还没碰到过性能极限... | 
|      6auser      2016-12-04 11:20:35 +08:00 via iPhone 目测 linux 源码 | 
|  |      7HLT OP | 
|      9xiamx      2016-12-05 00:10:12 +08:00 遇到这种情况大概就是加内存吧 | 
|  |      10forcecharlie      2016-12-05 10:23:34 +08:00  1 第一得看是什么 git 搭建的服务,第二是看什么 git 协议的访问,比如有些 git http 服务器的实现就会致使进程内存占用过高,以 git clone ( fetch merge ) 本质上是 git fetch-pack 和 git upload-pack 在交换标准输出,这个过程是动态的,如果合理的话,内存占用并不会很高,当时有一些服务器,比如 HTTP 服务器,直接将标准输出写入到 http 响应包体,又不用 chunked 编码,这样的后果就是,一个大仓库, 2G , HTTP 的包体就需要 >2G , ( git 的 http 客户端基本上使用 curl , winhttp ( libgit2 )这样的实现,客户端内存一般不会爆掉。),老版本的 gitlab 使用的 grack 就是这样的。 | 
|  |      11HLT OP @forcecharlie 所以。。怎么办呢 | 
|  |      12forcecharlie      2016-12-08 09:54:40 +08:00 @HLT 你把你搭建的 git 服务器信息贴出来,还有访问方式。 |