如题。
学校找我建一个 MC 服,大概要能支持 4k 人同时在线。问题是这么大的在线量单机肯定扛不下来(并没有钱买杜甫,而且只要使用一个下午,所以我计划买按量付费的阿里)。然而 MC 本身并没有负载均衡机制,如果手动负载均衡的话文件同步问题也不知道怎么解决。
所以想到是否能用 docker 运行一个跨多台服务器的容器,然后把 MC 服丢进这个容器里呢?谢谢
     1 
                    
                    binux      2016-03-06 08:16:08 +08:00 
                    
                    不能 
                 | 
            
     2 
                    
                    shiji      2016-03-06 08:26:10 +08:00 
                    
                    而且, 4 千,独服也不是很容易吃得消吧,估计得上 400G 左右的内存,即使你有那么多内存,磁盘 IO 也是个问题。。。 
                 | 
            
     3 
                    
                    v1024      2016-03-06 08:28:50 +08:00 via iPhone 
                    
                    多机间通信是严重的性能瓶颈 
                 | 
            
     4 
                    
                    fourstring   OP @shiji 是啊, 400G 内存,太伤了 
                PE 版也要这么多内存么  | 
            
     5 
                    
                    lhbc      2016-03-06 08:37:19 +08:00 via Android 
                    
                    Docker 里面跑的是进程 
                所以跨物理机这种事情,跟 Docker 无关,你只能在程序里实现跨主机通信  | 
            
     6 
                    
                    hardware      2016-03-06 09:35:04 +08:00 
                    
                    一个学校怎么可能有 4k 人玩这个? nerd 集中的 caltech 么? 
                 | 
            
     7 
                    
                    fourstring   OP @hardware 是,我估计能 1000 人在线左右。毕竟星期六下午搞活动,大家应该都有带手机 
                然而 1000 人也得上百 G 内存,单机依旧吃力啊  | 
            
     8 
                    
                    jonechenug      2016-03-06 10:11:23 +08:00 via Android 
                    
                    docker 有集群的工具(套件),谷歌的 Kubernetes ,不过一时你也搭建不起。我在 daocloud ,好像看到有这种功能,不知道能不能实现楼主说的功能。 
                 | 
            
     9 
                    
                    9hills      2016-03-06 10:12:05 +08:00 via iPhone 
                    
                    异想天开…… 
                 | 
            
     10 
                    
                    49      2016-03-06 10:17:11 +08:00 via iPhone 
                    
                    屌了,原来是四弦啊..._( •́ ω •̀ 」∠)/_ 
                 | 
            
     11 
                    
                    fourstring   OP @49 噗,你不是在“调试 xxx ”么,还有时间刷 v 站…… 
                 | 
            
     12 
                    
                    002jnm      2016-03-06 10:22:30 +08:00 via iPhone 
                    
                    借台服务器放学校吧,然后大家都内网连接 
                 | 
            
     13 
                    
                    zwy100e72      2016-03-06 10:23:04 +08:00 
                    
                    不负责任的说一句: 
                要么和找你的人摆明了,让他向学校租用服务器,学校科学计算集群中会有满足你要求的机器 要么就在 AWS 上面开一个 m4.10xlarge 的实例  | 
            
     14 
                    
                    zwy100e72      2016-03-06 10:25:18 +08:00 
                    
                    另外楼主有一点做的不是很合适: 
                你不该同一个话题重复发两次,尽管内容有所不同 这样是在浪费大家的精力  | 
            
     15 
                    
                    fourstring   OP @zwy100e72 谢谢,会注意的 
                 | 
            
     16 
                    
                    realityone      2016-03-06 12:00:58 +08:00 
                    
                    分区还有可能,写个路由按账号分区? 
                mc 好像没啥集群的方案  | 
            
     17 
                    
                    49      2016-03-06 13:15:25 +08:00 via iPhone 
                    
                    
                 | 
            
     18 
                    
                    wph95      2016-03-06 13:55:10 +08:00 
                    
                    这和用不用 docker 没关系。 
                你得先解决 MC 的集群问题。  | 
            
     19 
                    
                    wwng      2016-03-06 18:58:23 +08:00 
                    
                    讲道理。这个学校有病 
                 | 
            
     20 
                    
                    zho6      2016-03-06 21:40:37 +08:00 
                    
                    512G 内存 PCI-E 闪存硬盘 双至强 2690 V3  
                十多 w 的价格  | 
            
     21 
                    
                    JWBlueLiu      2016-03-06 22:57:58 +08:00 
                    
                    firebase 
                 |