V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
爱意满满的作品展示区。
rqrq
V2EX  ›  分享创造

Clickhouse 增减分片后,旧数据如何平均分配,我的一些思路,抛砖引玉,欢迎探讨

  •  
  •   rqrq · 2021-03-11 20:18:59 +08:00 · 2092 次点击
    这是一个创建于 1140 天前的主题,其中的信息可能已经有所发展或是发生改变。

    clickhouse-reshard

    Clickhouse 增加分片后,官方文档建议把新分片的权重设大。这样新数据会优先写入新的分片,整体数据逐渐平衡后再把权重设置回来。

    加新机器的目的,大都是集群负载变高。但是按照官方建议来操作显而易见集群上的老数据并未发生任何变化,短时间内并未达到降低集群负载的目的。

    如何把旧数据较为平均的 reshard 到新机器上?

    洗澡的时候思考了一阵,以下是我的思路,抛砖引玉:

    PS:副本是另一个方向,是 ck 和 zookeeper 交互的事情,故以下不会提到副本。

    单分片转 2 分片

    也就是原来是单机,现在用两台机器,每台机器一个分片。

    假设线上有一台 ck 单机,名字是 node-1,本地数据都放在数据库 local 下。现在需要增加一台 node-2 。

    首先在 node-2 根据 node-1 的结构建立同样的本地表。

    然后在 node-1 、node-2 的 config.xml 中,配置 remote_servers

    <remote_servers>
        <!-- 集群命名 cluster_2s_1r,随意 -->
        <cluster_2s_1r>
            <shard>
                <internal_replication>true</internal_replication>
                <replica>
                    <host>node-1</host>
                    <port>9000</port>
                    <user>default</user>
                    <password></password>
                </replica>
            </shard>
        </cluster_2s_1r>
    </remote_servers>
    

    目前这个所谓的集群,暂时就只有 node-1 自己,目的是 node-2 可以通过分布式表直接读取 node-1 的数据。

    接下来在 node-2 的 default 数据库建立分布式表:

    CREATE TABLE default.cs_100_1
    (字段...)
    ENGINE = Distributed('cluster_2s_1r', 'local', 'cs_100_1', rand())
    

    Distributed 第一个参数:cluster_2s_1rconfig.xml 中集群的名字;

    第二个参数:local 是本机本地数据库名;

    第三个参数:cs_100_1 是对应 local 库本地表的表名。

    准备工作完毕,接下来就开始把 node-1 的数据尽量平分到 node-2:

    PS:保存到 ck 的数据,大部分都是事件日志,都会有时间字段,拆分数据就依靠这个字段。

    在 node-2 的 clickhouse-client 中执行:

    INSERT INTO local.cs_100_1 SELECT * FROM default.cs_100_1 WHERE (toSecond(time) % 2) != 0
    

    node-2 上面的 default.cs_100_1 是分布式表,数据源就只有 node-1

    toSecond 函数会把时间字段转化为以秒为单位的数字,范围是 0-59 。

    很显然,切割的逻辑很简单粗暴:node-1 保存秒数是偶数的数据,node-2 保存秒数是奇数的数据。

    处理很快,单机 cs_100_1 数据接近一亿,十秒不到就完成了(当然了,这是在我本地模拟的两台 ck,CPU 、内存容量、硬盘都还不错)。

    完成之后就要把 node-1 的 cs_100_1 表中,时间是奇数秒的数据给删了:

    在 node-2 的 clickhouse-client 中执行,直接操作分布式表:

    ALTER TABLE default.cs_100_1 DELETE WHERE (toSecond(time) % 2) != 0
    

    因为是 ck 的删除是异步操作,立即就会返回完成,所以别忘了适时检查下是不是删除都完成了。

    SELECT COUNT(*) FROM default.cs_100_1 WHERE (toSecond(time) % 2) != 0;
    

    至此 node-1 单机的 local.cs_100_1 表数据就还算平均地分到 node-2 上了。

    接下来就是配置 remote_servers,设置第二个分片,把 node-2 加进去。

    同样 node-1 的 default 库也建立好分布式表,完成之后两台机器就可以随意挑一台来用了。

    2 分片转 3 分片

    先看一下两台 ck 的本地表,时间字段的秒数有哪些:

    SELECT toSecond(time) AS seconds FROM local.cs_100_1 GROUP BY seconds;
    

    假设原来的 node-1 、node-2 数据比较平均,都是 30 条数据。

    那么现在就可以分别在 node-1 、node-2 随机取 10 条秒数数据,放到 node-3:

    通过上面的方法,在 node-3 的 clickhouse-client 中执行:

    INSERT INTO local.cs_100_1 SELECT * FROM default.cs_100_1 WHERE toSecond(time) IN (35,27,3,55,43,21,45,47,59,31,16,0,14,18,42,30,6,36,54,20)
    

    接下来仍然同样的操作。

    最终完成之后看了下,数据还算平均。

    3 分片转 4 分片

    还继续加机器,就不用再说了吧。

    减少分片

    运维过程中各种情况都会遇到,机器弄多了资源有富余,要下架机器。

    减少分片就方便多了,把要下架的机器脱离集群,再直接把本地数据写入分布式表,如果分布式表第四个参数是rand()的话,数据就会很平均的分配过去了。


    前几天在折腾 Clickhouse 集群,弄完了就想到了分片有变化数据如何平均的问题。然后在腾讯云看到某文章,说他们已经有了把老数据平均分到新分片的工具。

    我在想他们是怎么实现的,基于我目前对集群的了解,以上就是对于 Clickhouse 增减节点后均衡数据的思路。

    我感觉这种方式很简单,但是过程稍繁琐。不过如果写好了脚本,只需要等待就行了。

    如果你认为有更好的方法,欢迎共同探讨。:)

    Clickhouse 最新测试版 21.3 在新加入了窗口函数之后,功能将更加强大。如果官方能够在分片上再提供一些内置的运维支持,那就简直“完美”。

    这篇文章我也放到 github 上了,也可以在 issue 讨论哈。

    https://github.com/gbabook/clickhouse-reshard

    5 条回复    2021-03-12 11:33:35 +08:00
    amoia50
        1
    amoia50  
       2021-03-11 20:37:55 +08:00 via iPhone
    分片字段不是分区字段比较难搞
    lovecy
        2
    lovecy  
       2021-03-11 20:49:57 +08:00   ❤️ 1
    集群里加分片后,新建一个分布式表,把旧的数据导入到新表。感觉这样更简单
    rqrq
        3
    rqrq  
    OP
       2021-03-11 21:02:26 +08:00
    @lovecy 这个方法也好,旧分布式 -> 新分布式。
    rqrq
        4
    rqrq  
    OP
       2021-03-11 21:05:31 +08:00
    @lovecy 说的的方法很好,非常方便,我没想到,哈哈。
    rapperx2
        5
    rapperx2  
       2021-03-12 11:33:35 +08:00
    @lovecy 顶,方法确实简单直接
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   3232 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 28ms · UTC 13:20 · PVG 21:20 · LAX 06:20 · JFK 09:20
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.