分片存储-细碎设计系列(三)

2021-06-22 13:24:59 +08:00
 xiaoxuz

摘要

系统设计中数据存储模型是核心部分,量级大、QPS 高,通常会通过分库降低 CPU/内存 /磁盘 IO 等系统瓶颈,通过分表降低单表量级过大从而导致的性能问题。那么类似分片存储后从业务角度看会有什么问题?索引法、基因法有是什么呢?

前言

大量的数据存储,常见的水平分片算法:

水平分片算法比较普及,只是为了承上启下简单码了一些,懂的同学可以快速跳过!

Range

基于 Unique Key 按照范围分片。切分的维度:

优点:

不足:

Hash

基于 Unique Key 取模,均匀分片。

优点:

不足:

以上是预热部分,当数据分片后对业务带来了哪些问题呢?

例子

Passport Service 几乎是每一个公司必备的基础服务。

之前团队中负责设计 passport 服务时有过 user 存储的思考和设计,简单说说。

Passport Service 是一个非常常见的基础服务,主要提供账号通行证相关能力, 在使用场景中比如登录、注册、登出、登录态校验、更新等,其核心存储是一张 user 表:

比如:

CREATE TABLE `tb_user0` (
  `id` int(10) NOT NULL AUTO_INCREMENT COMMENT '表自增 ID',
  `uid` bigint(20) NOT NULL DEFAULT '0' COMMENT '用户 ID',
  `user_name` varchar(255) NOT NULL DEFAULT '' COMMENT '用户名,不区分大小些;统一成大写,加密后入库',
  `pwd` char(40) NOT NULL DEFAULT '' COMMENT '密码',
  
  `......`
  
  `update_time` int(10) NOT NULL DEFAULT '0' COMMENT '最后更新时间',
  `create_time` int(10) NOT NULL DEFAULT '0' COMMENT '创建时间',
  PRIMARY KEY (`id`),
  KEY `idx_uid` (`uid`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8 COMMENT='用户主表';

user_name 为登录用户名,通常会是手机号,需要脱敏

ok,这张表如何设计呢?

单表实现不合理,结合业务场景,水平分片是必须要有的。

账号量级大,请求量高,需要保证高可用和高一致性。UID 作为 Unique Key,基于 UID 是高频查询,那么就基于 UID 水平分表。

前台服务相对核心的操作:

后台服务(MIS 或运营管理后台) 操作:

问题

基于 UID 分片,那么问题来了~

  1. 基于 UID 分片,前台服务登录时没有 UID,只有 user_name,不清楚账号数据落在哪张表,遍历扫全库么?性能低的丑陋。

    用 UID 分片,如何高效实现查询?

    这是本文要讨论的问题。

  2. 数据既然分片了,后台服务的多维度检索,跨分片汇总数据分页查询怎么搞?继续遍历全库内存计数么? Mysql 抗的住么?就算 Mysql 抗的住,后台用户等的起么?就算后台用户脾气好,客户端不会超时么?

    如何多分片高效检索汇总?

    这是本文要讨论的问题++。

方案

issue1: 用 UID 分片,如何高效实现查询?

方案一:索引法

思路:UID 可以定位分片,user_name 无法直接定位,那么通过 user_name 定位 UID,进而定位分片。

方案

问题:多一次 DB 查询,性能相对降低。


方案二: 持久化缓存映射

思路:接受不了多一次 DB 查询,那就将映射关系持久化到缓存中。

方案:

问题

普通场景下,索引+缓存就可以解决大部分问题


方案三:基于 username 生成 uid

思路:不想单独存储映射关系,直接通过 username 生成 uid

方案:这种通过字符串生成 ID 的 Hash 函数很多,f(username) = uid

问题:


方案四: 基因法

思路: 从 username 中提取基因,加入到 uid 生成规则中。

方案:

这里需要引入分布式全局唯一 ID 生成能力,该基因法依赖分布式 ID,后续会输出《分布式发号器》的文字,先简单普及下分布式 ID 生成的一种常见算法,Snowflake 雪花

SnowFlake 算法生成 id 的结果是一个 64bit 大小的整数,它的结构如下图:

所谓基因算法就是提取 username 的分片基因,合并到全局唯一的 ID 上,生成一个全新的 UID 。如下图:

直接上 Demo 源码吧:

Demo 源码全局唯一 ID 基于 SnowFlake 算法生成,对每个 Block 的 Bit 数简单调整了一下。

基础配置:

const (
	GENE_NODEIDID_BITS int64 = 10	// 机器节点 10Bit
	GENE_SEQ_BITS      int64 = 13	// 同时间同节点序列号 13Bit
	GENE_BITS          int64 = 12	// 分片基因 12Bit

	GENE_NODEID_MAX int64 = -1 ^ (-1 << GENE_NODEIDID_BITS)	// 机器节点最大值 1024
	GENE_SEQ_MAX    int64 = -1 ^ (-1 << GENE_SEQ_BITS)			// 序列号最大值 8192

	// 这块放弃了时间,为了保留基因。timestemp 单位 s,28 个 bit 大约 7 8 年
	GENE_TIMESTEMP_SHIFT       = GENE_NODEIDID_BITS + GENE_SEQ_BITS + GENE_BITS
	GENE_NODEIDID_SHIFT  int64 = GENE_SEQ_BITS + GENE_BITS
	GENE_SEQ_SHIFT       int64 = GENE_BITS

	// 拒绝浪费,珍惜时间
	GENE_EPOCH int64 = 1624258189

	// 默认步长
	GENE_DEFAULT_STEP_LONG = 1
)

这是个 Demo,GENE_BITS 位数需要根据分片数量决定,比如分 16 片,那么 GENE_BITS 4 个 bit 就可以

基因 ID 实例:

type GeneID struct {
	m         sync.Mutex	// 读写锁
	timestemp int64				// 当前时间戳
	nodeID    int64				// 机器节点
	seq       int64				// 序列号
	geneID    int64				// 基因
	step      int64				// 序列号增长步长
}

样本基因提取:

// 基于基因样本提取基因 ID
func ExtractGene(geneSample []byte) int64 {
	gene := md5.Sum(geneSample)
	hashGeneValue := fmt.Sprintf("%x", gene)[29:32]
	geneID, _ := strconv.ParseInt(hashGeneValue, 16, 64)
	return geneID
}

基于雪花算法生成完整 ID:

func (g *GeneID) Generate() int64 {
	g.m.Lock()
	defer g.m.Unlock()

	now := time.Now().UnixNano() / 1e9 // 纳秒转秒
	if now == g.timestemp {
		g.seq = g.seq + g.step
		if g.seq > GENE_SEQ_MAX {
			for now <= g.timestemp {
				now = time.Now().UnixNano() / 1e9
			}
			g.seq = 0
		}
	} else {
		g.seq = 0
	}
	g.timestemp = now
	return g.timeBlock() | g.nodeBlock() | g.seqBlock() | g.geneBlock()
}

完整 Demo 源码可访问: https://github.com/xiaoxuz/idgenerator

不足: username 不能更新


issue2: 如何多分片高效检索汇总?

思路 1:前后台数据解耦,资源存储隔离,避免后台低效查询引发前台查询抖动。

思路 2:接受数据冗余存储设计,采用其他存储服务作为后台存储组件,数据双写异步写入

思路 3:后台存储组件可以基于数据时效性选择:

之前基于 Elasticsearch 做过前后台数据隔离设计,大概设计如下:

基于阿里开源的 Canal 服务实时订阅消费前台 Mysql 的 binlog,将 binlog 发布到 消息队列Kafka中。

下游可以通过 Flink 实时计算服务或者通过 Golang 实现的 Consumer 来消费 Kafka 中的 Binlog,解析并且转存到Elasticsearch

后台服务基于 Elasticsearch 的 RESTful API 实现实时检索和聚合需求。

总结

Issue1: 用 UID 分片,如何高效实现查询?

Issue2:如何多分片高效检索汇总?

思考

记忆力好比缓存,记笔记好比落盘。缓存总会失效,硬盘你可以多副本保留。

tips:学习不要光靠脑袋记,沉淀下来记到本子上才是自己的。

收工

打完收工,感谢阅读!

860 次点击
所在节点    分享发现
2 条回复
gBurnX
2021-06-22 15:19:34 +08:00
虽然通过分库降低 CPU/内存 /磁盘 IO 等系统瓶颈,但提升了成本与延时,提高了系统的复杂度,从而隐性地引入更多 Bug 。

通过分表降低单表量级过大从而导致的性能问题,这个问题的认识更是相当粗浅。因为你根本没办法找到一个合理的分表依据。你按 hash 分表,这真的能让业务进行随机?这真的符合冷热数据规律?而且这样一分表,同样也引入复杂度,提高操作难度与 bug 数量。
xiaoxuz
2021-06-22 16:06:00 +08:00
分库是为了做资源隔离,当然复杂度提高肯定会有异常的风险,这个就要看性能和稳定的取舍了。

分表这个可能理解的不及你深刻哈,但是"根本没办法找到一个合理的分表依据",这句话不太认同,系统设计之前要基于业务和数据分析,为什么就没办法找到合理的分表依据呢? hash 分表是否数据均匀也要看数据量级和 hash 的字段是否均匀,目前看我经历过的分表几乎都是均匀分配的。如果谈到"冷热数据",可能我写的文章太粗糙,没表达请求,按照 Range 的方式是可以实现大部分场景冷热分离的。

最后我认可你表达的复杂度提高,稳定性可能会下降的理论,相信你有 cover 单表过 N 亿的实力!

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/785048

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX