通俗易懂:如何设计能支撑百万并发的数据库架构?

1、引言

相信看到这个标题,很多人的第一反应就是:对数据库进行分库分表啊!但是实际上,数据库层面的分库分表到底是用来干什么的,其不同的作用如何应对不同的场景,我觉得很多同学可能都没搞清楚。

本篇文章我们一起来学习一下,对于一个支撑日活百万用户的高并发系统,数据库架构应该如何设计呢?

本文的讨论和分享,将用一个创业公司的发展作为背景引入,方便大家理解。

(本文同步发布于:http://www.52im.net/thread-2510-1-1.html)

2、相关文章

高性能数据库方面的文章:

《优秀后端架构师必会知识:史上最全MySQL大表优化方案总结》

《阿里技术分享:深度揭秘阿里数据库技术方案的10年变迁史》

《阿里技术分享:阿里自研金融级数据库OceanBase的艰辛成长之路》

《腾讯TEG团队原创:基于MySQL的分布式数据库TDSQL十年锻造经验分享》

分布式架构方面的入门文章:

《腾讯资深架构师干货总结:一文读懂大型分布式系统设计的方方面面》

《新手入门:零基础理解大型分布式架构的演进历史、技术原理、最佳实践》

《快速理解高性能HTTP服务端的负载均衡技术原理》

《一篇读懂分布式架构下的负载均衡技术:分类、原理、算法、常见方案等》

3、小型系统的典型数据库单机架构和明显的瓶颈

假如我们现在是一个小创业公司,注册用户就 20 万,每天活跃用户就 1 万,每天单表数据量就 1000,然后高峰期每秒钟并发请求最多就 10。

天呐!就这种系统,随便找一个有几年工作经验的高级工程师,然后带几个年轻工程师,随便干干都可以做出来。

因为这样的系统,实际上主要就是在前期进行快速的业务功能开发,搞一个单块系统部署在一台服务器上,然后连接一个数据库就可以了。

接着大家就是不停地在一个工程里填充进去各种业务代码,尽快把公司的业务支撑起来。

如下图所示:

结果呢,没想到我们运气这么好,碰上个优秀的 CEO 带着我们走上了康庄大道!

公司业务发展迅猛,过了几个月,注册用户数达到了 2000 万!每天活跃用户数 100 万!每天单表新增数据量达到 50 万条!高峰期每秒请求量达到 1 万!

同时公司还顺带着融资了两轮,估值达到了惊人的几亿美金!一只朝气蓬勃的幼年独角兽的节奏!

好吧,现在大家感觉压力已经有点大了,为啥呢?因为每天单表新增 50 万条数据,一个月就多 1500 万条数据,一年下来单表会达到上亿条数据。

经过一段时间的运行,现在咱们单表已经两三千万条数据了,勉强还能支撑着。

但是,眼见着系统访问数据库的性能怎么越来越差呢,单表数据量越来越大,拖垮了一些复杂查询 SQL 的性能啊!

然后高峰期请求现在是每秒 1 万,咱们的系统在线上部署了 20 台机器,平均每台机器每秒支撑 500 请求,这个还能抗住,没啥大问题。但是数据库层面呢?

如果说此时你还是一台数据库服务器在支撑每秒上万的请求,负责任的告诉你,每次高峰期会出现下述问题:

1)你的数据库服务器的磁盘 IO、网络带宽、CPU 负载、内存消耗,都会达到非常高的情况,数据库所在服务器的整体负载会非常重,甚至都快不堪重负了;

2)高峰期时,本来你单表数据量就很大,SQL 性能就不太好,这时加上你的数据库服务器负载太高导致性能下降,就会发现你的 SQL 性能更差了;

3)最明显的一个感觉,就是你的系统在高峰期各个功能都运行的很慢,用户体验很差,点一个按钮可能要几十秒才出来结果;

4)如果你运气不太好,数据库服务器的配置不是特别的高的话,弄不好你还会经历数据库宕机的情况,因为负载太高对数据库压力太大了。

4、多台服务器分库支撑高并发读写

首先我们先考虑第一个问题,数据库每秒上万的并发请求应该如何来支撑呢?

要搞清楚这个问题,先得明白一般数据库部署在什么配置的服务器上。通常来说,假如你用普通配置的服务器来部署数据库,那也起码是 16 核 32G 的机器配置。

这种非常普通的机器配置部署的数据库,一般线上的经验是:不要让其每秒请求支撑超过 2000,一般控制在 2000 左右。

控制在这个程度,一般数据库负载相对合理,不会带来太大的压力,没有太大的宕机风险。

所以首先第一步,就是在上万并发请求的场景下,部署个 5 台服务器,每台服务器上都部署一个数据库实例。

然后每个数据库实例里,都创建一个一样的库,比如说订单库。此时在 5 台服务器上都有一个订单库,名字可以类似为:db_order_01、db_order_02 等等。

然后每个订单库里,都有一个相同的表,比如说订单库里有订单信息表,那么此时 5 个订单库里都有一个订单信息表。

比如:db_order_01 库里就有一个 tb_order_01 表,db_order_02 库里就有一个 tb_order_02 表。

这就实现了一个基本的分库分表的思路,原来的一台数据库服务器变成了 5 台数据库服务器,原来的一个库变成了 5 个库,原来的一张表变成了 5 个表。

然后你在写入数据的时候,需要借助数据库中间件,比如 Sharding-JDBC,或者是 MyCAT,都可以。

你可以根据比如订单 ID 来 Hash 后按 5 取模,比如每天订单表新增 50 万数据,此时其中 10 万条数据会落入 db_order_01 库的 tb_order_01 表,另外 10 万条数据会落入 db_order_02 库的 tb_order_02 表,以此类推。

这样就可以把数据均匀分散在 5 台服务器上了,查询的时候,也可以通过订单ID 来 hash 取模,去对应的服务器上的数据库里,从对应的表里查询那条数据出来即可。

依据这个思路画出的图如下所示,大家可以看看:

做这一步有什么好处呢?第一个好处,原来比如订单表就一张表,这个时候不就成了 5 张表了么,那么每个表的数据就变成 1/5 了。

假设订单表一年有 1 亿条数据,此时 5 张表里每张表一年就 2000 万数据了。

那么假设当前订单表里已经有 2000 万数据了,此时做了上述拆分,每个表里就只有 400 万数据了。

而且每天新增 50 万数据的话,那么每个表才新增 10 万数据,这样是不是初步缓解了单表数据量过大影响系统性能的问题?

另外就是每秒 1 万请求到 5 台数据库上,每台数据库就承载每秒 2000 的请求,是不是一下子把每台数据库服务器的并发请求降低到了安全范围内?

这样,降低了数据库的高峰期负载,同时还保证了高峰期的性能。

5、大量分表来保证海量数据下的查询性能

但是上述的数据库架构还有一个问题,那就是单表数据量还是过大,现在订单表才分为了 5 张表,那么如果订单一年有 1 亿条,每个表就有 2000 万条,这也还是太大了。

所以还应该继续分表,大量分表。比如可以把订单表一共拆分为 1024 张表,这样 1 亿数据量的话,分散到每个表里也就才 10 万量级的数据量,然后这上千张表分散在 5 台数据库里就可以了。

在写入数据的时候,需要做两次路由,先对订单 ID Hash 后对数据库的数量取模,可以路由到一台数据库上,然后再对那台数据库上的表数量取模,就可以路由到数据库上的一个表里了。

通过这个步骤,就可以让每个表里的数据量非常小,每年 1 亿数据增长,但是到每个表里才 10 万条数据增长,这个系统运行 10 年,每个表里可能才百万级的数据量。

这样可以一次性为系统未来的运行做好充足的准备,看下面的图,一起来感受一下:

6、如何解决分布数据库架构中全局唯一ID的生成?

6.1 概述

在分库分表之后你必然要面对的一个问题,就是 ID 咋生成?因为要是一个表分成多个表之后,每个表的 ID 都是从 1 开始累加自增长,那肯定不对啊。

举个例子,你的订单表拆分为了 1024 张订单表,每个表的 ID 都从 1 开始累加,这个肯定有问题了!

你的系统就没办法根据表主键来查询订单了,比如 ID = 50 这个订单,在每个表里都有!

所以此时就需要分布式架构下的全局唯一 ID 生成的方案了,在分库分表之后,对于插入数据库中的核心 ID,不能直接简单使用表自增 ID,要全局生成唯一 ID,然后插入各个表中,保证每个表内的某个 ID,全局唯一。

比如说订单表虽然拆分为了 1024 张表,但是 ID = 50 这个订单,只会存在于一个表里。

那么如何实现全局唯一 ID 呢?有以下几种方案,我们一一一来看看。

6.2 方案一:独立数据库自增 ID

这个方案就是说你的系统每次要生成一个 ID,都是往一个独立库的一个独立表里插入一条没什么业务含义的数据,然后获取一个数据库自增的一个 ID。拿到这个 ID 之后再往对应的分库分表里去写入。

比如说你有一个 auto_id 库,里面就一个表,叫做 auto_id 表,有一个 ID 是自增长的。

那么你每次要获取一个全局唯一 ID,直接往这个表里插入一条记录,获取一个全局唯一 ID即可,然后这个全局唯一 ID 就可以插入订单的分库分表中。

这个方案的好处就是方便简单,谁都会用。缺点就是单库生成自增 ID,要是高并发的话,就会有瓶颈的,因为 auto_id 库要是承载个每秒几万并发,肯定是不现实的了。

6.3 方案二:UUID

这个每个人都应该知道吧,就是用 UUID 生成一个全局唯一的 ID。

好处就是每个系统本地生成,不要基于数据库来了。不好之处就是,UUID 太长了,作为主键性能太差了,不适合用于主键。

如果你是要随机生成个什么文件名了,编号之类的,你可以用 UUID,但是作为主键是不能用 UUID 的。

6.4 方案三:获取系统当前时间

这个方案的意思就是获取当前时间作为全局唯一的 ID。但是问题是,并发很高的时候,比如一秒并发几千,会有重复的情况,这个肯定是不合适的。

一般如果用这个方案,是将当前时间跟很多其他的业务字段拼接起来,作为一个 ID,如果业务上你觉得可以接受,那么也是可以的。

你可以将别的业务字段值跟当前时间拼接起来,组成一个全局唯一的编号,比如说订单编号:时间戳 + 用户 ID + 业务含义编码。

6.5 方案四:SnowFlake 算法的思想分析

SnowFlake 算法,是 Twitter 开源的分布式 ID 生成算法。其核心思想就是:使用一个 64 bit 的 long 型的数字作为全局唯一 ID。

这 64 个 bit 中,其中 1 个 bit 是不用的,然后用其中的 41 bit 作为毫秒数,用 10 bit 作为工作机器 ID,12 bit 作为序列号。

给大家举个例子吧,如上图所示,比如下面那个 64 bit 的 long 型数字:

1)第一个部分,是 1 个 bit:0,这个是无意义的;

2)第二个部分,是 41 个 bit:表示的是时间戳;

3)第三个部分,是 5 个 bit:表示的是机房 ID,10001;

4)第四个部分,是 5 个 bit:表示的是机器 ID,1 1001;

5)第五个部分,是 12 个 bit:表示的序号,就是某个机房某台机器上这一毫秒内同时生成的 ID 的序号,0000 00000000。

① 1 bit:是不用的,为啥呢?

因为二进制里第一个 bit 为如果是 1,那么都是负数,但是我们生成的 ID 都是正数,所以第一个 bit 统一都是 0。

② 41 bit:表示的是时间戳,单位是毫秒。

41 bit 可以表示的数字多达 2^41 - 1,也就是可以标识 2 ^ 41 - 1 个毫秒值,换算成年就是表示 69 年的时间。

③ 10 bit:记录工作机器 ID,代表的是这个服务最多可以部署在 2^10 台机器上,也就是 1024 台机器。

但是 10 bit 里 5 个 bit 代表机房 id,5 个 bit 代表机器 ID。意思就是最多代表 2 ^ 5 个机房(32 个机房),每个机房里可以代表 2 ^ 5 个机器(32 台机器)。

④12 bit:这个是用来记录同一个毫秒内产生的不同 ID。

12 bit 可以代表的最大正整数是 2 ^ 12 - 1 = 4096,也就是说可以用这个 12 bit 代表的数字来区分同一个毫秒内的 4096 个不同的 ID。

简单来说,你的某个服务假设要生成一个全局唯一 ID,那么就可以发送一个请求给部署了 SnowFlake 算法的系统,由这个 SnowFlake 算法系统来生成唯一 ID。

这个 SnowFlake 算法系统首先肯定是知道自己所在的机房和机器的,比如机房 ID = 17,机器 ID = 12。

接着 SnowFlake 算法系统接收到这个请求之后,首先就会用二进制位运算的方式生成一个 64 bit 的 long 型 ID,64 个 bit 中的第一个 bit 是无意义的。

接着 41 个 bit,就可以用当前时间戳(单位到毫秒),然后接着 5 个 bit 设置上这个机房 id,还有 5 个 bit 设置上机器 ID。

最后再判断一下,当前这台机房的这台机器上这一毫秒内,这是第几个请求,给这次生成 ID 的请求累加一个序号,作为最后的 12 个 bit。

最终一个 64 个 bit 的 ID 就出来了,类似于:

这个算法可以保证说,一个机房的一台机器上,在同一毫秒内,生成了一个唯一的 ID。可能一个毫秒内会生成多个 ID,但是有最后 12 个 bit 的序号来区分开来。

下面我们简单看看这个 SnowFlake 算法的一个代码实现,这就是个示例,大家如果理解了这个意思之后,以后可以自己尝试改造这个算法。

总之就是用一个 64 bit 的数字中各个 bit 位来设置不同的标志位,区分每一个 ID。

SnowFlake 算法的实现代码如下:

public class IdWorker {

private long workerId; // 这个就是代表了机器id

private long datacenterId; // 这个就是代表了机房id

private long sequence; // 这个就是代表了一毫秒内生成的多个id的最新序号

public IdWorker(long workerId, long datacenterId, long sequence) {

// sanity check for workerId

// 这儿不就检查了一下,要求就是你传递进来的机房id和机器id不能超过32,不能小于0

if(workerId > maxWorkerId || workerId < 0) {

thrownewIllegalArgumentException(

String.format('worker Id can't be greater than %d or less than 0',maxWorkerId));

}

if(datacenterId > maxDatacenterId || datacenterId < 0) {

throw new IllegalArgumentException(

String.format('datacenter Id can't be greater than %d or less than 0',maxDatacenterId));

}

this.workerId = workerId;

this.datacenterId = datacenterId;

this.sequence = sequence;

}

private long twepoch = 1288834974657L;

private long workerIdBits = 5L;

private long datacenterIdBits = 5L;

// 这个是二进制运算,就是5 bit最多只能有31个数字,也就是说机器id最多只能是32以内

private long maxWorkerId = -1L ^ (-1L << workerIdBits);

// 这个是一个意思,就是5 bit最多只能有31个数字,机房id最多只能是32以内

private long maxDatacenterId = -1L ^ (-1L << datacenterIdBits);

private long sequenceBits = 12L;

private long workerIdShift = sequenceBits;

private long datacenterIdShift = sequenceBits + workerIdBits;

private long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;

private long sequenceMask = -1L ^ (-1L << sequenceBits);

private long lastTimestamp = -1L;

public long getWorkerId(){

return workerId;

}

public long getDatacenterId() {

return datacenterId;

}

public long getTimestamp() {

return System.currentTimeMillis();

}

// 这个是核心方法,通过调用nextId()方法,让当前这台机器上的snowflake算法程序生成一个全局唯一的id

public synchronized long nextId() {

// 这儿就是获取当前时间戳,单位是毫秒

long timestamp = timeGen();

if(timestamp < lastTimestamp) {

System.err.printf(

'clock is moving backwards. Rejecting requests until %d.', lastTimestamp);

thrownewRuntimeException(

String.format('Clock moved backwards. Refusing to generate id for %d milliseconds',

lastTimestamp - timestamp));

}

// 下面是说假设在同一个毫秒内,又发送了一个请求生成一个id

// 这个时候就得把seqence序号给递增1,最多就是4096

if(lastTimestamp == timestamp) {

// 这个意思是说一个毫秒内最多只能有4096个数字,无论你传递多少进来,

//这个位运算保证始终就是在4096这个范围内,避免你自己传递个sequence超过了4096这个范围

sequence = (sequence + 1) & sequenceMask;

if(sequence == 0) {

timestamp = tilNextMillis(lastTimestamp);

}

} else{

sequence = 0;

}

// 这儿记录一下最近一次生成id的时间戳,单位是毫秒

lastTimestamp = timestamp;

// 这儿就是最核心的二进制位运算操作,生成一个64bit的id

// 先将当前时间戳左移,放到41 bit那儿;将机房id左移放到5 bit那儿;将机器id左移放到5 bit那儿;将序号放最后12 bit

// 最后拼接起来成一个64 bit的二进制数字,转换成10进制就是个long型

return((timestamp - twepoch) << timestampLeftShift) |

(datacenterId << datacenterIdShift) |

(workerId << workerIdShift) | sequence;

}

private long tilNextMillis(long lastTimestamp) {

long timestamp = timeGen();

while(timestamp <= lastTimestamp) {

timestamp = timeGen();

}

returntimestamp;

}

private long timeGen(){

returnSystem.currentTimeMillis();

}

//---------------测试---------------

public static void main(String[] args) {

IdWorker worker = newIdWorker(1,1,1);

for(int i = 0; i < 30; i++) {

System.out.println(worker.nextId());

}

}

}

SnowFlake 算法一个小小的改进思路:其实在实际的开发中,这个SnowFlake算法可以做一点点改进。

因为大家可以考虑一下,我们在生成唯一 ID 的时候,一般都需要指定一个表名,比如说订单表的唯一 ID。

所以上面那 64 个 bit 中,代表机房的那 5 个 bit,可以使用业务表名称来替代,比如用 00001 代表的是订单表。

因为其实很多时候,机房并没有那么多,所以那 5 个 bit 用做机房 ID 可能意义不是太大。

这样就可以做到:SnowFlake 算法系统的每一台机器,对一个业务表,在某一毫秒内,可以生成一个唯一的 ID,一毫秒内生成很多 ID,用最后 12 个 bit 来区分序号对待。

7、读写分离来支撑按需扩容以及性能提升

这个时候整体效果已经挺不错了,大量分表的策略保证可能未来 10 年,每个表的数据量都不会太大,这可以保证单表内的 SQL 执行效率和性能。

然后多台数据库的拆分方式,可以保证每台数据库服务器承载一部分的读写请求,降低每台服务器的负载。

但是此时还有一个问题,假如说每台数据库服务器承载每秒 2000 的请求,然后其中 400 请求是写入,1600 请求是查询。

也就是说,增删改的 SQL 才占到了 20% 的比例,80% 的请求是查询。此时假如说随着用户量越来越大,又变成每台服务器承载 4000 请求了。

那么其中 800 请求是写入,3200 请求是查询,如果说你按照目前的情况来扩容,就需要增加一台数据库服务器。

但是此时可能就会涉及到表的迁移,因为需要迁移一部分表到新的数据库服务器上去,是不是很麻烦?

其实完全没必要,数据库一般都支持读写分离,也就是做主从架构。

写入的时候写入主数据库服务器,查询的时候读取从数据库服务器,就可以让一个表的读写请求分开落地到不同的数据库上去执行。

这样的话,假如写入主库的请求是每秒 400,查询从库的请求是每秒 1600。

那么图大概如下所示:

写入主库的时候,会自动同步数据到从库上去,保证主库和从库数据一致。

然后查询的时候都是走从库去查询的,这就通过数据库的主从架构实现了读写分离的效果了。

现在的好处就是,假如说现在主库写请求增加到 800,这个无所谓,不需要扩容。然后从库的读请求增加到了 3200,需要扩容了。

这时,你直接给主库再挂载一个新的从库就可以了,两个从库,每个从库支撑 1600 的读请求,不需要因为读请求增长来扩容主库。

实际上线上生产你会发现,读请求的增长速度远远高于写请求,所以读写分离之后,大部分时候就是扩容从库支撑更高的读请求就可以了。

而且另外一点,对同一个表,如果你既写入数据(涉及加锁),还从该表查询数据,可能会牵扯到锁冲突等问题,无论是写性能还是读性能,都会有影响。

所以一旦读写分离之后,对主库的表就仅仅是写入,没任何查询会影响他,对从库的表就仅仅是查询。

8、高并发下的数据库架构设计总结

从大的一个简化的角度来说,高并发的场景下,数据库层面的架构肯定是需要经过精心的设计的。

尤其是涉及到分库来支撑高并发的请求,大量分表保证每个表的数据量别太大,读写分离实现主库和从库按需扩容以及性能保证。

这篇文章就是从一个大的角度来梳理了一下思路,各位同学可以结合自己公司的业务和项目来考虑自己的系统如何做分库分表。

另外就是,具体的分库分表落地的时候,需要借助数据库中间件来实现分库分表和读写分离,大家可以自己参考 Sharding-JDBC,或者是 MyCAT 的官网即可,里面的文档都有详细的使用描述。

附录:更多架构设计的文章

《浅谈IM系统的架构设计》

《简述移动端IM开发的那些坑:架构设计、通信协议和客户端》

《一套海量在线用户的移动端IM架构设计实践分享(含详细图文)》

《一套原创分布式即时通讯(IM)系统理论架构方案》

《从零到卓越:京东客服即时通讯系统的技术架构演进历程》

《蘑菇街即时通讯/IM服务器开发之架构选择》

《腾讯QQ1.4亿在线用户的技术挑战和架构演进之路PPT》

《微信后台基于时间序的海量数据冷热分级架构设计实践》

《微信技术总监谈架构:微信之道——大道至简(演讲全文)》

《如何解读《微信技术总监谈架构:微信之道——大道至简》》

《快速裂变:见证微信强大后台架构从0到1的演进历程(一)》

《17年的实践:腾讯海量产品的技术方法论》

《移动端IM中大规模群消息的推送如何保证效率、实时性?》

《现代IM系统中聊天消息的同步和存储方案探讨》

《IM开发基础知识补课(二):如何设计大量图片文件的服务端存储架构?》

《IM开发基础知识补课(三):快速理解服务端数据库读写分离原理及实践建议》

《IM开发基础知识补课(四):正确理解HTTP短连接中的Cookie、Session和Token》

《WhatsApp技术实践分享:32人工程团队创造的技术神话》

《微信朋友圈千亿访问量背后的技术挑战和实践总结》

《王者荣耀2亿用户量的背后:产品定位、技术架构、网络方案等》

《IM系统的MQ消息中间件选型:Kafka还是RabbitMQ?》

《腾讯资深架构师干货总结:一文读懂大型分布式系统设计的方方面面》

《以微博类应用场景为例,总结海量社交系统的架构设计步骤》

《快速理解高性能HTTP服务端的负载均衡技术原理》

《子弹短信光鲜的背后:网易云信首席架构师分享亿级IM平台的技术实践》

《知乎技术分享:从单机到2000万QPS并发的Redis高性能缓存实践之路》

《IM开发基础知识补课(五):通俗易懂,正确理解并用好MQ消息队列》

《微信技术分享:微信的海量IM聊天消息序列号生成实践(算法原理篇)》

《微信技术分享:微信的海量IM聊天消息序列号生成实践(容灾方案篇)》

《新手入门:零基础理解大型分布式架构的演进历史、技术原理、最佳实践》

《一套高可用、易伸缩、高并发的IM群聊、单聊架构方案设计实践》

《阿里技术分享:深度揭秘阿里数据库技术方案的10年变迁史》

《阿里技术分享:阿里自研金融级数据库OceanBase的艰辛成长之路》

>> 更多同类文章 ……

(本文同步发布于:http://www.52im.net/thread-2510-1-1.html)

(0)

相关推荐