帖子中心,1亿数据,架构如何设计?

帖子中心,是互联网业务中,一类典型的“1对多”业务,即:一个用户能发布多个帖子,一个帖子只有一个发布者。

 

随着数据量的逐步增大,并发量的逐步增大,帖子中心这种“1对多”业务,架构应该如何设计,有哪些因素需要考虑,是本文将要系统性讨论的问题。

什么是x对x?

所谓的“1对1”,“1对多”,“多对多”,来自数据库设计中的“实体-关系”ER模型,用来描述实体之间的映射关系。

 

什么是“1对1”业务?

用户中心,一个用户只有一个登录名,一个登录名只对应一个用户,这是典型的1对1业务。

 

什么是“1对多”业务?

帖子中心,一个用户可以发多条微博,一条微博只有一个发送者,这是典型的1对多业务。

 

什么是“多对多”业务?

feed关注,一个用户可以关注多个用户,一个用户也可以被多个用户关注,这是典型的多对多业务。

 

帖子中心是个什么业务,有什么典型的业务需求?

帖子中心,1亿数据,架构如何设计?

帖子中心是一个典型的1对多业务。

 

帖子中心,1亿数据,架构如何设计?

一个用户可以发布多个帖子,一个帖子只对应一个发布者。

 

任何脱离业务的架构设计都是耍流氓,先来看看帖子中心对应的业务需求。

帖子中心,是一个提供帖子发布,修改,删除,查看,搜索的服务。

 

帖子中心,有什么写操作?

(1)发布(insert)帖子;

(2)修改(update)帖子;

(3)删除(delete)帖子;

 

帖子中心,有什么读操作?

(1)通过tid查询(select)帖子实体,单行查询

(2)通过uid查询(select)用户发布过的帖子,列表查询

(3)帖子检索(search),例如通过时间、标题、内容搜索符合条件的帖子;

 

在数据量较大,并发量较大的时候,架构如何设计?

典型的,通常通过元数据与索引数据分离的架构设计方法。

帖子中心,1亿数据,架构如何设计?

架构中的几个关键点,如上图所示:

(1)tiezi-center:帖子服务;

(2)tiezi-db:提供元数据存储;

(3)tiezi-search:帖子搜索服务;

(4)tiezi-index:提供索引数据存储;

(5)MQ:tiezi-center与tiezi-search通讯媒介,一般不直接使用RPC调用,而是通过MQ对两个子系统解耦

 

此时,读需求怎么满足?

tiezi-center和tiezi-search分别满足两类不同的读需求。

帖子中心,1亿数据,架构如何设计?

如上图所示:

(1)tid和uid上的查询需求,可以由tiezi-center从元数据读取并返回;

(2)其他类检索需求,可以由tiezi-search从索引数据检索并返回;

 

写需求怎么办呢?

帖子中心,1亿数据,架构如何设计?

至于写需求,如上图所示:

(1)增加,修改,删除的操作都会从tiezi-center发起;

(2)tiezi-center修改元数据;

(3)tiezi-center将信息修改通知发送给MQ;

(4)tiezi-search从MQ接受修改信息;

(5)tiezi-search修改索引数据;

 

tiezi-search,搜索架构不是本文的重点,不再展开,后文将重点描述帖子中心元数据水平切分设计。

 

帖子中心,数据库元数据如何设计?

帖子中心业务,很容易了解到,其核心元数据为:

t_tiezi(tid, uid, time, title, content, …);

其中:

(1)tid为帖子ID,主键;

(2)uid为用户ID,发帖人;

(3)time, title, content …等为帖子属性;

 

数据库设计上,在业务初期,单库就能满足元数据存储要求

帖子中心,1亿数据,架构如何设计?

(1)tiezi-center:帖子中心服务,对调用者提供友好的RPC接口;

(2)tiezi-db:对帖子数据进行存储;

 

在相关字段上建立索引,就能满足相关业务需求

(1)帖子记录查询,通过tid查询,约占读请求量90%;

select * from t_tiezi where tid=$tid

(2)帖子列表查询,通过uid查询其发布的所有帖子,约占读请求量10%;

select * from t_tiezi where uid=$uid

 

随着数据量越来越大,如何进行水平切分,对存储容量进行线性扩展呢?

方案一:帖子ID切分法

既然是帖子中心,并且帖子记录查询量占了总请求的90%,很容易想到通过tid字段取模来进行水平切分。

帖子中心,1亿数据,架构如何设计?

这个方法简单直接,优点:

(1)100%写请求可以直接定位到库;

(2)90%的读请求可以直接定位到库;

 

缺点也很明显:

(1)一个用户发布的所有帖子可能会落到不同的库上,10%的请求通过uid来查询会比较麻烦;

帖子中心,1亿数据,架构如何设计?

如上图,一个uid访问需要遍历所有库

 

有没有一种切分方法,确保同一个用户发布的所有帖子都落在同一个库上,而在查询一个用户发布的所有帖子时,不需要去遍历所有的库呢?

 

方案二:用户ID切分法

 

使用uid来分库可以解决这个问题。

 

新的问题出现了:如果使用uid来分库,确保了一个用户的帖子数据落在同一个库上,那通过tid来查询,就不知道这个帖子落在哪个库上了,岂不是还需要遍历全库,需要怎么优化呢?

 

tid的查询是单行记录查询,只要在数据库(或者缓存记录tid到uid的映射关系,就能解决这个问题。

 

新增一个索引库:

t_mapping(tid, uid);

(1)这个库只有两列,可以承载很多数据;

(2)即使数据量过大,索引库可以利用tid水平切分;

(3)这类kv形式的索引结构,可以很好的利用cache优化查询性能;

(4)一旦帖子发布,tid和uid的映射关系就不会发生变化,cache的命中率会非常高;

 

使用uid分库,并增加索引库记录tid到uid的映射关系之后,每当有uid上的查询,可以通过uid直接定位到库。

帖子中心,1亿数据,架构如何设计?

每当有tid上的查询,可以先查mapping表得到uid,再通过uid定位到库。

帖子中心,1亿数据,架构如何设计?

这个方法的优点是:

(1)一个用户发布的所以帖子落在同一个库上;

(2)10%的请求过过uid来查询列表,可以直接定位到库;

(3)索引表cache命中率非常高,因为tid与uid的映射关系不会变;

 

缺点也很明显:

(1)90%的tid请求,以及100%的修改请求,不能直接定位到库,需要先进行一次索引表的查询,当然这个查询非常块,通常在5ms内可以返回;

(2)数据插入时需要操作元数据与索引表,可能引发潜在的一致性问题;

 

有没有一种方法,既能够通过uid定位到库,又不需要建立索引表来进行二次查询呢,使得uid和tid都能够直接一次命中的方案呢?

 

方案三:基因法

什么是分库基因?

通过uid分库,假设分为16个库,采用uid%16的方式来进行数据库路由,这里的uid%16,其本质是uid的最后4个bit决定这行数据落在哪个库上这4个bit,就是分库基因

 

什么是基因法分库?

在“1对多”的业务场景,使用“1”分库,在“多”的数据id生成时,id末端加入分库基因,就能同时满足“1”和“多”的分库查询需求。

帖子中心,1亿数据,架构如何设计?

如上图所示,uid=666的用户发布了一条帖子(666的二进制表示为:1010011010):

(1)使用uid%16分库,决定这行数据要插入到哪个库中;

(2)分库基因是uid的最后4个bit,即1010

(3)在生成tid时,先使用一种分布式ID生成算法生成前60bit(上图中绿色部分);

(4)将分库基因加入到tid的最后4个bit(上图中粉色部分);

(5)拼装成最终的64bit帖子tid(上图中蓝色部分);

这般,保证了同一个用户发布的所有帖子的tid,都落在同一个库上,tid的最后4个bit都相同,于是:

(1)通过uid%16能够定位到库;

(2)通过tid%16也能定位到库;

 

有人要问了,同一个uid发布的tid落在同一个库上,会不会出现数据不均衡?

只要uid是均衡的,每个用户发布的平均帖子数是均衡的,每个库的数据就是均衡的。

 

又有人要问了,最开始分16库,分库基因是4bit,未来要扩充成32库,分库基因变成了5bit,那怎么办?

需要提前做好容量预估,例如事先规划好5年内数据增长256库足够,就提前预留8bit基因。

 

总结

将以“帖子中心”为典型的“1对多”类业务,在架构上,采用元数据与索引数据分离的架构设计方法:

(1)帖子服务,元数据满足uid和tid的查询需求;

(2)搜索服务,索引数据满足复杂搜索寻求;

 

对于元数据的存储,在数据量较大的情况下,有三种常见的切分方法:

(1)tid切分法,按照tid分库,同一个用户发布的帖子落在不同的库上,通过uid来查询要遍历所有库;

(2)uid切分法,按照uid分库,同一个用户发布的帖子落在同一个库上,需要通过索引表或者缓存来记录tid与uid的映射关系,通过tid来查询时,先查到uid,再通过uid定位库;

(3)基因法,按照uid分库,在生成tid里加入uid上的分库基因,保证通过uid和tid都能直接定位到库;

发布者:糖太宗,转载请注明出处:https://www.qztxs.com/archives/science/technology/6509

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022年5月14日 上午12:54
下一篇 2022年5月14日 上午12:55

相关推荐

  • Linux后门入侵检测工具使用

    0x00 描述 当我们的应用系统被入侵后,系统是否已被黑客上传webshell甚至植入木马后门程序。如果依靠人工排查,一是工作量大,二是需要一定程度的技术知识和业务知识才能判断什么是正常什么是异常。工作量大决定排查工作不可能由个别具有技术知识和业务知识的人来完成工作而需要其他人员参与,而如果这些没有“一定程度的技术知识和业务知识”的人员参与基本必然后导致大量...

    2022年6月2日
    9400
  • mysql-python安装时mysql_config not found

    0x00 描述 mysql-python安装时提示mysql_config not found 1 2 3 4 5 6 7 8 9 10 11 12 13 14 # pip install MySQL-python Collecting MySQL-python Using cached https://files.pythonhosted.org/pack...

    技术 2022年5月27日
    3000
  • 如何排查死锁,死锁是怎么产生的,如何处理死锁

    之前刚学习多线程时,由于各种锁的操作不当,经常不经意间程序写了代码就发生了死锁,不是在灰度测试的时候被测出来,就是在代码review的时候被提前发现。 这种死锁的经历不知道大家有没有,不过怎么说都是一个面试高频题目,面试官是肯定希望你经历过的,没经历过那也得看看某八股文职业选手的文章装作经历过。 那么什么是死锁呢?为什么会产生死锁呢? 什么是死锁 敖丙和小美...

    2022年5月18日
    5600
  • 为什么微服务并不是越早越好?

    微服务架构,是分层架构演进过程中很重要的一环,那微服务是不是越早越好呢?今天和大家一起聊聊这一个问题。 什么时候进行DAO层的分层抽象? 最开始,分层架构长什么样? 一个业务系统最初的分层架构如上: (1)web-server层从db层获取数据并进行加工处理; (2)db层存储数据;   此时,web-server层如何获取底层的数据呢? web-serve...

    2022年5月14日
    2900
  • 如何设计相对安全的图形验证码?

    0x00 验证码是什么 验证码(CAPTCHA)即“Completely Automated Public Turing test to tell Computers and Humans Apart”(全自动区分计算机和人类的图灵测试)的缩写,是一种区分用户是计算机还是人的公共全自动程序。 0x01 有什么作用 简单概括如下: 验证码在网络投票、交友论坛、...

    技术 2022年6月2日
    4300

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信