gitbook/深入浅出计算机组成原理/docs/130507.md
2022-09-03 22:05:03 +08:00

100 lines
14 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 52 | 设计大型DMP系统MongoDB并不是什么灵丹妙药
如果你一讲一讲跟到现在那首先要恭喜你马上就看到胜利的曙光了。过去的50多讲里我把计算机组成原理中的各个知识点一点一点和你拆解了。对于其中的很多知识点我也给了相应的代码示例和实际的应用案例。
不过呢相信你和我一样觉得只了解这样一个个零散的知识点和案例还不过瘾。那么从今天开始我们就进入应用篇。我会通过两个应用系统的案例串联起计算机组成原理的两大块知识点一个是我们的整个存储器系统另一个自然是我们的CPU和指令系统了。
我们今天就先从搭建一个大型的DMP系统开始利用组成原理里面学到的存储器知识来做选型判断从而更深入地理解计算机组成原理。
## DMP数据管理平台
我们先来看一下什么是DMP系统。DMP系统的全称叫作数据管理平台Data Management Platform目前广泛应用在互联网的广告定向Ad Targeting、个性化推荐Recommendation这些领域。
通常来说DMP系统会通过处理海量的互联网访问数据以及机器学习算法给一个用户标注上各种各样的标签。然后在我们做个性化推荐和广告投放的时候再利用这些这些标签去做实际的广告排序、推荐等工作。无论是Google的搜索广告、淘宝里千人千面的商品信息还是抖音里面的信息流推荐背后都会有一个DMP系统。
![](https://static001.geekbang.org/resource/image/17/ef/170004db8634a3a7f9dc47c4a4d5bfef.jpg)
那么一个DMP系统应该怎么搭建呢对于外部使用DMP的系统或者用户来说可以简单地把DMP看成是一个键-值对Key-Value数据库。我们的广告系统或者推荐系统可以通过一个客户端输入用户的唯一标识ID然后拿到这个用户的各种信息。
这些信息中有些是用户的人口属性信息Demographic比如性别、年龄有些是非常具体的行为Behavior比如用户最近看过的商品是什么用户的手机型号是什么有一些是我们通过算法系统计算出来的兴趣Interests比如用户喜欢健身、听音乐还有一些则是完全通过机器学习算法得出的用户向量给后面的推荐算法或者广告算法作为数据输入。
基于此对于这个KV数据库我们的期望也很清楚那就是**低响应时间**Low Response Time、**高可用性**High Availability、**高并发**High Concurrency、**海量数据**Big Data同时我们需要**付得起对应的成本**Affordable Cost。如果用数字来衡量这些指标那么我们的期望就会具体化成下面这样。
1. 低响应时间一般的广告系统留给整个广告投放决策的时间也就是10ms左右所以对于访问DMP获取用户数据预期的响应时间都在1ms之内。
2. 高可用性DMP常常用在广告系统里面。DMP系统出问题往往就意味着我们整个的广告收入在不可用的时间就没了所以我们对于可用性的追求可谓是没有上限的。Google 2018年的广告收入是1160亿美元折合到每一分钟的收入是22万美元。即使我们做到 99.99% 的可用性也意味着每个月我们都会损失100万美元。
3. 高并发还是以广告系统为例如果每天我们需要响应100亿次的广告请求那么我们每秒的并发请求数就在 100亿 / (86400) ~= 12K 次左右所以我们的DMP需要支持高并发。
4. 数据量如果我们的产品针对中国市场那么我们需要有10亿个Key对应的假设每个用户有500个标签标签有对应的分数。标签和分数都用一个4字节Bytes的整数来表示那么一共我们需要 10亿 x 500 x (4 + 4) Bytes = 4 TB 的数据了。
5. 低成本我们还是从广告系统的角度来考虑。广告系统的收入通常用CPMCost Per Mille也就是千次曝光来统计。如果千次曝光的利润是 0.10美元那么每天100亿次的曝光就是100万美元的利润。这个利润听起来非常高了。但是反过来算一下你会发现DMP每1000次的请求的成本不能超过 0.10美元。最好只有0.01美元,甚至更低,我们才能尽可能多赚到一点广告利润。
这五个因素一结合,听起来是不是就不那么简单了?不过,更复杂的还在后面呢。
虽然从外部看起来DMP特别简单就是一个KV数据库但是生成这个数据库需要做的事情更多。我们下面一起来看一看。
![](https://static001.geekbang.org/resource/image/b5/33/b5d8c56d840b9e824cfbc186c19d0733.jpg)
在这个系统中我们关心的是蓝色的数据管道、绿色的数据仓库和KV数据库
为了能够生成这个KV数据库我们需要有一个在客户端或者Web端的数据采集模块不断采集用户的行为向后端的服务器发送数据。服务器端接收到数据就要把这份数据放到一个**数据管道**Data Pipeline里面。数据管道的下游需要实际将数据落地到**数据仓库**Data Warehouse把所有的这些数据结构化地存储起来。后续我们就可以通过程序去分析这部分日志生成报表或者或者利用数据运行各种机器学习算法。
除了这个数据仓库之外我们还会有一个实时数据处理模块Realtime Data Processing也放在数据管道的下游。它同样会读取数据管道里面的数据去进行各种实时计算然后把需要的结果写入到DMP的KV数据库里面去。
## MongoDB真的万能吗
面对这里的KV数据库、数据管道以及数据仓库这三个不同的数据存储的需求最合理的技术方案是什么呢你可以先自己思考一下我这里先卖个关子。
我共事过的不少不错的Web程序员面对这个问题的时候常常会说“这有什么难的用MongoDB就好了呀”如果你也选择了MongoDB那最终的结果一定是一场灾难。我为什么这么说呢
MongoDB的设计听起来特别厉害不需要预先数据Schema访问速度很快还能够无限水平扩展。作为KV数据库我们可以把MongoDB当作DMP里面的KV数据库除此之外MongoDB还能水平扩展、跑MQL我们可以把它当作数据仓库来用。至于数据管道只要我们能够不断往MongoDB里面插入新的数据就好了。从运维的角度来说我们只需要维护一种数据库技术栈也变得简单了。看起来MongoDB这个选择真是相当完美
但是作为一个老程序员第一次听到MongoDB这样“万能”的解决方案我的第一反应是“天底下哪有这样的好事”。所有的软件系统都有它的适用场景想通过一种解决方案适用三个差异非常大的应用场景显然既不合理又不现实。接下来我们就来仔细看一下这个“不合理”“不现实”在什么地方。
上面我们已经讲过DMP的KV数据库期望的应用场景和性能要求了这里我们就来看一下**数据管道**和**数据仓库**的性能取舍。
对于数据管道来说我们需要的是高吞吐量它的并发量虽然和KV数据库差不多但是在响应时间上要求就没有那么严格了1-2秒甚至再多几秒的延时都是可以接受的。而且和KV数据库不太一样数据管道的数据读写都是顺序读写没有大量的随机读写的需求。
**数据仓库**就更不一样了数据仓库的数据读取的量要比管道大得多。管道的数据读取就是我们当时写入的数据一天有10TB日志数据管道只会写入10TB。下游的数据仓库存放数据和实时数据模块读取的数据再加上个2倍的10TB也就是20TB也就够了。
但是数据仓库的数据分析任务要读取的数据量就大多了。一方面我们可能要分析一周、一个月乃至一个季度的数据。这一次分析要读取的数据可不是10TB而是100TB乃至1PB。我们一天在数据仓库上跑的分析任务也不是1个而是成千上万个所以数据的读取量是巨大的。另一方面我们存储在数据仓库里面的数据也不像数据管道一样存放几个小时、最多一天的数据而是往往要存上3个月甚至是1年的数据。所以我们需要的是1PB乃至5PB这样的存储空间。
我把KV数据库、数据管道和数据仓库的应用场景总结成了一个表格放在这里。你可以对照着看一下想想为什么MongoDB在这三个应用场景都不合适。
![](https://static001.geekbang.org/resource/image/fe/41/fe9fc1ade3611ed2acf3ba3a23267f41.jpg)
在KV数据库的场景下需要支持高并发。那么MongoDB需要把更多的数据放在内存里面但是这样我们的存储成本就会特别高了。
在数据管道的场景下我们需要的是大量的顺序读写而MongoDB则是一个文档数据库系统并没有为顺序写入和吞吐量做过优化看起来也不太适用。
而在数据仓库的场景下主要的数据读取时顺序读取并且需要海量的存储。MongoDB这样的文档式数据库也没有为海量的顺序读做过优化仍然不是一个最佳的解决方案。而且文档数据库里总是会有很多冗余的字段的元数据还会浪费更多的存储空间。
那我们该选择什么样的解决方案呢?
拿着我们的应用场景去找方案其实并不难找。对于KV数据库最佳的选择方案自然是使用SSD硬盘选择AeroSpike这样的KV数据库。高并发的随机访问并不适合HDD的机械硬盘而400TB的数据如果用内存的话成本又会显得太高。
对于数据管道最佳选择自然是Kafka。因为我们追求的是吞吐率采用了Zero-Copy和DMA机制的Kafka最大化了作为数据管道的吞吐率。而且数据管道的读写都是顺序读写所以我们也不需要对随机读写提供支持用上HDD硬盘就好了。
到了数据仓库存放的数据量更大了。在硬件层面使用HDD硬盘成了一个必选项。否则我们的存储成本就会差上10倍。这么大量的数据在存储上我们需要定义清楚Schema使得每个字段都不需要额外存储元数据能够通过Avro/Thrift/ProtoBuffer这样的二进制序列化的方存储下来或者干脆直接使用Hive这样明确了字段定义的数据仓库产品。很明显MongoDB那样不限制Schema的数据结构在这个情况下并不好用。
2012年前后做广告系统的时候我们也曾经尝试使用MongoDB尽管只是用作DMP中的数据报表部分。事实证明即使是已经做了数据层面的汇总的报表MongoDB都无法很好地支撑我们需要的复杂需求。最终我们也不得不选择在整个DMP技术栈里面彻底废弃MongoDB而只在Web应用里面用用MongoDB。事实证明我最初的直觉是正确的并没有什么万能的解决方案。
## 总结延伸
好了,相信到这里,你应该对怎么从最基本的原理出发,来选择技术栈有些感觉了。你应该更多地从底层的存储系统的特性和原理去考虑问题。一旦能够从这个角度去考虑问题,那么你对各类新的技术项目和产品的公关稿,自然会有一定的免疫力了,而不会轻易根据商业公司的宣传来做技术选型了。
因为低延时、高并发、写少读多的DMP的KV数据库最适合用SSD硬盘并且采用专门的KV数据库是最合适的。我们可以选择之前文章里提过的AeroSpike也可以用开源的Cassandra来提供服务。
对于数据管道因为主要是顺序读和顺序写所以我们不一定要选用SSD硬盘而可以用HDD硬盘。不过对于最大化吞吐量的需求使用zero-copy和DMA是必不可少的所以现在的数据管道的标准解决方案就是Kafka了。
对于数据仓库我们通常是一次写入、多次读取。并且由于存储的数据量很大我们还要考虑成本问题。于是一方面我们会用HDD硬盘而不是SSD硬盘另一方面我们往往会预先给数据规定好Schema使得单条数据的序列化不需要像存JSON或者MongoDB的BSON那样存储冗余的字段名称这样的元数据。所以最常用的解决方案是用Hadoop这样的集群采用Hive这样的数据仓库系统或者采用Avro/Thrift/ProtoBuffer这样的二进制序列化方案。
在大型的DMP系统设计当中我们需要根据各个应用场景面临的实际情况选择不同的硬件和软件的组合来作为整个系统中的不同组件。
## 推荐阅读
如果通过这一讲的内容,能让你对大型数据系统的设计有了兴趣,那就再好不过了。我推荐你去读一读[《数据密集型应用系统设计》](https://book.douban.com/subject/30329536/)这本书,深入了解一下,设计数据系统需要关注的各个核心要点。
## 课后思考
这一讲里我们讲到了数据管道通常所使用的开源系统Kafka并且选择了使用机械硬盘。在Kafka的使用上我们有没有必要使用SSD硬盘呢如果用了SSD硬盘又会带来哪些好处和坏处呢
请你仔细思考一下,也可以和周围的朋友分享讨论。如果你觉得有所收获,也请你把你的想法写在留言区,分享给其他的同学。