gitbook/Java业务开发常见错误100例/docs/234930.md

595 lines
35 KiB
Markdown
Raw Permalink Normal View History

2022-09-03 22:05:03 +08:00
# 26 | 数据存储NoSQL与RDBMS如何取长补短、相辅相成
你好,我是朱晔。今天,我来和你聊聊数据存储的常见错误。
近几年各种非关系型数据库也就是NoSQL发展迅猛在项目中也非常常见。其中不乏一些使用上的极端情况比如直接把关系型数据库RDBMS全部替换为NoSQL或是在不合适的场景下错误地使用NoSQL。
其实每种NoSQL的特点不同都有其要着重解决的某一方面的问题。因此我们在使用NoSQL的时候要尽量让它去处理擅长的场景否则不但发挥不出它的功能和优势还可能会导致性能问题。
NoSQL一般可以分为缓存数据库、时间序列数据库、全文搜索数据库、文档数据库、图数据库等。今天我会以缓存数据库Redis、时间序列数据库InfluxDB、全文搜索数据库ElasticSearch为例通过一些测试案例和你聊聊这些常见NoSQL的特点以及它们擅长和不擅长的地方。最后我也还会和你说说NoSQL如何与RDBMS相辅相成来构成一套可以应对高并发的复合数据库体系。
## 取长补短之 Redis vs MySQL
Redis是一款设计简洁的缓存数据库数据都保存在内存中所以读写单一Key的性能非常高。
我们来做一个简单测试分别填充10万条数据到Redis和MySQL中。MySQL中的name字段做了索引相当于Redis的Keydata字段为100字节的数据相当于Redis的Value
```
@SpringBootApplication
@Slf4j
public class CommonMistakesApplication {
//模拟10万条数据存到Redis和MySQL
public static final int ROWS = 100000;
public static final String PAYLOAD = IntStream.rangeClosed(1, 100).mapToObj(__ -> "a").collect(Collectors.joining(""));
@Autowired
private StringRedisTemplate stringRedisTemplate;
@Autowired
private JdbcTemplate jdbcTemplate;
@Autowired
private StandardEnvironment standardEnvironment;
public static void main(String[] args) {
SpringApplication.run(CommonMistakesApplication.class, args);
}
@PostConstruct
public void init() {
//使用-Dspring.profiles.active=init启动程序进行初始化
if (Arrays.stream(standardEnvironment.getActiveProfiles()).anyMatch(s -> s.equalsIgnoreCase("init"))) {
initRedis();
initMySQL();
}
}
//填充数据到MySQL
private void initMySQL() {
//删除表
jdbcTemplate.execute("DROP TABLE IF EXISTS `r`;");
//新建表name字段做了索引
jdbcTemplate.execute("CREATE TABLE `r` (\n" +
" `id` bigint(20) NOT NULL AUTO_INCREMENT,\n" +
" `data` varchar(2000) NOT NULL,\n" +
" `name` varchar(20) NOT NULL,\n" +
" PRIMARY KEY (`id`),\n" +
" KEY `name` (`name`) USING BTREE\n" +
") ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;");
//批量插入数据
String sql = "INSERT INTO `r` (`data`,`name`) VALUES (?,?)";
jdbcTemplate.batchUpdate(sql, new BatchPreparedStatementSetter() {
@Override
public void setValues(PreparedStatement preparedStatement, int i) throws SQLException {
preparedStatement.setString(1, PAYLOAD);
preparedStatement.setString(2, "item" + i);
}
@Override
public int getBatchSize() {
return ROWS;
}
});
log.info("init mysql finished with count {}", jdbcTemplate.queryForObject("SELECT COUNT(*) FROM `r`", Long.class));
}
//填充数据到Redis
private void initRedis() {
IntStream.rangeClosed(1, ROWS).forEach(i -> stringRedisTemplate.opsForValue().set("item" + i, PAYLOAD));
log.info("init redis finished with count {}", stringRedisTemplate.keys("item*"));
}
}
```
启动程序后,输出了如下日志,数据全部填充完毕:
```
[14:22:47.195] [main] [INFO ] [o.g.t.c.n.r.CommonMistakesApplication:80 ] - init redis finished with count 100000
[14:22:50.030] [main] [INFO ] [o.g.t.c.n.r.CommonMistakesApplication:74 ] - init mysql finished with count 100000
```
然后比较一下从MySQL和Redis随机读取单条数据的性能。“公平”起见像Redis那样我们使用MySQL时也根据Key来查Value也就是根据name字段来查data字段并且我们给name字段做了索引
```
@Autowired
private JdbcTemplate jdbcTemplate;
@Autowired
private StringRedisTemplate stringRedisTemplate;
@GetMapping("redis")
public void redis() {
//使用随机的Key来查询Value结果应该等于PAYLOAD
Assert.assertTrue(stringRedisTemplate.opsForValue().get("item" + (ThreadLocalRandom.current().nextInt(CommonMistakesApplication.ROWS) + 1)).equals(CommonMistakesApplication.PAYLOAD));
}
@GetMapping("mysql")
public void mysql() {
//根据随机name来查dataname字段有索引结果应该等于PAYLOAD
Assert.assertTrue(jdbcTemplate.queryForObject("SELECT data FROM `r` WHERE name=?", new Object[]{("item" + (ThreadLocalRandom.current().nextInt(CommonMistakesApplication.ROWS) + 1))}, String.class)
.equals(CommonMistakesApplication.PAYLOAD));
}
```
在我的电脑上使用wrk 加10个线程50个并发连接做压测。可以看到MySQL 90%的请求需要61msQPS为1460**而Redis 90%的请求在5ms左右QPS达到了14008几乎是MySQL的十倍**
![](https://static001.geekbang.org/resource/image/2d/4e/2d289cc94097c2e62aa97a6602d0554e.png)
但Redis薄弱的地方是不擅长做Key的搜索。对MySQL我们可以使用LIKE操作前匹配走B+树索引实现快速搜索但对Redis我们使用Keys命令对Key的搜索其实相当于在MySQL里做全表扫描。
我写一段代码来对比一下性能:
```
@GetMapping("redis2")
public void redis2() {
Assert.assertTrue(stringRedisTemplate.keys("item71*").size() == 1111);
}
@GetMapping("mysql2")
public void mysql2() {
Assert.assertTrue(jdbcTemplate.queryForList("SELECT name FROM `r` WHERE name LIKE 'item71%'", String.class).size() == 1111);
}
```
可以看到在QPS方面**MySQL的QPS达到了Redis的157倍在延迟方面MySQL的延迟只有Redis的十分之一。**
![](https://static001.geekbang.org/resource/image/5d/e8/5de7a4a7bf27f8736b0ac09ba0dd1fe8.png)
Redis慢的原因有两个
* Redis的Keys命令是O(n)时间复杂度。如果数据库中Key的数量很多就会非常慢。
* Redis是单线程的对于慢的命令如果有并发串行执行就会非常耗时。
一般而言我们使用Redis都是针对某一个Key来使用而不能在业务代码中使用Keys命令从Redis中“搜索数据”因为这不是Redis的擅长。对于Key的搜索我们可以先通过关系型数据库进行然后再从Redis存取数据如果实在需要搜索Key可以使用SCAN命令。在生产环境中我们一般也会配置Redis禁用类似Keys这种比较危险的命令你可以[参考这里](https://redis.io/topics/security)。
总结一下,正如“[缓存设计](https://time.geekbang.org/column/article/231501)”一讲中提到的对于业务开发来说大多数业务场景下Redis是作为关系型数据库的辅助用于缓存的我们一般不会把它当作数据库独立使用。
此外值得一提的是Redis提供了丰富的数据结构Set、SortedSet、Hash、List并围绕这些数据结构提供了丰富的API。如果我们好好利用这个特点的话可以直接在Redis中完成一部分服务端计算避免“读取缓存->计算数据->保存缓存”三部曲中的读取和保存缓存的开销,进一步提高性能。
## 取长补短之 InfluxDB vs MySQL
InfluxDB是一款优秀的时序数据库。在“[生产就绪](https://time.geekbang.org/column/article/231568)”这一讲中我们就是使用InfluxDB来做的Metrics打点。时序数据库的优势在于处理指标数据的聚合并且读写效率非常高。
同样的我们使用一些测试来对比下InfluxDB和MySQL的性能。
在如下代码中我们分别填充了1000万条数据到MySQL和InfluxDB中。其中每条数据只有ID、时间戳、10000以内的随机值这3列信息对于MySQL我们把时间戳列做了索引
```
@SpringBootApplication
@Slf4j
public class CommonMistakesApplication {
public static void main(String[] args) {
SpringApplication.run(CommonMistakesApplication.class, args);
}
//测试数据量
public static final int ROWS = 10000000;
@Autowired
private JdbcTemplate jdbcTemplate;
@Autowired
private StandardEnvironment standardEnvironment;
@PostConstruct
public void init() {
//使用-Dspring.profiles.active=init启动程序进行初始化
if (Arrays.stream(standardEnvironment.getActiveProfiles()).anyMatch(s -> s.equalsIgnoreCase("init"))) {
initInfluxDB();
initMySQL();
}
}
//初始化MySQL
private void initMySQL() {
long begin = System.currentTimeMillis();
jdbcTemplate.execute("DROP TABLE IF EXISTS `m`;");
//只有ID、值和时间戳三列
jdbcTemplate.execute("CREATE TABLE `m` (\n" +
" `id` bigint(20) NOT NULL AUTO_INCREMENT,\n" +
" `value` bigint NOT NULL,\n" +
" `time` timestamp NOT NULL,\n" +
" PRIMARY KEY (`id`),\n" +
" KEY `time` (`time`) USING BTREE\n" +
") ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;");
String sql = "INSERT INTO `m` (`value`,`time`) VALUES (?,?)";
//批量插入数据
jdbcTemplate.batchUpdate(sql, new BatchPreparedStatementSetter() {
@Override
public void setValues(PreparedStatement preparedStatement, int i) throws SQLException {
preparedStatement.setLong(1, ThreadLocalRandom.current().nextInt(10000));
preparedStatement.setTimestamp(2, Timestamp.valueOf(LocalDateTime.now().minusSeconds(5 * i)));
}
@Override
public int getBatchSize() {
return ROWS;
}
});
log.info("init mysql finished with count {} took {}ms", jdbcTemplate.queryForObject("SELECT COUNT(*) FROM `m`", Long.class), System.currentTimeMillis()-begin);
}
//初始化InfluxDB
private void initInfluxDB() {
long begin = System.currentTimeMillis();
OkHttpClient.Builder okHttpClientBuilder = new OkHttpClient().newBuilder()
.connectTimeout(1, TimeUnit.SECONDS)
.readTimeout(10, TimeUnit.SECONDS)
.writeTimeout(10, TimeUnit.SECONDS);
try (InfluxDB influxDB = InfluxDBFactory.connect("http://127.0.0.1:8086", "root", "root", okHttpClientBuilder)) {
String db = "performance";
influxDB.query(new Query("DROP DATABASE " + db));
influxDB.query(new Query("CREATE DATABASE " + db));
//设置数据库
influxDB.setDatabase(db);
//批量插入10000条数据刷一次或1秒刷一次
influxDB.enableBatch(BatchOptions.DEFAULTS.actions(10000).flushDuration(1000));
IntStream.rangeClosed(1, ROWS).mapToObj(i -> Point
.measurement("m")
.addField("value", ThreadLocalRandom.current().nextInt(10000))
.time(LocalDateTime.now().minusSeconds(5 * i).toInstant(ZoneOffset.UTC).toEpochMilli(), TimeUnit.MILLISECONDS).build())
.forEach(influxDB::write);
influxDB.flush();
log.info("init influxdb finished with count {} took {}ms", influxDB.query(new Query("SELECT COUNT(*) FROM m")).getResults().get(0).getSeries().get(0).getValues().get(0).get(1), System.currentTimeMillis()-begin);
}
}
}
```
启动后,程序输出了如下日志:
```
[16:08:25.062] [main] [INFO ] [o.g.t.c.n.i.CommonMistakesApplication:104 ] - init influxdb finished with count 1.0E7 took 54280ms
[16:11:50.462] [main] [INFO ] [o.g.t.c.n.i.CommonMistakesApplication:80 ] - init mysql finished with count 10000000 took 205394ms
```
InfluxDB批量插入1000万条数据仅用了54秒相当于每秒插入18万条数据速度相当快MySQL的批量插入速度也挺快达到了每秒4.8万。
接下来,我们测试一下。
对这1000万数据进行一个统计查询最近60天的数据按照1小时的时间粒度聚合统计value列的最大值、最小值和平均值并将统计结果绘制成曲线图
```
@Autowired
private JdbcTemplate jdbcTemplate;
@GetMapping("mysql")
public void mysql() {
long begin = System.currentTimeMillis();
//使用SQL从MySQL查询按照小时分组
Object result = jdbcTemplate.queryForList("SELECT date_format(time,'%Y%m%d%H'),max(value),min(value),avg(value) FROM m WHERE time>now()- INTERVAL 60 DAY GROUP BY date_format(time,'%Y%m%d%H')");
log.info("took {} ms result {}", System.currentTimeMillis() - begin, result);
}
@GetMapping("influxdb")
public void influxdb() {
long begin = System.currentTimeMillis();
try (InfluxDB influxDB = InfluxDBFactory.connect("http://127.0.0.1:8086", "root", "root")) {
//切换数据库
influxDB.setDatabase("performance");
//InfluxDB的查询语法InfluxQL类似SQL
Object result = influxDB.query(new Query("SELECT MEAN(value),MIN(value),MAX(value) FROM m WHERE time > now() - 60d GROUP BY TIME(1h)"));
log.info("took {} ms result {}", System.currentTimeMillis() - begin, result);
}
}
```
因为数据量非常大,单次查询就已经很慢了,所以这次我们不进行压测。分别调用两个接口,可以看到**MySQL查询一次耗时29秒左右而InfluxDB耗时980ms**
```
[16:19:26.562] [http-nio-45678-exec-1] [INFO ] [o.g.t.c.n.i.PerformanceController:31 ] - took 28919 ms result [{date_format(time,'%Y%m%d%H')=2019121308, max(value)=9993, min(value)=4, avg(value)=5129.5639}, {date_format(time,'%Y%m%d%H')=2019121309, max(value)=9990, min(value)=12, avg(value)=4856.0556}, {date_format(time,'%Y%m%d%H')=2019121310, max(value)=9998, min(value)=8, avg(value)=4948.9347}, {date_format(time,'%Y%m%d%H')...
[16:20:08.170] [http-nio-45678-exec-6] [INFO ] [o.g.t.c.n.i.PerformanceController:40 ] - took 981 ms result QueryResult [results=[Result [series=[Series [name=m, tags=null, columns=[time, mean, min, max], values=[[2019-12-13T08:00:00Z, 5249.2468619246865, 21.0, 9992.0],...
```
在按照时间区间聚合的案例上我们看到了InfluxDB的性能优势。但我们**肯定不能把InfluxDB当作普通数据库**,原因是:
* InfluxDB不支持数据更新操作毕竟时间数据只能随着时间产生新数据肯定无法对过去的数据做修改
* 从数据结构上说,时间序列数据数据没有单一的主键标识,必须包含时间戳,数据只能和时间戳进行关联,不适合普通业务数据。
**此外需要注意即便只是使用InfluxDB保存和时间相关的指标数据我们也要注意不能滥用tag**。
InfluxDB提供的tag功能可以为每一个指标设置多个标签并且tag有索引可以对tag进行条件搜索或分组。但是tag只能保存有限的、可枚举的标签不能保存URL等信息否则可能会出现[high series cardinality问题](https://docs.influxdata.com/influxdb/v1.7/concepts/schema_and_data_layout/#don-t-have-too-many-serieshigh%20series%20cardinality)导致占用大量内存甚至是OOM。你可以点击[这里](https://docs.influxdata.com/influxdb/v1.7/guides/hardware_sizing/)查看series和内存占用的关系。对于InfluxDB我们无法把URL这种原始数据保存到数据库中只能把数据进行归类形成有限的tag进行保存。
总结一下对于MySQL而言针对大量的数据使用全表扫描的方式来聚合统计指标数据性能非常差一般只能作为临时方案来使用。此时引入InfluxDB之类的时间序列数据库就很有必要了。时间序列数据库可以作为特定场景比如监控、统计的主存储也可以和关系型数据库搭配使用作为一个辅助数据源保存业务系统的指标数据。
## 取长补短之 Elasticsearch vs MySQL
Elasticsearch以下简称ES是目前非常流行的分布式搜索和分析数据库独特的倒排索引结构尤其适合进行全文搜索。
简单来讲倒排索引可以认为是一个Map其Key是分词之后的关键字Value是文档ID/片段ID的列表。我们只要输入需要搜索的单词就可以直接在这个Map中得到所有包含这个单词的文档ID/片段ID列表然后再根据其中的文档ID/片段ID查询出实际的文档内容。
我们来测试一下对比下使用ES进行关键字全文搜索、在MySQL中使用LIKE进行搜索的效率差距。
首先定义一个实体News包含新闻分类、标题、内容等字段。这个实体同时会用作Spring Data JPA和Spring Data Elasticsearch的实体
```
@Entity
@Document(indexName = "news", replicas = 0) //@Document注解定义了这是一个ES的索引索引名称news数据不需要冗余
@Table(name = "news", indexes = {@Index(columnList = "cateid")}) //@Table注解定义了这是一个MySQL表表名news对cateid列做索引
@Data
@AllArgsConstructor
@NoArgsConstructor
@DynamicUpdate
public class News {
@Id
private long id;
@Field(type = FieldType.Keyword)
private String category;//新闻分类名称
private int cateid;//新闻分类ID
@Column(columnDefinition = "varchar(500)")//@Column注解定义了在MySQL中字段比如这里定义title列的类型是varchar(500)
@Field(type = FieldType.Text, analyzer = "ik_max_word", searchAnalyzer = "ik_smart")//@Field注解定义了ES字段的格式使用ik分词器进行分词
private String title;//新闻标题
@Column(columnDefinition = "text")
@Field(type = FieldType.Text, analyzer = "ik_max_word", searchAnalyzer = "ik_smart")
private String content;//新闻内容
}
```
接下来我们实现主程序。在启动时我们会从一个csv文件中加载4000条新闻数据然后复制100份拼成40万条数据分别写入MySQL和ES
```
@SpringBootApplication
@Slf4j
@EnableElasticsearchRepositories(includeFilters = @ComponentScan.Filter(type = FilterType.ASSIGNABLE_TYPE, value = NewsESRepository.class)) //明确设置哪个是ES的Repository
@EnableJpaRepositories(excludeFilters = @ComponentScan.Filter(type = FilterType.ASSIGNABLE_TYPE, value = NewsESRepository.class)) //其他的是MySQL的Repository
public class CommonMistakesApplication {
public static void main(String[] args) {
Utils.loadPropertySource(CommonMistakesApplication.class, "es.properties");
SpringApplication.run(CommonMistakesApplication.class, args);
}
@Autowired
private StandardEnvironment standardEnvironment;
@Autowired
private NewsESRepository newsESRepository;
@Autowired
private NewsMySQLRepository newsMySQLRepository;
@PostConstruct
public void init() {
//使用-Dspring.profiles.active=init启动程序进行初始化
if (Arrays.stream(standardEnvironment.getActiveProfiles()).anyMatch(s -> s.equalsIgnoreCase("init"))) {
//csv中的原始数据只有4000条
List<News> news = loadData();
AtomicLong atomicLong = new AtomicLong();
news.forEach(item -> item.setTitle("%%" + item.getTitle()));
//我们模拟100倍的数据量也就是40万条
IntStream.rangeClosed(1, 100).forEach(repeat -> {
news.forEach(item -> {
//重新设置主键ID
item.setId(atomicLong.incrementAndGet());
//每次复制数据稍微改一下title字段在前面加上一个数字代表这是第几次复制
item.setTitle(item.getTitle().replaceFirst("%%", String.valueOf(repeat)));
});
initMySQL(news, repeat == 1);
log.info("init MySQL finished for {}", repeat);
initES(news, repeat == 1);
log.info("init ES finished for {}", repeat);
});
}
}
//从news.csv中解析得到原始数据
private List<News> loadData() {
//使用jackson-dataformat-csv实现csv到POJO的转换
CsvMapper csvMapper = new CsvMapper();
CsvSchema schema = CsvSchema.emptySchema().withHeader();
ObjectReader objectReader = csvMapper.readerFor(News.class).with(schema);
ClassLoader classLoader = getClass().getClassLoader();
File file = new File(classLoader.getResource("news.csv").getFile());
try (Reader reader = new FileReader(file)) {
return objectReader.<News>readValues(reader).readAll();
} catch (Exception e) {
e.printStackTrace();
}
return null;
}
//把数据保存到ES中
private void initES(List<News> news, boolean clear) {
if (clear) {
//首次调用的时候先删除历史数据
newsESRepository.deleteAll();
}
newsESRepository.saveAll(news);
}
//把数据保存到MySQL中
private void initMySQL(List<News> news, boolean clear) {
if (clear) {
//首次调用的时候先删除历史数据
newsMySQLRepository.deleteAll();
}
newsMySQLRepository.saveAll(news);
}
}
```
由于我们使用了Spring Data直接定义两个Repository然后直接定义查询方法无需实现任何逻辑即可实现查询Spring Data会根据方法名生成相应的SQL语句和ES查询DSL其中ES的翻译逻辑[详见这里](https://docs.spring.io/spring-data/elasticsearch/docs/current/reference/html/#elasticsearch.query-methods.criterions)。
在这里我们定义一个countByCateidAndContentContainingAndContentContaining方法代表查询条件是搜索分类等于cateid参数且内容同时包含关键字keyword1和keyword2计算符合条件的新闻总数量
```
@Repository
public interface NewsMySQLRepository extends JpaRepository<News, Long> {
//JPA搜索分类等于cateid参数且内容同时包含关键字keyword1和keyword2计算符合条件的新闻总数量
long countByCateidAndContentContainingAndContentContaining(int cateid, String keyword1, String keyword2);
}
@Repository
public interface NewsESRepository extends ElasticsearchRepository<News, Long> {
//ES搜索分类等于cateid参数且内容同时包含关键字keyword1和keyword2计算符合条件的新闻总数量
long countByCateidAndContentContainingAndContentContaining(int cateid, String keyword1, String keyword2);
}
```
对于ES和MySQL我们使用相同的条件进行搜索搜素分类是1关键字是社会和苹果然后输出搜索结果和耗时
```
//测试MySQL搜索最后输出耗时和结果
@GetMapping("mysql")
public void mysql(@RequestParam(value = "cateid", defaultValue = "1") int cateid,
@RequestParam(value = "keyword1", defaultValue = "社会") String keyword1,
@RequestParam(value = "keyword2", defaultValue = "苹果") String keyword2) {
long begin = System.currentTimeMillis();
Object result = newsMySQLRepository.countByCateidAndContentContainingAndContentContaining(cateid, keyword1, keyword2);
log.info("took {} ms result {}", System.currentTimeMillis() - begin, result);
}
//测试ES搜索最后输出耗时和结果
@GetMapping("es")
public void es(@RequestParam(value = "cateid", defaultValue = "1") int cateid,
@RequestParam(value = "keyword1", defaultValue = "社会") String keyword1,
@RequestParam(value = "keyword2", defaultValue = "苹果") String keyword2) {
long begin = System.currentTimeMillis();
Object result = newsESRepository.countByCateidAndContentContainingAndContentContaining(cateid, keyword1, keyword2);
log.info("took {} ms result {}", System.currentTimeMillis() - begin, result);
}
```
分别调用接口可以看到,**ES耗时仅仅48msMySQL耗时6秒多是ES的100倍**。很遗憾虽然新闻分类ID已经建了索引但是这个索引只能起到加速过滤分类ID这一单一条件的作用对于文本内容的全文搜索B+树索引无能为力。
```
[22:04:00.951] [http-nio-45678-exec-6] [INFO ] [o.g.t.c.n.esvsmyql.PerformanceController:48 ] - took 48 ms result 2100
Hibernate: select count(news0_.id) as col_0_0_ from news news0_ where news0_.cateid=? and (news0_.content like ? escape ?) and (news0_.content like ? escape ?)
[22:04:11.946] [http-nio-45678-exec-7] [INFO ] [o.g.t.c.n.esvsmyql.PerformanceController:39 ] - took 6637 ms result 2100
```
但ES这种以索引为核心的数据库也不是万能的频繁更新就是一个大问题。
MySQL可以做到仅更新某行数据的某个字段但ES里每次数据字段更新都相当于整个文档索引重建。即便ES提供了文档部分更新的功能但本质上只是节省了提交文档的网络流量以及减少了更新冲突其内部实现还是文档删除后重新构建索引。因此如果要在ES中保存一个类似计数器的值要实现不断更新其执行效率会非常低。
我们来验证下分别使用JdbcTemplate+SQL语句、ElasticsearchTemplate+自定义UpdateQuery实现部分更新MySQL表和ES索引的一个字段每个方法都是循环更新1000次
```
@GetMapping("mysql2")
public void mysql2(@RequestParam(value = "id", defaultValue = "400000") long id) {
long begin = System.currentTimeMillis();
//对于MySQL使用JdbcTemplate+SQL语句实现直接更新某个category字段更新1000次
IntStream.rangeClosed(1, 1000).forEach(i -> {
jdbcTemplate.update("UPDATE `news` SET category=? WHERE id=?", new Object[]{"test" + i, id});
});
log.info("mysql took {} ms result {}", System.currentTimeMillis() - begin, newsMySQLRepository.findById(id));
}
@GetMapping("es2")
public void es(@RequestParam(value = "id", defaultValue = "400000") long id) {
long begin = System.currentTimeMillis();
IntStream.rangeClosed(1, 1000).forEach(i -> {
//对于ES通过ElasticsearchTemplate+自定义UpdateQuery实现文档的部分更新
UpdateQuery updateQuery = null;
try {
updateQuery = new UpdateQueryBuilder()
.withIndexName("news")
.withId(String.valueOf(id))
.withType("_doc")
.withUpdateRequest(new UpdateRequest().doc(
jsonBuilder()
.startObject()
.field("category", "test" + i)
.endObject()))
.build();
} catch (IOException e) {
e.printStackTrace();
}
elasticsearchTemplate.update(updateQuery);
});
log.info("es took {} ms result {}", System.currentTimeMillis() - begin, newsESRepository.findById(id).get());
}
```
可以看到,**MySQL耗时仅仅1.5秒而ES耗时6.8秒**
![](https://static001.geekbang.org/resource/image/63/02/63a583a0bced67a3f7cf0eb32e644802.png)
ES是一个分布式的全文搜索数据库所以与MySQL相比的优势在于文本搜索而且因为其分布式的特性可以使用一个大ES集群处理大规模数据的内容搜索。但由于ES的索引是文档维度的所以不适用于频繁更新的OLTP业务。
一般而言我们会把ES和MySQL结合使用MySQL直接承担业务系统的增删改操作而ES作为辅助数据库直接扁平化保存一份业务数据用于复杂查询、全文搜索和统计。接下来我也会继续和你分析这一点。
## 结合NoSQL和MySQL应对高并发的复合数据库架构
现在我们通过一些案例看到了Redis、InfluxDB、ES这些NoSQL数据库都有擅长和不擅长的场景。那么有没有全能的数据库呢
我认为没有。每一个存储系统都有其独特的数据结构,数据结构的设计就决定了其擅长和不擅长的场景。
比如MySQL InnoDB引擎的B+树对排序和范围查询友好频繁数据更新的代价不是太大因此适合OLTPOn-Line Transaction Processing
又比如ES的Lucene采用了FSTFinite State Transducer索引+倒排索引,空间效率高,适合对变动不频繁的数据做索引,实现全文搜索。存储系统本身不可能对一份数据使用多种数据结构保存,因此不可能适用于所有场景。
虽然在大多数业务场景下MySQL的性能都不算太差但对于数据量大、访问量大、业务复杂的互联网应用来说MySQL因为实现了ACID原子性、一致性、隔离性、持久性会比较重而且横向扩展能力较差、功能单一无法扛下所有数据量和流量无法应对所有功能需求。因此我们需要通过架构手段来组合使用多种存储系统取长补短实现1+1>2的效果。
我来举个例子。我们设计了一个**包含多个数据库系统的、能应对各种高并发场景的一套数据服务的系统架构**,其中包含了同步写服务、异步写服务和查询服务三部分,分别实现主数据库写入、辅助数据库写入和查询路由。
我们按照服务来依次分析下这个架构。
![](https://static001.geekbang.org/resource/image/bb/38/bbbcdbd74308de6b8fda04b34ed07e38.png)
首先要明确的是重要的业务主数据只能保存在MySQL这样的关系型数据库中原因有三点
* RDBMS经过了几十年的验证已经非常成熟
* RDBMS的用户数量众多Bug修复快、版本稳定、可靠性很高
* RDBMS强调ACID能确保数据完整。
有两种类型的查询任务可以交给MySQL来做性能会比较好这也是MySQL擅长的地方
* 按照主键ID的查询。直接查询聚簇索引其性能会很高。但是单表数据量超过亿级后性能也会衰退而且单个数据库无法承受超大的查询并发因此我们可以把数据表进行Sharding操作均匀拆分到多个数据库实例中保存。我们把这套数据库集群称作Sharding集群。
* 按照各种条件进行范围查询查出主键ID。对二级索引进行查询得到主键只需要查询一棵B+树效率同样很高。但索引的值不宜过大比如对varchar(1000)进行索引不太合适而索引外键一般是int或bigint类型性能就会比较好。因此我们可以在MySQL中建立一张“索引表”除了保存主键外主要是保存各种关联表的外键以及尽可能少的varchar类型的字段。这张索引表的大部分列都可以建上二级索引用于进行简单搜索搜索的结果是主键的列表而不是完整的数据。由于索引表字段轻量并且数量不多一般控制在10个以内所以即便索引表没有进行Sharding拆分问题也不会很大。
如图上蓝色线所示写入两种MySQL数据表和发送MQ消息的这三步我们用一个**同步写服务**完成了。我在“[异步处理](https://time.geekbang.org/column/article/234928)”中提到,所有异步流程都需要补偿,这里的异步流程同样需要。只不过为了简洁,我在这里省略了补偿流程。
然后,如图中绿色线所示,有一个**异步写服务**监听MQ的消息继续完成辅助数据的更新操作。这里我们选用了ES和InfluxDB这两种辅助数据库因此整个异步写数据操作有三步
1. MQ消息不一定包含完整的数据甚至可能只包含一个最新数据的主键ID我们需要根据ID从查询服务查询到完整的数据。
2. 写入InfluxDB的数据一般可以按时间间隔进行简单聚合定时写入InfluxDB。因此这里会进行简单的客户端聚合然后写入InfluxDB。
3. ES不适合在各索引之间做连接Join操作适合保存扁平化的数据。比如我们可以把订单下的用户、商户、商品列表等信息作为内嵌对象嵌入整个订单JSON然后把整个扁平化的JSON直接存入ES。
对于数据写入操作,我们认为操作返回的时候同步数据一定是写入成功的,但是由于各种原因,异步数据写入无法确保立即成功,会有一定延迟,比如:
* 异步消息丢失的情况,需要补偿处理;
* 写入ES的索引操作本身就会比较慢
* 写入InfluxDB的数据需要客户端定时聚合。
因此,对于**查询服务**,如图中红色线所示,我们需要根据一定的上下文条件(比如查询一致性要求、时效性要求、搜索的条件、需要返回的数据字段、搜索时间区间等)来把请求路由到合适的数据库,并且做一些聚合处理:
* 需要根据主键查询单条数据可以从MySQL Sharding集群或Redis查询如果对实时性要求不高也可以从ES查询。
* 按照多个条件搜索订单的场景可以从MySQL索引表查询出主键列表然后再根据主键从MySQL Sharding集群或Redis获取数据详情。
* 各种后台系统需要使用比较复杂的搜索条件甚至全文搜索来查询订单数据或是定时分析任务需要一次查询大量数据这些场景对数据实时性要求都不高可以到ES进行搜索。此外MySQL中的数据可以归档我们可以在ES中保留更久的数据而且查询历史数据一般并发不会很大可以统一路由到ES查询。
* 监控系统或后台报表系统需要呈现业务监控图表或表格可以把请求路由到InfluxDB查询。
## 重点回顾
今天我通过三个案例分别对比了缓存数据库Redis、时间序列数据库InfluxDB、搜索数据库ES和MySQL的性能。我们看到
* Redis对单条数据的读取性能远远高于MySQL但不适合进行范围搜索。
* InfluxDB对于时间序列数据的聚合效率远远高于MySQL但因为没有主键所以不是一个通用数据库。
* ES对关键字的全文搜索能力远远高于MySQL但是字段的更新效率较低不适合保存频繁更新的数据。
最后我们给出了一个混合使用MySQL + Redis + InfluxDB + ES的架构方案充分发挥了各种数据库的特长相互配合构成了一个可以应对各种复杂查询以及高并发读写的存储架构。
* 主数据由两种MySQL数据表构成其中索引表承担简单条件的搜索来得到主键Sharding表承担大并发的主键查询。主数据由同步写服务写入写入后发出MQ消息。
* 辅助数据可以根据需求选用合适的NoSQL由单独一个或多个异步写服务监听MQ后异步写入。
* 由统一的查询服务,对接所有查询需求,根据不同的查询需求路由查询到合适的存储,确保每一个存储系统可以根据场景发挥所长,并分散各数据库系统的查询压力。
今天用到的代码我都放在了GitHub上你可以点击[这个链接](https://github.com/JosephZhu1983/java-common-mistakes)查看。
## 思考与讨论
1. 我们提到InfluxDB不能包含太多tag。你能写一段测试代码来模拟这个问题并观察下InfluxDB的内存使用情况吗
2. 文档数据库MongoDB也是一种常用的NoSQL。你觉得MongoDB的优势和劣势是什么呢它适合用在什么场景下呢
关于数据存储,你还有其他心得吗?我是朱晔,欢迎在评论区与我留言分享你的想法,也欢迎你把今天的内容分享给你的朋友或同事,一起交流。