You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

338 lines
22 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 24 | ReplicaManager副本管理器是如何读写副本的
你好我是胡夕。上节课我们学习了ReplicaManager类的定义和重要字段今天我们接着学习这个类中的读写副本对象部分的源码。无论是读取副本还是写入副本都是通过底层的Partition对象完成的而这些分区对象全部保存在上节课所学的allPartitions字段中。可以说理解这些字段的用途是后续我们探索副本管理器类功能的重要前提。
现在我们就来学习下副本读写功能。整个Kafka的同步机制本质上就是副本读取+副本写入搞懂了这两个功能你就知道了Follower副本是如何同步Leader副本数据的。
## 副本写入appendRecords
所谓的副本写入是指向副本底层日志写入消息。在ReplicaManager类中实现副本写入的方法叫appendRecords。
放眼整个Kafka源码世界需要副本写入的场景有4个。
* 场景一生产者向Leader副本写入消息
* 场景二Follower副本拉取消息后写入副本
* 场景三:消费者组写入组信息;
* 场景四:事务管理器写入事务信息(包括事务标记、事务元数据等)。
除了第二个场景是直接调用Partition对象的方法实现之外其他3个都是调用appendRecords来完成的。
该方法将给定一组分区的消息写入到对应的Leader副本中并且根据PRODUCE请求中acks设置的不同有选择地等待其他副本写入完成。然后调用指定的回调逻辑。
我们先来看下它的方法签名:
```
def appendRecords(
timeout: Long, // 请求处理超时时间
requiredAcks: Short, // 请求acks设置
internalTopicsAllowed: Boolean, // 是否允许写入内部主题
origin: AppendOrigin, // 写入方来源
entriesPerPartition: Map[TopicPartition, MemoryRecords], // 待写入消息
// 回调逻辑
responseCallback: Map[TopicPartition, PartitionResponse] => Unit,
delayedProduceLock: Option[Lock] = None,
recordConversionStatsCallback:
Map[TopicPartition, RecordConversionStats] => Unit = _ => ())
: Unit = {
......
}
```
输入参数有很多,而且都很重要,我一个一个地说。
* **timeout**请求处理超时时间。对于生产者来说它就是request.timeout.ms参数值。
* **requiredAcks**是否需要等待其他副本写入。对于生产者而言它就是acks参数的值。而在其他场景中Kafka默认使用-1表示等待其他副本全部写入成功再返回。
* **internalTopicsAllowed**是否允许向内部主题写入消息。对于普通的生产者而言该字段是False即不允许写入内部主题。对于Coordinator组件特别是消费者组GroupCoordinator组件来说它的职责之一就是向内部位移主题写入消息因此此时该字段值是True。
* **origin**AppendOrigin是一个接口表示写入方来源。当前它定义了3类写入方分别是Replication、Coordinator和Client。Replication表示写入请求是由Follower副本发出的它要将从Leader副本获取到的消息写入到底层的消息日志中。Coordinator表示这些写入由Coordinator发起它既可以是管理消费者组的GroupCooridnator也可以是管理事务的TransactionCoordinator。Client表示本次写入由客户端发起。前面我们说过了Follower副本同步过程不调用appendRecords方法因此这里的origin值只可能是Replication或Coordinator。
* **entriesPerPartitio**n按分区分组的、实际要写入的消息集合。
* **responseCallback**:写入成功之后,要调用的回调逻辑函数。
* **delayedProduceLock**:专门用来保护消费者组操作线程安全的锁对象,在其他场景中用不到。
* **recordConversionStatsCallback**:消息格式转换操作的回调统计逻辑,主要用于统计消息格式转换操作过程中的一些数据指标,比如总共转换了多少条消息,花费了多长时间。
接下来我们就看看appendRecords如何利用这些输入参数向副本日志写入消息。我把它的完整代码贴出来。对于重要的步骤我标注了注释
```
// requiredAcks合法取值是-101否则视为非法
if (isValidRequiredAcks(requiredAcks)) {
val sTime = time.milliseconds
// 调用appendToLocalLog方法写入消息集合到本地日志
val localProduceResults = appendToLocalLog(
internalTopicsAllowed = internalTopicsAllowed,
origin, entriesPerPartition, requiredAcks)
debug("Produce to local log in %d ms".format(time.milliseconds - sTime))
val produceStatus = localProduceResults.map { case (topicPartition, result) =>
topicPartition ->
ProducePartitionStatus(
result.info.lastOffset + 1, // 设置下一条待写入消息的位移值
// 构建PartitionResponse封装写入结果
new PartitionResponse(result.error, result.info.firstOffset.getOrElse(-1), result.info.logAppendTime,
result.info.logStartOffset, result.info.recordErrors.asJava, result.info.errorMessage))
}
// 尝试更新消息格式转换的指标数据
recordConversionStatsCallback(localProduceResults.map { case (k, v) => k -> v.info.recordConversionStats })
// 需要等待其他副本完成写入
if (delayedProduceRequestRequired(
requiredAcks, entriesPerPartition, localProduceResults)) {
val produceMetadata = ProduceMetadata(requiredAcks, produceStatus)
// 创建DelayedProduce延时请求对象
val delayedProduce = new DelayedProduce(timeout, produceMetadata, this, responseCallback, delayedProduceLock)
val producerRequestKeys = entriesPerPartition.keys.map(TopicPartitionOperationKey(_)).toSeq
// 再一次尝试完成该延时请求
// 如果暂时无法完成则将对象放入到相应的Purgatory中等待后续处理
delayedProducePurgatory.tryCompleteElseWatch(delayedProduce, producerRequestKeys)
} else { // 无需等待其他副本写入完成可以立即发送Response
val produceResponseStatus = produceStatus.map { case (k, status) => k -> status.responseStatus }
// 调用回调逻辑然后返回即可
responseCallback(produceResponseStatus)
}
} else { // 如果requiredAcks值不合法
val responseStatus = entriesPerPartition.map { case (topicPartition, _) =>
topicPartition -> new PartitionResponse(Errors.INVALID_REQUIRED_ACKS,
LogAppendInfo.UnknownLogAppendInfo.firstOffset.getOrElse(-1), RecordBatch.NO_TIMESTAMP, LogAppendInfo.UnknownLogAppendInfo.logStartOffset)
}
// 构造INVALID_REQUIRED_ACKS异常并封装进回调函数调用中
responseCallback(responseStatus)
}
```
为了帮助你更好地理解我再用一张图说明一下appendRecords方法的完整流程。
![](https://static001.geekbang.org/resource/image/52/d4/52f1dc751ecfc95f509d1f001ff551d4.jpg)
我再给你解释一下它的执行流程。
首先它会判断requiredAcks的取值是否在合理范围内也就是“是否是-1、0、1这3个数值中的一个”。如果不是合理取值代码就进入到外层的else分支构造名为INVALID\_REQUIRED\_ACKS的异常并将其封装进回调函数中执行然后返回结果。否则的话代码进入到外层的if分支下。
进入到if分支后代码调用**appendToLocalLog**方法将要写入的消息集合保存到副本的本地日志上。然后构造PartitionResponse对象实例来封装写入结果以及一些重要的元数据信息比如本次写入有没有错误errorMessage、下一条待写入消息的位移值、本次写入消息集合首条消息的位移值等等。待这些做完了之后代码会尝试更新消息格式转换的指标数据。此时源码需要调用delayedProduceRequestRequired方法来判断本次写入是否算是成功了。
如果还需要等待其他副本同步完成消息写入那么就不能立即返回代码要创建DelayedProduce延时请求对象并把该对象交由Purgatory来管理。DelayedProduce是生产者端的延时发送请求对应的Purgatory就是ReplicaManager类构造函数中的delayedProducePurgatory。所谓的Purgatory管理主要是调用tryCompleteElseWatch方法尝试完成延时发送请求。如果暂时无法完成就将对象放入到相应的Purgatory中等待后续处理。
如果无需等待其他副本同步完成消息写入那么appendRecords方法会构造响应的Response并调用回调逻辑函数至此方法结束。
从刚刚的分析中我们可以知道appendRecords实现消息写入的方法是**appendToLocalLog**,用于判断是否需要等待其他副本写入的方法是**delayedProduceRequestRequired**。下面我们就深入地学习下这两个方法的代码。
首先来看appendToLocalLog。从它的名字来看就是写入副本本地日志。我们来看一下该方法的主要代码片段。
```
private def appendToLocalLog(
internalTopicsAllowed: Boolean,
origin: AppendOrigin,
entriesPerPartition: Map[TopicPartition, MemoryRecords],
requiredAcks: Short): Map[TopicPartition, LogAppendResult] = {
......
entriesPerPartition.map { case (topicPartition, records) =>
brokerTopicStats.topicStats(topicPartition.topic)
.totalProduceRequestRate.mark()
brokerTopicStats.allTopicsStats.totalProduceRequestRate.mark()
// 如果要写入的主题是内部主题而internalTopicsAllowed=false则返回错误
if (Topic.isInternal(topicPartition.topic)
&& !internalTopicsAllowed) {
(topicPartition, LogAppendResult(
LogAppendInfo.UnknownLogAppendInfo,
Some(new InvalidTopicException(s"Cannot append to internal topic ${topicPartition.topic}"))))
} else {
try {
// 获取分区对象
val partition = getPartitionOrException(topicPartition, expectLeader = true)
// 向该分区对象写入消息集合
val info = partition.appendRecordsToLeader(records, origin, requiredAcks)
......
// 返回写入结果
(topicPartition, LogAppendResult(info))
} catch {
......
}
}
}
}
```
我忽略了很多打日志以及错误处理的代码。你可以看到该方法主要就是利用Partition的appendRecordsToLeader方法写入消息集合而后者就是利用我们在[第3节课](https://time.geekbang.org/column/article/225993)学到的appendAsLeader方法写入本地日志的。总体来说appendToLocalLog的逻辑不复杂你应该很容易理解。
下面我们看下delayedProduceRequestRequired方法的源码。它用于判断消息集合被写入到日志之后是否需要等待其他副本也写入成功。我们看下它的代码
```
private def delayedProduceRequestRequired(
requiredAcks: Short,
entriesPerPartition: Map[TopicPartition, MemoryRecords],
localProduceResults: Map[TopicPartition, LogAppendResult]): Boolean = {
requiredAcks == -1 && entriesPerPartition.nonEmpty &&
localProduceResults.values.count(_.exception.isDefined) < entriesPerPartition.size
}
```
该方法返回一个布尔值True表示需要等待其他副本完成False表示无需等待。上面的代码表明如果需要等待其他副本的写入就必须同时满足3个条件
1. requiredAcks必须等于-1
2. 依然有数据尚未写完;
3. 至少有一个分区的消息已经成功地被写入到本地日志。
其实你可以把条件2和3联合在一起来看。如果所有分区的数据写入都不成功就表明可能出现了很严重的错误此时比较明智的做法是不再等待而是直接返回错误给发送方。相反地如果有部分分区成功写入而部分分区写入失败了就表明可能是由偶发的瞬时错误导致的。此时不妨将本次写入请求放入Purgatory再给它一个重试的机会。
## 副本读取fetchMessages
好了,说完了副本的写入,下面我们进入到副本读取的源码学习。
在ReplicaManager类中负责读取副本数据的方法是fetchMessages。不论是Java消费者API还是Follower副本它们拉取消息的主要途径都是向Broker发送FETCH请求Broker端接收到该请求后调用fetchMessages方法从底层的Leader副本取出消息。
和appendRecords方法类似fetchMessages方法也可能会延时处理FETCH请求因为Broker端必须要累积足够多的数据之后才会返回Response给请求发送方。
可以看一下下面的这张流程图它展示了fetchMessages方法的主要逻辑。
![](https://static001.geekbang.org/resource/image/0f/2c/0f4b45008bdf0b83d0865c7db6d5452c.jpg)
我们来看下该方法的签名:
```
def fetchMessages(timeout: Long,
replicaId: Int,
fetchMinBytes: Int,
fetchMaxBytes: Int,
hardMaxBytesLimit: Boolean,
fetchInfos: Seq[(TopicPartition, PartitionData)],
quota: ReplicaQuota,
responseCallback: Seq[(TopicPartition, FetchPartitionData)] => Unit,
isolationLevel: IsolationLevel,
clientMetadata: Option[ClientMetadata]): Unit = {
......
}
```
这些输入参数都是我们理解下面的重要方法的基础,所以,我们来逐个分析一下。
* **timeout**请求处理超时时间。对于消费者而言该值就是request.timeout.ms参数值对于Follower副本而言该值是Broker端参数replica.fetch.wait.max.ms的值。
* **replicaId**副本ID。对于消费者而言该参数值是-1对于Follower副本而言该值就是Follower副本所在的Broker ID。
* **fetchMinBytes & fetchMaxBytes**能够获取的最小字节数和最大字节数。对于消费者而言它们分别对应于Consumer端参数fetch.min.bytes和fetch.max.bytes值对于Follower副本而言它们分别对应于Broker端参数replica.fetch.min.bytes和replica.fetch.max.bytes值。
* **hardMaxBytesLimit**对能否超过最大字节数做硬限制。如果hardMaxBytesLimit=True就表示读取请求返回的数据字节数绝不允许超过最大字节数。
* **fetchInfos**:规定了读取分区的信息,比如要读取哪些分区、从这些分区的哪个位移值开始读、最多可以读多少字节,等等。
* **quota**:这是一个配额控制类,主要是为了判断是否需要在读取的过程中做限速控制。
* **responseCallback**Response回调逻辑函数。当请求被处理完成后调用该方法执行收尾逻辑。
有了这些铺垫之后我们进入到方法代码的学习。为了便于学习我将整个方法的代码分成两部分第一部分是读取本地日志第二部分是根据读取结果确定Response。
我们先看第一部分的源码:
```
// 判断该读取请求是否来自于Follower副本或Consumer
val isFromFollower = Request.isValidBrokerId(replicaId)
val isFromConsumer = !(isFromFollower || replicaId == Request.FutureLocalReplicaId)
// 根据请求发送方判断可读取范围
// 如果请求来自于普通消费者,那么可以读到高水位值
// 如果请求来自于配置了READ_COMMITTED的消费者那么可以读到Log Stable Offset值
// 如果请求来自于Follower副本那么可以读到LEO值
val fetchIsolation = if (!isFromConsumer)
FetchLogEnd
else if (isolationLevel == IsolationLevel.READ_COMMITTED)
FetchTxnCommitted
else
FetchHighWatermark
val fetchOnlyFromLeader = isFromFollower || (isFromConsumer && clientMetadata.isEmpty)
// 定义readFromLog方法读取底层日志中的消息
def readFromLog(): Seq[(TopicPartition, LogReadResult)] = {
val result = readFromLocalLog(
replicaId = replicaId,
fetchOnlyFromLeader = fetchOnlyFromLeader,
fetchIsolation = fetchIsolation,
fetchMaxBytes = fetchMaxBytes,
hardMaxBytesLimit = hardMaxBytesLimit,
readPartitionInfo = fetchInfos,
quota = quota,
clientMetadata = clientMetadata)
if (isFromFollower) updateFollowerFetchState(replicaId, result)
else result
}
// 读取消息并返回日志读取结果
val logReadResults = readFromLog()
```
这部分代码首先会判断读取消息的请求方到底是Follower副本还是普通的Consumer。判断的依据就是看**replicaId字段是否大于0**。Consumer的replicaId是-1而Follower副本的则是大于0的数。一旦确定了请求方代码就能确定可读取范围。
这里的fetchIsolation是读取隔离级别的意思。对于Follower副本而言它能读取到Leader副本LEO值以下的所有消息对于普通Consumer而言它只能“看到”Leader副本高水位值以下的消息。
待确定了可读取范围后fetchMessages方法会调用它的内部方法**readFromLog**读取本地日志上的消息数据并将结果赋值给logReadResults变量。readFromLog方法的主要实现是调用readFromLocalLog方法而后者就是在待读取分区上依次调用其日志对象的read方法执行实际的消息读取。
fetchMessages方法的第二部分是根据上一步的读取结果创建对应的Response。我们看下具体实现
```
var bytesReadable: Long = 0
var errorReadingData = false
val logReadResultMap = new mutable.HashMap[TopicPartition, LogReadResult]
// 统计总共可读取的字节数
logReadResults.foreach { case (topicPartition, logReadResult) =>
brokerTopicStats.topicStats(topicPartition.topic).totalFetchRequestRate.mark()
brokerTopicStats.allTopicsStats.totalFetchRequestRate.mark()
if (logReadResult.error != Errors.NONE)
errorReadingData = true
bytesReadable = bytesReadable + logReadResult.info.records.sizeInBytes
logReadResultMap.put(topicPartition, logReadResult)
}
// 判断是否能够立即返回Reponse满足以下4个条件中的任意一个即可
// 1. 请求没有设置超时时间,说明请求方想让请求被处理后立即返回
// 2. 未获取到任何数据
// 3. 已累积到足够多的数据
// 4. 读取过程中出错
if (timeout <= 0 || fetchInfos.isEmpty || bytesReadable >= fetchMinBytes || errorReadingData) {
// 构建返回结果
val fetchPartitionData = logReadResults.map { case (tp, result) =>
tp -> FetchPartitionData(result.error, result.highWatermark, result.leaderLogStartOffset, result.info.records,
result.lastStableOffset, result.info.abortedTransactions, result.preferredReadReplica, isFromFollower && isAddingReplica(tp, replicaId))
}
// 调用回调函数
responseCallback(fetchPartitionData)
} else { // 如果无法立即完成请求
val fetchPartitionStatus = new mutable.ArrayBuffer[(TopicPartition, FetchPartitionStatus)]
fetchInfos.foreach { case (topicPartition, partitionData) =>
logReadResultMap.get(topicPartition).foreach(logReadResult => {
val logOffsetMetadata = logReadResult.info.fetchOffsetMetadata
fetchPartitionStatus += (topicPartition -> FetchPartitionStatus(logOffsetMetadata, partitionData))
})
}
val fetchMetadata: SFetchMetadata = SFetchMetadata(fetchMinBytes, fetchMaxBytes, hardMaxBytesLimit,
fetchOnlyFromLeader, fetchIsolation, isFromFollower, replicaId, fetchPartitionStatus)
// 构建DelayedFetch延时请求对象
val delayedFetch = new DelayedFetch(timeout, fetchMetadata, this, quota, clientMetadata,
responseCallback)
val delayedFetchKeys = fetchPartitionStatus.map { case (tp, _) => TopicPartitionOperationKey(tp) }
// 再一次尝试完成请求如果依然不能完成则交由Purgatory等待后续处理
delayedFetchPurgatory.tryCompleteElseWatch(delayedFetch, delayedFetchKeys)
}
```
这部分代码首先会根据上一步得到的读取结果统计可读取的总字节数之后判断此时是否能够立即返回Reponse。那么怎么判断是否能够立即返回Response呢实际上只要满足以下4个条件中的任意一个即可
1. 请求没有设置超时时间,说明请求方想让请求被处理后立即返回;
2. 未获取到任何数据;
3. 已累积到足够多数据;
4. 读取过程中出错。
如果这4个条件一个都不满足就需要进行延时处理了。具体来说就是构建DelayedFetch对象然后把该延时对象交由delayedFetchPurgatory后续自动处理。
至此关于副本管理器读写副本的两个方法appendRecords和fetchMessages我们就学完了。本质上它们在底层分别调用Log的append和read方法以实现本地日志的读写操作。当完成读写操作之后这两个方法还定义了延时处理的条件。一旦发现满足了延时处理的条件就交给对应的Purgatory进行处理。
从这两个方法中我们已经看到了之前课程中单个组件融合在一起的趋势。就像我在开篇词里面说的虽然我们学习单个源码文件的顺序是自上而下但串联Kafka主要组件功能的路径却是自下而上。
就拿这节课的副本写入操作来说日志对象的append方法被上一层Partition对象中的方法调用而后者又进一步被副本管理器中的方法调用。我们是按照自上而下的方式阅读副本管理器、日志对象等单个组件的代码了解它们各自的独立功能的现在我们开始慢慢地把它们融合在一起勾勒出了Kafka操作分区副本日志对象的完整调用路径。咱们同时采用这两种方式来阅读源码就可以更快、更深入地搞懂Kafka源码的原理了。
## 总结
今天我们学习了Kafka副本状态机类ReplicaManager是如何读写副本的重点学习了它的两个重要方法appendRecords和fetchMessages。我们再简单回顾一下。
* appendRecords向副本写入消息的方法主要利用Log的append方法和Purgatory机制共同实现Follower副本向Leader副本获取消息后的数据同步工作。
* fetchMessages从副本读取消息的方法为普通Consumer和Follower副本所使用。当它们向Broker发送FETCH请求时Broker上的副本管理器调用该方法从本地日志中获取指定消息。
![](https://static001.geekbang.org/resource/image/29/b3/295faae205df4255d2861d658df10db3.jpg)
下节课中,我们要把重心转移到副本管理器对副本和分区对象的管理上。这是除了读写副本之外,副本管理器另一大核心功能,你一定不要错过!
## 课后讨论
appendRecords参数列表中有个origin。我想请你思考一下在写入本地日志的过程中这个参数的作用是什么你能找出最终使用origin参数的具体源码位置吗
欢迎在留言区写下你的思考和答案,跟我交流讨论,也欢迎你把今天的内容分享给你的朋友。