You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

534 lines
30 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 29 | GroupMetadataManager组元数据管理器是个什么东西
你好我是胡夕。今天我们学习GroupMetadataManager类的源码。从名字上来看它是组元数据管理器但是从它提供的功能来看我更愿意将它称作消费者组管理器因为它定义的方法提供的都是添加消费者组、移除组、查询组这样组级别的基础功能。
不过这个类的知名度不像KafkaController、GroupCoordinator那么高你之前可能都没有听说过它。但是它其实是非常重要的消费者组管理类。
GroupMetadataManager类是在消费者组Coordinator组件被创建时被实例化的。这就是说每个Broker在启动过程中都会创建并维持一个GroupMetadataManager实例以实现对该Broker负责的消费者组进行管理。更重要的是生产环境输出日志中的与消费者组相关的大多数信息都和它息息相关。
我举一个简单的例子。你应该见过这样的日志输出:
```
Removed ××× expired offsets in ××× milliseconds.
```
这条日志每10分钟打印一次。你有没有想过它为什么要这么操作呢其实这是由GroupMetadataManager类创建的定时任务引发的。如果你不清楚GroupMetadataManager的原理虽然暂时不会影响你使用但是一旦你在实际环境中看到了有关消费者组的错误日志仅凭日志输出你是无法定位错误原因的。要解决这个问题就只有一个办法**通过阅读源码,彻底搞懂底层实现原理,做到以不变应万变**。
关于这个类,最重要的就是要掌握它是如何管理消费者组的,以及它对内部位移主题的操作方法。这两个都是重磅功能,我们必须要吃透它们的原理,这也是我们这三节课的学习重点。今天,我们先学习它的类定义和管理消费者组的方法。
# 类定义与字段
GroupMetadataManager类定义在coordinator.group包下的同名scala文件中。这个类的代码将近1000行逐行分析的话显然效率不高也没有必要。所以我从类定义和字段、重要方法两个维度给出主要逻辑的代码分析。下面的代码是该类的定义以及我选取的重要字段信息。
```
// brokerId所在Broker的Id
// interBrokerProtocolVersionBroker端参数inter.broker.protocol.version值
// config: 内部位移主题配置类
// replicaManager: 副本管理器类
// zkClient: ZooKeeper客户端
class GroupMetadataManager(
brokerId: Int,
interBrokerProtocolVersion: ApiVersion,
config: OffsetConfig,
replicaManager: ReplicaManager,
zkClient: KafkaZkClient,
time: Time,
metrics: Metrics) extends Logging with KafkaMetricsGroup {
// 压缩器类型。向位移主题写入消息时执行压缩操作
private val compressionType: CompressionType = CompressionType.forId(config.offsetsTopicCompressionCodec.codec)
// 消费者组元数据容器保存Broker管理的所有消费者组的数据
private val groupMetadataCache = new Pool[String, GroupMetadata]
// 位移主题下正在执行加载操作的分区
private val loadingPartitions: mutable.Set[Int] = mutable.Set()
// 位移主题下完成加载操作的分区
private val ownedPartitions: mutable.Set[Int] = mutable.Set()
// 位移主题总分区数
private val groupMetadataTopicPartitionCount = getGroupMetadataTopicPartitionCount
......
}
```
这个类的构造函数需要7个参数后面的time和metrics只是起辅助作用因此我重点解释一下前5个参数的含义。
* brokerId这个参数我们已经无比熟悉了。它是所在Broker的ID值也就是broker.id参数值。
* interBrokerProtocolVersion保存Broker间通讯使用的请求版本。它是Broker端参数inter.broker.protocol.version值。这个参数的主要用途是**确定位移主题消息格式的版本**。
* config这是一个OffsetConfig类型。该类型定义了与位移管理相关的重要参数比如位移主题日志段大小设置、位移主题备份因子、位移主题分区数配置等。
* replicaManager副本管理器类。GroupMetadataManager类使用该字段实现获取分区对象、日志对象以及写入分区消息的目的。
* zkClientZooKeeper客户端。该类中的此字段只有一个目的从ZooKeeper中获取位移主题的分区数。
除了构造函数所需的字段,该类还定义了其他关键字段,我给你介绍几个非常重要的。
**1.compressionType**
**压缩器类型**。Kafka向位移主题写入消息前可以选择对消息执行压缩操作。是否压缩取决于Broker端参数offsets.topic.compression.codec值默认是不进行压缩。如果你的位移主题占用的磁盘空间比较多的话可以考虑启用压缩以节省资源。
**2.groupMetadataCache**
**该字段是GroupMetadataManager类上最重要的属性它****保存这个Broker上GroupCoordinator组件管理的所有消费者组元数据。**它的Key是消费者组名称Value是消费者组元数据也就是GroupMetadata。源码通过该字段实现对消费者组的添加、删除和遍历操作。
**3.loadingPartitions**
**位移主题下正在执行加载操作的分区号集合**。这里需要注意两点:首先,这些分区都是位移主题分区,也就是\_\_consumer\_offsets主题下的分区其次所谓的加载是指读取位移主题消息数据填充GroupMetadataCache字段的操作。
**4.ownedPartitions**
**位移主题下完成加载操作的分区号集合**。与loadingPartitions类似的是该字段保存的分区也是位移主题下的分区。和loadingPartitions不同的是它保存的分区都是**已经完成加载操作**的分区。
**5.groupMetadataTopicPartitionCount**
**位移主题的分区数**。它是Broker端参数offsets.topic.num.partitions的值默认是50个分区。若要修改分区数除了变更该参数值之外你也可以手动创建位移主题并指定不同的分区数。
在这些字段中groupMetadataCache是最重要的GroupMetadataManager类大量使用该字段实现对消费者组的管理。接下来我们就重点学习一下该类是如何管理消费者组的。
# 重要方法
管理消费者组包含两个方面对消费者组元数据的管理以及对消费者组位移的管理。组元数据和组位移都是Coordinator端重要的消费者组管理对象。
## 消费者组元数据管理
消费者组元数据管理分为查询获取组信息、添加组、移除组和加载组信息。从代码复杂度来讲,查询获取、移除和添加的逻辑相对简单,加载的过程稍微费事些。我们先说说查询获取。
### 查询获取消费者组元数据
GroupMetadataManager类中查询及获取组数据的方法有很多。大多逻辑简单你一看就能明白比如下面的getGroup方法和getOrMaybeCreateGroup方法
```
// getGroup方法返回给定消费者组的元数据信息。
// 若该组信息不存在返回None
def getGroup(groupId: String): Option[GroupMetadata] = {
Option(groupMetadataCache.get(groupId))
}
// getOrMaybeCreateGroup方法返回给定消费者组的元数据信息。
// 若不存在则视createIfNotExist参数值决定是否需要添加该消费者组
def getOrMaybeCreateGroup(groupId: String, createIfNotExist: Boolean): Option[GroupMetadata] = {
if (createIfNotExist)
// 若不存在且允许添加则添加一个状态是Empty的消费者组元数据对象
Option(groupMetadataCache.getAndMaybePut(groupId, new GroupMetadata(groupId, Empty, time)))
else
Option(groupMetadataCache.get(groupId))
}
```
GroupMetadataManager类的上层组件GroupCoordinator会大量使用这两个方法来获取给定消费者组的数据。这两个方法都会返回给定消费者组的元数据信息但是它们之间是有区别的。
对于getGroup方法而言如果该组信息不存在就返回None而这通常表明消费者组确实不存在或者是该组对应的Coordinator组件变更到其他Broker上了。
而对于getOrMaybeCreateGroup方法而言若组信息不存在就根据createIfNotExist参数值决定是否需要添加该消费者组。而且getOrMaybeCreateGroup方法是在消费者组第一个成员加入组时被调用的用于把组创建出来。
在GroupMetadataManager类中还有一些地方也散落着组查询获取的逻辑。不过它们与这两个方法中的代码大同小异很容易理解课下你可以自己阅读下。
### 移除消费者组元数据
接下来我们看下如何移除消费者组信息。当Broker卸任某些消费者组的Coordinator角色时它需要将这些消费者组从groupMetadataCache中全部移除掉这就是removeGroupsForPartition方法要做的事情。我们看下它的源码
```
def removeGroupsForPartition(offsetsPartition: Int,
onGroupUnloaded: GroupMetadata => Unit): Unit = {
// 位移主题分区
val topicPartition = new TopicPartition(Topic.GROUP_METADATA_TOPIC_NAME, offsetsPartition)
info(s"Scheduling unloading of offsets and group metadata from $topicPartition")
// 创建异步任务,移除组信息和位移信息
scheduler.schedule(topicPartition.toString, () => removeGroupsAndOffsets)
// 内部方法,用于移除组信息和位移信息
def removeGroupsAndOffsets(): Unit = {
var numOffsetsRemoved = 0
var numGroupsRemoved = 0
inLock(partitionLock) {
// 移除ownedPartitions中特定位移主题分区记录
ownedPartitions.remove(offsetsPartition)
// 遍历所有消费者组信息
for (group <- groupMetadataCache.values) {
// 如果该组信息保存在特定位移主题分区中
if (partitionFor(group.groupId) == offsetsPartition) {
// 执行组卸载逻辑
onGroupUnloaded(group)
// 关键步骤将组信息从groupMetadataCache中移除
groupMetadataCache.remove(group.groupId, group)
// 把消费者组从producer对应的组集合中移除
removeGroupFromAllProducers(group.groupId)
// 更新已移除组计数器
numGroupsRemoved += 1
// 更新已移除位移值计数器
numOffsetsRemoved += group.numOffsets
}
}
}
info(s"Finished unloading $topicPartition. Removed $numOffsetsRemoved cached offsets " +
s"and $numGroupsRemoved cached groups.")
}
}
```
该方法的主要逻辑是先定义一个内部方法removeGroupsAndOffsets然后创建一个异步任务调用该方法来执行移除消费者组信息和位移信息。
那么,怎么判断要移除哪些消费者组呢?这里的依据就是**传入的位移主题分区**。每个消费者组及其位移的数据都只会保存在位移主题的一个分区下。一旦给定了位移主题分区那么元数据保存在这个位移主题分区下的消费者组就要被移除掉。removeGroupsForPartition方法传入的offsetsPartition参数表示Leader发生变更的位移主题分区因此这些分区保存的消费者组都要从该Broker上移除掉。
具体的执行逻辑是什么呢?我来解释一下。
首先异步任务从ownedPartitions中移除给定位移主题分区。
其次,遍历消费者组元数据缓存中的所有消费者组对象,如果消费者组正是在给定位移主题分区下保存的,就依次执行下面的步骤。
* 第1步调用onGroupUnloaded方法执行组卸载逻辑。这个方法的逻辑是上层组件GroupCoordinator传过来的。它主要做两件事情将消费者组状态变更到Dead状态封装异常表示Coordinator已发生变更然后调用回调函数返回。
* 第2步把消费者组信息从groupMetadataCache中移除。这一步非常关键目的是彻底清除掉该组的“痕迹”。
* 第3步把消费者组从producer对应的组集合中移除。这里的producer是给Kafka事务用的。
* 第4步增加已移除组计数器。
* 第5步更新已移除位移值计数器。
到这里,方法结束。
### 添加消费者组元数据
下面我们学习添加消费者组的管理方法即addGroup。它特别简单仅仅是调用putIfNotExists将给定组添加进groupMetadataCache中而已。代码如下
```
def addGroup(group: GroupMetadata): GroupMetadata = {
val currentGroup = groupMetadataCache.putIfNotExists(group.groupId, group)
if (currentGroup != null) {
currentGroup
} else {
group
}
}
```
### 加载消费者组元数据
现在轮到相对复杂的加载消费者组了。GroupMetadataManager类中定义了一个loadGroup方法执行对应的加载过程。
```
private def loadGroup(
group: GroupMetadata, offsets: Map[TopicPartition, CommitRecordMetadataAndOffset],
pendingTransactionalOffsets: Map[Long, mutable.Map[TopicPartition, CommitRecordMetadataAndOffset]]): Unit = {
trace(s"Initialized offsets $offsets for group ${group.groupId}")
// 初始化消费者组的位移信息
group.initializeOffsets(offsets, pendingTransactionalOffsets.toMap)
// 调用addGroup方法添加消费者组
val currentGroup = addGroup(group)
if (group != currentGroup)
debug(s"Attempt to load group ${group.groupId} from log with generation ${group.generationId} failed " +
s"because there is already a cached group with generation ${currentGroup.generationId}")
}
```
该方法的逻辑有两步。
第1步通过initializeOffsets方法将位移值添加到offsets字段标识的消费者组提交位移元数据中实现加载消费者组订阅分区提交位移的目的。
第2步调用addGroup方法将该消费者组元数据对象添加进消费者组元数据缓存实现加载消费者组元数据的目的。
## 消费者组位移管理
除了消费者组的管理GroupMetadataManager类的另一大类功能是提供消费者组位移的管理主要包括位移数据的保存和查询。我们总说位移主题是保存消费者组位移信息的地方。实际上**当消费者组程序在查询位移时Kafka总是从内存中的位移缓存数据查询而不会直接读取底层的位移主题数据。**
### 保存消费者组位移
storeOffsets方法负责保存消费者组位移。该方法的代码很长我先画一张图来展示下它的完整流程帮助你建立起对这个方法的整体认知。接下来我们再从它的方法签名和具体代码两个维度来具体了解一下它的执行逻辑。
![](https://static001.geekbang.org/resource/image/76/e6/76116b323c0c7b024ebe95c3c08e6ae6.jpg?wh=2452*3552)
我先给你解释一下保存消费者组位移的全部流程。
**首先**storeOffsets方法要过滤出满足特定条件的待保存位移信息。是否满足特定条件要看validateOffsetMetadataLength方法的返回值。这里的特定条件是指位移提交记录中的自定义数据大小要小于Broker端参数offset.metadata.max.bytes的值默认值是4KB。
如果没有一个分区满足条件就构造OFFSET\_METADATA\_TOO\_LARGE异常并调用回调函数。这里的回调函数执行发送位移提交Response的动作。
倘若有分区满足了条件,**接下来**方法会判断当前Broker是不是该消费者组的Coordinator如果不是的话就构造NOT\_COORDINATOR异常并提交给回调函数如果是的话就构造位移主题消息并将消息写入进位移主题下。
**然后**调用一个名为putCacheCallback的内置方法填充groupMetadataCache中各个消费者组元数据中的位移值**最后**,调用回调函数返回。
接下来我们结合代码来查看下storeOffsets方法的实现逻辑。
首先我们看下它的方法签名。既然是保存消费者组提交位移的,那么,我们就要知道上层调用方都给这个方法传入了哪些参数。
```
// group消费者组元数据
// consumerId消费者组成员ID
// offsetMetadata待保存的位移值按照分区分组
// responseCallback处理完成后的回调函数
// producerId事务型Producer ID
// producerEpoch事务型Producer Epoch值
def storeOffsets(
group: GroupMetadata,
consumerId: String,
offsetMetadata: immutable.Map[TopicPartition, OffsetAndMetadata],
responseCallback: immutable.Map[TopicPartition, Errors] => Unit,
producerId: Long = RecordBatch.NO_PRODUCER_ID,
producerEpoch: Short = RecordBatch.NO_PRODUCER_EPOCH): Unit = {
......
}
```
这个方法接收6个参数它们的含义我都用注释的方式标注出来了。producerId和producerEpoch这两个参数是与Kafka事务相关的你简单了解下就行。我们要重点掌握前面4个参数的含义。
* group消费者组元数据信息。该字段的类型就是我们之前学到的GroupMetadata类。
* consumerId消费者组成员ID仅用于DEBUG调试。
* offsetMetadata待保存的位移值按照分区分组。
* responseCallback位移保存完成后需要执行的回调函数。
接下来我们看下storeOffsets的代码。为了便于你理解我删除了与Kafka事务操作相关的部分。
```
// 过滤出满足特定条件的待保存位移数据
val filteredOffsetMetadata = offsetMetadata.filter { case (_, offsetAndMetadata) =>
validateOffsetMetadataLength(offsetAndMetadata.metadata)
}
......
val isTxnOffsetCommit = producerId != RecordBatch.NO_PRODUCER_ID
// 如果没有任何分区的待保存位移满足特定条件
if (filteredOffsetMetadata.isEmpty) {
// 构造OFFSET_METADATA_TOO_LARGE异常并调用responseCallback返回
val commitStatus = offsetMetadata.map { case (k, _) => k -> Errors.OFFSET_METADATA_TOO_LARGE }
responseCallback(commitStatus)
None
} else {
// 查看当前Broker是否为给定消费者组的Coordinator
getMagic(partitionFor(group.groupId)) match {
// 如果是Coordinator
case Some(magicValue) =>
val timestampType = TimestampType.CREATE_TIME
val timestamp = time.milliseconds()
// 构造位移主题的位移提交消息
val records = filteredOffsetMetadata.map { case (topicPartition, offsetAndMetadata) =>
val key = GroupMetadataManager.offsetCommitKey(group.groupId, topicPartition)
val value = GroupMetadataManager.offsetCommitValue(offsetAndMetadata, interBrokerProtocolVersion)
new SimpleRecord(timestamp, key, value)
}
val offsetTopicPartition = new TopicPartition(Topic.GROUP_METADATA_TOPIC_NAME, partitionFor(group.groupId))
// 为写入消息创建内存Buffer
val buffer = ByteBuffer.allocate(AbstractRecords.estimateSizeInBytes(magicValue, compressionType, records.asJava))
if (isTxnOffsetCommit && magicValue < RecordBatch.MAGIC_VALUE_V2)
throw Errors.UNSUPPORTED_FOR_MESSAGE_FORMAT.exception("Attempting to make a transaction offset commit with an invalid magic: " + magicValue)
val builder = MemoryRecords.builder(buffer, magicValue, compressionType, timestampType, 0L, time.milliseconds(),
producerId, producerEpoch, 0, isTxnOffsetCommit, RecordBatch.NO_PARTITION_LEADER_EPOCH)
records.foreach(builder.append)
val entries = Map(offsetTopicPartition -> builder.build())
// putCacheCallback函数定义......
if (isTxnOffsetCommit) {
......
} else {
group.inLock {
group.prepareOffsetCommit(offsetMetadata)
}
}
// 写入消息到位移主题同时调用putCacheCallback方法更新消费者元数据
appendForGroup(group, entries, putCacheCallback)
// 如果是Coordinator
case None =>
// 构造NOT_COORDINATOR异常并提交给responseCallback方法
val commitStatus = offsetMetadata.map {
case (topicPartition, _) =>
(topicPartition, Errors.NOT_COORDINATOR)
}
responseCallback(commitStatus)
None
}
}
```
我为方法的关键步骤都标注了注释具体流程前面我也介绍过了应该很容易理解。不过这里还需要注意两点也就是appendForGroup和putCacheCallback方法。前者是向位移主题写入消息后者是填充元数据缓存的。我们结合代码来学习下。
appendForGroup方法负责写入消息到位移主题同时传入putCacheCallback方法更新消费者元数据。以下是它的代码
```
private def appendForGroup(
group: GroupMetadata,
records: Map[TopicPartition, MemoryRecords],
callback: Map[TopicPartition, PartitionResponse] => Unit): Unit = {
replicaManager.appendRecords(
timeout = config.offsetCommitTimeoutMs.toLong,
requiredAcks = config.offsetCommitRequiredAcks,
internalTopicsAllowed = true,
origin = AppendOrigin.Coordinator,
entriesPerPartition = records,
delayedProduceLock = Some(group.lock),
responseCallback = callback)
}
```
可以看到该方法就是调用ReplicaManager的appendRecords方法将消息写入到位移主题中。
下面我们再关注一下putCacheCallback方法的实现也就是将写入的位移值填充到缓存中。我先画一张图来展示下putCacheCallback的逻辑。
![](https://static001.geekbang.org/resource/image/bc/42/bc2fcf199a685a5cc6d32846c53c3042.jpg?wh=2320*3320)
现在,我们结合代码,学习下它的逻辑实现。
```
def putCacheCallback(responseStatus: Map[TopicPartition, PartitionResponse]): Unit = {
// 确保消息写入到指定位移主题分区,否则抛出异常
if (responseStatus.size != 1 || !responseStatus.contains(offsetTopicPartition))
throw new IllegalStateException("Append status %s should only have one partition %s"
.format(responseStatus, offsetTopicPartition))
// 更新已提交位移数指标
offsetCommitsSensor.record(records.size)
val status = responseStatus(offsetTopicPartition)
val responseError = group.inLock {
// 写入结果没有错误
if (status.error == Errors.NONE) {
// 如果不是Dead状态
if (!group.is(Dead)) {
filteredOffsetMetadata.foreach { case (topicPartition, offsetAndMetadata) =>
if (isTxnOffsetCommit)
......
else
// 调用GroupMetadata的onOffsetCommitAppend方法填充元数据
group.onOffsetCommitAppend(topicPartition, CommitRecordMetadataAndOffset(Some(status.baseOffset), offsetAndMetadata))
}
}
Errors.NONE
// 写入结果有错误
} else {
if (!group.is(Dead)) {
......
filteredOffsetMetadata.foreach { case (topicPartition, offsetAndMetadata) =>
if (isTxnOffsetCommit)
group.failPendingTxnOffsetCommit(producerId, topicPartition)
else
// 取消未完成的位移消息写入
group.failPendingOffsetWrite(topicPartition, offsetAndMetadata)
}
}
......
// 确认异常类型
status.error match {
case Errors.UNKNOWN_TOPIC_OR_PARTITION
| Errors.NOT_ENOUGH_REPLICAS
| Errors.NOT_ENOUGH_REPLICAS_AFTER_APPEND =>
Errors.COORDINATOR_NOT_AVAILABLE
case Errors.NOT_LEADER_FOR_PARTITION
| Errors.KAFKA_STORAGE_ERROR =>
Errors.NOT_COORDINATOR
case Errors.MESSAGE_TOO_LARGE
| Errors.RECORD_LIST_TOO_LARGE
| Errors.INVALID_FETCH_SIZE =>
Errors.INVALID_COMMIT_OFFSET_SIZE
case other => other
}
}
}
// 利用异常类型构建提交返回状态
val commitStatus = offsetMetadata.map { case (topicPartition, offsetAndMetadata) =>
if (validateOffsetMetadataLength(offsetAndMetadata.metadata))
(topicPartition, responseError)
else
(topicPartition, Errors.OFFSET_METADATA_TOO_LARGE)
}
// 调用回调函数
responseCallback(commitStatus)
}
```
putCacheCallback方法的主要目的是将多个消费者组位移值填充到GroupMetadata的offsets元数据缓存中。
**首先**,该方法要确保位移消息写入到指定位移主题分区,否则就抛出异常。
**之后**,更新已提交位移数指标,然后判断写入结果是否有错误。
如果没有错误只要组状态不是Dead状态就调用GroupMetadata的onOffsetCommitAppend方法填充元数据。onOffsetCommitAppend方法的主体逻辑是将消费者组订阅分区的位移值写入到offsets字段保存的集合中。当然如果状态是Dead则什么都不做。
如果刚才的写入结果有错误那么就通过failPendingOffsetWrite方法取消未完成的位移消息写入。
**接下来**代码要将日志写入的异常类型转换成表征提交状态错误的异常类型。具体来说就是将UNKNOWN\_TOPIC\_OR\_PARTITION、NOT\_LEADER\_FOR\_PARTITION和MESSAGE\_TOO\_LARGE这样的异常转换到COORDINATOR\_NOT\_AVAILABLE和NOT\_COORDINATOR这样的异常。之后再将这些转换后的异常封装进commitStatus字段中传给回调函数。
**最后**,调用回调函数返回。至此,方法结束。
好了保存消费者组位移信息的storeOffsets方法我们就学完了它的关键逻辑是构造位移主题消息并写入到位移主题然后将位移值填充到消费者组元数据中。
### 查询消费者组位移
现在我再说说查询消费者组位移也就是getOffsets方法的代码实现。比起storeOffsets这个方法要更容易理解。我们看下它的源码
```
def getOffsets(
groupId: String,
requireStable: Boolean,
topicPartitionsOpt: Option[Seq[TopicPartition]]): Map[TopicPartition, PartitionData] = {
......
// 从groupMetadataCache字段中获取指定消费者组的元数据
val group = groupMetadataCache.get(groupId)
// 如果没有组数据,返回空数据
if (group == null) {
topicPartitionsOpt.getOrElse(Seq.empty[TopicPartition]).map { topicPartition =>
val partitionData = new PartitionData(OffsetFetchResponse.INVALID_OFFSET,
Optional.empty(), "", Errors.NONE)
topicPartition -> partitionData
}.toMap
// 如果存在组数据
} else {
group.inLock {
// 如果组处于Dead状态则返回空数据
if (group.is(Dead)) {
topicPartitionsOpt.getOrElse(Seq.empty[TopicPartition]).map { topicPartition =>
val partitionData = new PartitionData(OffsetFetchResponse.INVALID_OFFSET,
Optional.empty(), "", Errors.NONE)
topicPartition -> partitionData
}.toMap
} else {
val topicPartitions = topicPartitionsOpt.getOrElse(group.allOffsets.keySet)
topicPartitions.map { topicPartition =>
if (requireStable && group.hasPendingOffsetCommitsForTopicPartition(topicPartition)) {
topicPartition -> new PartitionData(OffsetFetchResponse.INVALID_OFFSET,
Optional.empty(), "", Errors.UNSTABLE_OFFSET_COMMIT)
} else {
val partitionData = group.offset(topicPartition) match {
// 如果没有该分区位移数据,返回空数据
case None =>
new PartitionData(OffsetFetchResponse.INVALID_OFFSET,
Optional.empty(), "", Errors.NONE)
// 从消费者组元数据中返回指定分区的位移数据
case Some(offsetAndMetadata) =>
new PartitionData(offsetAndMetadata.offset,
offsetAndMetadata.leaderEpoch, offsetAndMetadata.metadata, Errors.NONE)
}
topicPartition -> partitionData
}
}.toMap
}
}
}
}
```
getOffsets方法首先会读取groupMetadataCache中的组元数据如果不存在对应的记录则返回空数据集如果存在就接着判断组是否处于Dead状态。
如果是Dead状态就说明消费者组已经被销毁了位移数据也被视为不可用了依然返回空数据集若状态不是Dead就提取出消费者组订阅的分区信息再依次为它们获取对应的位移数据并返回。至此方法结束。
# 总结
今天我们学习了GroupMetadataManager类的源码。作为消费者组管理器它负责管理消费者组的方方面面。其中非常重要的两个管理功能是消费者组元数据管理和消费者组位移管理分别包括查询获取、移除、添加和加载消费者组元数据以及保存和查询消费者组位移这些方法是上层组件GroupCoordinator倚重的重量级功能载体你一定要彻底掌握它们。
我画了一张思维导图,帮助你复习一下今天的重点内容。
![](https://static001.geekbang.org/resource/image/eb/5a/eb8fe45e1d152e2ac9cb52c81390265a.jpg?wh=2250*1869)
实际上GroupMetadataManager类的地位举足轻重。虽然它在Coordinator组件中不显山不露水但却是一些线上问题的根源所在。
我再跟你分享一个小案例。
之前我碰到过一个问题在消费者组成员超多的情况下无法完成位移加载这导致Consumer端总是接收到Marking the coordinator dead的错误。
当时我查遍各种资料都无法定位问题最终还是通过阅读源码发现是这个类的doLoadGroupsAndOffsets方法中创建的buffer过小导致的。后来通过调大offsets.load.buffer.size参数值我们顺利地解决了问题。
试想一下如果当时没有阅读这部分的源码仅凭日志我们肯定无法解决这个问题。因此我们花三节课的时间专门阅读GroupMetadataManager类源码是非常值得的。下节课我将带你继续研读GroupMetadataManager源码去探寻有关位移主题的那些代码片段。
# 课后讨论
请思考这样一个问题在什么场景下需要移除GroupMetadataManager中保存的消费者组记录
欢迎在留言区写下你的思考和答案,跟我交流讨论,也欢迎你把今天的内容分享给你的朋友。