gitbook/Kafka核心源码解读/docs/233919.md
2022-09-03 22:05:03 +08:00

326 lines
23 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 10 | KafkaApisKafka最重要的源码入口没有之一
你好我是胡夕。今天我们来收尾Kafka请求处理模块的源码学习。讲到这里关于整个模块我们还有最后一个知识点尚未掌握那就是KafkaApis类。
在上节课中我提到过请求的实际处理逻辑是封装在KafkaApis类中的。你一定很想知道这个类到底是做什么的吧。
实际上我一直认为KafkaApis是Kafka最重要的源码入口。因为每次要查找Kafka某个功能的实现代码时我们几乎总要从这个KafkaApis.scala文件开始找起然后一层一层向下钻取直到定位到实现功能的代码处为止。比如如果你想知道创建Topic的流程你只需要查看KafkaApis的handleCreateTopicsRequest方法如果你想弄懂Consumer提交位移是怎么实现的查询handleOffsetCommitRequest方法就行了。
除此之外,在这一遍遍的钻取过程中,我们还会慢慢地**掌握Kafka实现各种功能的代码路径和源码分布从而建立起对整个Kafka源码工程的完整认识**。
如果这些还不足以吸引你阅读这部分源码,那么,我再给你分享一个真实的案例。
之前在使用Kafka时我发现Producer程序一旦向一个不存在的主题发送消息在创建主题之后Producer端会抛出一个警告
```
Error while fetching metadata with correlation id 3 : {test-topic=LEADER_NOT_AVAILABLE} (org.apache.kafka.clients.NetworkClient)
```
我一直很好奇这里的LEADER\_NOT\_AVAILABLE异常是在哪里抛出来的。直到有一天我在浏览KafkaApis代码时突然发现了createTopics方法的这两行代码
```
private def createTopic(topic: String,
numPartitions: Int, replicationFactor: Int,
properties: util.Properties = new util.Properties()): MetadataResponseTopic = {
try {
adminZkClient.createTopic(topic, numPartitions, replicationFactor, properties, RackAwareMode.Safe)
......
// 显式封装一个LEADER_NOT_AVAILABLE Response
metadataResponseTopic(Errors.LEADER_NOT_AVAILABLE, topic, isInternal(topic), util.Collections.emptyList())
} catch {
......
}
}
```
这时我才恍然大悟原来Broker端创建完主题后会显式地通知Clients端LEADER\_NOT\_AVAILABLE异常。Clients端接收到该异常后会主动更新元数据去获取新创建主题的信息。你看如果不是亲自查看源代码我们是无法解释这种现象的。
那么既然KafkaApis这么重要现在我们就来看看这个大名鼎鼎的入口文件吧。我会先给你介绍下它的定义以及最重要的handle方法然后再解释一下其他的重要方法。学完这节课以后你就能掌握从KafkaApis类开始去寻找单个功能具体代码位置的方法了。
事实上,相比于之前更多是向你分享知识的做法,**这节课我分享的是学习知识的方法**。
## KafkaApis类定义
好了, 我们首先来看下KafkaApis类的定义。KafkaApis类定义在源码文件KafkaApis.scala中。该文件位于core工程的server包下是一个将近3000行的巨型文件。好在它实现的逻辑并不复杂绝大部分代码都是用来处理所有Kafka请求类型的因此代码结构整体上显得非常规整。一会儿我们在学习handle方法时你一定会所有体会。
KafkaApis类的定义代码如下
```
class KafkaApis(
val requestChannel: RequestChannel, // 请求通道
val replicaManager: ReplicaManager, // 副本管理器
val adminManager: AdminManager, // 主题、分区、配置等方面的管理器
val groupCoordinator: GroupCoordinator, // 消费者组协调器组件
val txnCoordinator: TransactionCoordinator, // 事务管理器组件
val controller: KafkaController, // 控制器组件
val zkClient: KafkaZkClient, // ZooKeeper客户端程序Kafka依赖于该类实现与ZooKeeper交互
val brokerId: Int, // broker.id参数值
val config: KafkaConfig, // Kafka配置类
val metadataCache: MetadataCache, // 元数据缓存类
val metrics: Metrics,
val authorizer: Option[Authorizer],
val quotas: QuotaManagers, // 配额管理器组件
val fetchManager: FetchManager,
brokerTopicStats: BrokerTopicStats,
val clusterId: String,
time: Time,
val tokenManager: DelegationTokenManager) extends Logging {
type FetchResponseStats = Map[TopicPartition, RecordConversionStats]
this.logIdent = "[KafkaApi-%d] ".format(brokerId)
val adminZkClient = new AdminZkClient(zkClient)
private val alterAclsPurgatory = new DelayedFuturePurgatory(purgatoryName = "AlterAcls", brokerId = config.brokerId)
......
}
```
我为一些重要的字段添加了注释信息。为了方便你理解,我还画了一张思维导图,罗列出了比较重要的组件:
![](https://static001.geekbang.org/resource/image/4f/cc/4fc050472d3c81fa27564297e07d67cc.jpg)
从这张图可以看出KafkaApis下可谓是大牌云集。放眼整个源码工程KafkaApis关联的“大佬级”组件都是最多的在KafkaApis中你几乎能找到Kafka所有重量级的组件比如负责副本管理的ReplicaManager、维护消费者组的GroupCoordinator以及操作Controller组件的KafkaController等等。
在处理不同类型的RPC请求时KafkaApis会用到不同的组件因此在创建KafkaApis实例时我们必须把可能用到的组件一并传给它这也是它汇聚众多大牌组件于一身的原因。
我说KafkaApis是入口类的另一个原因也在于此。你完全可以打开KafkaApis.scala文件然后根据它的定义一个一个地去研习这些重量级组件的实现原理。等你对这些组件的代码了然于胸了说不定下一个写源码课的人就是你了。
## KafkaApis方法入口
作为Kafka源码的入口类它都定义了哪些方法呢
如果你翻开KafkaApis类的代码你会发现它封装了很多以handle开头的方法。每一个这样的方法都对应于一类请求类型而它们的总方法入口就是handle方法。实际上你完全可以在handle方法间不断跳转去到任意一类请求被处理的实际代码中。下面这段代码就是handle方法的完整实现我们来看一下
```
def handle(request: RequestChannel.Request): Unit = {
try {
trace(s"Handling request:${request.requestDesc(true)} from connection ${request.context.connectionId};" +
s"securityProtocol:${request.context.securityProtocol},principal:${request.context.principal}")
// 根据请求头部信息中的apiKey字段判断属于哪类请求
// 然后调用响应的handle***方法
// 如果新增RPC协议类型
// 1. 添加新的apiKey标识新请求类型
// 2. 添加新的case分支
// 3. 添加对应的handle***方法
request.header.apiKey match {
case ApiKeys.PRODUCE => handleProduceRequest(request)
case ApiKeys.FETCH => handleFetchRequest(request)
case ApiKeys.LIST_OFFSETS => handleListOffsetRequest(request)
case ApiKeys.METADATA => handleTopicMetadataRequest(request)
case ApiKeys.LEADER_AND_ISR => handleLeaderAndIsrRequest(request)
case ApiKeys.STOP_REPLICA => handleStopReplicaRequest(request)
case ApiKeys.UPDATE_METADATA => handleUpdateMetadataRequest(request)
case ApiKeys.CONTROLLED_SHUTDOWN => handleControlledShutdownRequest(request)
case ApiKeys.OFFSET_COMMIT => handleOffsetCommitRequest(request)
case ApiKeys.OFFSET_FETCH => handleOffsetFetchRequest(request)
case ApiKeys.FIND_COORDINATOR => handleFindCoordinatorRequest(request)
case ApiKeys.JOIN_GROUP => handleJoinGroupRequest(request)
case ApiKeys.HEARTBEAT => handleHeartbeatRequest(request)
case ApiKeys.LEAVE_GROUP => handleLeaveGroupRequest(request)
case ApiKeys.SYNC_GROUP => handleSyncGroupRequest(request)
case ApiKeys.DESCRIBE_GROUPS => handleDescribeGroupRequest(request)
case ApiKeys.LIST_GROUPS => handleListGroupsRequest(request)
case ApiKeys.SASL_HANDSHAKE => handleSaslHandshakeRequest(request)
case ApiKeys.API_VERSIONS => handleApiVersionsRequest(request)
case ApiKeys.CREATE_TOPICS => handleCreateTopicsRequest(request)
case ApiKeys.DELETE_TOPICS => handleDeleteTopicsRequest(request)
case ApiKeys.DELETE_RECORDS => handleDeleteRecordsRequest(request)
case ApiKeys.INIT_PRODUCER_ID => handleInitProducerIdRequest(request)
case ApiKeys.OFFSET_FOR_LEADER_EPOCH => handleOffsetForLeaderEpochRequest(request)
case ApiKeys.ADD_PARTITIONS_TO_TXN => handleAddPartitionToTxnRequest(request)
case ApiKeys.ADD_OFFSETS_TO_TXN => handleAddOffsetsToTxnRequest(request)
case ApiKeys.END_TXN => handleEndTxnRequest(request)
case ApiKeys.WRITE_TXN_MARKERS => handleWriteTxnMarkersRequest(request)
case ApiKeys.TXN_OFFSET_COMMIT => handleTxnOffsetCommitRequest(request)
case ApiKeys.DESCRIBE_ACLS => handleDescribeAcls(request)
case ApiKeys.CREATE_ACLS => handleCreateAcls(request)
case ApiKeys.DELETE_ACLS => handleDeleteAcls(request)
case ApiKeys.ALTER_CONFIGS => handleAlterConfigsRequest(request)
case ApiKeys.DESCRIBE_CONFIGS => handleDescribeConfigsRequest(request)
case ApiKeys.ALTER_REPLICA_LOG_DIRS => handleAlterReplicaLogDirsRequest(request)
case ApiKeys.DESCRIBE_LOG_DIRS => handleDescribeLogDirsRequest(request)
case ApiKeys.SASL_AUTHENTICATE => handleSaslAuthenticateRequest(request)
case ApiKeys.CREATE_PARTITIONS => handleCreatePartitionsRequest(request)
case ApiKeys.CREATE_DELEGATION_TOKEN => handleCreateTokenRequest(request)
case ApiKeys.RENEW_DELEGATION_TOKEN => handleRenewTokenRequest(request)
case ApiKeys.EXPIRE_DELEGATION_TOKEN => handleExpireTokenRequest(request)
case ApiKeys.DESCRIBE_DELEGATION_TOKEN => handleDescribeTokensRequest(request)
case ApiKeys.DELETE_GROUPS => handleDeleteGroupsRequest(request)
case ApiKeys.ELECT_LEADERS => handleElectReplicaLeader(request)
case ApiKeys.INCREMENTAL_ALTER_CONFIGS => handleIncrementalAlterConfigsRequest(request)
case ApiKeys.ALTER_PARTITION_REASSIGNMENTS => handleAlterPartitionReassignmentsRequest(request)
case ApiKeys.LIST_PARTITION_REASSIGNMENTS => handleListPartitionReassignmentsRequest(request)
case ApiKeys.OFFSET_DELETE => handleOffsetDeleteRequest(request)
case ApiKeys.DESCRIBE_CLIENT_QUOTAS => handleDescribeClientQuotasRequest(request)
case ApiKeys.ALTER_CLIENT_QUOTAS => handleAlterClientQuotasRequest(request)
}
} catch {
// 如果是严重错误,则抛出异常
case e: FatalExitError => throw e
// 普通异常的话,记录下错误日志
case e: Throwable => handleError(request, e)
} finally {
// 记录一下请求本地完成时间即Broker处理完该请求的时间
if (request.apiLocalCompleteTimeNanos < 0)
request.apiLocalCompleteTimeNanos = time.nanoseconds
}
}
```
如果你跟着这门课一直学习的话你应该会发现我很少贴某个类或方法的完整代码因为没必要还会浪费你的时间。但是这个handle方法有点特殊所以我把完整的代码展现给你。
它利用Scala语言中的模式匹配语法完整地列出了对所有请求类型的处理逻辑。通过该方法你能串联出Kafka处理任何请求的源码路径。我强烈推荐你在课下以几个比较重要的请求类型为学习目标从handle方法出发去探寻一下代码是如何为这些请求服务的以加深你对Broker端代码的整体熟练度。这对你后续深入学习源码或解决实际问题非常有帮助。
从上面的代码中,你应该很容易就能找到其中的规律:**这个方法是处理具体请求用的**。处理每类请求的方法名均以handle开头即handle×××Request。比如处理PRODUCE请求的方法叫handleProduceRequest处理FETCH请求的方法叫handleFetchRequest等。
如果你点开ApiKeys你会发现**它实际上是一个枚举类型里面封装了目前Kafka定义所有的RPC协议**。值得一提的是Kafka社区维护了一个官方文档专门记录这些RPC协议包括不同版本所需的Request格式和Response格式。
从这个handle方法中我们也能得到这样的结论每当社区添加新的RPC协议时Broker端大致需要做三件事情。
1. 更新ApiKeys枚举加入新的RPC ApiKey
2. 在KafkaApis中添加对应的handle×××Request方法实现对该RPC请求的处理逻辑
3. 更新KafkaApis的handle方法添加针对RPC协议的case分支。
## 其他重要方法
抛开KafkaApis的定义和handle方法还有几个常用的方法也很重要比如用于发送Response的一组方法以及用于鉴权的方法。特别是前者它是任何一类请求被处理之后都要做的必要步骤。毕竟请求被处理完成还不够Kafka还需要把处理结果发送给请求发送方。
首先就是**sendResponse系列方法**。
为什么说是系列方法呢因为源码中带有sendResponse字眼的方法有7个之多。我分别来介绍一下。
* **sendResponse**RequestChannel.Response最底层的Response发送方法。本质上它调用了SocketServer组件中RequestChannel的sendResponse方法我在前面的课程中讲到过RequestChannel的sendResponse方法会把待发送的Response对象添加到对应Processor线程的Response队列上然后交由Processor线程完成网络间的数据传输。
* **sendResponse**RequestChannel.RequestresponseOpt: Option\[AbstractResponse\]onComplete: Option\[Send => Unit\]该方法接收的实际上是Request而非Response因此它会在内部构造出Response对象之后再调用sendResponse方法。
* **sendNoOpResponseExemptThrottle**发送NoOpResponse类型的Response而不受请求通道上限流throttling的限制。所谓的NoOpResponse是指Processor线程取出该类型的Response后不执行真正的I/O发送操作。
* **sendErrorResponseExemptThrottle**发送携带错误信息的Response而不受限流限制。
* **sendResponseExemptThrottle**发送普通Response而不受限流限制。
* **sendErrorResponseMaybeThrottle**发送携带错误信息的Response但接受限流的约束。
* **sendResponseMaybeThrottle**发送普通Response但接受限流的约束。
这组方法最关键的还是第一个sendResponse方法。大部分类型的请求被处理完成后都会使用这个方法将Response发送出去。至于上面这组方法中的其他方法它们会在内部调用第一个sendResponse方法。当然在调用之前这些方法通常都拥有一些定制化的逻辑。比如sendResponseMaybeThrottle方法就会在执行sendResponse逻辑前先尝试对请求所属的请求通道进行限流操作。因此**我们要着重掌握第一个sendResponse方法是怎么将Response对象发送出去的**。
就像我前面说的,**KafkaApis实际上是把处理完成的Response放回到前端Processor线程的Response队列中而真正将Response返还给Clients或其他Broker的其实是Processor线程而不是执行KafkaApis逻辑的KafkaRequestHandler线程**。
另一个非常重要的方法是authorize方法咱们看看它的代码
```
private[server] def authorize(requestContext: RequestContext,
operation: AclOperation,
resourceType: ResourceType,
resourceName: String,
logIfAllowed: Boolean = true,
logIfDenied: Boolean = true,
refCount: Int = 1): Boolean = {
authorizer.forall { authZ =>
// 获取待鉴权的资源类型
// 常见的资源类型如TOPIC、GROUP、CLUSTER等
val resource = new ResourcePattern(resourceType, resourceName, PatternType.LITERAL)
val actions = Collections.singletonList(new Action(operation, resource, refCount, logIfAllowed, logIfDenied))
// 返回鉴权结果是ALLOWED还是DENIED
authZ.authorize(requestContext, actions).asScala.head == AuthorizationResult.ALLOWED
}
}
```
这个方法是做**授权检验**的。目前Kafka所有的RPC请求都要求发送者无论是Clients还是其他Broker必须具备特定的权限。
接下来我用创建主题的代码来举个例子说明一下authorize方法的实际应用以下是handleCreateTopicsRequest方法的片段
```
// 是否具有CLUSTER资源的CREATE权限
val hasClusterAuthorization = authorize(request, CREATE, CLUSTER, CLUSTER_NAME, logIfDenied = false)
val topics = createTopicsRequest.data.topics.asScala.map(_.name)
// 如果具有CLUSTER CREATE权限则允许主题创建否则还要查看是否具有TOPIC资源的CREATE权限
val authorizedTopics = if (hasClusterAuthorization) topics.toSet else filterAuthorized(request, CREATE, TOPIC, topics.toSeq)
// 是否具有TOPIC资源的DESCRIBE_CONFIGS权限
val authorizedForDescribeConfigs = filterAuthorized(request, DESCRIBE_CONFIGS, TOPIC, topics.toSeq, logIfDenied = false)
.map(name => name -> results.find(name)).toMap
results.asScala.foreach(topic => {
if (results.findAll(topic.name).size > 1) {
topic.setErrorCode(Errors.INVALID_REQUEST.code)
topic.setErrorMessage("Found multiple entries for this topic.")
} else if (!authorizedTopics.contains(topic.name)) { // 如果不具备CLUSTER资源的CREATE权限或TOPIC资源的CREATE权限认证失败
topic.setErrorCode(Errors.TOPIC_AUTHORIZATION_FAILED.code)
topic.setErrorMessage("Authorization failed.")
}
if (!authorizedForDescribeConfigs.contains(topic.name)) { // 如果不具备TOPIC资源的DESCRIBE_CONFIGS权限设置主题配置错误码
topic.setTopicConfigErrorCode(Errors.TOPIC_AUTHORIZATION_FAILED.code)
}
})
......
```
这段代码调用authorize方法来判断Clients方法是否具有创建主题的权限如果没有则显式标记TOPIC\_AUTHORIZATION\_FAILED告知Clients端。目前Kafka所有的权限控制均发生在KafkaApis中即**所有请求在处理前都需要调用authorize方法做权限校验以保证请求能够被继续执行**。
## KafkaApis请求处理实例解析
在了解了KafkaApis的代码结构之后我拿一段真实的代码来说明一下该类中某个协议处理方法大致的执行流程是什么样的以便让你更清楚地了解请求处理逻辑。
值得注意的是,这里的请求处理逻辑和之前所说的请求处理全流程是有所区别的。今天,我们关注的是**功能层面上请求被处理的逻辑代码**之前的请求处理全流程主要聚焦流程方面的代码即一个请求从被发送到Broker端到Broker端返还Response的代码路径。应该这么说**所有类型请求的被处理流程都是相同的,但是,每类请求却有不同的功能实现逻辑**而这就是KafkaApis类中的各个handle×××Request方法要做的事情。
下面我以handleListGroupsRequest方法为例来介绍一下。顾名思义这是处理ListGroupsRequest请求的方法。这类请求的Response应该返回集群中的消费者组信息。我们来看下它的实现
```
def handleListGroupsRequest(request: RequestChannel.Request): Unit = {
val (error, groups) = groupCoordinator.handleListGroups() // 调用GroupCoordinator的handleListGroups方法拿到所有Group信息
// 如果Clients具备CLUSTER资源的DESCRIBE权限
if (authorize(request, DESCRIBE, CLUSTER, CLUSTER_NAME))
// 直接使用刚才拿到的Group数据封装进Response然后发送
sendResponseMaybeThrottle(request, requestThrottleMs =>
new ListGroupsResponse(new ListGroupsResponseData()
.setErrorCode(error.code)
.setGroups(groups.map { group => new ListGroupsResponseData.ListedGroup()
.setGroupId(group.groupId)
.setProtocolType(group.protocolType)}.asJava
)
.setThrottleTimeMs(requestThrottleMs)
))
else {
// 找出Clients对哪些Group有GROUP资源的DESCRIBE权限返回这些Group信息
val filteredGroups = groups.filter(group => authorize(request, DESCRIBE, GROUP, group.groupId))
sendResponseMaybeThrottle(request, requestThrottleMs =>
new ListGroupsResponse(new ListGroupsResponseData()
.setErrorCode(error.code)
.setGroups(filteredGroups.map { group => new ListGroupsResponseData.ListedGroup()
.setGroupId(group.groupId)
.setProtocolType(group.protocolType)}.asJava
)
.setThrottleTimeMs(requestThrottleMs)
))
}
}
```
我用一张流程图,来说明一下这个执行逻辑:
![](https://static001.geekbang.org/resource/image/75/f3/7529b94b80cead7158be5a277e7ff4f3.jpg)
大体来看handleListGroupsRequest方法的实现逻辑非常简单。通过GroupCoordinator组件获取到所有的消费者组信息之后代码对这些Group进行了权限校验并最终根据校验结果决定给Clients返回哪些可见的消费者组。
## 总结
好了, 我们总结一下KafkaApis类的要点。如前所述我们重点学习了KafkaApis类的定义及其重要方法handle。下面这些关键知识点希望你能掌握。
* KafkaApis是Broker端所有功能的入口同时关联了超多的Kafka组件。它绝对是你学习源码的第一入口。面对庞大的源码工程如果你不知道从何下手那就先从KafkaApis.scala这个文件开始吧。
* handle方法封装了所有RPC请求的具体处理逻辑。每当社区新增RPC协议时增加对应的handle×××Request方法和case分支都是首要的。
* sendResponse系列方法负责发送Response给请求发送方。发送Response的逻辑是将Response对象放置在Processor线程的Response队列中然后交由Processor线程实现网络发送。
* authorize方法是请求处理前权限校验层的主要逻辑实现。你可以查看一下[官方文档](https://docs.confluent.io/current/kafka/authorization.html)了解一下当前都有哪些权限然后对照着具体的方法找出每类RPC协议都要求Clients端具备什么权限。
![](https://static001.geekbang.org/resource/image/9e/4c/9ebd3f25518e387a7a60200a8b62114c.jpg)
至此关于Kafka请求处理模块的内容我们就全部学完了。在这个模块中我们先从RequestChannel入手探讨了Kafka中请求队列的实现原理之后我花了两节课的时间重点介绍了SocketServer组件包括Acceptor线程、Processor线程等子组件的源码以及请求被处理的全流程。今天我们重点研究了KafkaApis类这个顶层的请求功能处理逻辑入口补齐了请求处理的最后一块“拼图”。我希望你能够把这个模块的课程多看几遍认真思考一下这里面的关键实现要点彻底搞明白Kafka网络通信的核心机制。
从下节课开始我们将进入鼎鼎有名的控制器Controller组件的源码学习。我会花5节课的时间带你深入学习Controller的方方面面敬请期待。
## 课后讨论
最后请思考这样一个问题如果一个Consumer要向Broker提交位移它应该具备什么权限你能说出KafkaApis中的哪段代码说明了所需的权限要求吗
欢迎你在留言区写下你的思考和答案,跟我交流讨论,也欢迎你把今天的内容分享给你的朋友。