You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

12 KiB

07 | 最最最重要的集群参数配置(上)

你好我是胡夕。今天我想和你聊聊最最最重要的Kafka集群配置。我这里用了3个“最”字并非哗众取宠而是因为有些配置的重要性并未体现在官方文档中并且从实际表现看很多参数对系统的影响要比从文档上看更加明显因此很有必要集中讨论一下。

我希望通过两期内容把这些重要的配置讲清楚。严格来说这些配置并不单单指Kafka服务器端的配置其中既有Broker端参数也有主题后面我用我们更熟悉的Topic表示级别的参数、JVM端参数和操作系统级别的参数。

需要你注意的是这里所说的Broker端参数也被称为静态参数Static Configs。我会在专栏后面介绍与静态参数相对应的动态参数。所谓静态参数是指你必须在Kafka的配置文件server.properties中进行设置的参数不管你是新增、修改还是删除。同时你必须重启Broker进程才能令它们生效。而主题级别参数的设置则有所不同Kafka提供了专门的kafka-configs命令来修改它们。至于JVM和操作系统级别参数它们的设置方法比较通用化我介绍的也都是标准的配置参数因此你应该很容易就能够对它们进行设置。

下面我先从Broker端参数说起。

Broker端参数

目前Kafka Broker提供了近200个参数这其中绝大部分参数都不用你亲自过问。当谈及这些参数的用法时网上的文章多是罗列出一些常见的参数然后一个一个地给出它们的定义事实上我以前写文章时也是这么做的。不过今天我打算换个方法按照大的用途类别一组一组地介绍它们希望可以更有针对性也更方便你记忆。

首先Broker是需要配置存储信息的即Broker使用哪些磁盘。那么针对存储信息的重要参数有以下这么几个

  • log.dirs这是非常重要的参数指定了Broker需要使用的若干个文件目录路径。要知道这个参数是没有默认值的这说明什么这说明它必须由你亲自指定。
  • log.dir注意这是dir结尾没有s说明它只能表示单个路径它是补充上一个参数用的。

这两个参数应该怎么设置呢?很简单,你只要设置log.dirs,即第一个参数就好了,不要设置log.dir。而且更重要的是,在线上生产环境中一定要为log.dirs配置多个路径具体格式是一个CSV格式也就是用逗号分隔的多个路径比如/home/kafka1,/home/kafka2,/home/kafka3这样。如果有条件的话你最好保证这些目录挂载到不同的物理磁盘上。这样做有两个好处:

  • 提升读写性能:比起单块磁盘,多块物理磁盘同时读写数据有更高的吞吐量。
  • 能够实现故障转移即Failover。这是Kafka 1.1版本新引入的强大功能。要知道在以前只要Kafka Broker使用的任何一块磁盘挂掉了整个Broker进程都会关闭。但是自1.1开始这种情况被修正了坏掉的磁盘上的数据会自动地转移到其他正常的磁盘上而且Broker还能正常工作。还记得上一期我们关于Kafka是否需要使用RAID的讨论吗这个改进正是我们舍弃RAID方案的基础没有这种Failover的话我们只能依靠RAID来提供保障。

下面说说与ZooKeeper相关的设置。首先ZooKeeper是做什么的呢它是一个分布式协调框架负责协调管理并保存Kafka集群的所有元数据信息比如集群都有哪些Broker在运行、创建了哪些Topic每个Topic都有多少分区以及这些分区的Leader副本都在哪些机器上等信息。

Kafka与ZooKeeper相关的最重要的参数当属zookeeper.connect。这也是一个CSV格式的参数比如我可以指定它的值为zk1:2181,zk2:2181,zk3:2181。2181是ZooKeeper的默认端口。

现在问题来了如果我让多个Kafka集群使用同一套ZooKeeper集群那么这个参数应该怎么设置呢这时候chroot就派上用场了。这个chroot是ZooKeeper的概念类似于别名。

如果你有两套Kafka集群假设分别叫它们kafka1和kafka2那么两套集群的zookeeper.connect参数可以这样指定:zk1:2181,zk2:2181,zk3:2181/kafka1zk1:2181,zk2:2181,zk3:2181/kafka2。切记chroot只需要写一次而且是加到最后的。我经常碰到有人这样指定zk1:2181/kafka1,zk2:2181/kafka2,zk3:2181/kafka3,这样的格式是不对的。

第三组参数是与Broker连接相关的即客户端程序或其他Broker如何与该Broker进行通信的设置。有以下三个参数

  • listeners学名叫监听器其实就是告诉外部连接者要通过什么协议访问指定主机名和端口开放的Kafka服务。
  • advertised.listeners和listeners相比多了个advertised。Advertised的含义表示宣称的、公布的就是说这组监听器是Broker用于对外发布的。
  • host.name/port:列出这两个参数就是想说你把它们忘掉吧,压根不要为它们指定值,毕竟都是过期的参数了。

我们具体说说监听器的概念,从构成上来说,它是若干个逗号分隔的三元组,每个三元组的格式为<协议名称,主机名,端口号>。这里的协议名称可能是标准的名字比如PLAINTEXT表示明文传输、SSL表示使用SSL或TLS加密传输等也可能是你自己定义的协议名字比如CONTROLLER: //localhost:9092

一旦你自己定义了协议名称,你必须还要指定listener.security.protocol.map参数告诉这个协议底层使用了哪种安全协议,比如指定listener.security.protocol.map=CONTROLLER:PLAINTEXT表示CONTROLLER这个自定义协议底层使用明文不加密传输数据。

至于三元组中的主机名和端口号则比较直观不需要做过多解释。不过有个事情你还是要注意一下经常有人会问主机名这个设置中我到底使用IP地址还是主机名。这里我给出统一的建议最好全部使用主机名即Broker端和Client端应用配置中全部填写主机名。 Broker源代码中也使用的是主机名如果你在某些地方使用了IP地址进行连接可能会发生无法连接的问题。

第四组参数是关于Topic管理的。我来讲讲下面这三个参数

  • auto.create.topics.enable是否允许自动创建Topic。
  • unclean.leader.election.enable是否允许Unclean Leader选举。
  • auto.leader.rebalance.enable是否允许定期进行Leader选举。

我还是一个个说。

auto.create.topics.enable参数我建议最好设置成false即不允许自动创建Topic。在我们的线上环境里面有很多名字稀奇古怪的Topic我想大概都是因为该参数被设置成了true的缘故。

你可能有这样的经历要为名为test的Topic发送事件但是不小心拼写错误了把test写成了tst之后启动了生产者程序。恭喜你一个名为tst的Topic就被自动创建了。

所以我一直相信好的运维应该防止这种情形的发生特别是对于那些大公司而言每个部门被分配的Topic应该由运维严格把控决不能允许自行创建任何Topic。

第二个参数unclean.leader.election.enable是关闭Unclean Leader选举的。何谓Unclean还记得Kafka有多个副本这件事吗每个分区都有多个副本来提供高可用。在这些副本中只能有一个副本对外提供服务即所谓的Leader副本。

那么问题来了这些副本都有资格竞争Leader吗显然不是只有保存数据比较多的那些副本才有资格竞选那些落后进度太多的副本没资格做这件事。

好了现在出现这种情况了假设那些保存数据比较多的副本都挂了怎么办我们还要不要进行Leader选举了此时这个参数就派上用场了。

如果设置成false那么就坚持之前的原则坚决不能让那些落后太多的副本竞选Leader。这样做的后果是这个分区就不可用了因为没有Leader了。反之如果是true那么Kafka允许你从那些“跑得慢”的副本中选一个出来当Leader。这样做的后果是数据有可能就丢失了因为这些副本保存的数据本来就不全当了Leader之后它本人就变得膨胀了认为自己的数据才是权威的。

这个参数在最新版的Kafka中默认就是false本来不需要我特意提的但是比较搞笑的是社区对这个参数的默认值来来回回改了好几版了鉴于我不知道你用的是哪个版本的Kafka所以建议你还是显式地把它设置成false吧。

第三个参数auto.leader.rebalance.enable的影响貌似没什么人提但其实对生产环境影响非常大。设置它的值为true表示允许Kafka定期地对一些Topic分区进行Leader重选举当然这个重选举不是无脑进行的它要满足一定的条件才会发生。严格来说它与上一个参数中Leader选举的最大不同在于它不是选Leader而是换Leader比如Leader A一直表现得很好但若auto.leader.rebalance.enable=true那么有可能一段时间后Leader A就要被强行卸任换成Leader B。

你要知道换一次Leader代价很高的原本向A发送请求的所有客户端都要切换成向B发送请求而且这种换Leader本质上没有任何性能收益因此我建议你在生产环境中把这个参数设置成false。

最后一组参数是数据留存方面的,我分别介绍一下。

  • log.retention.{hours|minutes|ms}这是个“三兄弟”都是控制一条消息数据被保存多长时间。从优先级上来说ms设置最高、minutes次之、hours最低。
  • log.retention.bytes这是指定Broker为消息保存的总磁盘容量大小。
  • message.max.bytes控制Broker能够接收的最大消息大小。

先说这个“三兄弟”虽然ms设置有最高的优先级但是通常情况下我们还是设置hours级别的多一些比如log.retention.hours=168表示默认保存7天的数据自动删除7天前的数据。很多公司把Kafka当作存储来使用那么这个值就要相应地调大。

其次是这个log.retention.bytes。这个值默认是-1表明你想在这台Broker上保存多少数据都可以至少在容量方面Broker绝对为你开绿灯不会做任何阻拦。这个参数真正发挥作用的场景其实是在云上构建多租户的Kafka集群设想你要做一个云上的Kafka服务每个租户只能使用100GB的磁盘空间为了避免有个“恶意”租户使用过多的磁盘空间设置这个参数就显得至关重要了。

最后说说message.max.bytes。实际上今天我和你说的重要参数都是指那些不能使用默认值的参数这个参数也是一样默认的1000012太少了还不到1MB。实际场景中突破1MB的消息都是屡见不鲜的因此在线上环境中设置一个比较大的值还是比较保险的做法。毕竟它只是一个标尺而已仅仅衡量Broker能够处理的最大消息大小即使设置大一点也不会耗费什么磁盘空间的。

小结

再次强调一下今天我和你分享的所有参数都是那些要修改默认值的参数因为它们的默认值不适合一般的生产环境。当然我并不是说其他100多个参数就不重要。事实上在专栏的后面我们还会陆续提到其他的一些参数特别是那些和性能息息相关的参数。所以今天我提到的所有参数我希望作为一个最佳实践给到你可以有的放矢地帮助你规划和调整你的Kafka生产环境。

开放讨论

除了今天我分享的这些参数,还有哪些参数是你认为比较重要而文档中没有提及的?你曾踩过哪些关于参数配置的“坑”?欢迎提出来与我和大家一起讨论。

欢迎你写下自己的思考或疑问,我们一起讨论。如果你觉得有所收获,也欢迎把文章分享给你的朋友。