Kafka集群搭建和Kafka-Manager安装

作者: localhost 分类: kafka,中间件 发布时间: 2018-05-30 10:52

前言

  • kafka的集群运行依赖zookeeper的环境,zookeeper集群搭建可以参看这里

环境

  • Centos 7
  • 内网三台机器 spider25, spider28, spider29

下载和配置

  • 下载解压
wget  http://apache.opencas.org/kafka/0.9.0.1/kafka_2.11-0.9.0.1.tgz 
tar -zxvf kafka_2.11-0.9.0.1.tgz
mv kafka_2.11-0.9.0.1 /usr/local/kafka
  • 修改配置文件: /usr/local/kafka/config/server.properties

  • 配置基本解释

broker.id=0  #当前机器在集群中的唯一标识,和zookeeper的myid性质一样
port=9092 #当前kafka对外提供服务的端口默认是9092
host.name=spider25 #这个参数默认是关闭的,在0.8.1有个bug,DNS解析问题,失败率的问题。
num.network.threads=3 #这个是borker进行网络处理的线程数
num.io.threads=8 #这个是borker进行I/O处理的线程数
log.dirs=/opt/kafka/kafkalogs/ #消息存放的目录,这个目录可以配置为“,”逗号分割的表达式,上面的num.io.threads要大于这个目录的个数这个目录,如果配置多个目录,新创建的topic他把消息持久化的地方是,当前以逗号分割的目录中,那个分区数最少就放那一个
socket.send.buffer.bytes=102400 #发送缓冲区buffer大小,数据不是一下子就发送的,先回存储到缓冲区了到达一定的大小后在发送,能提高性能
socket.receive.buffer.bytes=102400 #kafka接收缓冲区大小,当数据到达一定大小后在序列化到磁盘
socket.request.max.bytes=104857600 #这个参数是向kafka请求消息或者向kafka发送消息的请请求的最大数,这个值不能超过java的堆栈大小
num.partitions=1 #默认的分区数,一个topic默认1个分区数
log.retention.hours=168 #默认消息的最大持久化时间,168小时,7天
message.max.byte=5242880  #消息保存的最大值5M
default.replication.factor=2  #kafka保存消息的副本数,如果一个副本失效了,另一个还可以继续提供服务
replica.fetch.max.bytes=5242880  #取消息的最大直接数
log.segment.bytes=1073741824 #这个参数是:因为kafka的消息是以追加的形式落地到文件,当超过这个值的时候,kafka会新起一个文件
log.retention.check.interval.ms=300000 #每隔300000毫秒去检查上面配置的log失效时间(log.retention.hours=168 ),到目录查看是否有过期的消息如果有,删除
log.cleaner.enable=false #是否启用log压缩,一般不用启用,启用的话可以提高性能
zookeeper.connect=spider25:2181,spider28:2181,spider29:2181 #设置zookeeper的连接端口
  • 实际修改的配置
#每台服务器的broker.id都不能相同 比如 spider25是0 spider28是1 spider29是2
broker.id=0
#hostname
host.name=spider25
#在log.retention.hours=168 下面新增下面三项
message.max.byte=5242880
default.replication.factor=2
replica.fetch.max.bytes=5242880
#设置zookeeper的连接端口
zookeeper.connect=spider25:2181,spider28:2181,spider29:2181

启动集群

# 分别启动spider25, spider27, spider28上的kafka
/usr/local/kafka/bin/kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties

Kafka-Manager的编译和安装

  • 打包编译方式
git clone https://github.com/yahoo/kafka-manager
cd kafka-manager
./sbt clean dist
  • 坑多速度慢没有代理可以直接下载打包好的下载地址

-解压 ````python unzip kafka-manager-1.2.7.zip


- 修改配置 ```python vim kafka-manager-1.2.7/conf/application.conf
  • 启动,指定配置文件位置和启动端口号,默认为9000
nohup bin/kafka-manager 
-Dconfig.file=/usr/install/kafka-manager-1.2.7/conf/application.conf
 -Dhttp.port=7778 &

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!

发表评论

电子邮件地址不会被公开。 必填项已用*标注