当前位置:首页 > 修改聊天记录 > 正文内容

Kafka 4.1.1 生产集群部署完整指南(手把手教程)

一、集群规划(生产最小推荐 3 节点)

示例 3 节点:
  • kafka-1:192.168.1.101

  • kafka-2:192.168.1.102

  • kafka-3:192.168.1.103

角色:所有节点同时为 broker + controller(生产常用)

二、环境准备(所有节点)

1. 系统要求

  • Linux(CentOS 7+/Ubuntu 20.04+)

  • Java 17+(Kafka 4.1 强制 Java 17)Apache Kafka

2. 安装 Java(所有节点)

bash
运行
# CentOSsudo yum install -y java-17-openjdk# Ubuntusudo apt install -y openjdk-17-jdk# 验证java -version

3. 关闭防火墙 / 放行端口

bash
运行
# 关闭(或放行 9092、9093)sudo systemctl stop firewalldsudo systemctl disable firewalld

4. 创建用户(推荐非 root 运行)

bash
运行
sudo useradd kafkasudo passwd kafkasudo mkdir -p /opt/kafka /data/kafka-logs /data/kafka-metasudo chown -R kafka:kafka /opt/kafka /data/kafka-logs /data/kafka-meta

三、下载安装 Kafka 4.1.1(所有节点)

bash
运行
# 切换 kafka 用户su - kafka# 下载(Scala 2.13)wget https://downloads.apache.org/kafka/4.1.1/kafka_2.13-4.1.1.tgz# 解压到 /opt/kafkatar -zxf kafka_2.13-4.1.1.tgz -C /opt/mv /opt/kafka_2.13-4.1.1/* /opt/kafka/rm -rf /opt/kafka_2.13-4.1.1# 目录结构/opt/kafka
├── bin/
├── config/
└── logs/

四、配置 server.properties(所有节点,关键)

节点 1(kafka-1,192.168.1.101)
bash
运行
vim /opt/kafka/config/server.properties
ini
# 基础node.id=1process.roles=broker,controller# 监听listeners=PLAINTEXT://0.0.0.0:9092,CONTROLLER://0.0.0.0:9093advertised.listeners=PLAINTEXT://192.168.1.101:9092listener.security.protocol.map=PLAINTEXT:PLAINTEXT,CONTROLLER:PLAINTEXTinter.broker.listener.name=PLAINTEXT# KRaft 仲裁controller.quorum.voters=1@192.168.1.101:9093,2@192.168.1.102:9093,3@192.168.1.103:9093controller.listener.names=CONTROLLER# 数据目录log.dirs=/data/kafka-logsmetadata.log.dir=/data/kafka-meta# 生产默认num.partitions=3default.replication.factor=2min.insync.replicas=1log.retention.hours=168log.segment.bytes=1073741824
节点 2(kafka-2,192.168.1.102)
仅改 3 处:
ini
node.id=2advertised.listeners=PLAINTEXT://192.168.1.102:9092
节点 3(kafka-3,192.168.1.103)
ini
node.id=3advertised.listeners=PLAINTEXT://192.168.1.103:9092
注意:KRaft 不再需要 zookeeper.connect删掉或注释

五、初始化集群(仅一次,任意节点执行)

1. 生成集群 UUID

bash
运行
/opt/kafka/bin/kafka-storage.sh random-uuid# 输出类似:6UlNw0IfR5-mEArqnPh1aQ(记下来)

2. 格式化所有节点存储(每个节点都要执行,用上面的 UUID)

bash
运行
# 节点 1/opt/kafka/bin/kafka-storage.sh format \
  -t 6UlNw0IfR5-mEArqnPh1aQ \
  -c /opt/kafka/config/server.properties# 节点 2/opt/kafka/bin/kafka-storage.sh format \
  -t 6UlNw0IfR5-mEArqnPh1aQ \
  -c /opt/kafka/config/server.properties# 节点 3/opt/kafka/bin/kafka-storage.sh format \
  -t 6UlNw0IfR5-mEArqnPh1aQ \
  -c /opt/kafka/config/server.properties
```{insert\_element\_1\_}---## 六、配置 systemd 服务(所有节点,生产必做)```bashsudo vim /etc/systemd/system/kafka.service
ini
[Unit]Description=Apache Kafka 4.1.1 (KRaft)After=network.target[Service]Type=simpleUser=kafkaGroup=kafkaEnvironment="KAFKA_HOME=/opt/kafka"Environment="PATH=/opt/kafka/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin"WorkingDirectory=/opt/kafkaExecStart=/opt/kafka/bin/kafka-server-start.sh /opt/kafka/config/server.propertiesExecStop=/opt/kafka/bin/kafka-server-stop.shRestart=on-failureRestartSec=5[Install]WantedBy=multi-user.target
加载并设置开机自启:
bash
运行
sudo systemctl daemon-reloadsudo systemctl enable kafka

七、启动集群(所有节点)

bash
运行
sudo systemctl start kafka# 查看状态sudo systemctl status kafka# 查看日志(排错用)tail -f /opt/kafka/logs/server.log

八、验证集群(任意节点)

1. 查看 KRaft 控制器状态

bash
运行
/opt/kafka/bin/kafka-metadata-quorum.sh \
  --bootstrap-controller=192.168.1.101:9093 \
  describe --replication
能看到 leader、follower 即正常

2. 创建测试 Topic

bash
运行
/opt/kafka/bin/kafka-topics.sh \
  --create --topic test-topic \
  --bootstrap-server 192.168.1.101:9092 \
  --partitions 3 --replication-factor 2

3. 生产 / 消费测试

bash
运行
# 生产/opt/kafka/bin/kafka-console-producer.sh \
  --topic test-topic --bootstrap-server 192.168.1.101:9092# 消费(新窗口)/opt/kafka/bin/kafka-console-consumer.sh \
  --topic test-topic --from-beginning \
  --bootstrap-server 192.168.1.101:9092

九、生产环境关键优化(必做)

  1. JVM 内存(默认太小)

bash
运行
vim /opt/kafka/bin/kafka-server-start.sh# 修改export KAFKA_HEAP_OPTS="-Xms4G -Xmx4G"  # 生产按内存调整,一般 4~8G
  1. 文件句柄 / 线程数

bash
运行
sudo vim /etc/security/limits.conf
kafka soft nofile 65535kafka hard nofile 65535kafka soft nproc 65535kafka hard nproc 65535
  1. 磁盘log.dirs 用独立高速磁盘,不要和系统盘混放


十、常用运维命令

bash
运行
# 停止sudo systemctl stop kafka# 查看 Topic 列表/opt/kafka/bin/kafka-topics.sh --list --bootstrap-server 192.168.1.101:9092# 查看 Topic 详情/opt/kafka/bin/kafka-topics.sh --describe --topic test-topic --bootstrap-server 192.168.1.101:9092


扫描二维码推送至手机访问。

版权声明:本文由手机数据加工厂发布,如需转载请注明出处。

本文链接:https://gaijilu.com/?id=173

“Kafka 4.1.1 生产集群部署完整指南(手把手教程)” 的相关文章

微信如何选择时间从手机往电脑迁移

微信如何选择时间从手机往电脑迁移

有的时候需要将记录从手机往电脑,或者电脑往手机迁移,碰到有的人数据量非大,会耗费大量时间,这个时候就可以选择性的迁移,精确到日期,这样数据量就小很多,现在就引导手机往电脑迁移。以安卓机为例第一步:在微信主页右下角-我第2步:设置第3步:聊天第4步:聊天记录迁移与备份第5步:迁移第6步:迁移到电脑微信...

微信可查“谁把我删了”?微信上线新功能,有门槛,如何查找单删

微信可查“谁把我删了”?微信上线新功能,有门槛,如何查找单删

微信正在进行一项新功能内测——可以查看已删除自己的联系人/好友,并可以选择性筛选与删除。多名网友晒出的截图显示,微信提示“通讯录联系人数量已达上限,可删除部分联系人后继续添加”,并给出几个联系人选项,用户可直接删除或选择“换一换”。10月23日下午,微信方面向记者确认了此事,据微信方面透露,“微信用...

地震突然来临怎么办?手机上这个设置关键时刻能保命,不同机型方法汇总→

地震突然来临怎么办?手机上这个设置关键时刻能保命,不同机型方法汇总→

今天,甘肃定西市陇西县(北纬34.91度,东经104.58度)发生5.6级地震,震源深度10千米。“中国地震台网”全国地震预警微信小程序向周边49万用户推送了预警信息。如何设置地震预警?地震预警功能非常重要,提前几秒钟的预警都是紧急避险的宝贵时间。如何第一时间接收到地震预警信息?第一步:微信搜索“国...

微信的聊天记录能修改吗?能!

微信的聊天记录能修改吗?能!

微信的聊天记录能修改吗?能!能添加、修改。添加的意思是,在原记录中凭空添加自己想要的内容。可以添加在任意位置,自己的名义,对方的名义都可能 。完成后在对话框中展示。与真实发送接受的无异。修改的意思是,原记录的内容可以任意修改,比方说原对话内容是“我爱你”,可以修改为“我不爱你”,“你爱我吗”,内容自...

4 种方法永久保存微信聊天记录,永不丢失

4 种方法永久保存微信聊天记录,永远不会丢方法一:用电脑微信备份(最靠谱、最全)登录电脑版微信,找到备份功能,把手机聊天记录完整存到电脑里。文字、图片、语音、视频、文件全都能保存,不会漏掉。备份好之后,再复制一份存到 U 盘或者移动硬盘里。就算换手机、卸载微信、手机坏掉,记录也能随时找回来。方法二:...

苹果iPhone+Mac如何开启WiFi+蓝牙

下面直接给你「一步到位」的极简版,照着点就行(为了隔空投送,**Wi‑Fi 和蓝牙都要开,不需要连同一个 Wi‑Fi 也能投送**)。 --- iPhone 打开 Wi‑Fi + 蓝牙(两种方法) 方法1:控制中心(最快) - 全面屏 iPhone(带刘海):**右上角往下滑**...

发表评论

访客

◎欢迎参与讨论,请在这里发表您的看法和观点。